你的 iPhone 是否默认与苹果共享照片?在 iOS 设置中,一个“增强视觉搜索”的开关可以让你在照片应用中搜索地标,但这需要与苹果共享数据才能实现。
苹果有时会做出一些让其以隐私为导向的强大声誉受损的选择,比如它曾经秘密收集用户的 Siri 互动。昨天,开发者
Jeff Johnson 的一篇博客文章强调了这样的一个选择:
Apple Photos 应用中的一个“增强视觉搜索(Enhanced Visual Search)”开关,默认是开启状态,这意味着你的设备被允许与苹果分享来自你照片的数据。果然,今天早上我查看我的 iPhone 15 Pro 时,开关已经被打开了。你也可以通过进入设置 > 照片(或在 Mac 上为系统设置 > 照片)找到它。
增强的视觉搜索可以让你查找你拍摄的地标,也可以使用那些地标的名称来搜索这些图像。
在照片应用中,看看它能带来什么效果,你可以向上滑动你拍摄的建筑物照片,选择“查询地标”,然后会出现一个卡片,理想情况下会帮你识别出来。
封面(图1)是在手机上查看的几个例子
从表面上看,这是一项对苹果在 iOS 15 中推出的“视觉搜索”(Visual Look Up)功能的便利扩展,该功能可以让你识别植物,或者了解洗衣标签上的符号含义。
然而,与“视觉搜索”(Visual Look Up)不同,“增强视觉搜索(Enhanced Visual Search)”需要特别的权限才能与苹果共享数据。在切换开关下方的描述中写着:“你正在给予苹果公司“将你照片中的地点与苹果公司维护的全球索引进行私下匹配”的许可。”
至于如何做到这一点,在苹果公司的
机器学习研究博文里有关于增强视觉搜索的详细信息:
这个过程从设备上的机器学习模型开始,它会分析给定的照片,以确定是否有可能包含地标的“兴趣区域”(ROI)。如果模型在“地标”领域检测到兴趣区域,就会计算该图像区域的向量嵌入。
根据研究博文所述,这个向量嵌入会被加密并发送给苹果,以便与其数据库进行比较。该公司在一篇研究论文中对向量嵌入进行了非常技术性的解释,但 IBM 用更简单的话说,嵌入将“一个数据点,比如一个词、句子或图像,转化为一个 n 维数值数组,代表该数据点的特征”。
看起来公司确实花了大力气来保护数据隐私,其中一部分是通过将图像数据压缩成一种机器学习模型可以读取的格式来实现的。
即便如此,把这个切换选项设置为用户自主选择,而不是让用户自己去发现——就像那些分享分析数据、录音或 Siri 互动的选项一样——似乎会是一个更好的选择。
🗒 标签: #Apple #照片 #隐私 #机器学习
📢 频道:
@GodlyNews1🤖 投稿:
@GodlyNewsBot