首页 > 新闻资讯 > 苹果高管:外界对扫描图片儿童保护理解混乱,此功能被误解

苹果高管:外界对扫描图片儿童保护理解混乱,此功能被误解

2022-07-30 359

今日消息,苹果公司近日推出了三条打击儿童性犯罪的和性侵害的功能,但这些也引发了人们对隐私保护的担忧,对此,负责软件工程的高级副总裁克雷格?费德里吉(Craig Federighi)发言解释了相关问题。

苹果高管:外界对扫描图片儿童保护理解混乱,此功能被误解
这三条保护政策在十天之前宣布,包括:机器筛查 Messages 信息,当孩子收到不良图片时,图片会变得模糊,并且 Messages 应用程序会显示一条警告;儿童性虐待内容(简称 CSAM)检测,该功能让苹果检测存储在 iCloud 云端照片中的这类图像特征信息,如果确定有此类图像,苹果会向执法部门报告;Siri 和搜索功能改进,人们可询问 Siri 如何报告儿童性虐待内容或性剥削,Siri 将告诉用户在哪可以汇报给有关部门。
其中引发争议的主要是第一二条,费德里吉在接受《华尔街日报》采访时说:“我们希望每个人都能更清楚地了解这一点,因为我们对自己正在做的事情感到非常积极,而我们看到它被广泛误解了。”
“事后看来,我承认,同时引入这两个功能是造成这种混乱的一个缘由,”他继续道。“很明显,很多信息都被严重地混淆了。我相信肯定有人说,天哪,苹果正在扫描我的手机以获取图像。—— 但这不是事实。”
费德里吉随后描述了 iCloud 扫描上传的 CSAM 图像所涉及的过程,以及当通过消息向孩子发送此类图像时会发生什么。
对这些功能的批评集中在苹果正在分析用户iPhone照片的看法上。“这是一个常见但非常深刻的误解,”费德里吉说。
“这个过程作为将某些内容存储在云中的过程的一部分来应用,而不是对您存储在 Messages 信息的图像进行某些处理…… 或者您正在通过网络浏览的内容。这实际上是在 iCloud 中存储图像的管道的一部分。”
他想说的是,苹果公司是在分析图像是否与国家失踪和受虐儿童中心提供的已知 CSAM 图像数据库匹配,而不是分析图片本身。他们将国家失踪和受虐儿童中心的数据库转换为一组不可读的哈希函数(将一段较长的数据映射为较短的数据),之后进行对比。一旦匹配程度达到某个阈值,苹果公司将手动审查确认匹配,然后禁用用户的帐户,并向国家失踪和受虐儿童中心发送报告。
当被问及现在是否有发布此功能的压力时,费德里吉说没有。
“不,我们想通了,”他说。“我们本来就想做点什么,但此前一直不愿意部署涉及扫描所有客户数据的解决方案。”
特别声明:本文版权归文章作者所有,仅代表作者观点,不代表爱思助手观点和立场。本文为第三方用户上传,仅用于学习和交流,不用于商业用途,如文中的内容、图片、音频、视频等存在第三方的知识产权,请及时联系我们删除。


相关资讯

查看更多

湘ICP备19005331号-4copyright?2018-2024

guofenkong.com 版权所有

果粉控是专业苹果设备信息查询平台
提供最新的IOS系统固件下载
相关APP应用及游戏下载,绿色无毒,下载速度快。

联系邮箱:guofenkong@163.com