8月13日,苹果公司软件工程高级副总裁Craig Federigh回应了公众对扫描iCloud相册等功能的质疑,他承认苹果发布新功能后的处理很糟糕,也承认这些功能引起了大众的困惑。
Craig Federigh回应的功能是苹果在8月5日公布的儿童安全功能,它包括新版照片甄别系统(Child Sexual Abuse Material,儿童性虐待内容,简称为 “CSAM”)、iMessage通信安全功能(通过iMessage通知父母孩子正在浏览的敏感内容)、更新Siri和搜索功能。
过去的两周,公众争议的焦点聚集在CSAM和iMessage通信安全这两项功能。因为CSAM在执行时会扫描用户的iCloud相册,iMessage通信安全功能则涉及对用户聊天图片的检测。
苹果公司软件工程高级副总裁Craig Federigh
Craig Federigh向《华尔街日报》表示,苹果执行CSAM时设定了“多级别的审核”,保护苹果的系统,保证这些数据不会被政府或其他第三方利用。
CSAM会在用户照片上传到iCloud之前,就将其与已知CSAM的散列图像进行匹配。而检测到异常的账户将接受苹果公司的人工审查,并可能向国家失踪和受虐儿童中心(NCMEC)报告。
iMessage通信安全功能则在孩子发送或接收色情图片时发挥作用。如果孩子们通过iMessage发送或接收色情图片,他们将在观看之前收到警告,图片将被模糊处理,他们的父母也可以选择收到警告。
Craig Federigh还透露了围绕该系统保障措施的一些新细节。具体而言,只有当用户相册中与CSAM图片库匹配上的儿童色情图片达到30张时,苹果才会获取用户的账户和这些图片的具体情况。他表示苹果只会获取这些与图片库匹配的图片,不会知道用户的其他图片。
苹果将根据国家失踪和被剥削儿童中心(NCMEC)的名单检查iCloud照片,寻找与已知CSAM图片完全匹配的图片。并且,苹果是直接在用户的设备上扫描图片,不是在iCloud服务器上远程进行。
苹果此前曾表示,CASM系统只在美国推出,它将根据具体情况考虑何时在其他国家推出。苹果还告诉媒体,它将在所有国家的操作系统上发布已知CSAM的哈希数据库,但扫描功能目前只用于美国的设备。《华尔街日报》进一步澄清说,将有一个独立的审计机构来核实所涉及的图像。
来源:FreeBuf.COM