苹果放弃了扫描手机上儿童**的 CSAM 计划

查看 2|回复 0
作者:马克思和赵子龙   
在该计划中,苹果会对iCloud和Messages进行扫描,发现儿童相关不良图片,就会先向国家失踪和受虐儿童中心报告实例,警察介入调查。
然而,这个计划却遭到4000多家组织和个人的联合反对,包括电子前沿基金会(EFF)、**与技术中心(CDT)等组织以及爱德华·斯诺登(Edward Snowden)等隐私倡导者。他们已经签署公开信,敦促苹果放弃“儿童安全”功能。
斯诺登强调了人们的担忧,即苹果正在向全世界推出一种大规模的监控形式,并开创了一个先例,可能会允许苹果在未来扫描任何其他任意内容。斯诺登写道:“不管用意有多好,苹果都在通过这种方式向全世界输出大规模监控。别搞错了:如果他们今天可以扫描儿童**内容,那么明天就可以扫描任何东西。他们毫无征兆地将价值1万亿美元的设备变成了监控设施。”
开放隐私研究协会(Open Privacy Research Society)的执行董事莎拉·杰米·刘易斯(Sarah Jamie Lewis)警告说:“如果苹果成功地引入了这一技术,你认为还要多久其他供应商才会效仿?在‘围墙花园’禁止不这样做的应用之前?还是在它被载入法律之前?你认为数据库需要多长时间才能扩展到包括“恐怖主义”内容或有害但合法的内容?”
安全与隐私问题研究员纳迪姆·科比西博士(Nadim Kobeissi)警告说:“苹果在沙特销售不带FaceTime功能的iPhone,因为当地法规禁止加密通话。这只是苹果屈服于当地法规的众多例子之一。如果沙特的地方法规要求扫描的信息与虐待儿童有关,而是同性恋或违反君主制的行为,会发生什么?”
更为致命的是,苹果承诺不浏览图片就能筛选出违法信息的说法也被研究人员证伪,此前英特尔实验室的研究人员就发现,苹果的CSAM检测工具存在哈希冲突这一缺陷。由于通过哈希函数产生的哈希值是有限的,所以当输入数据量达到一定的程度时,就会导致不同数据在经过哈希函数处理后产生相同的值,进而让两张毫无关系照片的哈希值吻合,也直接动摇了苹果CSAM检测技术的基础。
再加上隔壁谷歌检索CSAM时出现了“误伤”无辜父亲,让后者直接社会性死亡的事件,苹果最终在20XX年末选择下线CSAM检测工具。

苹果, 儿童, 沙特

您需要登录后才可以回帖 登录 | 立即注册

返回顶部