安全研究人员对苹果扫描iCloud照片的计划表示担忧


本文摘自太平洋电脑网,原文地址:https://news.pconline.com.cn/1437/14377710.html,侵删。

据外媒报道,苹果今日(当地时间8月5日)宣布,随着iOS 15和iPadOS 15的发布,它将开始在美国扫描iCloud照片以寻找已知的儿童性虐待材料(CSAM),另外还计划向国家失踪和被剥削儿童中心(NCMEC)报告调查结果。

安全研究人员对苹果扫描iCloud照片的计划表示担忧

据悉,在 苹果 详细阐述其计划之前,有关CSAM倡议的消息就已泄露,安全研究人员已经开始对苹果的新图像扫描协议在未来可能如何使用表示担忧。

眼下,苹果正在使用NeuralHash系统,其将已知的CSAM图像跟用户 iPhone 上的照片进行比较然后再上传到iCloud上。如果匹配,照片就会跟加密安全凭证一起上传,当达到一定阈值时就会触发审查,该审查会检查该名用户的设备上是否有CSAM。

目前,苹果正在使用其图像扫描和匹配技术来寻找虐待儿童的情况,但研究人员担心,在未来,它可能会被用于扫描其他更令人担忧的图像如抗议活动中的反政府标语。

来自约翰霍普金斯大学的密文研究员Matthew Green在一系列推文中指出,CSAM扫描是一个非常糟糕的主意,因为在未来,它可能会扩展到扫描端到端加密的照片,而不仅仅是上传到?iCloud?的内容。对于儿童,苹果正在实施一项单独的扫描功能,其直接在端到端加密的iMessages中寻找色情内容。

Green还对苹果计划使用的哈希提出了担忧,因为这里面可能存在“冲突”,即某人发送一个跟CSAM共享哈希的无害文件进而可能导致错误标记。

对此,苹果方面表示,其扫描技术具有极高的准确性以确保账号不会被错误标记,在用户的?iCloud?账号被禁用并向NCMEC发送报告之前报告会被手动审查。

Green认为,苹果的实施将会推动其他科技公司也采用类似的技术。他写道:“这将打破障碍。政府会要求每个人都这么做。”他把这项技术比作是“专制政权部署的工具”。

安全研究人员对苹果扫描iCloud照片的计划表示担忧

曾在Facebook工作的安全研究员Alec Muffett表示,苹果实施这种图像扫描的决定是“对个人隐私而言的巨大倒退”。

剑桥大学的安全工程教授Ross Anderson称这绝对是一个可怕的想法,其将可能导致对设备进行分布式大规模监控。

正如许多人在Twitter上指出的那样,多家科技公司已经为CSAM做了图像扫描。Google、Twitter、 微软 、Facebook和其他网站使用图像哈希法来寻找和报告已知的虐待儿童的图像。

安全研究人员对苹果扫描iCloud照片的计划表示担忧

安全研究人员对苹果扫描iCloud照片的计划表示担忧

同样值得注意的是,苹果在推出新的CSAM倡议之前就已经扫描了一些儿童虐待图片的内容。2020年,苹果首席隐私官Jane Horvath表示,苹果使用筛查技术寻找非法图像,如果检测到CSAM的证据就会封掉该账号。

由于苹果曾在2019年更新了其隐私政策--它将扫描上传的内容以寻找潜在的非法内容,包括儿童性剥削材料--所以现在这份新的声明并不完全是新的。

相关阅读 >>

开发者表示苹果硅处理器使mac游戏有更好未来

苹果新专利:串联用户医疗记录,以改善就诊体验

苹果计划推出多屏版iphone:水墨屏迎来阅读以外新用途

苹果新专利:下一代 apple pencil 或内置光学传感器,可采样表面颜色和纹理

苹果正测试放弃lightning转接口 转用type-c接口iphone

苹果新处理器m2、m1 quadra曝光:最大40核cpu+128核gpu

华夏未来教育客服电话大全已更新2023(今日/更新)苹果发布 ios 16.5/ipados 16.5 首个公开测试版本

苹果ios 16允许用户删除29个预装应用

数据显示苹果开始动摇英特尔及x86在pc市场几十年的主导地位

阔别4年 苹果12寸macbook有望重新回归

更多相关阅读请进入《苹果》频道 >>



打赏

取消

感谢您的支持,我会继续努力的!

扫码支持
扫码打赏,您说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦

分享从这里开始,精彩与您同在

评论

管理员已关闭评论功能...