多方反对下让苹果不走邪路!苹果放弃了检测iCloud照片中已知CSAM的计划

根据与WIRED分享的一份声明,苹果今天宣布,它已经放弃了检测存储在iCloud照片中的已知CSAM(儿童性虐待内容)的计划。苹果在一份声明中写道:”在广泛征求专家意见,收集我们去年提出的儿童保护举措的反馈意见后,我们正在深化我们对2021年12月首次提供的通信安全功能的投资,”

苹果表示,”我们决定不推进我们之前提出的iCloud照片的CSAM检测工具。儿童可以在没有公司梳理个人数据的情况下得到保护,我们将继续与政府、儿童倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们所有人更安全的地方。”

多方反对下让苹果不走邪路!苹果放弃了检测iCloud照片中已知CSAM的计划

2021年9月,苹果在其儿童安全页面发布了以下更新:“之前我们宣布了一些功能计划,旨在帮助保护儿童免受使用通信工具招募和剥削他们的掠夺者的侵害并帮助限制儿童性虐待材料的传播。根据客户、宣传团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些极其重要的儿童安全功能。”

苹果计划向美国家失踪与被剥削儿童中心(NCMEC)报告有已知CSAM图像哈希值的iCloud账户,该中心是一个跟美国执法机构合作的非营利组织。苹果表示,将有一个“门槛”来确保“每年少于一万亿分之一的机会”的账户被系统错误标记,另外还有人工审查标记的账户。

苹果的计划受到了广泛的个人和组织的批评,这当中包括安全研究人员、电子前沿基金会(EFF)、政治家、政策团体、大学研究人员甚至一些苹果自己的员工。

一些批评者认为,苹果的儿童安全功能可能为设备创造一个“后门”,政府或执法机构可以利用它来监视用户。另一个问题是误报,包括有人可能故意将CSAM图像添加到另一个人的iCloud账户中从而使其账户被标记。

多方反对下让苹果不走邪路!苹果放弃了检测iCloud照片中已知CSAM的计划

声明:本站文章,有些原创,有些转载,如发现侵权侵请联系删除。本站所有原创帖均可复制、搬运,开网站就是为了大家一起乐乐,不在乎版权。对了,本站小水管,垃圾服务器,请不要采集,吐槽君纯属用爱发电,经不起折腾。

给TA打赏
共{{data.count}}人
人已打赏
Apple

网传苹果iOS 16.2版将限时10分钟接收"所有人"的AirDrop设定扩大到全球用户

2022-12-8 16:52:39

Apple

截至2022年底iOS市场份额继续上升 Android略有下降

2022-12-13 22:52:17

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索