9月1日消息,苹果公司在去年12月宣布,iCloud云服务将在媒体、非营利组织和消费者的多次反对下,停止儿童性虐待材料(CSAM)的测试项目。
这项测试计划于2021年8月开始,主要测试存储在iCloud中的CSAM图像数据,但自推出以来一直备受争议。
插图:Jacqui VanLiew
苹果最初表示将在2021年底前的iOS15和iPadOS15的更新中实现CSAM检测,但该公司最终决定根据& # 34;顾客、宣传团体、研究人员和其他人的反馈& # 34;延迟了这个功能。
一个名为Heat Initiative的儿童安全组织本周告诉苹果,它正在组织一项活动,要求该公司从iCloud中“检测、报告和删除”CSAM,并为用户提供更多向苹果报告CSAM内容的工具。
IT之家援引《连线》的报道称,苹果很少回应Heat的倡议。对此,苹果公司用户隐私和儿童安全总监Erik Neuenschwander概述了放弃开发iCloud CSAM扫描功能的原因:
儿童性虐待材料令人厌恶,我们致力于打破使儿童容易受到这些材料伤害的胁迫和影响链。
但是,扫描每个用户私人存储的iCloud数据,会成为数据窃贼发现和利用的新的威胁载体。
而且这种方法会导致很多意想不到的严重后果,比如扫描一类内容为批量监控打开了方便之门,还可能产生跨内容类型搜索其他加密消息系统的欲望。
苹果此前在关闭CSAM项目时曾表示:
在广泛征求专家意见和收集对我们去年提出的儿童保护措施的反馈后,我们正在增加对2021年12月推出的通信安全功能的投资。我们决定不推进我们之前提出的iCloud照片的CSAM检测工具。
不用公司整理个人资料,孩子也能得到保护。我们将继续与政府、儿童权益倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私,并使互联网成为儿童和我们所有人的一个更安全的地方。
【来源:IT之家】
您的IP:10.2.73.106,2025-07-28 06:22:59,Processed in 0.20691 second(s).