收藏文章 楼主

苹果手机图标解释,苹果回应解释放弃儿童性

版块:科技头条   类型:普通   作者:科技资讯   查看:60   回复:0   获赞:0   时间:2023-09-01 14:10:29

9月1日消息,苹果公司在去年12月宣布,iCloud云服务将在媒体、非营利组织和消费者的多次反对下,停止儿童性虐待材料(CSAM)的测试项目。

这项测试计划于2021年8月开始,主要测试存储在iCloud中的CSAM图像数据,但自推出以来一直备受争议。

插图:Jacqui VanLiew

苹果最初表示将在2021年底前的iOS15和iPadOS15的更新中实现CSAM检测,但该公司最终决定根据& # 34;顾客、宣传团体、研究人员和其他人的反馈& # 34;延迟了这个功能。

一个名为Heat Initiative的儿童安全组织本周告诉苹果,它正在组织一项活动,要求该公司从iCloud中“检测、报告和删除”CSAM,并为用户提供更多向苹果报告CSAM内容的工具。

IT之家援引《连线》的报道称,苹果很少回应Heat的倡议。对此,苹果公司用户隐私和儿童安全总监Erik Neuenschwander概述了放弃开发iCloud CSAM扫描功能的原因:

儿童性虐待材料令人厌恶,我们致力于打破使儿童容易受到这些材料伤害的胁迫和影响链。

但是,扫描每个用户私人存储的iCloud数据,会成为数据窃贼发现和利用的新的威胁载体。

而且这种方法会导致很多意想不到的严重后果,比如扫描一类内容为批量监控打开了方便之门,还可能产生跨内容类型搜索其他加密消息系统的欲望。

苹果此前在关闭CSAM项目时曾表示:

在广泛征求专家意见和收集对我们去年提出的儿童保护措施的反馈后,我们正在增加对2021年12月推出的通信安全功能的投资。我们决定不推进我们之前提出的iCloud照片的CSAM检测工具。

不用公司整理个人资料,孩子也能得到保护。我们将继续与政府、儿童权益倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私,并使互联网成为儿童和我们所有人的一个更安全的地方。

【来源:IT之家】

 
回复列表
默认   热门   正序   倒序

回复:苹果手机图标解释,苹果回应解释放弃儿童性

Powered by 7.12.10

©2015 - 2025 90Link

90link品牌推广 网站地图

您的IP:10.2.73.106,2025-07-28 06:22:59,Processed in 0.20691 second(s).

豫ICP备2023005541号

头像

用户名:

粉丝数:

签名:

资料 关注 好友 消息
免责声明
  • 1、本网站所刊载的文章,不代表本网站赞同其观点和对其真实性负责,仅供参考和借鉴。
  • 2、文章中的图片和文字版权归原作者所有,如有侵权请及时联系我们,我们将尽快处理。
  • 3、文章中提到的任何产品或服务,本网站不对其性能、质量、适用性、可靠性、安全性、法律合规性等方面做出任何保证或承诺,仅供读者参考,使用者自行承担风险。
  • 4、本网站不承担任何因使用本站提供的信息、服务或产品而产生的直接、间接、附带或衍生的损失或责任,使用者应自行承担一切风险。

侵权删除请致信 E-Mail:3454251265@qq.com