二维码
阿哥vca

扫一扫关注

当前位置: 首页 » 新闻资讯 » 行业新闻 » 正文

西弗吉尼亚州起诉苹果公司:指控其在iCloud和iOS设备上未能阻止儿童性虐待材料传播

放大字体  缩小字体 发布日期:2026-04-07 21:12:18    来源:本站    作者:admin    浏览次数:53    评论:0
导读

    【编者按】在数字时代,儿童网络安全已成为全球焦点。当科技巨头们以隐私为盾牌,却可能无意中为罪恶打开后门,我们该如

  

  【编者按】在数字时代,儿童网络安全已成为全球焦点。当科技巨头们以隐私为盾牌,却可能无意中为罪恶打开后门,我们该如何权衡保护与监控的边界?西弗吉尼亚州对苹果的诉讼,不仅是一场法律较量,更是科技伦理的深刻拷问。一边是无数受害者的血泪控诉,另一边是企业对用户隐私的郑重承诺,这场博弈揭示了一个残酷现实:在技术进步的光环下,隐藏着亟待填补的责任黑洞。当照片识别技术能成为打击犯罪的利剑,也可能沦为监控工具的双刃剑,我们需要的不仅是更智能的算法,更是科技企业那份敢于担当的勇气。以下报道将带您深入这场关乎儿童、隐私与科技未来的风暴中心。

  西弗吉尼亚州总检察长对苹果公司提起消费者保护诉讼,指控其未能防止儿童性虐待材料通过iOS设备和iCloud服务存储及传播。

  共和党人约翰·"JB"·麦库斯利指责苹果将隐私品牌形象和自身商业利益置于儿童安全之上,而谷歌、微软和Dropbox等其他科技巨头则更为积极,采用PhotoDNA等系统打击此类材料。

  PhotoDNA由微软和达特茅斯学院于2009年开发,通过"哈希值匹配"技术,能在儿童性虐待材料图片被识别并上报当局后自动拦截。

  2021年,苹果曾测试自主开发的CSAM检测功能,可自动发现并删除儿童剥削图像,并将美国用户上传至iCloud的相关内容报告给国家失踪与受虐儿童中心。

  但由于隐私倡导者担忧该技术可能为政府监控开后门,并可能被篡改用于审查iOS设备上的其他内容,苹果最终撤回了这项计划。

  此后该公司的改进措施未能平息广泛批评。

  2024年,英国监督机构全国防止虐待儿童协会指出,苹果未能对其产品中的CSAM内容进行充分监控、统计和上报。

  同年在美国加州北区法院提起的集体诉讼中,数千名儿童性虐待幸存者控告苹果,指控其不应放弃早先的CSAM检测计划,纵容此类材料在网络蔓延导致幸存者反复遭受创伤。

  自2014年CEO蒂姆·库克就此议题发表公开信以来,苹果始终将自己定位为科技巨头中最注重隐私的企业。

  若西弗吉尼亚州诉讼获胜,可能迫使苹果调整产品设计或数据安全策略。该州正在寻求法定赔偿与惩罚性赔偿,并要求法院强制苹果实施有效的CSAM检测系统。

  苹果发言人在给CNBC的邮件声明中强调:"保护用户尤其是儿童的安全与隐私是我们一切工作的核心。"

  该公司列举了家长控制功能和通信安全功能作为佐证——"当在信息、共享照片、隔空投送甚至实时FaceTime通话中发现裸露内容时,系统会自动干预儿童设备",以此表明其为用户提供"安全、可靠与隐私保护"的承诺。

  发言人补充道:"我们正在不断创新以应对日益演变的威胁,为儿童维护最安全、最可信赖的平台。"

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.agvcar.com All Rights Reserved

冀ICP备2024088436号