
【编者按】在数字时代,科技巨头的隐私保护与儿童安全之间的平衡,正成为全球关注的焦点。近日,美国西弗吉尼亚州对苹果公司提起诉讼,指控其iCloud服务沦为“儿童色情内容传播的最大平台”,引发轩然大波。这场官司不仅揭露了科技公司在数据加密、内容审核上的两难抉择,更直指一个残酷现实:每一次非法内容的传播,都是对受害儿童的再度伤害。当用户隐私权与社会责任发生冲突,科技巨头该如何履行其道德与法律义务?本文将深入解析此案背后的技术争议与人性拷问,揭开数字世界阴暗角落中,那些被忽略的伤痛与责任。
2月19日:西弗吉尼亚州总检察长办公室宣布,已对苹果公司提起诉讼,指控其放任iCloud服务成为公司内部通信中所称的“传播儿童色情内容的最大平台”。
共和党籍总检察长JB McCuskey在周四的声明中指责苹果将用户隐私置于儿童安全之上。此案被视为政府机构首次就苹果数据存储平台上传播儿童性虐待材料问题提起的诉讼。
此前,苹果在类似指控的私人诉讼中否认存在不当行为。
据路透社报道,苹果曾考虑扫描图像内容,但因用户隐私和安全担忧放弃了该方案——包括担心可能被政府利用来审查其他材料或实施逮捕。
“这些图像是儿童创伤的永久记录,每次材料被分享或观看,都是对孩子的再度伤害,”McCuskey在声明中强调,“这种行为令人发指,而苹果的不作为不可原谅。”
起诉书引用了苹果前反欺诈主管2020年的一条短信,其中明确指出由于苹果的优先级设置,iCloud已成为“传播儿童色情内容的最大平台”。
西弗吉尼亚州要求法定赔偿和惩罚性赔偿,并向梅森县巡回法院提起诉讼,要求法官强制苹果实施更有效的有害内容检测方案及更安全的产品设计。
相比之下,谷歌、微软等平台提供商会将上传照片或邮件附件与全美失踪和被剥削儿童中心等机构提供的已知儿童性虐待材料标识数据库进行比对。
直到2022年,苹果仍采取不同策略:既不扫描所有上传至iCloud的文件,数据也未进行端到端加密——这意味着执法部门可通过搜查令获取数据。
路透社2020年曾报道苹果计划为iCloud部署端到端加密,这将使执法部门无法读取数据。但在联邦调查局投诉该方案会妨碍调查后,该计划被搁置。
2021年8月,苹果宣布推出NeuralHash系统,试图通过在用户设备上传前扫描图像来平衡儿童虐待材料检测与隐私保护。
该系统遭到安全研究人员批评,他们担心可能导致错误举报;隐私倡导者更强烈反对,认为该技术可能被扩展用于政府监控。
州政府声明指出,一个月后苹果推迟了NeuralHash的部署,并于2022年12月彻底取消该计划。同月,苹果为iCloud数据推出了端到端加密选项。
起诉书称NeuralHash效果逊于其他工具且易被规避,指责苹果通过iCloud存储和同步数据时未主动检测有害材料,导致相关图像持续传播。
尽管苹果最终未实施iCloud上传图像扫描方案,但仍推出了“通信安全”功能,可对儿童设备收发的裸露等敏感内容进行模糊处理。
根据联邦法律,美国科技公司必须向全美失踪和被剥削儿童中心举报虐待材料。州政府数据显示,苹果2023年仅举报267起,而谷歌举报147万起,meta平台举报达3060万起。
此次诉讼与2024年底加州联邦法院受理的集体诉讼相互呼应——该案由受害儿童家属提起,指控内容高度相似。
苹果已申请驳回该集体诉讼,主张根据《通信规范法》第230条享有责任豁免权。该法律为互联网公司提供了针对用户生成内容诉讼的广泛保护。





