9月12日(合众国际社)——meta周四宣布,三家最大的社交媒体平台将联手解决以自杀和自残为特征的在线内容。
meta在一篇博客文章中表示,Facebook、Instagram和WhatsApp的所有者meta已与Snap和TikTok合作成立了Thrive,这是一项旨在消除心理健康问题的污名,并努力减缓以自杀或自残为主题的在线内容的病毒式传播。
meta在发布会上说:“自杀和自残是复杂的心理健康问题,可能会带来毁灭性的后果。”
meta的全球安全主管安提戈涅·戴维斯在帖子中写道:“我们之所以优先考虑这些内容,是因为它们有在不同平台上迅速传播的倾向。”“这些初始信号仅代表内容,不包括任何账户或个人的可识别信息。”
o
安大略省学校董事会起诉社交媒体平台为“公害”,抖音用户敦促公司
国大党在解决安全问题上避免禁令
6名马萨诸塞州青少年因涉嫌在Snapchat上进行“奴隶拍卖”而被指控仇恨犯罪
该倡议是与精神卫生联盟联合发起的,该联盟是一组致力于消除这些问题污名化的精神卫生组织。
meta、Snap和TikTok将相互分享提示或“信号”,这样它们就可以比较笔记,如果类似的内容出现在其他应用程序上,就可以进行调查并采取措施。Thrive将作为一个数据库,所有参与的社交媒体公司都可以访问。
meta使用的是Lantern公司开发的技术,该公司旨在为未成年人提供安全的技术。亚马逊、苹果、谷歌、Discord、OpenAI等公司都是该联盟的成员。meta在其发布中明确表示,它的目标是内容,而不是用户。
“我们优先考虑这些内容,因为它们有在不同平台上快速传播的倾向。这些初始信号仅代表内容,不包括任何账户或个人的可识别信息,”戴维斯在博客中写道。
社交媒体公司将负责通过Thrive审查并采取任何必要的行动,并撰写年度报告来衡量该计划的影响。
meta表示,当自残或自杀的内容被识别出来时,它将被赋予一个数字,或一个“哈希值”,然后其他社交媒体公司可以交叉检查,查找并删除这些内容。
心理健康联盟表示,未成年人越来越多地使用社交媒体,导致抑郁和自杀行为激增。研究还表明,自残的年轻人在社交媒体上更加活跃。
今年早些时候,meta宣布将开始从其应用程序上的青少年订阅中删除和限制被认为“不适合年龄”的敏感内容。该公司表示,它计划对所有用户隐藏与自杀、自残和饮食失调有关的搜索结果和术语。
长期以来,meta、TikTok、Snapchat和其他社交媒体平台一直因未能删除被认为对青少年有害的内容而受到批评,包括自残视频和图片。