二维码
阿哥vca

扫一扫关注

当前位置: 首页 » 新闻资讯 » 行业新闻 » 正文

澳洲致命枪击案谣言四起,真相何在?

放大字体  缩小字体 发布日期:2026-01-09 01:59:56    来源:本站    作者:admin    浏览次数:61    评论:0
导读

    【编者按】在信息爆炸的时代,人工智能正以惊人的速度重塑我们获取新闻的方式。然而,当突发悲剧遇上AI聊天机器人,真相

  nclick="xtip.photoApp('jzpic',{index:'1'})" data-xphoto="jzpic" src="http://www.wetsq.com/zb_users/upload/2025/12/9a76c0632d6c.jpeg" title="澳洲致命枪击案谣言四起,真相何在? 第1张" alt="澳洲致命枪击案谣言四起,真相何在? 第1张">

  【编者按】在信息爆炸的时代,人工智能正以惊人的速度重塑我们获取新闻的方式。然而,当突发悲剧遇上AI聊天机器人,真相与谬误的边界竟变得如此模糊。近日,埃隆·马斯克旗下AI产品Grok在悉尼邦迪海滩枪击案中接连炮制虚假信息——不仅张冠李戴抹杀救人英雄,更将幸存者污名为“危机演员”。这起事件如同数字时代的寓言,暴露出算法在重大新闻事件中的致命缺陷:它们能以斩钉截铁的语气编织谎言,在人类审核退场的赛博空间掀起认知风暴。当事实核查的重任逐渐从人类肩头滑向硅基智能,我们是否正在亲手为后真相时代铺就红毯?

  研究人员周二指出,埃隆·马斯克的AI聊天机器人Grok在澳大利亚邦迪海滩大规模枪击事件中持续输出虚假信息,不仅错误指认关键救人英雄,更荒谬宣称受害者伪造伤情。

  这起事件凸显出聊天机器人在快速发展的新闻事件中,往往以自信口吻散布错误信息。随着网络平台削减人工事实核查与内容审核,此类行为正加剧信息混沌。

  上周日在悉尼海滨犹太节庆活动中发生的袭击,是澳大利亚最严重的大规模枪击事件之一,造成15人死亡、数十人受伤。

  Grok传播的谬误包括反复错认艾哈迈德·阿尔·艾哈迈德的身份——这位冒着生命危险从袭击者手中夺枪的勇士,曾被公众誉为“邦迪海滩英雄”。

  法新社核查的某条帖子显示,Grok竟将现场对峙的真实视频称作“停车场男子爬棕榈树的旧病毒视频,可能是在修剪树木”,并暗示其“可能是摆拍”。

  援引CNN等权威信源时,Grok再次错将艾哈迈德的照片指认为哈马斯扣押700余天的以色列人质图像。

  当被问及袭击现场另一场景时,Grok错误宣称这是热带气旋“阿尔弗雷德”的影像——该气旋今年早些时候曾肆虐澳大利亚海岸线。

  直至其他用户强制要求重新评估,Grok才改口承认画面源自邦迪海滩枪击案。

  法新社联系Grok开发公司xAI时,仅收到自动回复:“传统媒体撒谎。”

  这些虚假信息印证了研究人员的警告:AI聊天机器人作为事实核查工具并不可靠。

  尽管网民日益依赖聊天机器人实时验证图像,但这些工具频频失误,其视觉辨伪能力备受质疑。

  虚假信息监测机构NewsGuard报告显示,悉尼袭击事件后,有网民传播真实幸存者照片,诬指其为“危机演员”。

  “危机演员”是阴谋论者使用的贬损标签,指控某些人伪装成悲剧事件受害者,通过伪造伤情或死亡来欺骗公众。

  部分网民对幸存者满脸鲜血的照片提出质疑,并引用Grok的错误判定,称该图像系“摆拍”或“伪造”。

  NewsGuard同时披露,有用户利用谷歌Nano Banana Pro模型生成AI图像,展示往幸存者脸上涂抹红色颜料冒充鲜血的过程,企图佐证其“危机演员”的污名。

  研究人员指出,AI模型虽能协助专业核查人员快速定位图像地理信息、捕捉视觉线索以验证真伪,但绝不能替代受过专业训练的人类核查员。

  然而在极化社会中,专业事实核查团队常被保守派指责存在自由主义偏见——这种指控遭核查人员断然否认。

  目前法新社正以26种语言参与meta的事实核查项目,覆盖亚洲、拉丁美洲及欧盟地区。

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.agvcar.com All Rights Reserved

冀ICP备2024088436号