nclick="xtip.photoApp('jzpic',{index:'1'})" data-xphoto="jzpic" src="http://www.wetsq.com/zb_users/upload/2025/11/2slwqiwij02.jpeg" title="AI的致命盲区:自己造的假图,自己都认不出来! 第1张" alt="AI的致命盲区:自己造的假图,自己都认不出来! 第1张">
【编者按】当AI开始欺骗AI,我们还能相信什么?近日,菲律宾网友用AI聊天机器人核查涉腐议员的造假照片,却不知这张疯传网络的图片正是该AI亲手生成。这场"AI打假AI"的荒诞剧,折射出人工智能时代的信任危机。随着科技巨头裁减人工审核团队,AI正成为越来越多人获取信息的首选工具。然而研究表明,主流聊天机器人连自己生成的图片都无法准确识别。当虚假信息如潮水般涌来,当造假成本低至一个"好玩"的念头,我们是否正在坠入"眼见不为实"的深渊?这场技术与真相的赛跑,人类还能保持领先吗?
当愤怒的菲律宾民众使用AI聊天机器人核查一张在腐败丑闻中疯传的议员照片时,这个工具竟未能识别出这是伪造图像——尽管图片本就是它自己生成的。
如今越来越多的网民习惯用聊天机器人实时验证图片真伪,但这些工具频频翻车。在各大科技平台裁减人工事实核查团队之际,AI的"打假"能力正遭受严峻考验。
许多案例显示,即便面对同源生成模型制作的图片,AI工具仍会误判为真实影像,令本就被AI伪造内容淹没的网络信息环境雪上加霜。
其中广为流传的伪造照片主角是前菲律宾议员埃利萨尔迪·科,他因涉及数十亿美元防洪工程腐败案被起诉,在这个灾害频发的国家引发大规模抗议。
这张看似拍摄于葡萄牙的照片中,科的身影清晰可辨——而自官方调查启动以来,他的行踪始终成谜。
当追踪此事的网络侦探询问谷歌最新AI模式该图像真伪时,系统竟错误认定其为真实影像。
法新社事实核查团队最终溯源发现,这张图片正是通过谷歌AI生成。
"这些模型主要基于语言模式训练,缺乏准确识别AI生成或篡改图像所需的专业视觉理解能力,"AI内容检测平台Copyleaks首席执行官阿隆·亚明向法新社坦言,"即便是同源生成的图像,聊天机器人也常给出矛盾或过度笼统的判断,根本无法胜任事实核查工作。"
谷歌未就此事回应法新社的置评请求。
法新社还发现多起AI工具无法识别自产内容的案例。
上月巴控克什米尔地区因高官特权爆发致命抗议时,社交媒体流传着一张伪造的示威者举旗持火炬游行图片。经核查,该图实为谷歌GeminiAI生成,但Gemini和微软Copilot却双双误判其为真实抗议场景。
"这种识别无能源于AI模型仅被设定为模仿,"非营利组织Sigla研究中心的罗西内·法洛里纳指出,"从某种意义上说,它们只能制造相似物,却无法辨别这种相似是否足以乱真。"
今年初,哥伦比亚大学数字新闻中心对7款主流AI聊天机器人进行测试,要求识别10张新闻摄影照片真伪,所有模型全军覆没。
那张收获超百万浏览量的科氏照片,最终被追溯到菲律宾一名中年网页开发者。他坦言使用Gemini旗下的Nano Banana图像生成器"做着玩","可怕的是那么多人信以为真,看到疯狂转发的数据后,我赶紧在帖子标注"AI生成"来制止传播。"
此类事件表明,AI生成的图片已能达到以假乱真的程度。更令人忧心的是,调查显示网民正从传统搜索引擎转向AI工具进行信息搜集与验证。
与此同时,meta今年宣布终止在美国的第三方事实核查项目,转而依靠"社区笔记"模式让普通用户承担辟谣重任。在极端对立的社交环境中,人工核查长期饱受争议,保守派指责专业核查员带有自由主义偏见。
目前法新社仍在亚洲、拉美和欧盟等26个语言区与meta保持事实核查合作。研究人员认为,AI模型可辅助专业核查员快速定位图像来源、捕捉视觉线索,但绝不能取代训练有素的人类核查员。
法洛里纳的警告振聋发聩:"长远来看,我们绝不能指望用AI来对抗AI。"




