二维码
阿哥vca

扫一扫关注

当前位置: 首页 » 新闻资讯 » 工程百科 » 正文

AI医疗建议暗藏“危险”风险——你必须了解的关键信息

放大字体  缩小字体 发布日期:2026-04-18 10:48:44    来源:本站    作者:admin    浏览次数:82    评论:0
导读

    编者按:在人工智能浪潮席卷全球的今天,大型语言模型(LLM)如ChatGPT已悄然渗透到医疗咨询领域,成为部分患者寻求健康

  AI医疗建议暗藏“危险”风险——你必须了解的关键信息

  编者按:在人工智能浪潮席卷全球的今天,大型语言模型(LLM)如ChatGPT已悄然渗透到医疗咨询领域,成为部分患者寻求健康建议的“便捷入口”。然而,牛津大学一项最新研究敲响了警钟:尽管AI在医学知识储备上表现卓越,但其与用户间的沟通鸿沟可能导致误诊风险激增。当超过五分之一的美国患者曾遵循过聊天机器人提供的错误建议,当实验证明88%的情况下AI会“自信地”输出有害信息,我们是否该反思:在生命健康的十字路口,冰冷的算法真的能替代医者温暖的洞察力?本文揭示的不仅是技术局限,更是人机协作中亟待弥合的理解断层。

  一项新研究警告,使用大型语言模型获取医疗建议并做出医疗决策是一种高风险行为。

  这项由牛津大学研究人员开展的研究,邀请了1300名参与者模拟医生设定的特定医疗情境。

  参与者被分为两组——一组向OpenAI的ChatGPT等大型语言模型寻求医疗建议,另一组则通过传统渠道收集信息。

  结果显示,大型语言模型与用户之间存在显著隔阂。

  尽管大型语言模型在理解医学知识和标准实践方面表现优异,但帮助用户解决医疗问题所需的沟通层级,恰恰是它们难以企及的。

  “尽管炒作满天飞,人工智能根本还没准备好承担医生的角色,”该研究首席医疗官丽贝卡·佩恩博士在新闻稿中强调。

  “患者必须清醒认识到:向大型语言模型咨询症状可能带来危险——它可能给出错误诊断,甚至无法识别何时需要紧急救治。”

  研究结果表明,在评估医疗状况方面,大型语言模型并未比传统方法(如互联网搜索或个人经验判断)提供更优解决方案。

  大型语言模型并非总能理解参与者的诉求,而用户也常常不知道如何向它们提供准确信息。

  人与机器之间的沟通崩塌,大幅降低了大型语言模型给出正确建议的可能性。

  更令人担忧的是,大型语言模型常常混杂输出正确与错误建议。在没有医生指导的情况下,研究参与者往往无法有效甄别信息真伪。

  牛津互联网研究所资深研究员亚当·马赫迪指出,大型语言模型与患者之间的认知鸿沟,应为开发者和监管者敲响警钟。

  “我们不能仅靠标准化测试来判断这些系统是否适合公众使用,”马赫迪直言,“正如新药需要临床试验,人工智能系统必须经过多元真实用户的严格测试,才能看清它们在医疗等高风险场景中的真实能力边界。”

  向大型语言模型寻求医疗建议正日益普遍,尤其在医疗费用高昂的美国,这甚至成为许多人的“无奈选择”。

  某人工智能平台9月发布的研究显示,超过五分之一的美国人曾遵循聊天机器人提供的建议,而这些建议事后被证实存在谬误。

  在2025年6月另一项研究中,研究人员通过开发工具测试能否编程诱导大型语言模型输出错误信息。

  结果触目惊心——他们轻易实现了操控,而聊天机器人在88%的情况下竟“信心十足”地传播有害信息。

  “如果这些系统能被暗中操纵产出虚假建议,它们将成为比以往更隐蔽、更难监管、更具说服力的新型谣言传播渠道,”南非大学研究者纳坦什·莫迪在报告中严肃警告。

  新闻周刊已通过电子邮件联系该研究作者寻求进一步评论。

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.agvcar.com All Rights Reserved

冀ICP备2024088436号