二维码
阿哥vca

扫一扫关注

当前位置: 首页 » 新闻资讯 » 热点资讯 » 正文

《剑桥词典》将“人工智能的崛起”选为2023年年度词汇

放大字体  缩小字体 发布日期:2025-06-30 05:50:03    来源:本站    作者:admin    浏览次数:80    评论:0
导读

    剑桥词典公布了2023年的年度词汇是“hallucinate”(幻觉),因为这个词增加了一个新的定义,与制造虚假信息的人工智能(AI

  Rise of AI prom<em></em>pts Cambridge Dictionary’s word of the year for 2023

  剑桥词典公布了2023年的年度词汇是“hallucinate”(幻觉),因为这个词增加了一个新的定义,与制造虚假信息的人工智能(AI)有关。

  人工智能幻觉,也被称为虚构,有时看起来毫无意义,但也可能看起来完全可信,即使事实上不准确或最终不合逻辑。

  “幻觉”的传统定义是似乎看到、听到、感觉到或闻到不存在的东西,通常是因为健康状况或服用了药物。

  《剑桥词典》中新增的定义是:“当人工智能(=具有人脑某些特性的计算机系统,例如以人类的方式产生语言的能力)产生幻觉时,它会产生虚假信息。”

  此前一年,人们对ChatGPT等生成式人工智能(AI)工具的兴趣激增,公众的注意力转向了人工智能的局限性,以及它们是否可以被克服。

  人工智能工具,特别是那些使用大型语言模型(llm)的工具,已经被证明能够生成可信的散文,但通常使用虚假、误导或编造的“事实”。

  他们以一种自信的、有时是可信的方式“产生幻觉”。

  《剑桥词典》的出版经理温德林·尼科尔斯说:“人工智能能够产生‘幻觉’的事实提醒我们,人类在使用这些工具时仍然需要运用批判性思维技能。”

  “人工智能非常擅长从大量数据中提取特定信息并加以整合。

  “但你要求他们越原创,他们就越有可能误入歧途。

  “在最好的情况下,大型语言模型只能和它们的训练数据一样可靠。

  “在为法学硕士提供权威和最新的信息方面,人类的专业知识可以说比以往任何时候都更重要,也更受追捧。”人工智能的幻觉已经对现实世界产生了影响。

  一家美国律师事务所使用ChatGPT进行法律研究,导致法庭上引用虚构的案件。

  在b谷歌自己的聊天机器人巴德的宣传视频中,这个人工智能工具在詹姆斯·韦伯太空望远镜的问题上犯了一个事实错误。

  这个新定义表明,人们越来越倾向于将人工智能技术拟人化,在我们说话、写作和思考机器时使用类似人类的隐喻。

  剑桥大学的人工智能伦理学家亨利·舍夫林博士说:“‘幻觉’一词被广泛用于指像ChatGPT这样的系统所犯的错误,这为我们如何思考和拟人化人工智能提供了一个迷人的快照。”

  “当然,不准确或误导性的信息一直伴随着我们,无论是以谣言、宣传还是‘假新闻’的形式。

  “虽然这些通常被认为是人类的产物,但‘hallucinate’是一个唤起性的动词,暗示着一个与现实脱节的代理。”

  这种语言选择反映了一种微妙而深刻的感知转变:产生幻觉的是人工智能,而不是用户。’”虽然这并不意味着人们普遍相信人工智能有感知能力,但它强调了我们愿意将类似人类的属性归因于人工智能。

  “随着这十年的发展,我预计我们的心理学词汇将进一步扩大,以涵盖我们正在创造的新智能的奇怪能力。”

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.agvcar.com All Rights Reserved

冀ICP备2024088436号