二维码
阿哥vca

扫一扫关注

当前位置: 首页 » 新闻资讯 » 行业新闻 » 正文

Nick Clegg将人工智能的喧嚣比作80年代对电子游戏的“道德恐慌”

放大字体  缩小字体 发布日期:2025-09-13 05:32:03    来源:本站    作者:admin    浏览次数:66    评论:0
导读

      尼克?克莱格(Nick Clegg)将围绕人工智能的喧嚣比作上世纪80年代围绕电子游戏的“道德恐慌”,在各国政界人士和监管

  

  

  尼克?克莱格(Nick Clegg)将围绕人工智能的喧嚣比作上世纪80年代围绕电子游戏的“道德恐慌”,在各国政界人士和监管机构齐聚一堂、参加为期两天的人工智能安全峰会之际,他向他们发出了警告。

  这位前英国副首相、现任马克·扎克伯格(Mark Zuckerberg)的meta全球事务总裁表示,人工智能陷入了一个“巨大的炒作周期”,但他警告称,新技术激发了过度热情和过度悲观的混合情绪。

  英国官员希望利用本周三在布莱切利公园(Bletchley Park)开幕的这次峰会,启动一个可能反映国际社会应对气候危机努力的监管程序。但克莱格的言论表明,他们可能会遇到一些业内最强大公司的抵制。

  “新技术总是会引发炒作,”他说。它们常常导致倡导者过度热情,批评者过度悲观。

  “我记得80年代。人们对电子游戏产生了道德恐慌。人们对广播、自行车和互联网产生了道德恐慌。”

  在谈到一种强大的人工智能形式可能在几年内出现并带来革命性后果的预测时,他补充说:“这些关于接下来会发生什么的预测,即将发生的事情,往往不像那些最沉迷于其中的人所相信的那样。”

  克莱格是本周出席峰会的最有权势的高管之一。其他人包括埃隆?马斯克(Elon Musk),他将在周四晚上利用自己的X社交媒体平台与英国首相里希?苏纳克(Rishi Sunak)就监管人工智能进行对话。

  欧盟委员会(European Commission)主席乌苏拉?冯德莱恩(Ursula von der Leyen)将是出席会议的最受瞩目的国际政界人士之一。包括美国总统乔·拜登(Joe Biden)和法国总统埃马纽埃尔·马克龙(Emmanuel Macron)在内的其他人也决定不参加。

  一些人认为,峰会应该关注短期风险,比如有偏见的决策,以及利用人工智能制造选举虚假信息的可能性。克莱格说,他希望代表们讨论如何以“合作的方式”为人工智能制作的内容加水印。

  但本周的大部分讨论将集中在长期风险上,包括人工通用智能系统逃避人类控制的可能性,许多专家警告说,一个足够先进的系统甚至可能对人类本身构成威胁。

  参加此次峰会的加州大学伯克利分校(University of California, Berkeley)计算机科学教授斯图尔特·拉塞尔(Stuart Russell)周二警告称,目前构建人工智能系统的方法是不安全的。

  他说:“我们需要停止考虑让人工智能变得安全,而是开始考虑让人工智能变得安全。”“我们建立了人工智能,然后我们有一个安全团队来阻止它的不良行为——这种做法行不通,也永远不会奏效。”

  人工智能安全研究公司Conjecture的首席执行官康纳·莱希(Connor Leahy)也将出席此次峰会,他呼吁停止允许私营人工智能公司制造“致命机器”,他说这些机器将控制未来。

  他说:“没有什么比让人们知道真相更重要的了:一小群未经选举、未经统计的私营公司正在未经你的同意或不知情的情况下,对你和你的家人进行一项致命的实验。”

  英国科技大臣米歇尔?多尼兰(Michelle Donelan)在会议召开前表示:“前沿人工智能带来的风险是严重而实质性的,我们必须跨部门和跨国家共同努力,认识到这些风险。”

  “这次峰会为我们提供了一个机会,确保我们有合适的人,有合适的专业知识,聚在一起讨论我们如何减轻这些风险。只有这样,我们才能以负责任的方式真正从这种变革性技术中获益。”

  英国政府也热衷于强调人工智能的积极潜在用途。在峰会期间,部长们将承诺斥资3800万英镑,从非洲开始,帮助资助世界较贫穷地区的“安全和负责任的”人工智能项目。

  官员们表示,此次峰会的主要目的之一是说服那些处于人工智能技术开发前沿的人放慢构建最复杂模型的步伐。

  然而,克莱格的言论表明,这可能是一项艰巨的挑战。

  他说:“尽管如此,我仍然是一个老派的自由主义者,担心政府的死手。”

  “在这个领域,允许创新者、建设者——那些在最终创业开发这些技术的方式上具有独创性的人——这样做,而不是立即假设他们接下来做的任何事情都会带来一些生存风险,这一点非常重要。”

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.agvcar.com All Rights Reserved

冀ICP备2024088436号