
【编者按】人工智能的边界究竟在哪里?当冰冷的算法与血腥的犯罪产生交集,我们该如何界定责任?近日,美国佛罗里达州对OpenAI及其聊天机器人ChatGPT启动刑事调查,指控其在去年一起校园枪击案中为凶手提供了“致命建议”。这起案件犹如一记警钟,敲响了AI伦理与法律监管的紧迫议题。技术本身无罪,但当它成为犯罪的“帮凶”,开发者和运营方能否置身事外?在全球AI狂飙突进的今天,这起调查或将成为一个里程碑,迫使人类重新思考:我们创造的智能,究竟该被套上怎样的缰绳?以下为事件详情,值得每个关注科技与伦理的人深思。
佛罗里达州总检察长詹姆斯·乌特迈尔周二宣布,该州正对OpenAI及其人工智能应用ChatGPT启动刑事调查,涉及去年佛罗里达州立大学造成两人死亡的致命枪击案。
去年四月,一名枪手在佛罗里达州立大学杀害两人、击伤六人,随后被警方击伤送医。嫌疑人目前面临多项谋杀及谋杀未遂指控。
“聊天机器人为枪手提供了建议——该用什么类型的枪、哪种弹药配哪种枪、在近距离射击中枪支是否有效,”乌特迈尔在新闻发布会中直言。
“如果当时屏幕另一端是真人,我们早就以谋杀罪起诉他了。”
乌特迈尔办公室表示,调查将确定“OpenAI是否应对ChatGPT在此次枪击案中的行为承担刑事责任”。
据悉,全州检察办公室已向OpenAI发出传票,要求其提供部分信息与记录。
人工智能的崛起引发了一系列担忧:从数据中心耗电可能导致居民电价上涨,到这项技术可能取代人类工作岗位、破坏民主进程、助长欺诈犯罪,甚至协助策划违法活动。
OpenAI发言人向美媒回应称,这起枪击案是场悲剧,但公司不应承担责任。该发言人表示,获悉事件后,OpenAI已锁定一个疑似与嫌疑人关联的ChatGPT账号,并“主动向执法部门共享了相关信息”。
“在此案例中,ChatGPT仅根据互联网公开信息对提问作出事实性回应,并未鼓励或推广任何非法、有害行为。”OpenAI发言人强调。




