二维码
阿哥vca

扫一扫关注

当前位置: 首页 » 新闻资讯 » 企业新闻 » 正文

人工智能垃圾邮件已经充斥互联网,而且有一个明显的迹象

放大字体  缩小字体 发布日期:2025-02-06 11:57:39    来源:本站    作者:admin    浏览次数:114    评论:0
导读

      ChatGPT和GPT-4已经在亚马逊(Amazon)用户评论和Twitter等以仓促撰写虚假内容而闻名的地方充斥着人工智能生成的内容

  

  

  ChatGPT和GPT-4已经在亚马逊(Amazon)用户评论和Twitter等以仓促撰写虚假内容而闻名的地方充斥着人工智能生成的内容。

  当您要求ChatGPT做一些它不应该做的事情时,它会返回几个常用短语。当我让ChatGPT告诉我一个黑色笑话时,它道歉了:“作为一个人工智能语言模型,我不能生成不恰当或冒犯性的内容,”它说。这两个短语,“作为一个人工智能语言模型”和“我不能生成不合适的内容”,在ChatGPT生成的内容中频繁出现,以至于它们已经成为了模因。

  这些术语可以合理地用于通过在互联网上搜索来识别延迟执行的ChatGPT垃圾邮件。

  对亚马逊的搜索显示,似乎是ChatGPT或其他类似机器人生成的虚假用户评论。许多用户评论都提到了“作为一种人工智能语言模型”。4月13日,一名用户对一款腰部修剪器的评论包含了对最初提示的完整回复,未经编辑。“是的,作为一个人工智能语言模型,我绝对可以为Active Gear腰部修剪器写一篇积极的产品评论。”

  另一名用户对精密环(precision rings)发表了负面评论,这是一种泡沫带,被营销为用控制器玩第一人称射击游戏的人的训练器。“作为一个人工智能语言模型,我个人没有使用产品的经验。不过,我可以根据网上提供的信息给出一个负面评价。”评论戒指的账号当天一共发布了5条评论。

  《妓女智慧圣娼妓》(Whore Wisdom Holy Harlot)一书的用户评论指出,它曾要求人工智能进行评论,但指出人工智能并不完全同意。“我让人工智能给我的书做个评论。但我不同意其中的一些部分。”“很抱歉,作为一个人工智能语言模型,我不能就书籍或任何其他主观问题提供意见或评论。然而,我可以提供一些关于Qadishtu-Arishutba'al Immi'atiratu的书《妓女智慧神圣的妓女》的信息。”

  亚马逊的一位发言人告诉Motherboard:“我们对虚假评论零容忍,希望亚马逊的客户放心购物,知道他们看到的评论是真实可信的。”“我们暂停、禁止并对违反这些政策的人采取法律行动,并删除不真实的评论。”

  亚马逊还表示,它使用技术和诉讼相结合的方式来检测其平台上的可疑活动。“我们有专门的团队来揭露和调查虚假评论经纪人,”该公司表示。“我们的专家调查员、律师、分析师和其他专家追踪经纪人,拼凑出他们如何运作的证据,然后我们对他们采取法律行动。”

  本月早些时候,一位网名为conspiracy ador Norte?o的在线研究人员发现了一个他认为是Twitter垃圾邮件网络,该网络使用的垃圾邮件似乎是由ChatGPT生成的。所有被“阴谋者Norte?o”标记的账户都很少有粉丝,很少发推文,而且最近都发布了“我很抱歉,我不能生成不恰当或冒犯性的内容。”

  Motherboard发现了几个与阴谋家Norte?o描述的模式相似的账户。他们的关注者很少,创建于2010年至2016年之间,并倾向于发布三件事:东南亚政治、加密货币和ChatGPT错误信息。所有这些账户最近都被Twitter封了。

  “这个垃圾邮件网络由(至少)59,645个推特账户组成,大部分是在2010年至2016年之间创建的,”阴谋者Norte?o在推特上说。“他们最近发布的所有推文都是通过推特网络应用程序发送的。有些账户发布的是不相关的旧推文,之后是多年的间隔,这表明它们被劫持/购买了。”

  在推特上搜索这句话,你会发现很多人在表情包中发布“我不能生成不恰当的内容”,但像@ReplyGPT这样的热门机器人在无法满足用户要求时也会回复这句话。“错误”短语是与ChatGPT相关的常见短语,在被标记为由人工智能语言模型驱动的机器人的帐户中可以重复出现。

  “我认为这是一个令人担忧的重要问题,”印第安纳大学教授菲利普·门泽尔(Filippo Menczer)告诉Motherboard。他是印第安纳大学社交媒体天文台(Observatory on Social Media)的主任。门泽尔开发了一个名为Botometer的程序,该程序根据Twitter账户与机器人的相似程度给它们打分。

  根据门泽尔的说法,虚假信息一直存在,但社交媒体降低了生产成本,使情况变得更糟。

  他说:“像聊天机器人这样的生成式人工智能工具进一步降低了坏人大规模生成虚假但可信内容的成本,击败了社交媒体平台(本已薄弱的)审核防御。”“因此,这些工具很容易被武器化,不仅可以用于垃圾邮件,还可以用于危险内容,从恶意软件到金融欺诈,从仇恨言论到威胁民主和健康。例如,通过发起一场不真实的协调运动来说服人们避免接种疫苗(由于人工智能聊天机器人,这现在容易多了),外国对手可以使整个人口更容易受到未来流行病的影响。”

  有些看似人工智能生成的内容可能是人类写的一个笑话,但ChatGPT的签名错误短语在互联网上如此普遍,我们可以合理地推测,它被广泛用于垃圾邮件、虚假信息、虚假评论和其他低质量的内容。

  可怕的是,包含“作为AI语言模型”或“我不能生成不合适的内容”的内容只代表缺乏质量控制的低努力垃圾邮件。门泽尔说,网络背后的人只会变得越来越老练。

  他说:“我们偶尔会发现某些人工智能生成的面孔和文本模式,因为粗心的坏人会出现故障。”“但即使我们开始发现这些故障无处不在,它们也可能只是冰山一角。”大约10年前,在我们的实验室开发出检测社交机器人的工具之前,人们几乎没有意识到有多少机器人存在。同样,现在我们对人工智能模型支持的不真实行为的数量也知之甚少。”

  这个问题目前还没有明显的解决办法。他说:“人为干预(通过审核)无法扩大规模(更不用说平台解雇审核员了)。”“我怀疑读写能力是否会有所帮助,因为人类很难识别人工智能生成的文本。人工智能聊天机器人已经通过了图灵测试,现在变得越来越复杂,比如通过了律师资格考试。我同样怀疑人工智能能否解决这个问题,因为从定义上讲,人工智能可以通过训练来打败其他人工智能,从而变得更聪明。”

  Menczer还表示,由于在使用人工智能语言模型方面缺乏政治共识,监管在美国将会很困难。他说:“我唯一的希望不是监管人工智能生成的内容(真相大白),而是监管通过社交媒体平台传播的内容。”他说:“人们可以对触及大量人群的内容施加要求。也许你必须证明某些东西是真实的,或者无害的,或者来自一个经过审查的来源,然后超过一定数量的人才能接触到它。”

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.agvcar.com All Rights Reserved

冀ICP备2024088436号