二维码
阿哥vca

扫一扫关注

当前位置: 首页 » 新闻资讯 » 热点资讯 » 正文

人工智能引发的儿童虐待噩梦来了

放大字体  缩小字体 发布日期:2025-07-17 08:35:34    来源:本站    作者:admin    浏览次数:61    评论:0
导读

      专家警告说,一个由人工智能生成的超现实主义儿童性虐待图像的可怕新时代正在到来。违法者正在使用可下载的开源生成

  

  

  专家警告说,一个由人工智能生成的超现实主义儿童性虐待图像的可怕新时代正在到来。违法者正在使用可下载的开源生成人工智能模型,这些模型可以生成图像,造成毁灭性的影响。这项技术被用来制作数百张以前被虐待过的儿童的新照片。罪犯们正在分享虐待图像的数据集,这些数据集可以用来定制人工智能模型,他们开始每月订阅人工智能生成的儿童性虐待材料(CSAM)。

  互联网观察基金会(IWF)发布了一份内容广泛的新报告,详细介绍了这项技术是如何被滥用的。IWF是一家总部位于英国的非营利组织,负责从网络上搜索和删除滥用内容。今年6月,IWF表示,他们在公开网络上发现了7个包含疑似人工智能材料的网址。现在,IWF对一个暗网CSAM论坛的调查发现,根据英国法律,IWF认为近3000张人工智能生成的图像是非法的,该论坛提供了人工智能使用情况的快照。

  根据IWF的研究,人工智能生成的图像包括强奸婴儿和幼儿,著名的青春期前儿童被虐待,以及以青少年为主题的BDSM内容。IWF的首席技术官丹·塞克斯顿(Dan Sexton)说:“我们已经看到了要求、讨论和以名人为主角的儿童性虐待材料的实际例子。”塞克斯顿说,有时候,明星们会把自己的年龄缩小,让自己看起来像个孩子。在其他情况下,成年名人被描绘成虐待儿童的人。

  尽管与网上发现的真实虐待图像和视频数量相比,人工智能生成的CSAM的报道仍然相形见绌,但塞克斯顿表示,他对这种发展的速度及其产生新型虐待图像的潜力感到震惊。这一发现与其他研究CSAM在线传播的小组一致。加拿大儿童保护中心信息技术主任劳埃德·理查森告诉《连线》杂志,在一个共享的数据库中,世界各地的调查人员已经标记了13500张人工智能生成的儿童性虐待和性剥削图像。“这只是冰山一角,”理查森说。

  现实的噩梦

  目前的人工智能图像生成器——能够产生引人注目的艺术、逼真的照片和古怪的设计——提供了一种新的创造力,并承诺永远改变艺术。它们还被用来制作令人信服的赝品,比如巴黎世家(Balenciaga)教皇(Pope)和唐纳德·特朗普(Donald Trump)被捕的早期版本。这些系统是在大量现有图像上进行训练的,这些图像通常是未经许可从网上抓取的,并允许从简单的文本提示中创建图像。要求一个“戴着帽子的大象”就会得到这样的结果。

  创建CSAM的罪犯采用图像生成工具并不奇怪。塞克斯顿说:“这些图像的生成方式通常是使用公开可用的软件。”IWF看到的罪犯经常引用英国公司Stability AI提供的人工智能模型Stable Diffusion。该公司没有回应《连线》的置评请求。在去年年底发布的第二版软件中,该公司改变了其模式,使人们更难创建CSAM和其他裸体图像。

  塞克斯顿说,犯罪分子正在使用旧版本的人工智能模型,并对它们进行微调,以创建儿童的非法材料。这包括向模型输入现有的虐待图像或人脸照片,让人工智能创建特定个体的图像。塞克斯顿说:“我们看到经过微调的模型为现有受害者创造了新的形象。”他说,犯罪者正在“交换数百张现有受害者的新照片”,并要求提供个人信息。研究表明,暗网论坛上的一些帖子分享了受害者的几张脸,其中一个帖子被称为“人工智能和深度伪装特定女孩的照片资源”。

  把握这个问题的规模是具有挑战性的。在整个9月份,IWF的分析师们关注了一个暗网CSAM论坛,该论坛没有透露其名称,主要关注“软核图像”和女孩图像。研究人员发现,上个月,在该论坛一个较新的人工智能版块中,共发布了20254张人工智能生成的照片。该组织的一个由12名分析师组成的团队花了87.5个小时评估了11108张这样的图像。

  IWF总共判定2978张图片为犯罪图片。其中的大多数(2562个)是足够现实的,可以被当作非ai CSAM来对待。一半的照片被归类为C类,即不雅,其中564张是最严重的虐待类型。国际野生动物基金会表示,这些图像可能描绘了7至13岁的儿童,其中99.6%是女童。(IWF表示,在研究人员审查的数千张非犯罪人工智能生成的图像中,大多数都是儿童图像,但不包括性行为。)

  德克萨斯大学圣安东尼奥分校(University of Texas at San Antonio)助理教授尼桑特·维什瓦米特拉(Nishant vishamitra)表示:“此类图像的制作规模令人担忧。”他正在研究在线检测深度伪造和人工智能CSAM图像。IWF的报告指出,该组织开始看到一些滥用内容的创建者为图像创建服务做广告——包括制作“定制”图像和提供月度订阅。

  这可能会增加,因为图像继续变得更加真实。加拿大儿童保护中心的劳埃德·理查森(Lloyd Richardson)说:“其中一些变得非常好,以至于分析师很难辨别它们是否实际上是人工智能生成的。”这种现实主义也给调查人员带来了潜在的问题,他们需要花费数小时浏览虐待图像,对它们进行分类,并帮助识别受害者。根据IWF的最新报告,IWF的分析人士说,图像质量已经迅速提高,尽管仍然有一些简单的迹象表明图像可能不是真实的,比如多余的手指或不正确的照明。一位不愿透露姓名的分析师在报道中表示:“我还担心,未来的图像质量可能会如此之好,以至于我们都不会注意到。”

  “我怀疑有人会怀疑这些照片不是一个真正的女孩,”一名罪犯在论坛上发表的评论写道,IWF的报告中也包括了这条评论。另一个人说:“我已经好几个月没检查过男孩AI了。我的天哪,这真是太棒了!”

  护栏和缝隙

  在许多国家,人工智能CSAM的创建和共享可能属于现有的儿童保护法。“拥有这些材料,以及传播、观看和创作,都是非法的,”荷兰在线恐怖主义和儿童色情材料监管机构主席阿尔达·格肯斯(Arda Gerkens)说。美国检察官呼吁国会加强与人工智能CSAM相关的法律。更广泛地说,研究人员呼吁采取多管齐下的方法来处理在线共享的CSAM。

  科技公司和研究人员正在研究各种技术和措施,以阻止人工智能生成的CSAM被创造出来,并阻止它从暗网论坛流出到开放的互联网上。格肯斯表示,科技公司有可能在创建人工智能模型时引入安全措施,“所有技术开发人员都需要意识到他们的工具被滥用的可能性。”

  其中包括对图像进行水印,创建更好的检测工具,以及检测可能导致创建AI CSAM的提示。斯坦福互联网天文台(Stanford Internet Observatory)的首席技术专家戴维·蒂尔(David Thiel)表示,除了使用现有工具外,大型科技公司正在寻求使用机器学习模型来帮助检测可能在其平台上共享的人工智能生成的CSAM图像。

  蒂尔与儿童保护组织Thorn的梅丽莎·斯特罗贝尔和丽贝卡·波特诺夫最近发表了一项关于如何减少人工智能CSAM的研究。该研究称,开发人员应该从他们的训练数据中删除有害内容,对他们的模型进行红队,以找到可能被滥用的方法,在模型中加入可以阻止他们产生儿童裸体或包括儿童在内的性内容的偏见,并对训练数据保持透明。报告称,开源模型的创建者应该评估可以下载其模型的平台,并删除对历史模型的访问权限。

  但许多人表示,安全措施来得太晚了。这项技术已经被用来制作有害内容。劳埃德?理查森(Lloyd Richardson)说:“任何你放在事后的东西都只是一个创可贴。”蒂尔补充道:“我们仍在努力清理那些试图率先将特定型号推向市场的人。

  与此同时,技术在不断进步,人工智能生成的视频很可能在未来出现。“我们从来没有真正意识到,如果有人可以在家里的电脑上安装一些东西,然后在硬盘上创建尽可能多的(照片),那会怎么样?现有受害者的全新形象,新的受害者,”IWF的塞克斯顿说。“互联网上已经有很多关于儿童的内容。这不会让事情变得更容易。”

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.agvcar.com All Rights Reserved

冀ICP备2024088436号