首页 > 资讯 > 5G > 正文
2023-11-02 17:07

人工智能创造的儿童性虐待图片“威胁要淹没互联网”

一家安全监管机构警告称,人工智能生成的儿童性虐待图像正在成为“最可怕的噩梦”,并有可能淹没互联网。

互联网观察基金会(IWF)表示,他们发现近3000张人工智能制作的虐待图片违反了英法律。

这家总部位于英国的组织表示,现实生活中虐待受害者的现有图像正在被构建到人工智能模型中,然后人工智能模型会生成对她们的新描述。

它补充说,这项技术还被用来制作名人的“减龄”照片,然后被描绘成性虐待场景中的儿童。儿童性虐待材料(CSAM)的其他例子包括使用人工智能工具对网上发现的穿着衣服的儿童的照片进行“裸体化”。

IWF曾在今年夏天警告称,人工智能制造的滥用行为的证据开始出现,但该组织表示,其最新报告显示,该技术的使用正在加速。国际野生动物联合会首席执行官苏茜•哈格里夫斯表示,该机构“最糟糕的噩梦已经成真”。

“今年早些时候,我们警告说,人工智能图像可能很快就会与遭受性虐待的儿童的真实照片无法区分,我们可能会开始看到这种图像的数量激增。我们现在已经越过了那个点。”

“令人不寒而栗的是,我们看到犯罪分子故意用已经遭受虐待的真实受害者的图像来训练他们的人工智能。过去被强奸的儿童现在被纳入新的场景,因为有人在某个地方想看到它。”

IWF表示,它也看到了人工智能生成的图像在网上出售的证据。

该机构的最新发现是基于对暗网上一个虐待儿童论坛长达一个月的调查。暗网上是互联网的一部分,只能通过专门的浏览器访问。

该机构调查了该论坛上的11108张图片,其中2978张因描述儿童性虐待而违反了英国法律。

根据1978年《保护儿童法案》,人工智能生成的CSAM是非法的,该法案将拍摄、分发和拥有儿童的“不雅照片或假照片”定为犯罪。IWF表示,他们发现的绝大多数非法内容都违反了《儿童保护法》(Protection of Children Act),其中超过五分之一的图片被列为A类,这是最严重的一类内容,可以描述强奸和性虐待。

《2009年验尸官和司法法案》也将儿童的非摄影禁止图像(如漫画或绘画)定为刑事犯罪。

IWF担心,人工智能生成的CSAM将分散执法机构的注意力,无法发现真正的虐待行为并帮助受害者。

跳过过去的通讯推广

通讯推广后

哈格里夫斯说:“如果我们不控制这种威胁,这些材料可能会淹没互联网。”

IWF的首席技术官Dan Sexton说,图像生成工具Stable Diffusion是论坛上唯一讨论的人工智能产品。这是一个公开的人工智能模型,可以通过调整来帮助生成CSAM。

“我们已经看到了关于使用Stable Diffusion创建内容的讨论,这是一款公开可用的软件。”

Stable Diffusion背后的英国公司Stability AI表示,它“禁止在我们的平台上出于非法或不道德目的滥用该技术,我们的政策明确规定,这包括CSAM”。

政府表示,人工智能生成的CSAM将被包括在网络安全法案中,该法案将很快成为法律,社交媒体公司将被要求阻止它出现在他们的平台上。