该组织警告说,被识别的人工智能图像数量很少,但犯罪分子有可能产生前所未有的数量。
一家互联网安全组织警告称,在今年英国主办的全球人工智能峰会上,解决人工生成的儿童性虐待图像带来的威胁必须成为一个优先事项。该组织发布了有关该主题的首份数据。
互联网观察基金会(Internet Watch Foundation, IWF)表示,这种“令人震惊的逼真图像”可能会使儿童性虐待正常化,而追踪这些图像以确定它们是真的还是人为制造的,也可能分散人们对帮助真正受害者的注意力。
该组织致力于识别和删除在线虐待儿童的图像和视频,该组织表示,虽然被识别的人工智能图像数量仍然很少,但“犯罪分子有可能制作出数量空前的逼真的儿童性虐待图像”。
在5月24日至6月30日期间向IWF报告的29个包含疑似人工智能生成的儿童性虐待图像的url(网址)中,有7个被确认包含人工智能生成的图像。
这是IWF首次发布山西省普通高考网上报名系统的关于人工智能生成的儿童性虐待图像的数据。
该网站表示,它无法立即给出网址所在国家的具体位置,但这些图片包含A类和B类内容,其中一些是最严重的性虐待内容,其中描绘的儿童最小只有三岁。
该公司的分析师还发现了一份由罪犯撰写的在线“手册”,目的是帮助其他罪犯训练人工智能,并改进他们的提示,以返回更真实的结果。
该组织表示,尽管这类图片并非以真实儿童为主角,但也不是一种没有受害者的犯罪行为。该组织警告称,这可能会使儿童性侵犯正常化,并使人们更难发现真正的儿童可能处于危险之中。
上个月,Rishi Sunak宣布将于秋季在英国举行首届人工智能(AI)安全全球峰会,重点关注国际协调行动的必要性,以总体上减轻新兴技术的风险。
IWF首席执行官苏茜?哈格里夫斯表示,需要引入符合目的的立法,以“领先于”该技术被专门用于制作儿童性虐待图像所构成的威胁。
她说:“人工智能一直在变得越来越复杂。我们正在拉响警报,并表示,首相在今年晚些时候主持首届全球人工智能峰会时,需要将其构成的严重威胁视为首要任务。
“我们目前还没有看到大量这样的图片,但我们很清楚,犯罪分子有可能制作出数量空前的逼真的儿童性虐待图片。
唯一正部级大学“这对互联网安全和上网儿童的安全可能是毁灭性的。
“罪犯们现在正在使用人工智能图像生成器制作儿童遭受性虐待的逼真图像,有时令人震惊。
“对于公众来说,其中一些材料与儿童被性侵的真实画面完全无法区分。网上有更多这类材料会使互联网成为一个更加危险的地方。”
她说,继续滥用这项技术“可能会产生深远的黑暗后果——可能会让越来越多的人接触到这些有害内容”。
她补充说:“对儿童性虐待的描述,即使是人为的,也会使针对儿童的性暴力正常化。我们知道观看儿童性虐待图像与对儿童实施接触犯罪之间存在联系。”
IWF的首席技术官丹·塞克斯顿说:“我们担心的是,如果人工智能的儿童性虐待图像与真实图像无法区分,IWF的分析师可能会浪费宝贵的时间,试图识别并帮助执法部门保护不存在的儿童。”
“这意味着真正的受害者可能会被忽视,而防止现实生活中的虐待的机会可能会错过。”
安徽中专学校他补充说,在某些情况下,用于创建图像的机器学习是在真实的性虐待儿童受害者数据集上进行的训练,因此“儿童仍然受到伤害,他们的痛苦正在被纳入这些人工图像中”。
英国国家犯罪局(NCA)表示,虽然人工智能生成的内容只在“少数案件”中发挥作用,但这种风险“正在增加,我们正在非常认真地对待”。
NCA威胁领导主管克里斯·法里蒙德说:“在英国,制作或拥有使用人工智能或其他技术制作的伪图像是一种犯罪行为。”与在网上观看和分享的其他此类儿童性虐待材料一样,伪图像也在罪犯之间的虐待正常化和升级中发挥了作用。
“如果人工智能生成的材料数量增加,这可能会极大地影响执法资源,增加我们识别真正需要保护的儿童所需的时间,这是一个非常现实的可能性。”