斯坦福大学互联网观测站研究员 David Thiel 在一个污染图像生成器的 AI 训练数据集中发现儿童性虐待材料 (CSAM) 的链接后,这个有争议的数据集立即于 2023 年被删除。
现在,LAION(大规模人工智能开放网络)团队发布了 LAION-5B 数据集的精简版本,名为 Re-LAION-5B,并声称它“是第一个网络规模的、文本链接到图像对的数据集”彻底清除可疑 CSAM 的已知链接。”
为了清理数据集,LAION 与互联网观察基金会 (IWF) 和加拿大儿童保护中心 (C3P) 合作,删除了与在线安全组织数据库中的哈希图像匹配的 2,236 个链接。删除的内容包括 Thiel 标记的所有链接,以及 LAION 的合作伙伴和其他监管机构(例如人权观察组织)标记的内容,人权观察组织在未经孩子同意的情况下发现数据集中包含真实孩子的照片后警告了隐私问题。
蒂尔在他的研究中警告说,“人工智能模型训练数据中包含虐待儿童材料,可以教授工具将儿童与非法性活动联系起来,并使用已知的虐待儿童图像来生成新的、可能真实的虐待儿童内容。”
Thiel 敦促 LAION 和其他在互联网上抓取 AI 训练数据的研究人员表示,需要一个新的安全标准,不仅可以更好地过滤 CSAM,还可以过滤掉任何可以与儿童照片结合生成 CSAM 的露骨图像。 (近日,美国司法部尖锐表示“AI生成的CSAM仍然是CSAM。”)
虽然 LAION 的新数据集不会改变在先前数据集上训练的模型,但 LAION 声称 Re-LAION-5B 设定了“清理网络规模图像链接数据集的新安全标准”。 LAION 的博客称,在非法内容“溜过”LAION 的过滤器之前,研究人员现在开发了一种改进的新系统,“用于识别和删除非法内容”。
Thiel 告诉 Ars,他同意 LAION 在其最新版本中设定了新的安全标准,但“绝对有办法改进它。”然而,“这些方法需要拥有所有原始图像或进行全新的爬行”,LAION 的帖子明确表示,它只利用图像哈希值,并没有进行可能存在引入更多非法或敏感内容风险的新爬行。 (在 Threads 上,Thiel 分享了对 LAION 清理数据集的工作的更深入的印象。)
LAION 警告说,“仅靠当前最先进的过滤器还不够可靠,无法保证在网络规模数据组合场景中免受 CSAM 的影响。”
“为了确保更好的过滤,由专家组织(在我们的例子中是 IWF 和 C3P)创建的可疑链接或图像的哈希列表是合适的选择,”LAION 的博客说。 “我们建议研究实验室和任何其他从公共网络构建数据集的组织与 IWF 和 C3P 等组织合作,获取此类哈希列表并使用这些列表进行过滤。从长远来看,可以创建一个更大的共同计划来创建此类哈希可供从事网络数据集合成研究社区使用的列表。”
据 LAION 称,更令人担忧的是,一些被抓取到 2022 年数据集中的已知 CSAM 的链接在一年多后仍然有效。
“这是一个明确的暗示,执法机构必须根据 IWF 和 C3P 等组织的信息和建议,加大力度取缔公共网络上托管此类图像内容的域名,使其成为一个更安全的地方,也适合各种研究相关活动,”LAION 的博客说。
人权观察研究员 Hye Jung Han 赞扬 LAION 删除了她标记的敏感数据,同时也敦促采取更多干预措施。
Han 告诉 Ars:“LAION 从数据集中删除一些儿童的个人照片的做法非常受欢迎,这将有助于保护这些儿童的肖像免遭人工智能系统滥用。” “现在政府有责任通过儿童数据保护法,以保护所有儿童的在线隐私。”
尽管 LAION 的博客表示,内容删除代表了初始数据集中存在的 CSAM 的“上限”,但 AI 专家和 Creative.AI 联合创始人 Alex Champandard 告诉 Ars,他对所有 CSAM 都被删除表示怀疑。
“他们只过滤掉之前发现的 CSAM,这只是部分解决方案,”Champandard 告诉 Ars。 “从统计数据来看,大多数 CSAM 实例可能从未被 C3P 或 IWF 报告或调查过。对该问题的更合理估计是大约 25,000 个你永远不想训练生成模型的实例,甚至可能是 50,000 个。”
Champandard 同意 Han 的观点,即当训练数据被从网络上抓取时,需要更多的法规来保护人们免受人工智能的伤害。
“各方面都有改进的空间:隐私、版权、非法内容等,”尚潘达说。由于“此类网络抓取数据集侵犯了太多数据权利”,Champandard 表示,像 LAION 这样的数据集不会“经受住时间的考验”。
尚潘达说:“在政策制定者意识到问题的严重性之前,LAION 只是在监管空白和司法系统滞后的情况下运作。”
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除