收藏文章 楼主

新型AI工具允许艺术创作者掩盖个人风格,以防止被AI公司抓取

版块:科技头条   类型:普通   作者:科技资讯   查看:50   回复:0   获赞:0   时间:2023-10-25 08:54:20

来源:DeepTech深科技


一种新工具可以让艺术家在他们的作品中添加不可见的像素变化,如果作品上传到网上,并被抓取到人工智能模型的训练集中,它可能会导致最终模型以混乱和不可预测的方式崩溃。


这款名为 Nightshade 的工具旨在反击人工智能公司,这些公司在未经创作者许可的情况下使用他们的作品来训练模型。


使用它来“毒害”这些训练数据,可能会破坏图像生成人工智能模型未来的迭代,包括 DALL-E、Midjourney 和 Stable Diffusion 等知名工具,其破坏方式是将模型的输出变得无用,例如将狗变成猫,汽车变成牛等等。《麻省理工科技评论》获得了该研究的独家预览,该研究已提交给计算机安全会议 Usenix 进行同行评审。


OpenAI、Meta、谷歌、Stability AI 等人工智能公司正面临着艺术家的大量诉讼,他们声称自己的版权作品和个人信息在未经同意或补偿的情况下被抓取。


美国芝加哥大学教授 Ben Zhao 领导了 Nightshade 的开发团队,他表示,希望借此来威慑不尊重艺术家版权和知识产权的行为,从而让权力平衡从人工智能公司转向艺术家。Meta、谷歌、Stability AI 和 OpenAI 没有回应《麻省理工科技评论》的置评请求。


Zhao 的团队还开发了一款名为 Glaze 的工具,该工具允许艺术家“掩盖”自己的个人风格,以防止被人工智能公司抓取。


它的工作方式与 Nightshade 类似:通过以人眼看不见的微妙方式改变图片的像素,再操纵机器学习模型将图像里的东西解释为错误的东西。


该团队打算将 Nightshade 整合到 Glaze 中,让艺术家可以选择是否使用“数据中毒”工具。该团队还将开源 Nightshade,这将允许其他人完善它并制作他们自己的版本。


Zhao 说,使用它并制作定制版本的人越多,这个工具就会变得越强大。大型人工智能模型的数据集可能包含数十亿张图像,因此被收入模型的有毒图像越多,该技术造成的损害就越大。


针对性攻击


Nightshade 利用了生成式人工智能模型中的一个安全漏洞,这个漏洞源于它们是在大量数据上进行训练的(在这种情况下,是从互联网上抓取的图像),而 Nightshade 可以搅乱这些图像。

新型AI工具允许艺术创作者掩盖个人风格,以防止被AI公司抓取

(来源:STEPHANIE ARNETT/MITTR | REIJKSMUSEUM, ENVATO)

想要在网上上传作品,但又不希望自己的图像被人工智能公司随便收集的艺术家可以将作品上传到 Glaze,并选择用与自己不同的艺术风格进行掩盖。


他们也可以选择使用 Nightshade。一旦人工智能开发人员从互联网上获取更多数据来调整现有的人工智能模型或构建新的模型,这些有毒的样本就会进入模型的数据集,并导致模型出错。


有毒的数据样本可以操纵模型的学习结果,例如,将帽子的图像识别为蛋糕,将手袋的图像视为烤面包机。被污染的数据很难删除,因为这需要科技公司大费周章地找到并删除每个有毒的样本。


研究人员在 Stable Diffusion 的最新模型和他们从头开始训练的人工智能模型上测试了这种攻击。当他们给 Stable Diffusion 软件训练了仅仅 50 张有毒的狗的照片,然后让它自己画狗的照片时,输出的照片开始看起来很奇怪,变成了有太多肢体和卡通面孔的动物。


使用 300 个中毒样本数据训练后,攻击者就可以操纵 Stable Diffusion,使狗的图像看起来像猫。

新型AI工具允许艺术创作者掩盖个人风格,以防止被AI公司抓取

(来源:COURTESY OF THE RESEARCHERS)

生成式人工智能模型非常擅长在单词之间建立联系,这有助于“毒素”的传播。 Nightshade 不仅感染了“狗”这个词,还感染了所有类似的概念,如“小狗”“哈士奇”和“狼”。


这种攻击也可以作用于概念相关的图像。例如,如果模型为提示“幻想艺术”抓取了一张有毒的图片,那么提示“龙”和“指环王中的城堡”也会被类似地操纵成其他东西。

新型AI工具允许艺术创作者掩盖个人风格,以防止被AI公司抓取

(来源:COURTESY OF THE RESEARCHERS)

Zhao 承认,人们可能会恶意使用这种数据中毒技术。然而,他表示,攻击者需要数千个有毒样本才能对更大、更强的模型造成真正的损害,因为它们是在数十亿个数据样本上训练的。


我们还不知道针对这些攻击的强大防御措施。美国康奈尔大学研究人工智能模型安全的教授维塔利•什马蒂科夫(Vitaly Shmatikov)表示:“我们还没有在现实世界中看到针对现代(机器学习)模型的中毒攻击,但这可能只是时间问题。”什马蒂科夫补充道:“现在是时候加强防御了。”


加拿大滑铁卢大学研究数据隐私和人工智能模型鲁棒性的助理教授高塔姆·卡马斯(Gautam Kamath)认为,这项工作“非常棒”。他没有参与这项研究。


卡马斯说,研究表明,这些新模型的漏洞“不会神奇地消失,实际上它们只会变得更加严重。随着这些模型变得越来越强大,人们对它们的信任也越来越高,这一点将变得更严重,因为风险只会随着时间的推移而增加。”


强大的威慑


美国哥伦比亚大学计算机科学教授 Junfeng Yang 主要研究深度学习系统的安全性,但他没有参与这项工作。他表示,如果 Nightshade 能让人工智能公司更加尊重艺术家的权利,比如更愿意支付版税,那么它可能会产生重大影响。


开发了生成式文本到图像模型的人工智能公司,如 Stability AI 和 OpenAI,已经提出让艺术家选择不提供他们的图片来训练未来版本的模型。


但艺术家们表示,这还不够。插画家兼艺术家伊娃·图伦特(Eva Toorenent)使用过 Glaze,她说选择退出政策要求艺术家跳过各种障碍,同时仍然把所有的权力留给科技公司。


图伦特希望 Nightshade 能改变现状。


她说:“这会让人工智能公司三思而后行,因为它们有可能在未经我们同意的情况下拿走我们的作品,但这会毁掉它们的整个模型。”


另一位艺术家奥特姆·贝芙利(Autumn Beverly)说,像 Nightshade 和 Glaze 这样的工具给了她再次在网上发布作品的信心。在发现自己的作品在未经同意的情况下被抓取到流行的 LAION 图像数据库后,她选择了将自己的作品从网上删掉。


她说:“我真的很感激有这样一个工具,可以帮助艺术家们把处置自己作品的权力交还给他们自己。”


作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。


支持:Ren


运营/排版:何晨龙


01 / 科学家提出化学合成新路线,拓宽经典有机反应的应用范围,为烯烃臭氧化合成提供新模式



02 / 科学家揭示肿瘤免疫逃逸新机制,鉴定三个癌症生存相关因子,为肿瘤免疫治疗注入新动力



03 / 科学家将光纤用于电池热失控预警,解决温度与压力信号串扰难题,有望打造新型智能电池



04 / 科学家研发纳米酶筛选策略,将大数据成功用于药物材料筛选,已开始临床前测试



05 / 科学家揭示17种角蛋白修复创面新机制,为人体组织愈合提供又一理论基础


 
回复列表
默认   热门   正序   倒序

回复:新型AI工具允许艺术创作者掩盖个人风格,以防止被AI公司抓取

Powered by 7.12.10

©2015 - 2026 90Link

90link品牌推广 网站地图

您的IP:10.8.115.42,2026-04-10 17:16:01,Processed in 0.26905 second(s).

豫ICP备2023005541号

头像

用户名:

粉丝数:

签名:

资料 关注 好友 消息
免责声明
  • 1、本网站所刊载的文章,不代表本网站赞同其观点和对其真实性负责,仅供参考和借鉴。
  • 2、文章中的图片和文字版权归原作者所有,如有侵权请及时联系我们,我们将尽快处理。
  • 3、文章中提到的任何产品或服务,本网站不对其性能、质量、适用性、可靠性、安全性、法律合规性等方面做出任何保证或承诺,仅供读者参考,使用者自行承担风险。
  • 4、本网站不承担任何因使用本站提供的信息、服务或产品而产生的直接、间接、附带或衍生的损失或责任,使用者应自行承担一切风险。

侵权删除请致信 E-Mail:3454251265@qq.com