被人工智能(AI)围攻的艺术家们研究他们的作品,然后复制他们的风格,他们与大学研究人员合作,阻止这种模仿行为。
美国插画家帕洛玛·麦克莱恩(Paloma McClain)在得知几个人工智能模型使用她的艺术作品“训练”后,进入了辩护模式,没有给她任何信用或补偿。
“这让我很困扰,”麦克莱恩告诉法新社。
“我相信真正有意义的技术进步是在道德上完成的,它能提升所有人的水平,而不是以牺牲他人为代价。”
这位艺术家求助于芝加哥大学研究人员开发的名为Glaze的免费软件。
在训练方式上,Glaze基本上比人工智能模型更胜一筹,它以人类观众无法察觉的方式调整像素,但这使得一件数字化艺术品看起来与人工智能截然不同。
Glaze团队的计算机科学教授本·赵(Ben Zhao)表示:“我们基本上是在提供技术工具,帮助保护人类创作者免受侵入性和滥用性人工智能模型的侵害。”
在短短四个月的时间里,Glaze剥离了用于破坏面部识别系统的技术。
“我们以超快的速度工作,因为我们知道问题很严重,”赵说,他急于保护艺术家免受软件模仿者的侵害。
“很多人都很痛苦。”
生成式人工智能巨头已经达成协议,在某些情况下使用数据进行训练,但大多数用于塑造超级智能软件思维方式的数字图像、音频和文本都是在未经明确同意的情况下从互联网上刮下来的。
据Zhao介绍,自2023年3月发布以来,Glaze的下载量已超过160万次。
Zhao的团队正在开发一种名为Nightshade的琉璃增强功能,通过混淆人工智能来加强防御,比如让它把狗理解为猫。
麦克莱恩说:“我相信,如果有足够多的艺术家使用它,并把足够多的有毒图片放到网上,它将产生显著的效果。”
“根据龙葵的研究,它不会像人们想象的那样需要很多有毒的图像。”
据这位芝加哥学者说,已经有几家公司与赵的团队接洽,希望使用龙葵。
“我们的目标是让人们能够保护自己的内容,无论是个人艺术家还是拥有大量知识产权的公司,”赵说。
创业公司Spawning开发了一款Kudurru软件,可以检测从在线场所获取大量图像的企图。
根据Spawning联合创始人Jordan Meyer的说法,艺术家可以阻止访问或发送与请求不匹配的图像,从而污染用于教授人工智能的数据池。
超过1000个网站已经被整合到Kudurru网络中。
Spawning还推出了haveibeentrained.com网站,该网站提供了一个在线工具,可以查看数字化作品是否已被输入人工智能模型,并允许艺术家选择在未来不使用这种工具。
随着对图像的防御力度加大,密苏里州华盛顿大学的研究人员开发了一款反假软件,以阻止人工智能复制声音。
AntiFake丰富了人们说话的数字录音,增加了人们听不到的噪音,但这使得“无法合成人声”,该项目的博士生余志远(Zhiyuan Yu)说。
该计划的目的不仅仅是阻止未经授权的人工智能训练,还旨在防止“深度造假”的产生,即伪造名人、政客、亲戚或其他人做或说他们没有做或说的事情的原声或视频。
据余志远(Zhiyuan Yu)称,最近一个受欢迎的播客向AntiFake团队寻求帮助,以防止其作品被劫持。
研究人员说,这款免费软件目前已被用于录音,但也可以应用于歌曲。
“最好的解决方案是,所有用于人工智能的数据都要经过同意和付费,”迈耶认为。
我们希望推动开发者朝这个方向发展。”
tu-gc / mdl / tjj
本文来自作者[家均]投稿,不代表文学号立场,如若转载,请注明出处:https://8ucq.com/wenxuehao/11775.html
评论列表(4条)
我是文学号的签约作者“家均”!
希望本篇文章《美术师使用科技武器对抗AI模仿者》能对你有所帮助!
本站[文学号]内容主要涵盖:文学号, 名著深析, 创作秘笈, 经典文脉, 诗词鉴赏, 作家故事, 每日文萃, 写作指南, 文本细读, 文学灯塔, 经典重释
本文概览:˂pclass="279b-27fe-e7ca-5966 description"˃被人工智能(AI)围攻的艺术家们研究他们的作品,然后复制他们的风格,他们...