草海网

当前位置:首页 > 今日更新 > 正文

​Nightshade:使AI模型在未经许可的情况下无法训练图片

2024-04-09 11:00:04 今日更新
导读 关于​Nightshade:使AI模型在未经许可的情况下无法训练图片,这个很多人还不知道,今天澜澜就给大家说道说道,下面就让我们一起来看看吧! ...

关于​Nightshade:使AI模型在未经许可的情况下无法训练图片,这个很多人还不知道,今天澜澜就给大家说道说道,下面就让我们一起来看看吧!

站长之家(ChinaZ.com)4月9日 消息:据报道,芝加哥大学的研究人员开发了一种名为Nightshade的工具,旨在防止未经许可的AI图像生成。该工具可以使AI图像生成器无法使用未经许可的图像进行训练,从而保护了艺术家和版权所有者的作品。

Nightshade的工作原理是在图像中添加隐藏信息,这些信息对人眼不可见。当像Stable Diffusion这样的AI图像生成器尝试使用这些图像进行训练时,这些额外的信息会导致生成的输出失真,从而防止图像被有效地用作训练数据。即使用户对这些被“毒害”的图像进行裁剪、编辑和压缩,效果也仍然存在。Nightshade甚至在对被“毒害”的图像截屏或在显示器上显示时也能起作用;任何由此产生的图像如果被AI模型处理,都会产生失真。

相比于其他工具,如Stability提供的选择退出机制,Nightshade的设计初衷是增加使用未经许可内容的图像生成器开发者的成本。Nightshade还不同于Glaze,后者旨在阻止AI模型未经许可地训练图像,而Glaze则旨在增加AI模型复制艺术家独特风格的难度。

Nightshade工具对任何人都是可用的。用户可以从该项目的网站上下载,并且可以在Windows和Mac上运行。运行Nightshade不需要任何额外的GPU驱动程序。

Nightshade加入了越来越多的工具,为艺术家保护其作品,例如麻省理工学院的PhotoGuard,它创建了扭曲AI编辑图像的“掩码”。

此外,还有一些其他工具,如谷歌DeepMind的SynthID和Meta的Stable Signature,可用于识别由AI创建的图像。然而,这些工具仅适用于特定的图像生成模型,仅为Imagen和Emu等模型提供功能。

产品入口:https://top.aibase.com/tool/nightshade

以上就是关于【​Nightshade:使AI模型在未经许可的情况下无法训练图片】的相关内容,希望对亲们有所帮助!

标 签

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章

© 2008-2024 All Rights Reserved .草海网 版权所有

网站地图 | 百度地图 | 今日更新