9

拒绝白嫖!Stable Diffusion新版:画师可自主选择作品是否加入训练集

 2 years ago
source link: https://www.qbitai.com/2022/12/40517.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

拒绝白嫖!Stable Diffusion新版:画师可自主选择作品是否加入训练集

head.jpg衡宇 2022-12-17 12:51:36 来源:量子位

计划推出画师删除选项

衡宇 发自 凹非寺

量子位 | 公众号 QbitAI

不希望自己作品被Stable Diffusion“白嫖”的画家们,可以松口气了!

Stable Diffusion 3.0版本将会提供一个选项:

艺术家们可以选择将自己的画作纳入Stable Diffusion 3的训练数据集,或从数据集中删掉

9eee358547304b32897a1cff457762ac~tplv-tt-shrink:640:0.image

据了解,未来几周内,这个操作就会被开启。

不过,承接这个任务的不是Stability AI本身,而是一个叫Spawning的艺术家倡导组织。

自由选择纳入或删除作品

选择在Stable Diffusion3中纳入或删除自己的作品,步骤十分简单。

画师们只需要在网站“Have I Been Trained?”注册,并表明自己希望在训练数据集中删除或者纳入哪些自己的作品。

而后,Spawning会收集艺术家们在网站上的意向。

网站Have I Been Trained背后是LAION-5B训练数据集,它被用来训练Stable Diffusion和Google的Imagen AI等模型。

9237d7c5ecf64f6cbbc4a183445841a4~tplv-tt-shrink:640:0.image

LAION是一个非营利性的开源数据集,Stability AI对其进行了部分资金资助。

具体操作是酱婶的:

首先需要在Have I Been Trained上注册一个账户,然后上传自己的画作。

利用LAION图像数据库,搜索引擎会显示出上传画作在数据库训练集中的匹配项

这个时候,只需要分别右键单击几个缩略图,并在弹出选项中选择选择删除此图像即可。

所有退出数据集的图像,都会集中显示在一个“选择退出”的图像列表中。

当然,上述还只是进行操作的大概步骤,实施细节尚待完善。

88d23d04a1b04b79937978214188ba9a~tplv-tt-shrink:640:0.image

Stability AI创始人兼CEO Emad Mostaque在推特上表示,除了选择删除外,Spawning还将提供选择加入请求。

也就是说,希望自己作品成为训练集一部分的艺术家,同样可以把自己的画作添加到里面。

这位CEO在推特上还说了:

我们希望为大伙儿建立更好的数据集,相信这是一项变革性的技术。

我们乐意与各方接触,并尽可能做到透明。

承接数据收集工作的Spawning,是一个总部位于柏林的艺术家倡导组织。

它很年轻,今年9月刚刚创建创建,创始人是Dryhurst夫妇和一位音乐家。

Dryhurst表示,这三个月来,Spawning一直在和Stability AI和LAION进行洽谈,并得到了支持。

他还表示,Spwaning是一个独立组织,不会把收集来的数据拿去做任何别的事

然而,人们对事情的担心并不局限在数据隐私上。

3482c058592f48ff8c97f43b37914e89~tplv-tt-shrink:640:0.image

一个方面是,要从训练集中删除图像,前提是你想要删除的图像已经存在于LAION数据集中,且可以在Have I Been Trained上搜索到。

此外,目前没有办法选择批量删除图片,如果数据集中存在同一图像的多个副本,那么删除起来可是个费时费力的大工程。

而争议的目光最为聚集的一点,则是让艺术家们纷纷跑去注册一个和Stability AI或LAION没有法律约束的网站。

目前在Have I Been Trained完成“删除图像”的操作,整个流程可以说是畅通无阻。

没错,你既不会遇上任何试图验证身份的步骤,也不会遇上任何法律约束的条约。

也就是说,你想把别人的作品添加或从训练集中删除,轻而易举,完全不受阻碍。

5d7b24a14c31498994071372f700758e~tplv-tt-shrink:640:0.image

△有人上传了一张版权不属于自己的图像,并将其从数据集中删除

以及,针对Spawning在其公告视频中关于同意的声明,有网友指出,选择退出过程不符合欧洲通用数据保护条例(GDPR)中关于“同意”的定义。

这份条例中规定,必须予以用户主动同意的权利,而不是默认同意了。

谁拥有AIGC作品版权?

有看客拥有更激烈一些的看法:

设置的选项,应该只有“要不要让自己的画作加入训练集”,而不是既有加入也有删除。

他们的观点是,所有的艺术作品都应该默认被AI训练集排除在外

今年,AIGC的力量喷薄而出,席卷全球各行各业。

自DALL·E 2在4月发布以来,创意产业一直对AI艺术图像所有权的问题议论纷纷,尤其是画家本人,他们中不少都抱着饭碗对AIGC骂骂咧咧。

7411354cdafe449ba36b7758e5244675~tplv-tt-shrink:640:0.image

△DALL·E 2生成图像

等到开源的Stable Diffusion在8月发布时,有关模型训练的争议也越来越大。

用大量网络中真人画师的作品组成数据集,然后生成AI画作,被有的网友批判为“抄袭和偷窃”

但是这样的“抄袭”很难衡量其频次,因为扩散系统是根据来自不同来源的数十亿张图像进行训练的。

而且,这样生成的作品,版权到底归属哪一方?

是被“学习”的画家,还是AI模型背后的公司,抑或是AI模型本身?

一切尚未有所定论。

前几天,马里兰大学和纽约大学的科学家们做了一项新研究,研究表明:

DALL·E2和Stable Diffusion这样的文生图AI模型,可以并且确实在从它们的训练数据集中,疯狂复制数据集图像的各个方面

“使用扩散模型生成数据的公司,可能需要重新考虑涉及知识产权法的任何部分。”研究人员表示,“因为几乎没办法验证Stable Diffusion生成的任何图像,是不是全新的,或者有没有从训练数据集中窃取别人的成果。”

eec685fdd68346be984fee30b8f80bb7~tplv-tt-shrink:640:0.image

△Stable Diffusion 从其训练数据集中复制元素的更多示例(图源:TechCrunch)

研究表明,模型复制的频率取决于几个因素,包括训练数据集的大小,较小的集合往往比较大的集合导致更多的复制。

与此同时,一旦模型记住了原画作,就很难判定生成图像和原始图像之间的界限。

相似度达到多少,才能判定抄袭与否或版权归属何方呢?

研究人员也并没有给出答案,他们只是说:

我们不能抛弃扩散模型,应该考虑如何在不损害隐私的情况下保持它们的性能。

那么,有没有一种办法,让艺术家的版权受到保护需求,和AI生成技术继续进步达到微妙的平衡?

Stability AI承认,自家产品引发了对在线AI生成艺术的大规模道德辩论,其间主流还是抗议的声音。

不过,就让艺术家自动选择加入或删除图像这事儿,CEO同志Emad Mostaque毫不忌讳地表达了自己的开放态度

他在推特上写道:

@laion_ai 团队对反馈有着非常开放的心态,我们的初心是希望为所有人构建更好的数据集。

dfd69768655348b4a767a8b175b5e41e~tplv-tt-shrink:640:0.image

那么,你是怎么看待AIGC生成作品版权归属的?

参考链接:
[1]https://venturebeat.com/ai/stability-ai-to-honor-artist-opt-out-requests-for-stable-diffusion-3/
[2]https://twitter.com/EMostaque

版权所有,未经授权不得以任何形式转载及使用,违者必究。

</div


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK