(ChinaZ.com) 10 月 26 日消息:隨著人工智能(AI)技術的快速發展,其訓練數據的獲取和使用變得日益重要,但也出現了濫用現象。為了抵御這種濫用,一款名為「Nightshade」的新工具應運而生,為創作者提供了一種保護他們創意作品不被無授權用于 AI 模型訓練的方法。
Nightshade 工具使得用戶能夠將其附加到他們的創意作品上,從而在使用該作品進行訓練時「毒化」AI 模型的數據。通過對數字藝術作品的像素進行不可見的修改,Nightshade 能夠在作品被 AI 模型訓練時利用安全漏洞對模型造成混淆。例如,它可以讓模型無法識別汽車圖像,反而識別為牛的圖像。最終,這種毒化數據可以破壞諸如 DALL-E、Stable Diffusion 和 Midjourney 等 AI 藝術平臺的未來模型,剝奪其生成圖像的能力。
《麻省理工學院科技評論》報告稱,芝加哥大學教授兼 Nightshade 的創建者之一 Ben Zhao 希望通過這款工具,改變目前 AI 公司借助侵權數據訓練模型的現狀。Nightshade 的研究論文指出,文本至圖像的 AI 模型很容易受到這種攻擊的影響。
創作者可通過上傳他們的作品到 Nightshade 創建者開發的另一款工具 Glaze 中,保護其藝術風格不被模仿。例如,Glaze 可以將通常的現實主義繪圖轉變為立體主義風格。未來,Nightshade 將被集成到 Glaze 中,讓用戶選擇是否使用「毒丸」,或滿足于模型無法模仿他們的藝術風格。
Nightshade 的創建者在論文中提議,應將 Nightshade 及類似工具作為保護創作者免受不遵守退出規則的網絡爬蟲侵害的「最后防線」。
目前,圍繞 AI 生成內容和訓練數據的版權問題在缺乏相關法規的情況下仍然是一個灰色地帶。許多與版權侵權戰斗的訴訟仍在法庭上進行。同時,防止網絡爬蟲未經許可獲取數據的方法也受到了限制。Adobe 公司計劃使用標記來標識是否為 AI 生成的內容,同時顯示圖像的所有者。
最初針對生成性 AI 平臺的一些訴訟集中在版權材料被無授權用于模型訓練上,特別是在文本至圖像平臺方面。今年 1 月,三名藝術家分別起訴了 Stable Diffusion、Midjourney 和藝術網站 DeviantArt,聲稱其模型未經許可使用了他們的藝術作品。Getty Images 也在構建自己的基于許可圖像訓練的 AI 圖像生成器之前,對 Stable Diffusion 提起了訴訟。
谷歌和微軟表示,如果客戶在使用他們的生成性 AI 產品時因侵犯版權而被起訴,他們愿意承擔法律責任。然而,大多數這些產品都是基于文本的。