Nightshade е нов инструмент, позволяващ унищожаване на AI модели с повредени данни за обучение
Редица артисти, изпълнители и дори звукозаписни компании заведоха дела срещу компании с изкуствен интелект, заради използваните данни за обучение. Тези AI модели не биха работили без достъп до големи количества мултимедия. В това число писмени материали и изображения създадени от художници. Последните не са имали информация за използването на работата им при обучение на нови комерсиални AI продукти.
Въпросните набори от данни за обучение на AI модели включват материал изтрит от мрежата. Това е практика, която артистите преди това масово поддържаха, когато беше използвана за индексиране на резултати от търсене. Сега мнозина се обявиха срещу нея, защото позволява създаването на конкурентна работа чрез AI.
И без съдебните дела, всички имат шанс да отвърнат на ИИ с помощта на технологиите. Вече имаме ексклузивен поглед върху нов инструмент с отворен код, който все още се разработва. Той е наречен Nightshade и може да бъде добавен от творци към техните изображения, преди да ги качат в мрежата. Програмата ще промени пикселите по начин невидим за човешкото око, но отровен за всички AI модели, които искат да се обучават от него.
Историята на Nightshade
Nightshade е разработен от изследователи от Чикагския университет. Той ще бъде добавен като опция по избор към предишния продукт Glaze. Това е друг онлайн инструмент, който може да прикрие дигитално произведение на изкуството и да промени пикселите му, за да обърка AI моделите относно неговия стил.
В случая с Nightshade контраатаката на художниците срещу AI отива малко по-далеч. Тя кара моделите на AI да научават грешните имена на обектите и пейзажа, които гледат.
Например, изследователите са отровили изображения на кучета. Така те включат информация в пикселите, които ги карат да изглеждат като котки. След само 50 проби от отровени изображения, AI започва да генерира изображения на кучета със странни крака и обезпокоителен външен вид.
След 100 проби надеждно е генерирана котка, когато потребител е поискал куче. След 300 проби всяко искане за котка връща почти перфектно изглеждащо куче.
Stable Diffusion
Изследователите са използвали Stable Diffusion, модел с отворен код за генериране на текст към изображение, за да тестват Nightshade и да получат гореспоменатите резултати.
Благодарение на естеството на начина, по който работят генеративните AI модели, чрез групиране на концептуално подобни думи и идеи в пространствени клъстери, Nightshade също успя да проследи Stable Diffusion като стига до изображение с котки.
Техниката за отравяне на данни на Nightshade е трудна за защита, тъй като изисква разработчиците на AI модели да отсеят всички изображения, които съдържат отровени пиксели. По дизайн те не са очевидни за човешкото око и може да са трудни за откриване дори от софтуерните инструменти.
Всички отровени изображения, които вече са били използвани за обучение на AI, също ще трябва да бъдат открити и премахнати. Ако AI модел вече е обучен на тях, вероятно ще трябва да бъде обучен отново.
Въпреки че изследователите признават, че тяхната работа може да бъде използвана за злонамерени цели те се надяват, че ще помогнат за връщане на баланса на силите от AI компаниите към артистите. Вече е създадена мощна възпираща мярка срещу незачитането на авторските права и интелектуалната собственост.