У Чиказькому університеті створили інструмент, який дозволить митцям ефективно боротися з порушенням авторського права. Про це повідомив професор комп’ютерних наук закладу Бен Чжао, пише Gizmodo.

Інструмент, який створила його команда, називається Nightshade. Він додає у твори художників пікселі, невидимі для людського ока. З усім тим, на моделі штучного інтелекту вони діють буквально як отрута.

Коли модель навчають на творах із доданими пікселями, то вона починає руйнуватися. Як експеримент спеціалісти випробували технологію на моделі Stable Diffusion XL від Stability AI.

Коли модель отримала достатню кількість «отруєних» зображень, то почала неправильно інтерпретувати підказки. Наприклад, «автомобіль» перетворився на «корову», «собака» на «кішку», а «капелюх» на «торт».

Залежно від моделі, для її руйнації можуть знадобитися сотні, а то й тисячі видозмінених за допомогою Nightshade зображень. Втім, це може змусити розробників генераторів зображень двічі подумати перед тим, як навчати ШІ на крадених творах.

Однак це не єдина розробка команди Бена Чжао. Спеціалісти створили також інструмент під назвою Glaze, який створює своєрідний «плащ» для художнього стилю. Він діє подібно до Nightshade і може маскувати зображення художників, щоб генератори зображення не могли імітувати їхній стиль.

Раніше стало відомо, що Google випробовує невидимий водяний знак, щоб виявляти зображення, які були створенні завдяки штучному інтелекту. Це робиться для боротьби з дезінформацією.