Штучний інтелект останнім часом став особливо гучною темою, зокрема через генератори зображень, такі як DALL-E та Midjourney. Натреновані на мільярдах зображень, системи використовують привабливість чорного ящика, створюючи роботи, які здаються одночасно чужими та дивно знайомими, повідомляє видання Vice.

Ніхто не може пояснити, як нейронні мережі остаточно приймають рішення щодо зображень. Художник штучного інтелекту, на ім’я Supercomposite, опублікував тривожні та гротескні зображення жінки, яка нібито з’являється у відповідь на певні запити.

Жінка, яку митець називає «Лоаб», була вперше виявлена ​​в результаті техніки під назвою «негативні ваги підказок», у якій користувач намагається змусити систему штучного інтелекту генерувати протилежне до того, що вони вводять у підказку. Простіше кажучи, різні терміни можна «зважити» в наборі даних, щоб визначити, наскільки ймовірно вони з’являться в результатах. Втім, надаючи підказці від’ємну вагу, користувачі говорять системі штучного інтелекту: «Згенеруйте те, що, на вашу думку, є протилежним цій підказці».

У цьому випадку використання підказки з від’ємною вагомістю слова «Брандо» (маючи на увазі Марлона Брандо) створило зображення логотипа з панорамою міста та словами «DIGITA PNTICS». Коли Supercomposite використав техніку негативних ваг для слів у логотипі, з’явилася «Лоаб».

«Оскільки «Лоаб» було виявлено за допомогою негативних ваг підказок, її гештальт складається з набору рис, які однаково далекі від чогось», — написав користувач Supercomposite у повідомленні в Twitter. «Але її сукупні риси все ще є цілісною концепцією для штучного інтелекту, і майже всі зображення нащадків містять впізнаваний «Лоаб».

Зображення швидко стали вірусними в соціальних мережах, що призвело до різноманітних спекуляцій щодо того, що могло бути причиною цього тривожного явища. Supercomposite стверджує, що згенеровані зображення, отримані з оригінального зображення «Лоаб», майже повсюдно переходять у сферу жахів, графічного насильства та крові. Але незалежно від того, скільки варіацій було зроблено, на всіх зображеннях, здається, зображена та сама жахлива жінка.

«Через певний статистичний випадок щось у цій жінці межує із надзвичайно кривавими та моторошними образами у розподілі світових знань штучного інтелекту», — написав Supercomposite.

Проте незрозуміло, які інструменти штучного інтелекту використовувалися для створення зображень. В одному зі своїх твітів автор пише про новий генератор зображень на основі ШІ Stable Diffusion.

«Я не можу ні підтвердити, ні спростувати, яка це модель, з різних причин, на жаль! Але я можу підтвердити, що «Лоаб» існує в кількох моделях штучного інтелекту для генерації зображень», — сказав Supercomposite виданню Motherboard.

На жаль, практично неможливо точно знати, що відбувається. Системи штучного інтелекту генерують зображення, використовуючи моделі, які навчені на мільярдах зображень, і вони надто складні, щоб зрозуміти, чому досягається певний результат. Саме тому етики штучного інтелекту застерігають від використання великих мовних моделей, подібних до тих, які використовує DALL-E: вони просто занадто великі, а їхні результати надто непередбачувані, щоб надійно запобігти шкідливим результатам. 

У той час як OpenAI реалізував деякі ручні елементи керування для DALL-E, які блокують і фільтрують певні терміни, щоб запобігти створенню підроблених зображень знаменитостей, інші моделі штучного інтелекту, такі як Stable Diffusion, можуть використовуватись окремими дослідниками. Це спонукало деяких ентузіастів створити власний екземпляр програмного забезпечення та використовувати його для генерування різноманітного дивного порно та будь-якого іншого вмісту, проти якого творці можуть заперечувати.

Неможливо зрозуміти, як і чому моделі штучного інтелекту створюють такі тривожні аномалії, як «Лоаб», але це також та їх особливість, що інтригує. Нещодавно інша група художників штучного інтелекту заявила, що виявила «приховану мову» в DALL-E, проте спроби відтворити знахідки виявилися здебільшого невдалими.