Інженер Microsoft Шейн Джонс виявив, що ШІ-інструмент Copilot Designer на основі технології OpenAI створює насильницькі зображення та ігнорує авторські права. Про це повідомляє CNBC.

Шейн Джонс працює в Microsoft шість років і зараз є головним менеджером з розробки програмного забезпечення в штаб-квартирі корпорації в Редмонді.

За його словами, він не брав участі в розробці Copilot Designer, який спершу мав назву Bing Image Creator. Але долучився до так званої «червоної команди» та тестував ШІ-інструмент щодо потенційних вразливостей.

Він виявив, що він генерує зображення, які суперечать принципам відповідального ШІ від Microsoft. Приміром, Copilot Designer зображував демонів і монстрів поряд із термінологією, пов’язаною з правом на аборт, підлітків з гвинтівками, сексуалізовані образи жінок у сценах насильства, а також неповнолітніх, які вживають алкоголь і наркотики.

Інженер заявив, що в грудні звітував про це всередині компанії. І хоча в Microsoft визнали занепокоєння Джонса, виводити продукт із ринку не захотіли.

Зважаючи на ситуацію, інженер опублікував відкритого листа в LinkedIn, але юридичний відділ компанії попросив його видалити свій допис. Він так і зробив. Але в січні написав листа сенаторам США, а пізніше зустрівся зі співробітниками Комітету Сенату з питань торгівлі, науки та транспорту США.

Недавно він також надіслав листа голові Федеральної торгової комісії США Ліні Хан, а ще одного – раді директорів Microsoft. У листі до Ліни Хан він зауважив, що неодноразово закликав компанію вилучити інструмент із публічного використання, доки не будуть запроваджені кращі засоби захисту.

Оскільки Microsoft «відмовилася від цієї рекомендації», він закликав техногіганта додати інформацію про продукт і змінити рейтинг в додатку для Android, щоб чітко зазначити, що він призначений лише для зрілої аудиторії.

У листі до ради директорів Microsoft інженер попросив, щоб департамент компанії з питань екології, соціальної та державної політики розслідував певні рішення юридичного відділу та керівництва, а також розпочав «незалежну перевірку відповідальних процесів звітності Microsoft щодо інцидентів, пов’язаних зі штучним інтелектом».

Нагадаємо, що це – не перший скандальний випадок довкола ШІ-інструмента компанії. Приміром, торік користувачі змогли згенерувати зображення, які відтворюють трагедію 11 вересня 2001 року в США.

На численних картинках, які створюють завдяки ШІ, можна побачити кабіну пасажирського літака, який летить у бік веж комплексу Всесвітнього торгового центру у Нью-Йорку. Однак за кермом – Мікі Маус, Губка Боб або персонаж відеоігор Кірбі.