Дослідники з OpenAI та інших установ пропонують уряду США обмежувати навчальні дані ШІ

Група дослідників з OpenAI, Стенфордського та Джорджтаунського університетів попереджає, що великі мовні моделі, подібні до тієї, що використовується в ChatGPT, можуть бути використані в рамках дезінформаційних кампаній, щоб полегшити поширення пропаганди.

У нещодавньому дослідженні, опублікованому в січні, говориться, що оскільки генеративні мовні моделі стають більш доступними, їх легше масштабувати, а текст стає більш достовірним і переконливим, у майбутньому вони будуть корисними для операцій впливу.

Автоматизація пропаганди є новою конкурентною перевагою, пишуть дослідники, яка здешевить дорогі тактичні прийоми та зробить їх менш помітними, оскільки кожна генерація тексту унікальна. Приклади того, як люди можуть використовувати генеративні мовні моделі для створення пропаганди, включають розсилку масових повідомлень на платформах соціальних мереж і написання розлогих новинних статей в інтернеті.

«Наше підсумкова думка полягає в тому, що мовні моделі будуть корисними для пропагандистів і, ймовірно, трансформують операції впливу в інтернеті, – пишуть дослідники в статті. – Навіть якщо найдосконаліші моделі залишатимуться закритими або контролюватимуться через доступ до інтерфейсу прикладного програмування (API), пропагандисти, ймовірно, тяжітимуть до альтернатив з відкритим вихідним кодом, а держави зможуть самі інвестувати в цю технологію».

Дослідники наводять приклад іншого дослідника, який доопрацював мовну модель на наборі даних постів 4chan і використав її для публікації 300 000 згенерованих постів на 4chan, значна частина яких була наповнена мовою ненависті. Відкритий код моделі завантажили 1500 разів, перш ніж його видалив сайт HuggingFace, на якому він був розміщений.

Здатність однієї людини створити таку масштабну кампанію в інтернеті за допомогою генеративного ШІ свідчить про те, що люди можуть легко проводити операції впливу, не маючи потужних ресурсів. У статті також йдеться про те, що моделі можна навчати, використовуючи цільові дані, в тому числі модифікувати їх так, щоб вони були більш корисними для завдань переконання і створювали викривлені тексти, які підтримують певну місію.

Дослідники попереджають, що окрім постів та статей в інтернеті, пропагандисти можуть навіть використати власних чат-ботів, які переконуватимуть користувачів у правоті меседжів кампанії. Як доказ того, що чат-боти можуть бути потужними пропагандистами, дослідники наводять попереднє дослідження, яке показало, як чат-бот допоміг вплинути на людей, щоб вони отримали вакцину від COVID-19.

Дослідники пропонують структуру для зменшення загрози використання генеративних моделей в операціях впливу, перераховуючи втручання, які можуть відбуватися на будь-якому з чотирьох етапів конвеєра — створення моделі, доступ до моделі, поширення контенту та формування переконань.

Дослідники пропонують розробникам ШІ створювати більш чутливі до фактів моделі. Вони також пропонують урядам накласти обмеження на збір навчальних даних і створити контроль доступу до апаратних засобів ШІ, таких як напівпровідники.

«У жовтні 2022 року уряд США оголосив про експортний контроль напівпровідників, МСП і програмного забезпечення для проєктування чипів, спрямований на Китай, – пишуть дослідники. – Ці заходи можуть уповільнити зростання обчислювальних потужностей у Китаї, що може суттєво вплинути на їхню здатність створювати майбутні мовні моделі. Поширення такого контролю на інші юрисдикції видається можливим, оскільки ланцюжок поставок напівпровідників є надзвичайно концентрованим».

Однак вони визнають, що «експортний контроль апаратного забезпечення є тупим інструментом і має далекосяжні наслідки для світової торгівлі та багатьох галузей, не пов’язаних зі штучним інтелектом». У блозі, присвяченому цій роботі, OpenAI заявила, що вона не схвалює прямо пом’якшувальні заходи, а лише пропонує рекомендації для законодавців.

Дослідники також пропонують посилити контроль над доступом до моделей, зокрема закрити вразливі місця в системі безпеки та обмежити доступ до майбутніх моделей.

Що стосується контенту, то дослідники пропонують, щоб платформи координували свої дії з постачальниками ШІ для виявлення контенту, написаного ШІ, і вимагали, щоб весь контент був написаний людиною.

Нарешті, дослідники закликають установи брати участь у кампаніях з медіаграмотності та надавати інструменти ШІ, орієнтовані на споживача.

Хоча наразі не зафіксовано жодного випадку використання великої мовної моделі для поширення дезінформації, наявність у відкритому доступі таких моделей як ChatGPT, призвела до того, що деякі люди використовують її, наприклад, для списування шкільних завдань та іспитів.

«Ми не хочемо чекати, поки ці моделі будуть розгорнуті для масштабних операцій впливу, перш ніж ми почнемо розглядати способи пом’якшення наслідків», – сказав Джош А. Голдштейн, один з провідних авторів звіту і дослідник Центру безпеки і нових технологій, в інтерв’ю Cyberscoop.