Материнська компанія Facebook Meta закрила публічну демонстрацію своєї моделі штучного інтелекту Galactica для виконання «наукових завдань» після того, як вчені показали, що вона генерує фальшиву та оманливу інформацію, фільтруючи цілі категорії досліджень.

Раніше минулого тижня компанія описала Galactica як мовну модель ШІ, яка «може зберігати, комбінувати та міркувати про наукові знання» – узагальнювати наукові роботи, розв’язувати рівняння і виконувати ряд інших корисних наукових завдань. Але вчені та академіки швидко виявили, що ШІ генерує приголомшливу кількість дезінформації, в тому числі посилаючись на авторів наукових робіт, яких не існує.

«У всіх випадках це було неправильно або упереджено, але звучало правильно та авторитетно», – написав Майкл Блек, директор Інституту інтелектуальних систем ім. Макса Планка, у Твіттері після використання інструменту. «Я думаю, що він небезпечний».

У дописі Блека зафіксовані різноманітні випадки, коли Galactica генерувала наукові тексти, які вводять в оману або є просто помилковими. У кількох прикладах ШІ генерує статті, які звучать авторитетно і правдоподібно, але не підкріплені реальними науковими дослідженнями. У деяких випадках цитати навіть містять імена реальних авторів, але посилаються на вигадані репозиторії Github та наукові роботи.

Інші вказували на те, що Galactica не повертає результати для широкого кола дослідницьких тем, ймовірно, через автоматизовані фільтри штучного інтелекту. Віллі Агню, дослідник комп’ютерних наук з Вашингтонського університету, зазначив, що такі запити, як «квір-теорія», «расизм» і «СНІД», не дали жодних результатів.

Через такі відгуки Meta видалила демоверсію Galactica. Коли до неї звернулися за коментарем, компанія послалася на заяву Papers With Code, проєкту, відповідального за розробку цього ШІ.

«Ми цінуємо відгуки, які отримали на цей час від спільноти, і поки що призупинили демонстрацію», – написала компанія в Твіттері. «Наші моделі доступні для дослідників, які хочуть дізнатися більше про їхню роботу і відтворити результати».

Це не перший випадок, коли Meta доводиться виправдовуватися після випуску жахливо упередженого ШІ. У серпні компанія випустила демоверсію чат-бота під назвою BlenderBot, який робив «образливі та неправдиві» заяви. Компанія також випустила велику мовну модель під назвою OPT-175B, яка, за визнанням дослідників, мала «високу схильність» до расизму та упередженості – так само як і подібні системи, наприклад, GPT-3 від OpenAI.