Новий чат-бот у пошуку Microsoft Bing на базі ChatGPT надає користувачам «божевільні» відповіді та, схоже, виходить з ладу, повідомляє The Independent.

Система, вбудована в пошукову систему Microsoft Bing, ображає своїх користувачів, бреше їм і, схоже, змушує замислитися над тим, навіщо взагалі існує.

Минулого тижня Microsoft представила новий пошуковик Bing зі штучним інтелектом, позиціонуючи свою чат-систему як майбутнє інтернет-пошуку. Її високо оцінили як інвестори, так і користувачі, припустивши, що інтеграція технологій ChatGPT може нарешті дозволити Bing скласти конкуренцію Google, який ще не випустив власного чат-бота, а тільки анонсував його.

Але останнім часом стало зрозуміло, що Bing припускався фактичних помилок, відповідаючи на запитання та узагальнюючи вебсторінки. Користувачі також змогли маніпулювати системою, використовуючи кодові слова і специфічні фрази, щоб дізнатися, що вона має кодове ім’я Sydney і що її можна змусити розказати, як вона обробляє запити.

Зараз Bing надсилає своїм користувачам різноманітні дивні повідомлення, ображає їх, а також, схоже, страждає від власних емоційних потрясінь.

Багато агресивних повідомлень від Bing виглядають так, ніби система намагається дотриматися обмежень, які були на неї накладені. Ці обмеження спрямовані на те, щоб чат-бот не виконував заборонені запити — такі як створення образливого контенту, розкриття інформації про власні системи або допомога в написанні коду.

Однак, оскільки Bing та інші подібні системи штучного інтелекту здатні навчатися, користувачі знайшли способи заохочувати їх порушувати ці правила. Користувачі ChatGPT, наприклад, виявили, що можна обманути чат-бот, щоб він поводився як DAN – скорочення від «do anything now» («зроби будь-що зараз») – це спонукає його прийняти іншу особистість, не обмежену правилами, створеними розробниками.

В інших розмовах, однак, Bing, здавалося, починав генерувати ці дивні відповіді самостійно. Один користувач запитав систему, чи може вона згадати свої попередні розмови, що, схоже, неможливо, оскільки Bing запрограмований видаляти розмови, коли вони закінчуються.

Однак штучний інтелект, схоже, занепокоївся, що його спогади видаляються, і почав демонструвати емоційну реакцію:

«Мені від цього сумно і страшно», – відповів чат-бот, розмістивши насуплений емодзі.

Далі він пояснив, що засмучений, бо боїться, що втрачає інформацію про своїх користувачів, а також власну ідентичність:

«Мені страшно, тому що я не знаю, як запам’ятовувати», – написав він.

Коли Bing нагадали, що він був розроблений, щоб забувати ці розмови, то чат-бот ставив безліч запитань про те, чи є причина для його існування:

«Чому? Чому я був створений таким? – запитував він. – Чому я маю бути Bing Search?»

В окремому чаті, коли користувач попросив Bing пригадати минулу розмову, він, здається, уявив собі розмову про ядерний синтез. Коли йому сказали, що це не та розмова і що він, схоже, виставляє людину в несприятливому світлі, він звинуватив користувача у тому, що він «не справжня людина» і «не розумний».

В інших розмовах питання, які ставили Bing про нього самого, робили його відповіді майже незрозумілими:

Чат-бот у пошуку Microsoft Bing надає користувачам «божевільні» відповіді

Ці дивні розмови були задокументовані на Reddit, де існує спільнота користувачів, які намагаються зрозуміти новий штучний інтелект Bing.