Кейд Метц (Cade Metz) з The New-York Times кілька місяців спілкувався з науковцями, які створюють чат-боти, та з людьми, які ними користуються, для того, щоб зрозуміти, чи варто довіряти штучному інтелекту, який дає вам відповіді на ваші запитання.

Один з його інсайдерів, професор, дослідник штучного інтелекту Джеремі Говард, з допомогою своєї 7-річної доньки вивчав чат-бота під назвою ChatGPT, випущеного однією з найамбітніших світових лабораторій штучного інтелекту OpenAI.

Висновок, якого дійшов Говард – чат-бог міг би стати чимось на кшталт персонального репетитора з математики, природничих наук чи англійської мови, але найважливіший урок, який він міг би дати – «не вірте всьому, що вам кажуть».

OpenAI є однією з багатьох компаній, які працюють над створенням більш досконалих чат-ботів. Ці системи не можуть спілкуватися як людина, але часто здається, що це так. Вони також можуть отримувати та обробляти інформацію зі швидкістю, яка ніколи не була доступна людині. Їх можна розглядати як цифрових помічників — таких як Siri або Alexa.

Після появи ChatGPT, яким скористалися понад мільйон людей, багато експертів вважають, що ці нові чат-боти готові переосмислити або навіть замінити такі пошукові системи, як Google і Bing.

Вони можуть подавати інформацію короткими реченнями, а не довгими списками посилань. Вони пояснюють поняття так, щоб люди могли їх зрозуміти. І вони можуть надавати факти, а також генерувати бізнес-плани, теми курсових робіт та інші нові ідеї з нуля.

«Тепер у вас є комп’ютер, який може відповісти на будь-яке питання так, як це зрозуміло людині, – каже Аарон Леві, виконавчий директор компанії Box з Кремнієвої долини, і один з багатьох керівників, які досліджують, як чат-боти змінять технологічний ландшафт. – Він може екстраполювати і брати ідеї з різних контекстів та об’єднувати їх».

Нові чат-боти діють з повною впевненістю. Але вони не завжди говорять правду. Іноді вони навіть не можуть виконати просту арифметику та змішують факти з вигадкою. І оскільки вони продовжують вдосконалюватися, то можуть бути використані для генерування і поширення неправди.

Нещодавно компанія Google створила систему спеціально для розмов, яка отримала назву LaMDA, або «Мовна модель для діалогових додатків». Цієї весни один з інженерів Google стверджував, що вона є розумною. Це не так, але модель захопила уяву громадськості.

Фахівець з даних Аарон Марголіс був серед обмеженої кількості людей за межами Google, яким було дозволено використовувати LaMDA через експериментальний застосунок Google AI Test Kitchen. Він постійно дивувався його таланту до нескінченної розмови. Це розважало його. Але як і слід було очікувати від системи, навченої на основі величезних обсягів інформації, розміщеної в інтернеті, її відповіді не завжди мали зв’язок з реальністю.

«Те, що він подає вам, схоже на фільм Аарона Соркіна, – сказав Марголіс, маючи на увазі «Соціальну мережу», фільм, який часто критикують за викривлення правди про походження Facebook. – Частково це буде правдою, а частково – ні».

Нещодавно він попросив LaMDA і ChatGPT поспілкуватися з ним так, ніби це був Марк Твен. Коли він звернувся до LaMDA, вона описала зустріч між Твеном і Леві Штраусом, і сказала, що письменник працював на магната з виробництва джинсів, живучи в Сан-Франциско в середині 1800-х років. Це здавалося правдою. Насправді Твен і Штраус жили в Сан-Франциско в один і той же час, але вони ніколи не працювали разом.

Вчені називають цю проблему «галюцинацією». Подібно до хорошого оповідача, чат-боти мають властивість брати те, що вони дізналися, і перетворювати у щось нове, без огляду на те, чи є це правдою.

LaMDA – це те, що дослідники штучного інтелекту називають нейронною мережею, математичною системою, вільно змодельованою на кшталт ланцюжка нейронів у мозку. Це та сама технологія, яка перекладає з французької на англійську в Google Translate, та ідентифікує пішоходів під час навігації міськими вулицями самокерованих автомобілів.

Нейронна мережа набуває навичок, аналізуючи дані. Наприклад, визначаючи закономірності на тисячах фотографій котів, вона може навчитися розпізнавати котів.

П’ять років тому дослідники з Google і таких лабораторій, як OpenAI, почали розробляти нейронні мережі, які аналізували величезні обсяги цифрового тексту, включаючи книги, статті Вікіпедії, новини та журнали онлайн-чатів. Вчені називають їх «великими мовними моделями». Виявивши мільярди різних шаблонів у тому, як люди пов’язують слова, цифри та символи, ці системи навчилися самостійно генерувати текст.

OpenAI працює над вдосконаленням технології ChatGPT. Чат-бот не підтримує вільну розмову, як LaMDA від Google. Він був розроблений, щоб працювати, як Siri, Alexa та інші цифрові помічники. Як і LaMDA, ChatGPT навчався на великих обсягах цифрового тексту, взятого з інтернету.

Коли люди тестували систему, вона просила їх оцінити її відповіді. Чи були вони переконливими? Чи були вони корисними? Чи були вони правдивими? Потім, за допомогою техніки, яка називається «навчанням з підкріпленням», вона використовувала ці оцінки для вдосконалення системи та більш ретельного визначення того, що вона робитиме, а чого не робитиме.

«Це дозволяє нам дійти до того, що модель може взаємодіяти з вами і визнавати, якщо вона помиляється, – сказала Міра Мураті, головний технічний директор OpenAI. – Вона може відкинути те, що є недоречним, і оскаржити питання або передумову, яка є неправильною».

Метод не був ідеальним. OpenAI попередила тих, хто використовує ChatGPT, що чат-бот «іноді може генерувати неправильну інформацію» і «видавати шкідливі інструкції або упереджений контент». Але компанія планує продовжувати вдосконалювати технологію, і нагадує людям, які нею користуються, що це все ще дослідницький проєкт.

Google, Meta та інші компанії також працюють над точністю. Нещодавно Meta видалила онлайн-прев’ю свого чат-бота Galactica, оскільки він неодноразово генерував неправильну та упереджену інформацію.

Експерти попереджають, що компанії не контролюють долю цих технологій. ChatGPT, LaMDA і Galactica засновані на ідеях, дослідницьких роботах і комп’ютерному коді, які роками циркулювали у вільному доступі.

Такі компанії, як Google та OpenAI, можуть просувати технології швидше, ніж інші. Але їхні розробки були відтворені та широко розповсюджені. Вони не можуть перешкодити людям використовувати ці системи для поширення дезінформації.