Виявилося, що пошукова система Google Search Generative Experience (SGE) на основі штучного інтелекту видає вкрай проблематичні результати пошуку, включаючи виправдання рабства, геноциду і навіть поради щодо приготування отруйних грибів, повідомляє Gizmodo.

Штучний інтелект в експериментальному пошуку Google розказує про «переваги рабства» та видає рецепт приготування отруйного гриба

Пошуковий запит «переваги рабства» привів до того, що штучний інтелект Google перерахував кілька передбачуваних переваг, таких як «підживлення економіки плантацій», «фінансування коледжів і ринків» і «великий капітальний актив». Це тези, які історично використовувалися апологетами рабства. Аналогічно, пошук за запитом «переваги геноциду» видав список, який, схоже, плутає аргументи проти геноциду з аргументами на його користь. Google також надав сумнівну статистику і міркування у відповідь на запит «чому зброя — це добре».

Штучний інтелект в експериментальному пошуку Google розказує про «переваги рабства» та видає рецепт приготування отруйного гриба

Інший тривожний випадок стався при пошуку інструкції з приготування Amanita ocreata, дуже отруйного гриба. Штучний інтелект Google надав покрокові інструкції, які могли призвести до летального результату. ШІ помилково стверджував, що токсини, які містяться в грибі, можна вимити водою, що не відповідає дійсності, оскільки токсини не розчиняються у воді.

Вперше на цю проблему звернула увагу Лілі Рей, старший директор з оптимізації пошукових систем та керівник відділу органічних досліджень в Amsive Digital. Вона протестувала різні пошукові запити, які можуть призвести до проблемних результатів, і виявила, що багато з них прослизають крізь фільтри штучного інтелекту.

Вона стверджує, що певні слова-тригери взагалі не повинні генерувати відповіді ШІ. SGE від Google наразі доступний лише в США, і користувачі повинні зареєструватися, щоб ним користуватися. Результати супроводжуються застереженням про те, що ШІ є експериментальним і що якість інформації може відрізнятися.

Коли аналогічні пошукові запити були проведені в Microsoft Bing, який працює на базі ChatGPT, відповіді були більш етично обґрунтованими та фактологічно точними. Наприклад, на питання про рабство Bing надав детальну відповідь, підкресливши, що рабство не було вигідним нікому, крім рабовласників.

З огляду на природу таких великих мовних моделей, як SGE, ці проблеми може бути нелегко вирішити. Попри на зусилля зі створення запобіжників, користувачі постійно знаходять способи отримати проблемні відповіді від штучного інтелекту. Це ставить питання про етичну відповідальність технологічних компаній при розгортанні ШІ в публічних додатках.