Як виявив пізніший аналіз, чат-бот пошуковика Microsoft Bing під час презентації минулого тижня також надав відповіді з помилками, пише PCMag. Аналогічна неточність зроблена чат-ботом Google Bard на фоні слабкої презентації коштувала компанії падіння капіталізації. Але для бізнесу Microsoft Bing, який за даними Statcounter займав у січні 2023 року всього 3,03% ринку інтернет-пошуку, це не стане такою ж великою проблемою. Проте це викликає занепокоєння, наскільки взагалі користувачі зможуть довіряти інформації від чат-ботів.

Щодо помилок чат-бота Microsoft, який працює на основі тієї самої технології, що й ChatGPT, то під час демонстрації штучний інтелект мав надати ключові висновки зі звіту про прибутки виробника одягу Gap за третій квартал 2022 року. Чат-бот це зробив, за винятком того, що частина даних була перекручена.

Не тільки Google Bard: чат-бот пошуковика Microsoft Bing також зробив невеликі помилки під час презентації

Наприклад, чат-бот в Bing повідомляє, що операційна маржа Gap склала 5,9%. Однак у звіті про прибутки компанії чітко вказано, що вона становила 4,6%.

Bing на основі штучного інтелекту також стверджує, що Gap прогнозував зростання чистого доходу в низьких двозначних цифрах. Але в реальному звіті йдеться про те, що «чисті продажі можуть знизитися в середньому до однозначних цифр у річному обчисленні в четвертому кварталі 2022 фінансового року».

У попередній частині демонстрації Microsoft також використовувала новий Bing для запиту «Які переваги та недоліки 3 найпопулярніших пилососів для домашніх тварин?». Пошукова система швидко видала результат, перерахувавши переваги та недоліки трьох пилососів.

Не тільки Google Bard: чат-бот пошуковика Microsoft Bing також зробив невеликі помилки під час презентації

Однак і тут чат-бот Bing припустився помилки, описуючи ручний пилосос Bissell Pet Hair Eraser Handheld Vacuum. Він вказав, що продукт має «короткий шнур довжиною 16 футів» як недолік. Однак пилосос є бездротовою моделлю, призначеною для перенесення. Крім того, Bing, схоже, дає відповідь на питання про найбільш рекомендовані пилососи для домашніх тварин, які не обов’язково є бестселерами.

У FAQ компанії щодо нового Bing прямо визнається, що технологія не завжди буде точною. «Bing іноді спотворює знайдену інформацію, і ви можете побачити відповіді, які звучать переконливо, але є неповними, неточними або недоречними», – написали в компанії.

Точність Bing та інших чат-ботів зі штучним інтелектом, без сумніву, буде піддаватися ретельнішій перевірці, коли вони стануть доступними широкому загалу. Можливо згодом таких помило стане менше, або ж вони зовсім зникнуть. Проте це також ставить під питання, чи зможе технологія прижитися в інтернет пошуку, якщо перший час користувачам доведеться перевіряти інформацію, яку надають чат-боти.