Одним з потенційних застосувань штучного інтелекту є медицина, де нова технологія може допомагати лікарям. Наприклад, з виявленням переломів. Лікарі також використовують штучний інтелект для того, щоб підсумовувати зустрічі з пацієнтами. Однією з таких технологій є Whisper від OpenAI, яка була створена для розпізнавання мовлення та транскрипції. Однак застосування ШІ у медицині поки що має й негативні наслідки, пише The Verge.

Компанія Nabla використовує Whisper для медичного інструменту транскрипції, який, за даними дослідження ABC News, транскрибував вже понад 7 мільйонів медичних розмов. Цей інструмент використовує більш як 30 тисяч клініцистів, лікарів, дослідників і 40 систем охорони здоров’я. А негативні наслідки полягають у тому, що штучний інтелект від OpenAI інколи повністю видумує речення та додає їх у підсумки зустрічей.

Група дослідників з університетів Корнелла, Вашингтона та інших, виявили, що Whisper від OpenAI “галюцинує” близько 1% проведених транскрипцій. Штучний інтелект видумує повні речення інколи з агресивними або безглуздими фразами під час мовчання у записах.

Еллісон Кенеке, одна із дослідниць з Корнелльського університету, опублікувала приклади подібних галюцинацій.

“Ми сприймаємо цю проблему дуже серйозно та постійно працюємо над покращеннями, включно зі зменшенням галюцинацій. Що стосується використання Whisper на нашій платформі API, наші політики використання забороняють використання в певних контекстах прийняття рішень з високими ставками, а наша типова картка для використання з відкритим вихідним кодом містить рекомендації щодо використання у сферах з високим ризиком. Ми дякуємо дослідникам за те, що вони поділилися своїми висновками”, – зазначила представниця OpenAI Тая Крістіансон.