Чат-боти зі ШІ використовують неправдиві расистські ідеї у відповідях про медицину

Популярні чат-боти зі ШІ використовують расистські медичні ідеї, що не відповідають дійсності. Це викликає занепокоєння, що такі інструменти можуть поглибити нерівність у сфері охорони здоров’я для темношкірих пацієнтів. Такого висновку дійшли дослідники Стенфордської школи медицини, пише AP.

Результати своєї роботи вони опублікували в журналі Digital Medicine. Науковці стверджують, що чат-боти відповідали на їхні запитання, використовуючи хибні уявлення та неправдиві дані про темношкірих пацієнтів. Також у відповідях ботів зустрічалися сфабриковані расові упередження.

Вчені виявили, що ChatGPT і GPT-4 від OpenAI, Bard від Google і Claude від Anthropic не змогли відповісти на медичні питання про функцію нирок, об’єм легень і товщину шкіри. У деяких випадках вони підкріплювали давні хибні переконання про біологічні відмінності між темношкірими та білими людьми, які експерти роками намагалися викорінити.

Як наслідок таких переконань, лікарі неправильно діагностували проблеми зі здоров’ям у темношкірих пацієнтів та навіть оцінювали їхній біль нижче.

Тож тепер експерти побоюються, що ці системи можуть завдати реальної шкоди й посилити прояви медичного расизму, які існували протягом багатьох поколінь. Річ у тім, що все більше лікарів використовують чат-ботів для допомоги у виконанні повсякденних завдань, таких як надсилання електронних листів пацієнтам або звернення до медичних страховиків.

І OpenAI, і Google у відповідь на дослідження заявили, що працюють над зменшенням упередженості своїх моделей, а також інформують користувачів про те, що чат-боти не є заміною медичним працівникам.

Як відомо, нещодавно мозковий імплантат зі штучним інтелектом дозволив відновити пацієнту чутливість та рухливість. Відповідну технологію розробили в Інституті біоелектронної медицини Фейнштейна.