Однією з основних проблем штучного інтелекту є "галюцинації", коли модель надає неправдиву інформацію, видаючи її за правду. Жоден чат-бот, включаючи ChatGPT від OpenAI, не застрахований від таких помилок, як, наприклад, випадок, коли він неправильно стверджував, що чоловік вбив своїх двох дітей, пише Engadget.
Австрійська правозахисна організація Noyb подала вже другу скаргу на "галюцинації" ChatGPT. Цього разу скарга стосується ситуації, коли чоловік запитав чат-бота OpenAI, яку інформацію той має про нього. У відповідь ChatGPT помилково стверджував, що чоловік був засуджений до 21 року ув’язнення за вбивство двох своїх дітей та спробу вбивства третьої дитини. Попри це, чат-бот також надав коректну інформацію, включаючи кількість дітей, їхню стать та назву рідного міста чоловіка.
Noyb також стверджує, що ця відповідь означає, що OpenAI порушує "Загальний регламент про захист даних" (GDPR).
"GDPR є чітким. Персональні дані повинні бути точними. А якщо це не так, користувачі мають право змінити їх, щоб вони відповідали дійсності", - заявив юрист із захисту даних Noyb Йоакім Сьодерберг. "Показати користувачам ChatGPT крихітне застереження про те, що чат-бот може помилятися, недостатньо. Не можна просто поширювати неправдиву інформацію, а в кінці додати невелике застереження, що все, що ви сказали, може просто не відповідати дійсності..."
Noyb подала ще одну скаргу щодо "галюцинацій" чат-бота OpenAI у квітні 2024 року, коли ChatGPT неправильно вказав дату народження публічної особи. OpenAI відхилила запит про коригування або видалення цієї інформації, стверджуючи, що не може змінити дані, вже наявні в системі. Серед інших випадків "галюцинацій" чат-бота були хибні звинувачення людини у шахрайстві та розтраті, судові документи про жорстоке поводження з дітьми та звинувачення професора права в сексуальних домаганнях.