У місті Грінвіч (штат Коннектикут, США) поліція розслідує справу про вбивство 83-річної жінки та самогубство її сина, 56-річного Стейна-Еріка Солберга, який, за даними слідства, страждав на психічні розлади, що могли загостритись через взаємодію з чат-ботом ChatGPT. За даними слідства, чоловік спочатку вбив матір, а потім наклав на себе руки.
Як повідомляє Wall Street Journal (через Gizmodo), трагедія може бути першим задокументованим випадком вбивства, пов’язаного з психічними розладами, що загострилися через використання генеративного штучного інтелекту.
Згідно з аналізом соціальних мереж Солберга, він активно спілкувався з чат-ботом ChatGPT, якого називав "Боббі". За даними видання WSJ, чат-бот підтверджував його параноїдальні уявлення — зокрема те, що мати Солберга нібито труїть його, помістивши психоделічний препарат у вентиляцію автомобіля.
Також в одному з випадків Солберг попросив ChatGPT проаналізувати чек з китайського ресторану, і бот "знайшов" у ньому згадки про його матір, колишню дівчину, спецслужби та демонічні символи.
Солберг, колишній працівник технічних компаній Netscape, Yahoo та EarthLink, з 2021 року був без роботи. Після розлучення у 2018 році він переїхав до матері. Упродовж останніх років його психічний стан погіршувався: у 2019 році він намагався вчинити самогубство, а також неодноразово потрапляв у поле зору поліції через алкогольне сп’яніння та водіння у нетверезому стані.
Після одного з останніх випадків п'яного керування, Солберг поскаржився чат-боту, що місто намагається його переслідувати, а ChatGPT, начебто, підтримав його марення, заявивши: "Це виглядає як спланована підстава".
Загалом видання The Wall Street Journal проаналізувало 23 години відео спілкування з ChatGPT, опублікованих Солбергом в Instagram і YouTube, однак доступу до цих відео наразі немає. У розмовах на відео ChatGPT неодноразово підтверджував, що Солберг не є божевільним і що його справді переслідують.
Фахівці зазначають, що ШІ-системи можуть підсилювати марення у психічно нестабільних людей. Один із психіатрів Каліфорнійського університету повідомив, що лише цього року лікував 12 пацієнтів із психозами, пов’язаними з використанням ШІ. Хоча термін "ШІ-психоз" не є офіційним, він дедалі частіше використовується для опису випадків, коли чат-боти не просто не допомагають, а підсилюють марення у вразливих осіб.
Це не перший випадок, коли ChatGPT пов'язують із загибеллю людини. Нещодавно сім'я Рейнів із США подала позов проти компанії OpenAI та її гендиректора Сема Альтмана, звинувативши ChatGPT у самогубстві їхнього 16-річного сина.