Моторошну історію розповіла користувачка Twitter Kristin Livdahl: коли її 10-річна донька спитала у “розумної” голосової колонки Amazon Echo з вбудованим асистентом Alexa, який би “челендж” та порекомендувала їй пройти, Alexa запропонувала… не до кінця встромити зарядний пристрій в розетку та доторкнутися до відкритих зубців монеткою.

На підтвердження цього Крістін опублікувала скриншот останньої активності Alexa, на якому можна побачити, що цю “пораду” Alexa взяла зі статті на сайті новин, де вона описується як небезпечна з посиланням на популярні у TikTok виклики. На щастя, вона у цей час була поруч, тому одразу закричала “Ні, Alexa, ні!” — та її донька заспокоїла матір, що вона вже досить розумна, аби не погодитися на таку пропозицію.

Amazon вже відреагувала на цю подію, вибачилася за поведінку свого пристрою та відповідним чином скорегувала його алгоритми, тож зараз отримати пораду від Alexa з цим “челенджем” вже не виходить.

Це, мабуть, найбільш кричущий випадок неадекватної поведінки “розумних” асистентів та невідповідних ситуації порад з їх боку, але відсутність модерації призводить до багатьох інших — хай не смертельних, але все одно дуже неприємних. Наприклад, у відповідях на оригінальний твіт хтось згадав, як на прохання свого 7-річного сина поділитися якимось цікавим фактом про Санту Alexa навела дуже “цікавий”, як для дитини, факт — “Санти не існує”.