Автопілот Tesla пов’язаний з сотнями аварій та десятками смертей, виявили в NHTSA

Національна адміністрація безпеки дорожнього руху США (NHTSA) виявила значні проблеми з системами автопілота і повного автономного водіння Tesla, пов’язуючи їх з численними аваріями та смертельними випадками через недостатню залученість водія, повідомляє The Verge.

У березні 2023 року учень з Північної Кароліни виходив зі шкільного автобуса, коли його збив автомобіль Tesla Model Y, що їхав на “великій швидкості”, згідно з результатами федерального розслідування, опублікованого у пʼятницю. Водій Tesla використовував автопілот – передову функцію допомоги водієві, яка, за словами Ілона Маска, в кінцевому підсумку призведе до створення повністю автономних автомобілів.

Постраждалого 17-річного студента з травмами, небезпечними для життя, доставили до лікарні гелікоптером. Але розслідування NHTSA, вивчивши сотні подібних аварій, виявило, що неуважність водіїв у поєднанні з недоліками технології Tesla призвела до сотень травм і десятків смертей.

Водії, які використовували автопілот або більш просунуту версію системи – FSD (Full Self-Driving – повне самостійне водіння), “не були достатньо залучені в процес керування”, а технологія Tesla “не забезпечувала належним чином, щоб водії могли зосередити свою увагу на виконанні завдання”, – дійшли висновку в NHTSA.

Комплексний аналіз NHTSA охопив 956 аварій з січня 2018 року по серпень 2023 року, в яких були задіяні функції автоматизованого водіння Tesla. З них було зафіксовано 29 смертельних випадків. Примітно, що 211 з цих інцидентів включали зіткнення передньої частини Tesla з іншим транспортним засобом або перешкодою, що призвело до 14 смертей і 49 поранень.

Розслідування NHTSA було розпочато після кількох випадків, коли водії Tesla врізалися в припарковані на узбіччі стаціонарні автомобілі екстреної допомоги. Більшість з цих інцидентів сталися в темну пору доби, а програмне забезпечення ігнорувало заходи контролю місця події, включаючи попереджувальні ліхтарі, сигнальні вогні, конуси та підсвічування стрілок.

У своєму звіті агентство встановило, що автопілот – а в деяких випадках і FSD – не був розроблений для того, щоб водій міг зосередитися на управлінні автомобілем. Компанія Tesla заявляє, що попереджає своїх клієнтів про необхідність бути уважними під час використання автопілота і FSD, що передбачає тримання рук на кермі та стеження за дорогою. Але NHTSA стверджує, що в багатьох випадках водії ставали надмірно самовпевненими й втрачали фокус. А коли приходив час реагувати, часто було вже надто пізно.

У 59 аваріях, досліджених NHTSA, агентство виявило, що водії Tesla мали достатньо часу, “п’ять або більше секунд”, перед зіткненням з іншим об’єктом, щоб зреагувати. У 19 з цих аварій небезпека була видимою за 10 або більше секунд до зіткнення. Проаналізувавши журнали аварій і дані, надані Tesla, NHTSA виявила, що в більшості проаналізованих аварій водії не встигли загальмувати або повернути кермо, щоб уникнути небезпеки.

“Аварії, в яких водій не намагався уникнути небезпеки або робив це занадто пізно, були виявлені у всіх версіях обладнання Tesla та за всіх обставин аварії”, – зазначили в NHTSA.

Агентство також зазначило, що підхід Tesla до автоматизації 2-го рівня (L2) помітно відрізняється від аналогів, що може перешкоджати водіям брати активну участь у керуванні автомобілем. Ситуація ускладнюється використанням компанією Tesla терміну “автопілот”, який, на думку NHTSA, вводить в оману, припускаючи більші можливості, ніж надає система. Це призвело до розслідування генеральним прокурором Каліфорнії та Департаментом автотранспорту штату щодо потенційного оманливого маркетингу та брендингу Tesla.

NHTSA визнає, що розслідування може бути неповним через “прогалини” в телеметричних даних Tesla. Це може означати, що існує набагато більше аварій, пов’язаних з автопілотом і FSD, ніж те, що вдалося виявити NHTSA.

Наприкінці минулого року Tesla добровільно відкликала свою продукцію у відповідь на розслідування, випустивши бездротове оновлення програмного забезпечення, яке додало більше попереджень до автопілота. Сьогодні NHTSA повідомила, що розпочинає нове розслідування щодо відкликання після того, як низка експертів з безпеки заявила, що оновлення було неадекватним і все ще допускає зловживання.

Всупереч цим висновкам, генеральний директор Tesla Ілон Маск продовжує просувати безпеку і неминучий прогрес автономних автомобілів. Він стверджує, що дані підтверджують значно нижчий рівень аварійності для автономних автомобілів порівняно з автомобілями, керованими людиною, і розглядає продовження розвитку технології автономного водіння як захід, що рятує життя. Tesla також просувається вперед з планами запровадити послугу роботаксі, що потенційно може революціонізувати її роль як лідера в галузі технологій автономних транспортних засобів.