Националната администрация за безопасност на движението по пътищата на САЩ (NHTSA) започна разследване на 2,6 милиона автомобила Tesla, оборудвани с технологията за дистанционно управление Smart Summon, след сигнали за четири инцидента, съобщи „Ройтерс“.
То е допълнение към текущата проверка на 2,4 милиона превозни средства с Full Self-Driving (FSD), започнала през октомври м. г. Тогава агенцията се фокусира върху четири катастрофи, включително фатален инцидент през 2023 г., при които автомобилите не са успели да реагират на аварийни ситуации.
Колите не са могли да засекат стълбове или паркирани превозни средства, действайки с приложението. Агенцията добави за информация, че потребителите "имат твърде малко време за реакция, за да избегнат катастрофа при наличната видимост или с пускане на бутон за телефонно приложение, който спира движението на автомобила".
Въпросната функция за автомобилите на "Тесла" беше пусната на пазара през септември и позволява на потребителите дистанционно да "повикат" придвижват превозното си средство или да го насочат към друго място с помощта на приложение за смартфон.
Предишната функция даваше възможност на хората да преместват колата си напред или назад към или от място за паркиране.
Агенцията за безопасност на движението започна предварителна оценка на функцията и след това трябва да реши дали да прибегне към инженерен анализ, преди да може да поиска изтегляне.
Това обаче не е първият случай, в който Tesla попада под прицела на американските регулатори заради функциите си за автономно управление.
Предишни разследвания на Tesla
Автопилот и катастрофи със спешни превозни средства (2021):
NHTSA започна разследване на над 800 000 автомобила Tesla с функцията Autopilot след 12 катастрофи с участието на спрели линейки и полицейски коли. Разследването разкри, че системата не разпознава или игнорира предупредителните светлини и пътните знаци.
Неочаквани ускорения (2020):
Искове от собственици твърдяха, че автомобили на Tesla са преживели неочаквано ускорение. Впоследствие регулаторите установиха, че случаите са причинени от човешки грешки, а не от дефект в системата.
Системата за автоматично спиране (2019):
NHTSA проучи случаи, при които Model 3 и Model S внезапно са задействали аварийно спиране без причина. Проблемът беше свързан със софтуерни грешки, които Tesla реши с актуализации по въздуха.
Горящи батерии (2018):
Tesla също е разследвана заради случаи на самозапалване на батериите в Model S и Model X. Въпреки че инцидентите бяха редки, те предизвикаха обществено недоволство относно сигурността на електромобилите.
Какво следва?
Последните действия на NHTSA подчертават вниманието към рисковете на автономните технологии. Tesla продължава да обещава революция в автомобилния сектор, но тези разследвания повдигат важни въпроси относно безопасността и надеждността на иновациите, преди те да бъдат внедрени масово.
Този материал е написан с помощта на изкуствен интелект под контрола и редакцията на поне двама журналисти от Клуб Z. Материалът е част от проекта "От мястото на събитието предава AI".
Още по темата
Подкрепете ни
Уважаеми читатели, вие сте тук и днес, за да научите новините от България и света, и да прочетете актуални анализи и коментари от „Клуб Z“. Ние се обръщаме към вас с молба – имаме нужда от вашата подкрепа, за да продължим. Вече години вие, читателите ни в 97 държави на всички континенти по света, отваряте всеки ден страницата ни в интернет в търсене на истинска, независима и качествена журналистика. Вие можете да допринесете за нашия стремеж към истината, неприкривана от финансови зависимости. Можете да помогнете единственият поръчител на съдържание да сте вие – читателите.
Подкрепете ни