L’Administration nationale de la sécurité routière (NHTSA) a lancé une enquête sur 2,4 millions de véhicules Tesla équipés du logiciel Full Self-Driving (FSD) de l’entreprise, suite à des rapports de quatre accidents, dont un incident mortel. Cette enquête fait suite à des préoccupations concernant la capacité du système à fonctionner dans des conditions de visibilité réduite telles que l’éblouissement du soleil, le brouillard et la poussière en suspension dans l’air.
Selon la NHTSA, l’incident le plus grave a impliqué un véhicule Tesla frappant mortellement un piéton alors que le logiciel FSD était activé. Un autre accident a entraîné des blessures. L’enquête couvre un large éventail de modèles Tesla, y compris le Model S 2016-2024 et le Model X, le Model 3 2017-2024, le Model Y 2020-2024, et le Cybertruck 2023-2024, tous équipés de la fonctionnalité FSD en option.
La évaluation préliminaire de la NHTSA est la première étape pour déterminer si un rappel formel sera nécessaire. L’agence examine spécifiquement les contrôles d’ingénierie du FSD, en particulier la manière dont il détecte et réagit à la visibilité réduite. De plus, l’enquête évaluera si Tesla a apporté des mises à jour au système en réponse à ces incidents, et si ces mises à jour ont amélioré la sécurité dans de telles conditions.
Le logiciel de conduite entièrement autonome de Tesla a longtemps été un sujet controversé, la société soulignant que le système nécessite une supervision active du conducteur et n’est pas complètement autonome. Cependant, cette enquête remet en lumière les implications en matière de sécurité du logiciel dans le monde réel, surtout alors que le PDG de Tesla, Elon Musk, pousse l’entreprise vers la conduite autonome et des services de robotaxi dans un marché de plus en plus concurrentiel.
Avec une légère baisse des actions de Tesla suite à l’annonce, l’enquête représente un défi significatif pour le constructeur automobile, qui a présenté le FSD comme un élément clé de son futur modèle économique. La NHTSA va maintenant examiner si le logiciel de Tesla présente un « risque déraisonnable » et si davantage d’accidents se sont produits dans des conditions de visibilité similaires. Le résultat de cette enquête pourrait avoir des implications considérables tant pour la technologie FSD de Tesla que pour l’industrie de la conduite autonome dans son ensemble.