L’Autopilot de Tesla ne protège pas assez les conducteurs et leurs passagers, selon la sécurité routière américaine. Mis sur la sellette il y a plus de deux ans par la National Highway Traffic Safety Administration (NHTSA), qui a mené une enquête pendant plus de vingt-quatre mois, le système d’aide à la conduite de Tesla, baptisé Autopilot, va devoir être revu sur plus de deux millions de véhicules aux États-Unis. Les véhicules concernés sont certains Model S produits entre 2012 et 2023 et équipés du système, tous les Model X produits entre 2016 et 2023, tous les Model 3 produits entre 2017 et 2023, et tous les modèles Y produits depuis 2020. Précurseur dans l’utilisation de systèmes d’aide à la conduite dans ses voitures électriques, Tesla est donc contraint à rappeler, ou plus exactement à remettre à jour à distance, son fameux système de pilotage.
Trois options sont proposées aujourd’hui à l’achat par le constructeur : le système Autopilot de série, gratuit, qui comprend un régulateur de vitesse et une aide au maintien sur la voie. Deux autres options, payantes cette fois, sont aussi proposées : l’Autopilot «amélioré» payant, qui permet cette fois de changer de voie grâce à un composant appelé Autosteer, mais aussi de sortir d’une place de parking ou d’y rentrer sans conducteur. Et pour finir, Tesla propose une dernière option intitulée «capacité de conduite entièrement autonome», soit en anglais «full self driving» (FSD). Sur cette dernière, la firme d’Elon Musk promet une reconnaissance et une réaction de la machine aux feux de signalisation et aux panneaux stop. Face à un risque accru de «risque de collision», Tesla a toutefois dû désactiver cette option qui permettait aux voitures de ne pas marquer un arrêt complet dans certaines conditions.
À lire aussiLe Cybertruck de Tesla, entre objet innovant et caprice futuriste
La NHTSA avait ouvert une enquête en août 2021 sur l’Autopilot après avoir identifié plus d’une douzaine d’accidents dans lesquels des véhicules Tesla avaient heurté des véhicules d’urgence à l’arrêt. En parallèle, le régulateur américain avait aussi ouvert dès 2016 plus de trois douzaines d’enquêtes spéciales sur les accidents de véhicules Tesla dans des cas où des systèmes d’aide à la conduite étaient soupçonnés d’être utilisés, et impliquant 23 décès.
La NHTSA affirme aujourd’hui qu’il peut y avoir un risque accru d’accidents dans les situations où le système Autopilot est engagé sans la vigilance du conducteur. Soit lorsqu’il ne conserve pas le contrôle du véhicule et qu’il n’est pas prêt à intervenir ou bien lorsqu’il ne reconnaît pas quand le système est annulé ou non. En clair, les conducteurs ont tendance à confier à tort la conduite au système en n’ayant plus les mains sur le volant. Il est vrai que Tesla entretient l’ambiguïté sur le degré d’autonomie de ses véhicules dotés de logiciel ce qui contribue largement à leur dangerosité. L’entreprise a d’ailleurs reconnu en octobre dernier que le ministère américain de la Justice avait émis des citations à comparaître concernant ses systèmes Full Self-Driving (FSD) et Autopilot.
Les dirigeants de Tesla ont déclaré n’être pas d’accord avec l’analyse de la NHTSA. Mais ils déploieront une mise à jour logicielle à distance qui «incorporera des contrôles et des alertes supplémentaires à ceux qui existent déjà sur les véhicules concernés afin d’encourager le conducteur à adhérer à sa responsabilité de conduite chaque fois qu’Autosteer – un composant d’Autopilot est engagé.»