● Numerama 📅 18/03/2026 à 11:32

Accident en Tesla : l'erreur fatale que font tous les conducteurs avec le FSD

Géopolitique 👤 Raphaëlle Baut
Illustration
Lecture Zen Résumer l'article Raffi Krikorian, ancien responsable de la conduite autonome chez Uber, a vu sa Tesla Model X percuter un mur en mode FSD supervisé lors d’un virage, avec seulement des blessures légères pour lui et son fils. Son témoignage illustre le « déclin de vigilance » : des systèmes qui fonctionnent la plupart du temps poussent les conducteurs à une supervision passive, les rendant incapables de reprendre la main face à une défaillance soudaine. Le FSD étant classé niveau 2, la responsabilité incombe au conducteur. Tesla utilise souvent les données du véhicule pour s’exonérer, tandis que des constructeurs comme BYD commencent à accepter certaines prises en charge. Raffi Krikorian, ancien responsable de la conduite autonome chez Uber, a vu sa Tesla Model X percuter un mur en mode FSD supervisé lors d’un virage, avec seulement des blessures légères pour lui et son fils. Son témoignage illustre le « déclin de vigilance » : des systèmes qui fonctionnent la plupart du temps poussent les conducteurs à une supervision passive, les rendant incapables de reprendre la main face à une défaillance soudaine. Le FSD étant classé niveau 2, la responsabilité incombe au conducteur. Tesla utilise souvent les données du véhicule pour s’exonérer, tandis que des constructeurs comme BYD commencent à accepter certaines prises en charge. Recevez tous les soirs un résumé de l’actu importante avec Le Récap’ Un ancien responsable d’un programme de conduite autonome chez Uber s’est fait trahir par la conduite autonome supervisée de Tesla (FSD). Un accident presque banal, qui rappelle pourtant à quel point le conducteur fait souvent trop confiance à ces systèmes. « Presque parfait » n’est pas parfait, et c’est précisément ce qui est reproché à la conduite autonome proposée par Tesla à ses clients. Le système Full Self-Driving (FSD) de Tesla progresse vite et Elon Musk ne cesse de vanter ses mérites et sa fiabilité. Au point que l’entreprise espère déployer des milliers de robotaxis dans les prochaines années. En effet, tout se passe bien lors d’une majorité de trajets. Néanmoins, lorsque le FSD est impliqué dans un accident, cela attire immédiatement l’attention. Le témoignage de Raffi Krikorian, ancien responsable du programme de conduite autonome chez Uber, publié sur The Atlantic le 17 mars 2026, met le doigt sur un détail intéressant. L’article n’est pas une critique des limites techniques du Full Self-Driving de Tesla. Il illustre plutôt un phénomène plus gênant : ces systèmes fonctionnent suffisamment bien pour que les conducteurs finissent par leur faire confiance… parfois trop. C’est le phénomène de « déclin de vigilance ». Un accident presque banal, qui n’aurait pas dû attirer l’attention Les faits sont simples. À bord de sa Tesla Model X, sur un trajet qu’il connaît parfaitement, Raffi Krikorian utilise le mode FSD supervisé. La voiture enchaîne les kilomètres sans difficulté, comme elle le fait depuis des mois dans ces mêmes rues. Puis, lors d’un virage, le comportement du véhicule devient incohérent. La direction réagit de manière inattendue avec des coups de volant, la voiture ralentit sans raison claire. Le conducteur tente de reprendre la main, mais l’enchaînement est trop rapide. La voiture termine sa course contre un mur. Accident d’un Model X en conduite autonome FSD. // Source : Raffi Krikorian sur Linkedin Le véhicule est détruit, mais par chance, l’accident ne laisse que des blessures légères à ses deux occupants : le conducteur et son fils installé à l’arrière. Un accident qui n’aurait donc aucune raison de faire les gros titres, si ce n’est que le conducteur dispose justement d’une expérience de conduite de véhicules autonomes. Il a dirigé des programmes de conduite autonome de 2015 à 2017. Il a spécialement formé des conducteurs de sécurité pour réaliser les tests de l’entreprise. Il connaît donc précisément les limites de ces systèmes. Malgré cela, il n’a pas réussi à éviter l’impact. Et il n’est pas le seul à l’avoir vécu, comme en témoignent plusieurs commentaires sur son profil Linkedin. Ces aides inspirent confiance, avant de trahir Puisqu’elles fonctionnent correctement la plupart du temps, ces aides à la conduite installent une routine. Le conducteur reste théoriquement responsable, mais dans les faits, il se contente d’un rôle de supervision. Et la supervision d’un système qui fonctionne bien, disons 99 % du temps pour notre démonstration, est ennuyeuse. Les recherches sur le sujet montrent que l’attention diminue lorsque tout se passe bien. Le cerveau se met en retrait, faute de stimulation : c’est ce que des spécialistes appellent le « déclin de vigilance ». C’est justement ce point que Raffi Krikorian veut mettre en lumière à travers son témoignage. Le problème surgit lorsqu’une situation exceptionnelle casse cette routine. Le conducteur doit alors comprendre ce qui se passe en un éclair, analyser une situation qu’il n’a pas anticipée et agir immédiatement. Or, ce réflexe dans une situation d’urgence n’est pas donné à tout le monde. Il faut déjà que le conducteur soit en état de vigilance. Force est de constater qu’avec des aides à la conduite aussi avancées souvent utilisées au quotidien, la supervision est vite oubliée. Dans le cas présent, le conducteur a bien tenté de reprendre le contrôle, mais sans succès malgré son expérience. Numerama a testé le FSD de Tesla dans Paris. // Source : Numerama Pour aller plus loin J’ai testé la conduite autonome Tesla (FSD v14) en banlieue parisienne : le verdict (vidéo) Jamais la faute de Tesla Malgré les performances du système FSD, il reste au niveau 2 de la conduite autonome, c’est-à-dire que la responsabilité incombe entièrement au conducteur. Finalement, l’obligation d’introduire la mention de « supervisé » dans le nom de la technologie s’avère être à l’avantage de Tesla. Dans un autre contexte, le constructeur serait responsable de l’accident. Ces systèmes sont conçus pour être utilisés en continu, sur des trajets variés, avec un niveau de fiabilité suffisant pour instaurer une forme de confiance. Mais lorsque cette confiance conduit à un accident, c’est l’utilisateur qui en assume les conséquences. En cas de procès intenté contre la marque, Tesla s’appuie notamment sur les données enregistrées par ses véhicules pour analyser le comportement du conducteur après un accident, et trouve souvent une manière de démontrer que ce n’était pas de sa responsabilité. À l’inverse, certains acteurs comme BYD ont commencé à prendre des engagements différents en Chine, en acceptant de couvrir certains incidents liés à des fonctions automatisées. Une approche encore limitée, mais qui montre que la question du partage de responsabilité commence à émerger. Ce témoignage rappelle une réalité souvent sous-estimée : le problème des systèmes de conduite assistée n’est pas seulement celui de leurs limites techniques. Il tient aussi à la manière dont ils transforment le comportement des conducteurs en créant un nouveau danger sur des technologies encore imparfaites. Ce contenu est bloqué car vous n’avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par YouTube. Pour pouvoir le visualiser, vous devez accepter l’usage étant opéré par YouTube avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l’amélioration des produits d’Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l’audience de ce site (en savoir plus) En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires. Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies. J’accepte tout Gérer mes choix Toute l'actu tech en un clin d'œil Ajoutez Numerama à votre écran d'accueil et restez connectés au futur ! Installer Numerama Pour ne rien manquer de l’actualité, suivez Numerama sur Google ! Tout savoir sur Tesla Même un expert de la conduite autonome s’est fait piéger par le « presque parfait » du FSD de Tesla Tesla Semi : les tests intensifs dans la neige confirment une mise en production qui approche Tesla, Renault, Stellantis : qui fabrique la voiture électrique la plus propre en 2026 ? Le Tesla Cybercab bientôt produit à Berlin ? Ces indices qui font croire à son arrivée prochaine Tesla doit pour le moment tirer un trait sur un précieux pactole Crédit photo de la une : Tesla Signaler une erreur dans le texte Ne plus voir cette pub Ne plus voir cette pub Aides à la conduite conduite autonome Voiture électrique
← Retour