Tesla nel mirino, la guida autonoma fa troppi errori: aperta un’indagine

La National Highway Traffic Safety Administration (NHTSA) ha avviato una Preliminary Evaluation sul sistema Full Self-Driving (FSD) di Tesla, in seguito a decine di segnalazioni che descrivono casi in cui le auto avrebbero attraversato semafori rossi, cambiato corsia verso il traffico opposto o imboccato strade in senso vietato. Tra le denunce raccolte, quattro casi avrebbero causato lesioni.

L’indagine rappresenta uno dei primi interventi mirati al software FSD, che Musk ha sostenuto a lungo come uno dei cavalli di battaglia dell’offerta Tesla.

Le anomalie segnalate

Secondo l’Office of Defects Investigation (ODI) della NHTSA, sono state raccolte oltre 50 segnalazioni relative a malfunzionamenti del sistema: almeno 18 denunciano comportamenti in cui l’auto non si è fermata al rosso o non è rimasta ferma al semaforo acceso, mentre altre 18 indicano che il veicolo ha invaso la corsia opposta, superato strisce gialle doppie o tentato di girare contromano nonostante la segnaletica. In diversi casi si è trattato di incidenti sullo stesso incrocio, a Joppa (Maryland), spingendo l’NHTSA a collaborare con le autorità locali per replicare i fenomeni. Tesla avrebbe già avviato correzioni per quel tratto stradale specifico.

Tesla Cybertruck, rimane intrappolata nelle fiamme dopo lo schianto: i genitori fanno causa
Tesla Cybertruck, rimane intrappolata nelle fiamme dopo lo schianto: i genitori fanno causa

L’indagine arriva contestualmente al rilascio di una nuova versione del software FSD, che integra dati raccolti durante un programma robotaxi a Austin (Texas). Il rischio è che alcune delle nuove funzionalità possano introdurre ulteriori complessità o instabilità, soprattutto quando si tratta di prendere decisioni critiche in ambiente urbano.

Richiamo in vista?

Tesla, FSD commette troppi errori, aperta un'indagine

La “Preliminary Evaluation” è la fase iniziale dell’iter che può portare a un richiamo obbligatorio, se verranno confermati problemi sistemici. L’agenzia punta a completare il processo entro otto mesi, anche se eventuali rallentamenti nella macchina burocratica o nel governo federale potrebbero dilatare i tempi.

Questo caso segue una precedente inchiesta sull’Autopilot di Tesla, chiusa nell’aprile 2024 dopo aver identificato 13 incidenti mortali legati al suo uso improprio. Resta aperta un’altra verifica sulla validità delle correzioni proposte per quel sistema.

La questione tocca molti temi: responsabilità delle aziende che sviluppano sistemi di guida assistita, efficacia dei controlli federali, implicazioni etiche e legali nel concedere «autosufficienza» alle auto. Se l’indagine dovesse dimostrare che il software FSD presenta difetti gravi, il risultato potrebbe essere una pressione su Tesla per apportare modifiche di massa.

Tesla nel mirino, la guida autonoma fa troppi errori: aperta un’indagine è stato pubblicato per la prima volta su Lega Nerd. L’utilizzo dei testi contenuti su Lega Nerd è soggetto alla licenza Creative Commons Attribuzione-Non commerciale-Non opere derivate 2.5 Italia License. Altri articoli dello stesso autore: Umberto Stentella