Le auto Tesla potrebbero essere richiamate se il pilota automatico continua a causare incidenti

Tesla ha ammesso che il sistema di pilota automatico non funziona correttamente in caso di pioggia battente o quando qualcosa ostruisce i sensori a ultrasuoni. Elon Musk ha persino affermato che "FSD Beta 9.2 in realtà non è eccezionale". Ci sono stati anche diversi incidenti in cui i conducenti hanno utilizzato in modo improprio il software del pilota automatico.

Uno di questi incidenti si è verificato nel 2019 quando una Tesla si è schiantata e ha preso fuoco e ha ucciso entrambi gli occupanti del veicolo, nessuno dei quali era seduto al posto di guida.

Ci sono stati molti problemi, in particolare incidenti, che hanno portato a un'indagine da parte della National Highway Traffic Safety Administration (NHTSA) sul software Autopilot di Tesla. E se l'NHTSA trova prove sufficienti di problemi di sicurezza, potrebbe persino innescare un richiamo.

Cos'è esattamente il pilota automatico di Tesla?

Contrariamente al suo nome, Autopilot è solo un sistema di assistenza alla guida. Le caratteristiche del sistema di pilota automatico includono l'assistenza al mantenimento della corsia, la frenata di emergenza automatica, il cruise control adattivo, l'avviso di collisione in avanti e il cambio di corsia automatico. Ha anche Autosteer, Autopark e Summon, che ti consentono di spostare la tua Tesla dentro e fuori da spazi ristretti senza essere in macchina. Sfortunatamente, si sono verificati diversi incidenti in cui il pilota automatico non funzionava correttamente, provocando incidenti.

Molti di questi incidenti coinvolgono veicoli di primo intervento e molti sono accaduti dopo il tramonto. Secondo Electrek, è noto che il sistema di pilota automatico di Tesla presenta problemi, in particolare il rilevamento e l'arresto di oggetti fermi sul lato della strada. È probabile che sia più una coincidenza che i veicoli dei primi soccorritori siano stati coinvolti in questi incidenti perché spesso vengono fermati sul ciglio della strada. Non ci sono bug nel sistema che si concentrano esplicitamente sui primi soccorritori.

L'indagine NHTSA

L'indagine dell'NHTSA è iniziata ad agosto dopo 11 incidenti tra Tesla e veicoli di primo intervento. In ogni caso, l'NHTSA ha stabilito che l'autopilota veniva utilizzato prima di queste collisioni. E secondo Business Insider, un dodicesimo incidente è stato aggiunto alle indagini dopo che una Model 3 ha colpito un'auto della Florida Highway Patrol che è stata fermata sul lato della I-4 il 28 agosto aiutando un automobilista disabile. Questi 12 incidenti hanno provocato 17 feriti e un decesso.

Secondo la CNBC, Tesla deve consegnare i dati dell'intera flotta dell'azienda dotata di pilota automatico, non solo i 12 veicoli coinvolti negli incidenti del primo soccorritore, che comprendono automobili, software e hardware Tesla venduti dal 2014 al 2021, all'NHTSA entro il 22 ottobre . E se l'NHTSA trova prove sufficienti di problemi di sicurezza, l'agenzia può imporre un richiamo completo delle auto Tesla dotate di pilota automatico.

Nuova funzione Tesla "Full Self-Driving"

Anche in questo caso, contrariamente al suo nome, Full Self-Driving (FSD) è un sistema avanzato di assistenza alla guida. È fondamentalmente una versione aggiornata di Autopilot che richiede un abbonamento mensile. Secondo Road Show, è in fase di beta test e la decima versione di FSD beta è in fase di lancio. Attualmente, circa 1.000 dipendenti e proprietari stanno partecipando al beta test per FSD.

Il software del pilota automatico di Tesla non è sicuro? Molte persone sostengono che il software sia sicuro e che i problemi risiedano nelle persone che lo utilizzano in modo errato. Le persone spesso interpretano male cosa significhi "pilota automatico", e forse è proprio questo il problema. Forse la raccomandazione dell'NHTSA dall'indagine sarà quella di cambiare il nome in qualcosa di meno fuorviante. Ovviamente, è probabilmente sicuro dire che Musk probabilmente non sarebbe d'accordo con quella raccomandazione.