Il software Tesla Autopilot sarà indagato da NHTSA

Il pilota automatico di Tesla è sotto tiro. Di nuovo . Questa volta, piuttosto che alcuni giornalisti che raccontano storie da dietro una tastiera (ciao), le cose sono molto più serie. La National Highway Traffic Safety Administration (NHTSA) ha aperto un'indagine formale sul software di controllo automatico della velocità adattivo proprietario di Tesla. Sfortunatamente, questo avviene dopo una serie di incidenti, alcuni dei quali mortali. Abbiamo già sentito parlare di queste storie e, devo ammettere, ne ho trattate molte. Ma ora Tesla è davvero in acqua calda con i federali.

L'intera gamma di modelli del marchio è soggetta a richiesta

Quindi, cosa ha portato esattamente i federali a scontrarsi con il pilota automatico di Tesla? Sfortunatamente, c'è stata una serie di incidenti, 11 per l'esattezza, che secondo l'NHSTA hanno coinvolto una Tesla e i primi soccorritori mentre Tesla Autopilot era attivo. Evidentemente, l'NHSTA non accetta di buon grado il personale di emergenza che viene investito da auto che "guidano da sole" finché non è legalmente conveniente che non lo facciano. Ora, lo dico perché Tesla ha una storia di trasferimento della responsabilità del software del proprio computer ai proprietari quando gli fa comodo.

Questo comportamento ha attirato l'attenzione dell'NHTSA, secondo l'Associated Press. Sfortunatamente, la sonda copre l'intera gamma di Tesla, circa 765.000 veicoli. Non così S3XY. Tuttavia, è importante notare che Tesla, e per estensione, Elon, sono innocenti fino a prova contraria. L'indagine è in corso, ma il National Transportation Safety Board (NTSB) ha raccomandato all'NHTSA di richiedere a Tesla di limitare le aree in cui è possibile utilizzare il pilota automatico Tesla.

Tesla Autopilot chiaramente non sostituisce le persone reali

Secondo l'AP, l'NTSB ha già sparato a Tesla in precedenza, incolpando l'azienda di numerosi altri incidenti. Tuttavia, devo notare che la colpa non è solo del pilota automatico Tesla. Le persone non sono molto responsabili con il software semi-autonomo. Hanno fatto di tutto, dal dormire alla "guidare" ubriachi nelle loro Tesla. Tuttavia, la maggior parte delle volte queste persone vengono punite. L'NHTSA sta ora cercando di determinare se Tesla condivide la colpa anche lì.

In un certo senso, dovrebbero. C'è una cultura intorno ai modelli Tesla che è diventata piuttosto dannosa. Da r/tesla su Reddit al feed Twitter di Musk, le auto sono sostenute come qualcosa di iRobot o Bladerunner quando semplicemente non lo sono. La guida completamente autonoma Tesla non piena guida autonoma. Al massimo è una beta. Francamente, gli esseri umani non sono abbastanza responsabili delle auto a guida autonoma. Ed è ciò che sembra aver stimolato le indagini dell'NHTSA.

Come può il marchio riprendersi da questo?

Quindi, è abbastanza chiaro che Tesla ha in qualche modo un problema di immagine in questo momento. Faccio fatica a pensare a un'altra casa automobilistica la cui immagine è stata così guastata da polemiche pubbliche post-Dieselgate. Francamente, Tesla deve iniziare con una certa trasparenza. Cambiare alcuni nomi sarebbe un buon inizio. "Tesla Autopilot" è alquanto fuorviante. Il software di controllo della velocità di crociera adattivo "SuperCruise" di GM non connota la guida autonoma, mentre "Autopilot" sì. Sarebbe un inizio per essere sicuri, ma dovremo vedere cosa dice l'NHSTA per eventuali cambiamenti reali.