In queste ore si è parlato molto di un tragico incidente che ha tolto la vita a due persone in Texas e che vede coinvolta una Tesla Model S. In particolare, si era accesa (nuovamente) una polemica sull’eccessiva fiducia che troppi automobilistici riporrebbero nei sistemi di guida assistita – e non autonoma – attualmente presenti sul mercato, come l’Autopilot di Tesla.

Questo perché al momento dell’impatto sembra che nessuno si trovasse sul posto del conducente, il che ha creato- almeno inizialmente – il sospetto che il software di guida semi-autonoma fosse stato attivato senza che nessuno si trovasse effettivamente al volante.

Autopilot non era attivo, ma non solo: l’auto non aveva nemmeno il pacchetto FSD.

Secondo Tesla, si tratterebbe di una tesi infondata. Lo stesso Elon Musk ha spiegato che l’azienda avrebbe letto e studiato i dati della vettura coinvolta nell’incidente mortale. Autopilot non era attivo. È importante ricordare che Autopilot è progettato per disattivarsi automaticamente nel caso in cui rilevi per 10 secondi consecutivi che le mani del conducente non siano saldamente sullo sterzo.

Per questa ragione, l’idea che gli occupanti del veicolo avessero erroneamente inteso che l’auto sarebbe stata in grado di guidarsi da sola — con loro comodamente seduti sui sedili posteriori —, già dal principio appariva come manifestamente infondata. Peraltro, Elon Musk ha anche comunicato che l’auto in questione non aveva abilitato il pacchetto FSD, ossia quello che include gli strumenti di assistenza alla guida più avanzati.

L’incidente si sarebbe poi verificato in un’area residenziale, quando Autopilot è progettato per funzionare in strade con precise requisiti, a partire dalla presenza della segnaletica orizzontale (assente in questo caso specifico). La Nhtsa, l’ente statunitense che si occupa della sicurezza stradale, ha aperto un’indagine ed ha annunciato l’intenzione di investigare con attenzione le dinamiche dell’incidente.