Un nuovo incidente mortale riapre la diatriba sull'autopilot di Tesla #LegaNerd
3

All’inizio di Marzo una Tesla Model 3 è stata coinvolta in un incidente fatale, il conducente del veicolo è morto dopo pochi secondi dall’attivazione della guida semi-autonoma. L’episodio, emerso solo la scorsa settimana, è il terzo del genere, ma il primo con il software di nuova generazione.

È successo il 1 Marzo, alle sei di mattina a Palm Beach, in Florida. Jeremy Banner, il 50enne alla guida della Tesla Model 3, e unica vittima dell’incidente, stava guidando ad oltre 90Km/h sulla State Highway 411, quando il suo veicolo è finito sotto ad un autoarticolato, schiantandosi. Il camion bianco non è stato identificato da Autopilot, che quindi è proceduto a velocità sostenuta come se non ci fosse nessun ostacolo.

È complesso ricostruire le responsabilità dietro all’episodio. Sappiamo che dall’attivazione di Autopilot allo schianto non sono passati che dieci secondi, inoltre al momento dell’impatto il conducente non aveva le mani sullo sterzo. Quest’ultimo dettaglio è stato enfatizzato in due modi completamente diverse dal National Traffic Safety Board e da Tesla.

Così scrive la prima nel dettagliato report rilanciato dalla stampa:

From less than 8 seconds before the crash to the time of impact, the vehicle did not detect the driver’s hands on the steering wheel.

 

Viceversa, Tesla ha riformulato la condotta di Banner in modo attivo:

[dopo aver attivato Autopilot] the driver immediately removed his hands from the wheel

 

Che è una ricostruzione che tende a dare forti responsabilità al conducente, e va quindi a favore dell’azienda. È una scelta comprensibile, ma oggi questa certezza sembra non esserci.

Secondo un’interessante articolo d’opinione scritto da Andrew J. Hawkins su The Verge, il grosso della colpa andrebbe attribuito a Tesla, per una semplice ragione: tre anni fa, nel 2016, un uomo di nome Joshua Brown era morto in modo molto simile: Autopilot attivo (in quel caso era ancora la versione prodotta dall’israeliana MobilEye) e non sufficiente attenzione da parte del conducente. Un mix che ha causato due morti.

In entrambi i casi un eccesso di fiducia nella guida autonoma, una Level 2 che non si sostituisce in alcun modo completamente al guidatore, che deve quindi rimanere vigile, e con le mani salde sul volante per correggere gli errori del software.

Hawkins sostiene che ci sia un problema di comunicazione, che rende ai più poco limpide le reali capacità di autopilot e, di conseguenza, gli obblighi del conducente a pilota automatico attivo. L’altro problema è insito nei difetti di radar e computer vision: il primo non rileva bene gli ostacolo non in movimento, o che procedono in direzione diversa dal senso di marca del veicolo su cui sono montati; il secondo richiede che gli algoritmi vengano addestrati ad identificare determinati oggetti, fallendo in casi non convenzionali, come quello di Banner, dove c’era un autoarticolato perpendicolare alla strada.

Essentially, the same incident repeats after three years. This seems to indicate that these two problems have still not been addressed. Tesla is not handling the well-known limitations of AI

 

ha detto infatti commentando la vicenda a The Verge Raj Tajkumar, ingegnere e professore della Carnegie Mellon University.

Presto per trarre conclusioni, ma è evidente che casi come questi, per quanto isolati, portino il legislatore a produrre regolamentazioni più stringenti sull’uso della guida autonoma, con la possibilità di rallentare notevolmente lo sviluppo e l’implementazione di queste tecnologie.

 

Newsbot16

Newsbot16

Tech Newsbot
Aree Tematiche
Auto & Moto News Tecnologie
Tag
martedì 21 maggio 2019 - 9:43
Edit

Lega Nerd Podcast

Lega Nerd Live

LN Panic Mode - Premi "P" per tornare a Lega Nerd