Basterebbe un proiettore economico per mandare in crisi Autopilot, il sistema di guida autonoma di Tesla. Lo hanno dimostrato alcuni ricercatori della Ben-Gurion University con un video.
I ricercatori hanno mostrato come i sensori delle auto Tesla non siano fondamentalmente in grado di distinguere tra un vero pedone e una semplice immagine di una persona proiettata sulla strada.
Autopilot interpreta l’immagine proiettata come una persona vera, dando immediatamente all’auto il comando di frenata.
Ma le possibilità di “hackerare” Autopilot con un semplice proiettore sembrano essere infinite. I ricercatori sono anche riusciti ad ingannare Autopilot persuadendo il veicolo ad andare contromano: è bastato proiettare sulla strada una finta striscia continua.
A preoccupare di più, ad ogni modo, è l’ultimo degli esperimenti. I ricercatori sarebbero riusciti a proiettare via drone un finto cartello con limite stradale di 90Km/h per far accelerare improvvisamente il veicolo, anche se la segnaletica reale indicava un limite ben inferiore.
L’immagine è stata proiettata per appena 125 millisecondi, quanto basta ai sensori per intercettarla, ma forse non abbastanza per consentire all’automobilista di capire cosa stia succedendo.
Immaginando un futuro non troppo lontano dove i sistemi di guida autonoma parziale saranno montati sulla maggior parte dei veicoli, sembra che attaccare un’auto inducendola a compiere azioni estremamente pericolose, per giunta senza lasciare tracce, sia davvero un gioco da ragazzi.
- Tesla’s Autopilot dangerously fooled by drone-mounted projectors (thenextweb.com)