Un nuovo report suggerisce che alcune skill di Alexa potrebbero causare danni alla privacy e alla sicurezza degli utenti.

Sotto sotto ci ha sempre un po’ inquietato avere assistenti vocali che origliano tutto ciò che succede in casa. Proprio tenendo conto di questa innata paranoia, è importante sottolineare che, a oggi, Alexa non è mai stata adoperata a scopi nefasti e che i ricercatori in questione stiano semplicemente mettendo le mani avanti.

Un team del North Carolina State University ha infatti notato delle potenziali criticità nel come siano gestite le funzioni opzionali dell’apparecchio.

Amazon non controllerebbe adeguatamente gli sviluppatori esterni che propongono nuove skill per il device. Nello specifico non verificherebbe con dovizia l’identità delle aziende coinvolte, lasciando virtualmente spazio a possibili truffatori.

Altrettanto grave, i ricercatori hanno scoperto che gli sviluppatori dei software possono legare il proprio prodotto a parole “ridondanti”, così che la loro app possa venire attivata anche in momenti inattesi.

Chi fa uso di Alexa lo avrà sicuramente provato sulla propria pelle: è tremendamente facile scordarsi il nome delle skill a cui si è interessati e ogni tanto bisogna andare a tentativi. Questo genere di trucco permetterebbe ai malfattori di mascherare la propria identità, spingendo gli utenti ad attivare skill pericolose pensando di avere a che fare con applicazioni legittime.

Come se non bastasse, a quanto pare Amazon permette alle aziende terze di modificare le proprie policy senza doverle prima sottoporre all’attenzione della dritta produttrice del device, lasciando ulteriore margine di rischio.

Sono certamente tutti ostacoli che possono essere facilmente riparati e la Big Tech non mancherà di rimediare in tempi celeri, ma nel frattempo non abbassate la guardia, anche i muri hanno orecchie.

 

Potrebbe anche interessarti: