Un tool permette di scoprire se le vostre foto sono state adoperate per sviluppare le tecnologie di riconoscimento facciale.
Navigare sulla Rete e caricare su internet i propri scatti preferiti comportano quasi sempre l’accettazione di tutta una serie di clausole contrattuali che troppo spesso accettiamo alla cieca. Può capitare dunque che il proprio archivio fotografico finisca in mano a tecnici e sviluppatori, che venga usato per addestrare le intelligenze artificiali del futuro. Il sito Exposing.ai vi permette di scoprire se siete stati “schedati” a vostra insaputa negli archivi degli istituti di ricerca.
Il sistema si basa sui dataset pubblici di Flickr e necessita solamente di uno username, del link a uno scatto o di un hashtag, per scoprire se comparite tra le 3.5 milioni fotografie adoperate per sviluppare le IA di sorveglianza.
Il noto servizio di hosting di immagini è in effetti uno strumento adoperato regolarmente dalle aziende che si occupano di ricerca automatizzata e di riconoscimento facciale.
Non solo il gigantesco database presente sui suoi server è una fonte portentosa di informazioni, ma l’azienda ha dimostrato in passato di essere ben propensa a distribuirne i dati, in alcuni casi anche quando i loro proprietari non hanno espresso il consenso.
Exposing.ai può aiutare a identificare se i vostri scatti siano stati usati o meno per educare le IA di riconoscimento facciale, tuttavia non può aiutarvi a riprendere possesso dei vostri upload.
Una volta finite nel network, le immagini vengono rimbalzate da un istituto all’altro, secondo dinamiche non troppo dissimili da quelle che vengono adoperate ogni giorno anche dai call center.
I dataset coinvolti nel riconoscimento facciale sono già stati distribuiti e non è possibile richiederne la rimozione completa, al massimo si può confidare che la condivisione dei propri dati biometrici non sia estesa a ulteriori ricerche.
Potrebbe anche interessarti: