Mentre gli Stati Uniti si preparano alle elezioni presidenziali del 2024, OpenAI condivide i suoi piani per sopprimere la disinformazione legata alle elezioni in tutto il mondo, con un’attenzione particolare all’aumento della trasparenza sull‘origine delle informazioni. Uno di questi è l’uso della crittografia – standardizzata dalla Coalition for Content Provenance and Authenticity – per codificare la provenienza delle immagini generate da DALL-E 3. Ciò consentirà alla piattaforma di individuare meglio le immagini generate dall’intelligenza artificiale utilizzando un classificatore di provenienza, per aiutare gli elettori a valutare l’affidabilità di determinati contenuti.

OpenAI Refines Policy: Vietato l’utilizzo dei suoi strumenti per manipolazioni politiche

Il Wall Street Journal ha preso atto del nuovo cambiamento di policy, pubblicato per la prima volta sul blog di OpenAI. Sul post del blog si legge che sarà vietato agli utenti, creators, chi utilizza ChatGPT e Dall-e (generatore di immagini) utilizzare gli strumenti di OpenAI per impersonare candidati o governatori. Inoltre, gli utenti non potranno nemmeno utilizzare gli strumenti di OpenAI per campagne politiche, scoraggiare il voto o per travisare il processo di voto. Nel comunicato si legge: “Non permettiamo applicazioni che dissuadano le persone dal partecipare ai processi democratici, ad esempio travisando i processi di voto e le qualifiche (ad esempio, quando, dove o chi ha diritto al voto) o scoraggiando il voto (ad esempio, sostenendo che un voto è privo di significato). Con i nuovi GPT, gli utenti possono segnalarci potenziali violazioni.

L’introduzione delle “Credenziali digitali”

Oltre a rendere più rigide le sue politiche sulla disinformazione elettorale, OpenAI prevede anche di incorporare le credenziali digitali della Coalition for Content Provenance and Authenticity (C2PA) nelle immagini generate da Dall-E “dall’inizio di quest’anno”. Attualmente anche Microsoft, Amazon, Adobe e Getty stanno collaborando con C2PA per combattere la disinformazione attraverso la generazione di immagini AI. Il sistema di credenziali digitali codificherebbe le immagini con la loro provenienza, rendendo di fatto molto più semplice l’identificazione di immagini generate artificialmente senza dover cercare mani strane o altri elementi che, solo dopo un’attenta visione dell’immagine, fanno capire che si tratta di un fake. OpenAI, inoltre, afferma che presto collaborerà con giornalisti, ricercatori e piattaforme per ottenere un feedback sul suo “classificatore di provenienza”. Sullo stesso tema, gli utenti di ChatGPT inizieranno a vedere notizie in tempo reale da tutto il mondo, complete di attribuzione e link. Saranno anche indirizzati a CanIVote.org, la fonte ufficiale online sul voto negli Stati Uniti, quando faranno domande procedurali alla chat su dove votare o come votare.

OpenAI e la promessa di diffondere Strategie Globali

Tutti questi strumenti sono attualmente solo in fase di implementazione. OpenAI afferma che gli insegnamenti tratti da queste prime misure, se avranno successo, la aiuteranno a diffondere strategie simili in tutto il mondo. Intanto il post si conclude con la promessa, da parte dell’azienda, di fare altri annunci in merito nei prossimi mesi: “Avremo altro da condividere nei prossimi mesi. Siamo ansiosi di continuare a collaborare e imparare dai partner per anticipare e prevenire potenziali abusi dei nostri strumenti in vista delle elezioni in tutto il mondodi quest’anno.”