In un post sul blog dell’azienda, il gigante dei video ha illustrato la sua imminente modifica delle regole di policy che, non solo richiederà un’etichetta di avvertimento, ma mostrerà disclaimer più grandi per alcuni tipi di contenuti “sensibili” come elezioni e crisi sanitarie pubbliche).
Come riporta Bloomberg, YouTube ha affermato nel suo annuncio che coloro che si rifiutano ripetutamente di conformarsi possono vedersi rimuovere i contenuti, sospendere gli account o revocare l’accesso ai fondi degli inserzionisti. Non è chiaro quando esattamente saranno introdotte queste modifiche, ma l’azienda ha anche detto che alla fine “renderà possibile richiedere la rimozione di contenuti generati dall’intelligenza artificiale o di altri contenuti sintetici o alterati che simulano un individuo identificabile, compreso il suo volto o la sua voce“. Ecco i punti salienti del post.
Requisiti e nuove etichette
Nella dichiarazione rilasciata per conto della piattaforma, si legge che YouTube ritiene essere nell’interesse di tutti mantenere un ecosistema sano di informazioni ma che, tuttavia, le nuove e potenti forme di narrazione dell’intelligenza artificiale possono anche essere utilizzate per generare contenuti che hanno il potenziale di ingannare gli spettatori, soprattutto se non sono consapevoli che il video è stato alterato o creato sinteticamente. Per questo, e per cercare di risolvere il problema, nei prossimi mesi saranno introdotti aggiornamenti che informeranno gli spettatori quando il contenuto che stanno vedendo è “sintetico”.
Cosa cambierà per i creators
Nello specifico, verrà chiesto ai creators di indicare quando hanno creato contenuti alterati che sono realistici, anche utilizzando strumenti di intelligenza artificiale. Quando i creators caricheranno i contenuti, avranno a disposizione nuove opzioni da selezionare per indicare che contengono materiale alterato o “sintetico realistico”. Ad esempio, potrebbe trattarsi di un video generato dall’IA che ritrae in modo realistico un evento che non è mai accaduto, o di un contenuto che mostra qualcuno che dice o fa qualcosa che in realtà non ha fatto. I creators che scelgono costantemente di non divulgare queste informazioni possono essere soggetti alla rimozione dei contenuti, alla sospensione dal Programma partner di YouTube o ad altre sanzioni. La piattaforma si impegna anche a lavorare con i creatori di contenuti prima dell’introduzione di questa novità per assicurarsi che “comprendano questi nuovi requisiti“.
Cosa cambierà per gli spettatori
Saranno due i modi in cui gli spettatori saranno informati che i contenuti possono essere alterati o sintetici. Verrà aggiunta una nuova etichetta al pannello di descrizione che indica che alcuni contenuti sono stati alterati. Inoltre, per alcuni tipi di contenuti su argomenti sensibili, verrà applicata quella che viene definita un’etichetta più evidente al lettore video. Per alcuni tipi particolari di contenuti queste due modalità potrebbero non essere abbastanza; quindi, la piattaforma aggiunge che in alcune aree in cui l’etichetta da sola può non essere sufficiente a mitigare il rischio di danni, alcuni media, indipendentemente dal fatto che siano etichettati, saranno rimossi dalla piattaforma se violano le Linee guida della community. Ad esempio, un video creato sinteticamente che mostra una violenza realistica può essere comunque rimosso se il suo obiettivo è quello di scioccare o disgustare gli spettatori.
L’approccio all’innovazione responsabile dell’IA, secondo YouTube
Nel post, YouTube afferma che la sua community (creators, spettatori e artisti) ha continuamente segnalato le modalità in cui le tecnologie potrebbero essere potenzialmente dannose. Secondo la piattaforma, questo è particolarmente vero nei casi in cui il volto o la voce di una persona potrebbero essere generati digitalmente senza il suo permesso o per travisare il suo punto di vista.
La rimozione coatta dei video
Nei prossimi mesi, quindi, sarà anche possibile richiedere la rimozione di contenuti generati dall’intelligenza artificiale o di altri contenuti alterati che simulano un individuo identificabile, compreso il suo volto o la sua voce, e sarà possibile farlo tramite la procedura di richiesta di privacy. YouTube ci tiene a specificare che non sarà rimosso nulla senza prima una valutazione delle richieste e la presa in considerazione di una serie di fattori.
La rimozione dei contenuti musicali generati da AI
YouTube chiarisce anche la sua posizione rispetto un tema molto caldo: i contenuti musicali generati dall’intelligenza artificiale. In questo caso, la piattaforma sta introducendo la possibilità, per i loro partner musicali, di richiedere la rimozione di contenuti musicali generati dall’intelligenza artificiale che imitano la voce unica di un artista che canta o rappa. Nel determinare se accogliere una richiesta di rimozione, verranno presi in considerazione diversi fattori, ad esempio, che il contenuto sia oggetto di notizie, analisi o critiche sulla voce sintetica.
Non è solo una “lotta” contro l’AI che, in realtà, è un’ottima “moderatrice di contenuti”
Il comunicato rilasciato continua con la questione della moderazione dei contenuti. La piattaforma scrive che ha sempre utilizzato una combinazione di persone e tecnologie di apprendimento automatico per applicare le linee guida della comunità, con oltre 20.000 revisori di Google che operano in tutto il mondo. Nei loro sistemi, i classificatori dell’intelligenza artificiale aiutano a rilevare i contenuti potenzialmente violativi su scala, mentre i revisori lavorano per confermare se i contenuti hanno effettivamente superato le linee guida. A questo proposito, l’intelligenza artificiale verrà usata come catalizzatrice, aumentando continuamente la velocità e l’accuratezza dei sistemi di moderazione dei contenuti.
Le nuove forme di abuso
Un’area di impatto evidente è stata l’identificazione di quelle che vengono definite le: nuove forme di abuso. Quando emergono nuove minacce, i sistemi in uso hanno a disposizione un contesto relativamente limitato per comprenderle e identificarle su scala. Pertanto, l’intelligenza artificiale generativa aiuterà ad espandere rapidamente l’insieme di informazioni su cui tali sistemi lavorano e continueranno a venire addestrati in tal senso, il che significa che sarà possibile identificare e catturare i contenuti “minacciosi” molto più rapidamente.
Costruire la responsabilità
“Mentre continuiamo a sviluppare nuovi strumenti di IA per i creators, il nostro approccio rimane coerente con il modo in cui abbiamo affrontato alcune delle nostre più grandi sfide di responsabilità: crediamo nel tempo necessario per fare le cose bene, piuttosto che cercare di essere i primi“. Queste le parole conclusive del post che però continua con un avvertimento velato: “Riconosciamo anche che i cattivi attori cercheranno inevitabilmente di aggirare questi guardrail. Incorporeremo il feedback degli utenti e l’apprendimento per migliorare continuamente le nostre protezioni. Inoltre, all’interno della nostra azienda, team dedicati, come il nostro intelligence desk, si concentrano specificamente sul rilevamento delle minacce, per garantire che i nostri sistemi siano in grado di affrontare le nuove sfide che emergono“. Insomma, YouTube pare aver preso la questione molto sul serio. Non resta che aspettare l’introduzione globale dei nuovi aggiornamenti.