Ogni giorno si sente parlare sempre più di intelligenza artificiale, espressione con la quale si fa riferimento ad una nuova forma di tecnologia informatica o meglio un processo tramite il quale i sistemi informatici e le macchine riescono a simulare l’intelligenza dell’uomo. Le aziende che si occupano di costruzione di modelli di IA lo fanno solitamente basandosi su alcuni contenuti disponibili al pubblico. E quindi ad esempio utilizzando dei video presenti sulla celebre piattaforma web YouTube oppure servendosi di articoli di giornale.
Ma se un tempo farlo era più facile ora, al contrario, diventa sempre più complicato. Il motivo? Semplice, l’applicazione di una serie di restrizioni sui contenuti. Ad evidenziare la questione è stato uno studio effettuato dalla Data Provenance Initiative del Massachusetts Institute of Technology. Secondo quanto emerso dallo studio le restrizioni ai dati di addestramento IA potrebbero comportare dei rischi non indifferenti. E nello specifico potrebbero rendere i modelli meno efficaci.
I risultati dello studio
I ricercatori hanno effettuato il controllo di circa 14.000 siti web che vengono analizzati da set di dati di addestramento IA, e da tale analisi è emerso che per il 28% di questi è vietato l’utilizzo. Coloro che amministrano questi siti web hanno introdotto quindi rigidi limiti e restrizioni rendendo difficile l’estrazione dei loro contenuti.
Queste rigide restrizioni stanno quindi creando parecchi problemi alle aziende che si occupano della costruzione di modelli di IA, e i ricercatori hanno definito tutto ciò “consenso in crisi”. Ciò significa che se un tempo internet era libero e senza barriere oggi non è più così e i nuovi modelli di IA rischiano quindi di essere meno innovativi e quindi meno efficaci.
Molte aziende sperano di poter risolvere il problema servendosi dell’aiuto di dati sintetici generati proprio dall’intelligenza artificiale. Ma i risultati ottenuti fino ad ora non sono particolarmente soddisfacenti.