Apple ha limitato l’uso di ChatGPT e di altre risorse di intelligenza artificiale ai suoi dipendenti a causa delle preoccupazioni per la divulgazione accidentale di dati proprietari. Non è la prima azienda a vietare ai suoi dipendenti di usare l’IA di OpenAI per motivi di lavoro: anche Samsung aveva preso la stessa decisione.

Il motivo del divieto si spiega molto facilmente: entrambe le aziende temono che i loro dipendenti possano gettare nelle fauci di OpenAI numerosi informazioni riservate su prodotti non ancora annunciati al pubblico. Peraltro, non è nemmeno necessario accusare OpenAI di malafede per dover essere preoccupati: anche ChatGPT, come tutte le piattaforme, può essere soggetto a data breach e furti delle informazioni degli utenti. Da qui la necessità di essere prudenti.

Vale comunque la pena di ricordare che OpenAI ha recentemente implementato una serie di nuovi controlli sulla privacy per permettere agli utenti di disattivare la registrazione delle loro conversazioni. Tra questi c’è anche una sorta di modalità incognito, che fa sì che la cronologia delle conversazioni non venga salvata.

Contestualmente, sappiamo che Apple ha iniziato a lavorare su un suo grande modello linguistico LLM e che un domani questo potrebbe essere utilizzato per rendere Siri estremamente più avanzato di quanto non sia adesso.

La decisione di limitare l’uso di ChatGPT conferma l’attenzione di Apple per la sicurezza dei dati e la protezione della riservatezza dei propri progetti. Recentemente Apple ha organizzato un astuto piano per identificare una talpa interna che divulgava frequentemente informazioni riservate sui social network.