Samsung ha vietato l’uso di strumenti di intelligenza artificiale generativa come ChatGPT sulle sue reti interne e sui dispositivi di proprietà dell’azienda per timore che l’upload di informazioni sensibili su queste piattaforme rappresenti un rischio per la sicurezza, riporta Bloomberg News. La regola è stata comunicata al personale (l’azienda parla esplicitamente di una restrizione solamente temporanea) con una email, Samsung ha spiegato di volersi prendere del tempo per sviluppare dei sistemi che consentano ai lavoratori di utilizzare strumenti come ChatGPT in piena sicurezza.
Il fattore di rischio maggiore è probabilmente il chatbot ChatGPT di OpenAI, diventato estremamente popolare non solo come gioco per l’intrattenimento ma anche come strumento per aumentare la produttività a lavoro. Le persone possono utilizzare il sistema per riassumere report o scrivere risposte alle e-mail. Peccato che, così facendo, i dipendenti rischino di inserire nei sistemi di OpenAI informazioni sensibili e potenzialmente protette da segreto industriale.
Riportando la notizia, The Verge sottolinea che i rischi per la privacy derivanti dall’uso di ChatGPT variano in base al modo in cui l’utente accede al servizio. Se un’azienda utilizza l’API di ChatGPT, le conversazioni con il chatbot non sono visibili al team di supporto di OpenAI e non vengono utilizzate per addestrare i modelli dell’azienda. Tuttavia, ciò non vale per il testo inserito nell’interfaccia web generale utilizzando le impostazioni predefinite.
“L’ufficio centrale sta lavorando ad alcune misure di sicurezza per creare un ambiente sicuro per l’utilizzo dell’IA generativa per migliorare la produttività ed efficienza dei dipendenti”, ha affermato la nota interna dell’azienda, stando a quanto riporta Bloomberg. “Tuttavia, fino a quando queste misure non saranno pronte, abbiamo scelto di limitare temporaneamente l’uso delle IA generative“.