Google, l’azienda madre di Alphabet Inc, ha lanciato un avvertimento ai propri dipendenti sull’uso delle chatbots, come il loro programma Bard, mentre viene commercializzato in tutto il mondo. L’azienda ha consigliato ai dipendenti di evitare di inserire informazioni riservate nelle chatbots di intelligenza artificiale, poiché è emerso il rischio di fuga di notizie. Bard e ChatGPT sono chatbot che utilizzano l’intelligenza artificiale generativa per condurre conversazioni e rispondere alle richieste degli utenti.
Indesiderati effetti collaterali
Alphabet ha anche avvertito i suoi ingegneri di evitare di utilizzare direttamente il codice informatico generato dalle chatbots. Sebbene Bard possa offrire suggerimenti di coding, l’azienda ha sottolineato che possono verificarsi indesiderati effetti collaterali. Queste precauzioni riflettono lo standard di sicurezza adottato da molte aziende, che mettono in guardia il personale dall’uso di chatbot disponibili pubblicamente. Questo è quanto riporta Reuters, che sostiene di avere parlato con quattro dipendenti rimasti anonimi. L’uso delle chatbots di intelligenza artificiale è sempre più diffuso, ma ci sono preoccupazioni sul fatto che possano essere utilizzati per accedere a informazioni sensibili o riservate. Molte aziende in tutto il mondo, come Samsung, Amazon, Deutsche Bank e, a quanto pare, anche Apple, hanno imposto restrizioni all’uso delle chat di intelligenza artificiale per cercare di affronatre questi problemi. Inoltre, secondo un sondaggio condotto da Fishbowl, circa il 43% dei professionisti ha ammesso di utilizzare ChatGPT o altri strumenti di intelligenza artificiale senza informare i propri superiori. Questo evidenzia l’importanza di mettere in atto politiche di sicurezza e di sensibilizzare i dipendenti sui rischi associate all’utilizzo.
Non solo Google
Google sta espandendo Bard in tutto il mondo come parte del suo impegno nel settore dell’intelligenza artificiale, ma sta anche affrontando interrogativi sulla privacy e sta collaborando con le autorità di regolamentazione per rispondere alle domande sollevate. Le preoccupazioni riguardanti la sicurezza delle informazioni sensibili sono comuni nell’adozione di nuove tecnologie. Alcune aziende stanno sviluppando soluzioni per affrontare queste preoccupazioni, ad esempio, Cloudflare ha introdotto una funzionalità che consente alle aziende di controllare il flusso di dati sensibili all’esterno. In generale, è importante che le aziende adottino una visione conservativa e mettano in atto politiche rigorose per proteggere le informazioni riservate quando utilizzano chatbot di intelligenza artificiale. Queste tecnologie possono essere strumenti potenti per migliorare l’efficienza delle attività aziendali, ma devono essere utilizzate in modo responsabile per evitare rischi per la sicurezza dei dati.