NVIDIA ha presentato NeMo Guardrails, una suite di strumenti per aiutare le aziende ad assicurarsi che le loro IA siano sicure e non forniscano informazioni offensive o false.
A marzo NVIDIA ha presentato AI Foundations, un servizio che consente alle aziende di addestrare grandi modelli di linguaggio (LLM) sui propri dati proprietari. Oggi l’azienda sta introducendo NeMo Guardrails, uno strumento progettato per aiutare gli sviluppatori a garantire che le loro app AI generative siano accurate, appropriate e sicure.
NeMo Guardrails consente agli ingegneri del software di imporre tre diversi tipi di limiti sui loro LLM interni. In particolare, le aziende possono impostare “guardrail tematici” che impediranno alle loro app di affrontare argomenti per cui non sono state addestrate. Ad esempio, NVIDIA suggerisce che un chatbot del servizio clienti difficilmente deve dare informazioni sul meteo o su temi delicati, come la politica. Usano NeMo, gli sviluppatori potranno facilmente impedire ai loro bot di rispondere a domande su temi non pertinenti.
Secondo NVIDIA, NeMo Guardrails funziona con tutti i LLM, inclusa ChatGPT. Inoltre, l’azienda sostiene che quasi tutti gli sviluppatori di software possono utilizzare il loro pacchetto di strumenti. “Non è necessario essere un esperto di machine learning o un data scientist”, dice. Poiché NeMo Guardrails è open source, NVIDIA osserva che funzionerà anche con tutti gli strumenti che gli sviluppatori aziendali già utilizzano.
NVIDIA sta incorporando NeMo Guardrails nel suo esistente framework NeMo per la creazione di modelli AI generativi. I clienti aziendali possono accedere a NeMo attraverso la piattaforma software AI Enterprise dell’azienda. NVIDIA offre anche il framework attraverso il suo servizio AI Foundations.