Nvidia zaprezentowała NeMo Guardrails, narzędzie mające pomóc deweloperom w zapewnieniu dokładności, trafności i bezpieczeństwa generatywnej AI.
NeMo Guardrails, the new toolkit for easily developing trustworthy LLM-based conversational applications.
— NVIDIA AI Developer (@NVIDIAAIDev) April 25, 2023
It works with all #LLMs and natively supports @LangChainAI, adding a layer of safety, security, and topical guardrails to existing applications. ➡️ https://t.co/CBHbTkcDUU pic.twitter.com/irYFmlHKdM
NeMo Guardrails pozwala programistom na zastosowanie trzech różnych rodzajów ograniczeń do ich modeli językowych (LLM). Firmy mogą ustawić w szczególności „bariery tematyczne”, które uniemożliwią ich aplikacjom obsługę nieistotnych zapytań.
Na przykład chatbot do obsługi klienta odmówi odpowiedzi na pytanie o pogodę.
Firmy mogą również ustawić ograniczenia, aby zapewnić, że LLM otrzymują dokładne informacje i łączą się z bezpiecznymi aplikacjami.
Według Nvidii, NeMo Guardrails działa ze wszystkimi modelami językowymi, w tym ChatGPT. Firma twierdzi również, że z narzędzia może skorzystać niemal każdy deweloper oprogramowania. Na blogu czytamy:
„Nvidia uczyniła NeMo Guardrails […] open source, aby przyczynić się do ogromnej energii społeczności deweloperów i bezpieczeństwa operacji AI.”
Firma uważa, że narzędzie pomoże deweloperom doprowadzić swoje usługi AI do zgodności z wymogami bezpieczeństwa.
NeMo Guardrails ma charakter open source. Nvidia zaznaczyła, że będzie też współpracować ze wszystkimi narzędziami, z których korzystają już deweloperzy korporacyjni.
Narzędzie jest zawarte w istniejącej platformie NeMo do tworzenia generatywnych modeli AI. Klienci biznesowi mogą uzyskać do niego dostęp także poprzez platformy AI Enterprise lub AI Foundations.
Przypomnijmy, że w kwietniu Nvidia pokazała algorytm do generowania realistycznych filmów z opisów tekstowych. We wrześniu 2022 roku firma ujawniła nowe chipy i usługi AI. Wśród nich jest platforma do tworzenia języków NeMo LLM.