Nvidia ogłosiła pakiet narzędzi odpowiadający na rosnące zapotrzebowanie na zaufanie, bezpieczeństwo i niezawodność w agentowych systemach sztucznej inteligencji.

Nowa oferta znana jako Nvidia Inference Microservices (NIM) mają na celu pomóc przedsiębiorstwom we wdrażaniu aplikacji AI zgodnych z wytycznymi dotyczącymi bezpieczeństwa i zapobiegających niezamierzonym skutkom.

W ramach struktury NeMo Guardrails te mikrousługi zapewniają wyspecjalizowane rozwiązania do moderowania treści, utrzymywania granice konwersacji i wykrywanie prób ominięcia zabezpieczeń.

Kari Briski, wiceprezes ds. korporacyjnych modeli AI w firmie Nvidia, podkreśliła znaczenie zapewnienia bezpieczeństwa sztucznej inteligencji we współczesnych aplikacjach. „Agenci sztucznej inteligencji szybko przekształcają branże, automatyzując interakcje, ale zapewnienie ich bezpieczeństwa i wiarygodności ma kluczowe znaczenie” – stwierdziła w oficjalnym ogłoszeniu.

[treść osadzona]

Sprostanie wyzwaniom związanym z bezpieczeństwem sztucznej inteligencji za pomocą wyspecjalizowanych mikrousług

Agentyczna sztuczna inteligencja, forma sztucznej inteligencji, która samodzielnie wykonuje zadania, jest coraz częściej stosowana w takich branżach, jak handel detaliczny, opieka zdrowotna i motoryzacja

Chociaż systemy te zwiększają wydajność i zaangażowanie klientów, budzą one również obawy dotyczące szkodliwych wyników, prywatności danych i luk w zabezpieczeniach NVIDII mają na celu ograniczenie tego ryzyka za pomocą trzech ukierunkowanych rozwiązań:

Content Safety NIM, przeszkolony w zakresie zastrzeżonego oprogramowania Aegis Content Safety Zbiór danych ma na celu wykrywanie i blokowanie niewłaściwych lub szkodliwych wyników systemów sztucznej inteligencji. Ten zbiór danych, który składa się z ponad 35 000 próbek z adnotacjami ludzkimi, umożliwia modelom skuteczne identyfikowanie toksycznych treści i reagowanie na nie.

Powiązane: NVIDIA rozwija agentyczną sztuczną inteligencję z modelami Lamy i kosmicznych Nemotronów

Nvidia planuje udostępnić publicznie zbiór danych za pośrednictwem Hugging Face jeszcze w tym roku, rozszerzając swoją dostępność dla programistów i badaczy.

The Topic Control NIM gwarantuje, że interakcje generowane przez sztuczną inteligencję pozostają w określonych granicach, zapobiegając dryfowaniu systemów na nieistotne lub nieautoryzowane tematy. To narzędzie jest szczególnie przydatne w scenariuszach obsługi klienta, gdzie niezbędne są spójne i odpowiednie do kontekstu odpowiedzi.

NIM z funkcją Jailbreak Detection rozwiązuje rosnący problem ataków kontradyktoryjnych. Analizując dane wejściowe na podstawie zbioru danych zawierającego 17 000 znanych prób jailbreak, mikrousługa identyfikuje i blokuje złośliwe monity mające na celu obejście zabezpieczeń systemu.

Schemat blokowy zabezpiecz inteligentnych wirtualnych asystentów AI do obsługi klienta za pomocą NeMo Guardrails (Zdj.: Nvidia)

Briski podkreślił skuteczność tych narzędzi, stwierdzając: „Małe modele, takie jak te z kolekcji NeMo Guardrails, zapewniają mniejsze opóźnienia, umożliwiając bezproblemową integrację ze środowiskami o ograniczonych zasobach, takimi jak magazyny czy szpitale”.

Równowaga bezpieczeństwa i wydajności AI

Kluczowym aspektem podejścia Nvidii jest zrównoważenie potrzeby bezpieczeństwa z zapotrzebowaniem na wysoką wydajność. Według Nvidii wczesne testy wskazują, że nowe mikrousługi dodają tylko około pół sekundy opóźnienia, jednocześnie poprawiając środki bezpieczeństwa o 50%.

Powiązane: NVIDIA przedstawia model sztucznej inteligencji Fugatto dla muzyki, głosów i efektów dźwiękowych

Ten poziom optymalizacji rozwiązuje jeden z najczęstszych problemów związanych ze sztuczną inteligencją w przedsiębiorstwach —zapewniając szybki czas reakcji bez narażania bezpieczeństwa.

„W zależności od interakcji użytkownika można utworzyć wiele różnych LLM lub interakcji i trzeba chronić każdą z nich” – powiedziała Kari Briski.

Przykłady zastosowań w przedsiębiorstwach i zastosowanie w branży

Kilka dużych przedsiębiorstw włączyło już NeMo Guardrails do swoich procesów AI, aby zwiększyć bezpieczeństwo i niezawodność, z których korzysta na przykład Lowe’s, sprzedawca artykułów wyposażenia wnętrz te narzędzia poprawiają interakcje z klientami i zapewniają dokładność odpowiedzi generowanych przez sztuczną inteligencję

Cerence AI, lider sztucznej inteligencji w motoryzacji, wykorzystuje mikrousługi do zasilania technologii asystentów samochodowych. „NeMo Guardrails pomaga nam dostarczać wiarygodne, przemyślane i wolne od halucynacji reakcje, zabezpieczając nasze modele przed szkodliwymi skutkami” – wyjaśnił Nils Schanz, wiceprezes wykonawczy ds. produktów i technologii w Cerence AI.

Powiązane: Microsoft ogranicza zamówienia na karty Nvidia GB200, nadając priorytet GB300 w obliczu opóźnień w produkcji

Dodatkowo firmy takie jak Amdocs i Taskus wykorzystują te narzędzia do tworzyć bezpieczniejsze i bardziej niezawodne systemy sztucznej inteligencji umożliwiające zaangażowanie i wsparcie klientów. Amdocs, globalny dostawca oprogramowania dla komunikacji i mediów, wykorzystuje NeMo Guardrails do usprawniania interakcji z klientami opartych na sztucznej inteligencji.

Inicjatywy dotyczące otwartego oprogramowania i szersze implikacje

Aby wesprzeć programistów w testowaniu i zwiększaniu bezpieczeństwa sztucznej inteligencji, Nvidia wprowadziła Garak, zestaw narzędzi typu open source do identyfikacji luki w systemach AI.

Garak symuluje scenariusze kontradyktoryjne, w tym natychmiastowe wstrzyknięcia i próby jailbreakowania, umożliwiając organizacjom wzmacnianie swoich modeli sztucznej inteligencji potencjalne zagrożenia.

Programiści mogą również uzyskać dostęp do szczegółowe samouczki i projekty referencyjne usprawniające wdrażanie poręczy NeMo i mikrousługi. Zasoby te dotyczą różnych przypadków użycia, od chatbotów obsługi klienta po automatycznych asystentów w placówkach handlu detalicznego i opieki zdrowotnej.

Categories: IT Info