Nvidia stawia na sztuczną inteligencję, by zwiększyć bezpieczeństwo

Nvidia, słynąca ze swoich najpotężniejszych kart graficznych, w ostatnim czasie daje nam również popis na tle sztucznej inteligencji, ale to nie wszystko. Na tegorocznej konferencji RSAC 2025 grupa “zielonych” chce przedstawić zestaw zabezpieczeń AI, który zapewni kontrolę i zarządzanie zaawansowanymi systemami agentowymi. Ta nowość na rynku cyberbezpieczeństwa wprowadza nowe możliwości, które wymagają przemyślenia sposobu zabezpieczania sztucznej inteligencji, oferując jednocześnie klucze do stawienia czoła tym wyzwaniom.
Nvidia stawia na sztuczną inteligencję, by zwiększyć bezpieczeństwo

W przeciwieństwie do standardowych systemów AI, agenci AI mogą podejmować autonomiczne działania 

Agentów AI odróżnia to, że mogą podejmować autonomiczne działania, wchodząc w interakcje z narzędziami, środowiskami, innymi agentami i poufnymi danymi. Takie podejście daje nowe możliwości obrońcom, ale wprowadza również nowe klasy ryzyka. Przedsiębiorstwa muszą teraz przyjąć podwójne podejście, czyli obronę zarówno za pomocą, jak i przed agentową sztuczną inteligencją.

Czytaj też: Szukasz RTX 5090? W Japonii już go nie kupisz tak łatwo 

Agenci AI mogą szybko oceniać ryzyko związane z nowymi lukami w oprogramowaniu, przeszukiwać zasoby, oceniać środowiska i dostarczać podsumowania analitykom. Systemy na nich oparte są w stanie analizować alerty, gromadzić kontekst, określać przyczyny źródłowe i działać na podstawie ustaleń w czasie rzeczywistym, poprawiając efektywność centrów operacji bezpieczeństwa. Poza tym, tacy agenci sztucznej inteligencji są w stanie przechwytywać i stosować wiedzę doświadczonych analityków.

Czytaj też: Gemini dla najmłodszych? Google otwiera AI dla dzieci 

Z drugiej strony, niesie to ze sobą nowe ryzyko, które Nvidia stara się przewidzieć. Między innymi to, że systemy agentowe AI mogą uzyskiwać dostęp do narzędzi, generować wyniki z efektami następczymi i wchodzić w interakcje z wrażliwymi danymi w czasie rzeczywistym, co stwarza nowe obawy dotyczące bezpieczeństwa. Poza tym, zapewnienie bezpiecznego i przewidywalnego zachowania agentów AI wymaga zarówno testowania przed wdrożeniem, jak i kontroli w czasie wykonywania. Dodatkowo, jednym z wyzwań może być ochrona obciążeń w czasie wykonywania, monitorowanie operacyjne i egzekwowanie zasad zerowego zaufania, które są kluczowe dla zabezpieczenia systemów agentowej AI.

Czytaj też: Samsung odróżni się od konkurencji, dodając niebieskie „Q” w produktach QD-OLED 

Nvidia buduje możliwości AI i bezpieczeństwa w podstawy technologiczne, aby umożliwić partnerom ekosystemu dostarczanie rozwiązań cyberbezpieczeństwa opartych na sztucznej inteligencji. Jeśli chcesz dowiedzieć się więcej, odsyłam do źródła