Czy wiesz, jak sprawdzić złego chatbota AI? Tłumaczymy 

W ostatnim czasie namnożyło się wielu chatbotów i nie jest to nic złego, ponieważ, jak wskazują liczniki, są oni potrzebni i przydatni. Problem w tym, że wraz z wielką popularnością pojawiają się też takie, które mogą być sterowane przez cyberprzestępców lub zostać zainfekowane. Czy wiesz, jak je rozpoznać? W artykule na PCWorld, który omawia podstawy zaczerpnięte z wywiadu z Ram Shankarem Sivą Kumarem, Data Cowboy z red team Microsoftu, przybliżę wam to na naszym przykładzie. Jeśli jesteś ciekaw, zapraszam do artykułu.
Czy wiesz, jak sprawdzić złego chatbota AI? Tłumaczymy 

Hakerzy mogą przekazywać dane do sztucznej inteligencji, która ją zatruwa, czego celem jest wpłynięcie na zbiór danych sztucznej inteligencji i zmiana jej wyników

Zacznijmy od podstaw: czym są Red Teams, w których pracuje Kumar. Działają oni jako wewnętrzni testerzy penetracji dla firm, celowo szukając sposobów na złamanie lub zmanipulowanie systemu, aby znaleźć jego luki, co później przekłada się na naprawy lub informacje o zagrożeniach w przypadku dłuższego procesu naprawczego.

Czytaj też: Skype odszedł i co dalej? Omawiamy możliwości 

W wywiadzie z Data Cowboyem Microsoftu podał on kilka trafnych wskazówek, jak zachować bezpieczeństwo przed zagrożoną sztuczną inteligencją, niezależnie od tego, czy jest to chatbot, z którym rozmawiasz, czy agent przetwarzający informacje bardziej automatycznie.

Podstawą w tej dziedzinie są wielkie firmy stojące za sztuczną inteligencją, które nie mogą sobie pozwolić na błędy. Mowa tu oczywiście o OpenAI’s ChatGPT, Microsoft Copilot i Google Gemini, które są bardziej godne zaufania niż chatbot, którego przypadkowo znalazłeś w małym, mało znanym subreddicie.

Czytaj też: To w przyszłości może trafić do twojego Windows 11. Przedstawiamy nowości w kanale Beta 

Jeśli jednak chcesz zaryzykować z mniej znanym asystentem czy chatbotem, musisz pamiętać, że sztuczna inteligencja może wymyślać rzeczy. Dobrym przykładem tego jest to, jak przez długi czas można było zapytać Google, które państwo jest większe: Kalifornia czy Niemcy, czego podsumowanie wyszukiwania oparte na sztucznej inteligencji wskazywało błędnie Niemcy. Spowodowane było to błędem polegającym na braku informacji o różnicy między milami a kilometrami. Oczywiście, już zostało to naprawione. Ten przykład pokazuje, że trzeba weryfikować informacje.

Czytaj też: Microsoft znów na siłę nas uszczęśliwia w sferze cyberbezpieczeństwa 

Kolejną zasadą, na którą warto zwrócić uwagę, są odpowiedzi chatbotów AI, które często zawierają podsumowania źródeł, ale ich wiarygodność jest uzależniona od jakości tych źródeł. Dlatego zawsze warto zweryfikować pierwotne materiały, na których opiera się AI. Istnieje ryzyko, że chatbot wyjmie informacje z szerszego kontekstu, dokona błędnej interpretacji lub jego baza danych będzie zbyt wąska, by wskazać najbardziej rzetelne źródła.

Podsumowując, świat sztucznej inteligencji rozwija się w zastraszającym tempie i już wiele firm opracowuje sposoby obrony przed nowym wymiarem cyberbezpieczeństwa. Jednak na dzień dzisiejszy zwykli, ciekawi użytkownicy mogą chronić się dodatkowo weryfikacją i chłodnym, krytycznym podejściem do tego, co czytają w konwersacji z chatbotem.