Chiny walczą ze sztuczną inteligencją

W Unii Europejskiej 12 lipca 2024 roku opublikowano Rozporządzenie o sztucznej inteligencji, ustala ono zasady dotyczące rozwoju, wdrażania i używania sztucznej inteligencji. Nie jest to jedyny, jak się okazuje, ruch związany z ograniczeniem błyskawicznie rozwijanej technologii. Niedawno, krajowy cenzor internetowy Komunistycznej Partii Chin (KPCh) ogłosił, że wszystkie treści generowane przez sztuczną inteligencję będą musiały mieć etykiety, które są wyraźnie widoczne lub słyszane przez odbiorców i osadzone w metadanych. 
Chiny walczą ze sztuczną inteligencją

Rozporządzenie ma wejść w życie 1 września 2025 roku 

Cyberspace Administration of China (CAC) właśnie opublikowała transkrypt pytań i odpowiedzi dla mediów, na temat swoich środków identyfikacji treści generowanych przez sztuczną inteligencję i treści syntetycznych, czyli tłumaczenia maszynowego.  

W treści między innymi czytamy, że użytkownicy nadal będą mogli prosić o nieoznaczone treści generowane przez AI w przypadku „problemów społecznych i potrzeb przemysłowych”. Jednak aplikacja generująca musi powtórzyć to wymaganie użytkownikowi. Dodatkowo ma także rejestrować informacje, aby ułatwić ich śledzenie, poza tym odpowiedzialność za dodanie etykiety i metadanych generowanych przez sztuczną inteligencję spoczywa na barkach tej osoby lub podmiotu końcowego. CAC zakazuje też złośliwego usuwania, manipulacji, fałszowania lub ukrywania tych etykiet AI, w tym udostępniania narzędzi, które pomogą w wykonywaniu tych działań. Poza tym zabrania się również dodawania tego identyfikatora do danych tworzonych przez człowieka, co oczywiście może się zdarzyć na niekorzyść twórców. 

Celem tego nowego rozporządzenia w Chinach jest kontrolowanie rozprzestrzeniania się dezinformacji i zapobieganie dezorientacji użytkowników Internetu przez treści generowane przez sztuczną inteligencję. Warto również zaznaczyć, że jak na razie nie został opisany również wymiar kary dla tych, którzy nie będą chcieli przestrzegać tego prawa. Uważam, że tego typu ruch pomoże zmniejszyć dezinformację, zwłaszcza że LLM AI stają się coraz bardziej zaawansowane. Zapewniając, że sztucznie generowane treści są wyraźnie oznaczone, ludzie mogliby łatwiej określić, czy patrzą lub słuchają prawdziwego wydarzenia, czy czegoś stworzonego przez osoby zakłócające porządek.