Rozporządzenie ma wejść w życie 1 września 2025 roku
Cyberspace Administration of China (CAC) właśnie opublikowała transkrypt pytań i odpowiedzi dla mediów, na temat swoich środków identyfikacji treści generowanych przez sztuczną inteligencję i treści syntetycznych, czyli tłumaczenia maszynowego.
W treści między innymi czytamy, że użytkownicy nadal będą mogli prosić o nieoznaczone treści generowane przez AI w przypadku „problemów społecznych i potrzeb przemysłowych”. Jednak aplikacja generująca musi powtórzyć to wymaganie użytkownikowi. Dodatkowo ma także rejestrować informacje, aby ułatwić ich śledzenie, poza tym odpowiedzialność za dodanie etykiety i metadanych generowanych przez sztuczną inteligencję spoczywa na barkach tej osoby lub podmiotu końcowego. CAC zakazuje też złośliwego usuwania, manipulacji, fałszowania lub ukrywania tych etykiet AI, w tym udostępniania narzędzi, które pomogą w wykonywaniu tych działań. Poza tym zabrania się również dodawania tego identyfikatora do danych tworzonych przez człowieka, co oczywiście może się zdarzyć na niekorzyść twórców.
Celem tego nowego rozporządzenia w Chinach jest kontrolowanie rozprzestrzeniania się dezinformacji i zapobieganie dezorientacji użytkowników Internetu przez treści generowane przez sztuczną inteligencję. Warto również zaznaczyć, że jak na razie nie został opisany również wymiar kary dla tych, którzy nie będą chcieli przestrzegać tego prawa. Uważam, że tego typu ruch pomoże zmniejszyć dezinformację, zwłaszcza że LLM AI stają się coraz bardziej zaawansowane. Zapewniając, że sztucznie generowane treści są wyraźnie oznaczone, ludzie mogliby łatwiej określić, czy patrzą lub słuchają prawdziwego wydarzenia, czy czegoś stworzonego przez osoby zakłócające porządek.