W sobotę chińskie władze przedstawiły projekt regulacji systemów tak zwanej sztucznej inteligencji, zachowujących się jak ludzie. Chodzi o systemy budujące więzi emocjonalne z użytkownikami internetu i imitujące osobowości ludzkie, to jest towarzyszące chatboty, wirtualnych influencerów i asystentów reagujących emocjonalnie, zacierających granicę między interakcją z maszyną a kontaktem międzyludzkim.
Nowe przepisy mają zapewnić surowsze standardy bezpieczeństwa i etyki. Odnoszą się do oferowanych na rynku wewnętrznym produktów i usług AI, prezentujących symulowane ludzkie cechy osobowości, wzorce myślenia lub style komunikacji. Przepisy dotyczą systemów, które wchodzą w interakcje emocjonalne z użytkownikami za pośrednictwem tekstu, obrazów, dźwięku, wideo lub innych formatów.
Regulacje mają ograniczyć ryzyko nadmiernego korzystania, prowadzącego do uzależnienia emocjonalnego. Dostawcy usług mieliby ostrzegać użytkowników przed zagrożeniami związanymi z takim nieuporządkowanym przywiązaniem do AI i interweniować w przypadku pojawienia się niepokojących oznak. Nie sprecyzowano jednak, na czym miałyby polegać interwencje.
Wesprzyj nas już teraz!
Ponadto dostawcy Artificial Intelligence mieliby ponosić odpowiedzialność w całym cyklu życia tych systemów od etapu ich rozwoju do wdrożenia oraz ustanowić mechanizmy przeglądu algorytmów, bezpieczeństwa danych i ochrony danych osobowych.
Dostawcy AI zostaną zobligowani do identyfikowania stanu użytkowników, oceniania reakcji emocjonalnych oraz poziomu uzależnienia od usług AI. Jeśli użytkownicy będą przejawiać skrajne emocje lub zachowania uzależniające, firmy muszą podjąć „niezbędne działania” w celu poprawy ich kondycji.
Usługi AI nie mogą generować materiałów zagrażających bezpieczeństwu narodowemu, rozpowszechniających „plotki” lub promujących przemoc albo obsceniczność.
Źródła: bignewsnetork.com, technology.org
AS