24 grudnia 2023

Rządy i organizacje międzynarodowe tworzą prawne regulacje dotyczące sztucznej inteligencji

(Zdjęcie ilustracyjne, fot. Pixabay.com)

Szybki rozwój sztucznej inteligencji (AI) powoduje, że rządy i organizacje międzynarodowe ścigają się w regulowaniu narzędzi AI i tworzą pierwsze prawne regulacje dotyczące tej technologii.

 

Twórcy AI podczas pierwszego globalnego szczytu bezpieczeństwa sztucznej inteligencji w Wielkiej Brytanii, który odbył się 2 listopada, zgodzili się współpracować z rządami w celu przetestowania nowych narzędzi przed ich szerszym udostępnieniem, aby pomóc w zarządzaniu ryzykiem związanym z rozwijającą się technologią.

Wesprzyj nas już teraz!

Ponad 25 krajów obecnych na szczycie podpisało 1 listopada Deklarację z Bletchley, aby współpracować i ustalić wspólne podejście do nadzoru nad AI.

Przedstawiciele Wielkiej Brytanii powiedzieli podczas szczytu, że kraj potroi do 300 milionów funtów swoje fundusze dla instytutu AI Research Resource, co obejmuje dwa superkomputery, które będą wspierać badania nad bezpieczeństwem zaawansowanych modeli sztucznej inteligencji. Wielka Brytania planuje także utworzenie pierwszego na świecie instytutu bezpieczeństwa sztucznej inteligencji.

Z kolei prawodawcy i rządy UE osiągnęły 8 grudnia tymczasowe porozumienie w sprawie zasad regulujących wykorzystanie sztucznej inteligencji, w tym wykorzystanie sztucznej inteligencji przez rządy w nadzorze biometrycznym.

Porozumienie wymaga, aby systemy AI ogólnego przeznaczenia spełniały obowiązki w zakresie przejrzystości przed wprowadzeniem ich na rynek. Obejmują one sporządzanie dokumentacji technicznej, przestrzeganie prawa autorskiego UE i rozpowszechnianie szczegółowych podsumowań dotyczących treści wykorzystywanych do szkolenia AI.

Stany Zjednoczone, Wielka Brytania i kilkanaście innych krajów przedstawiły 27 listopada 20-stronicowe niewiążące porozumienie zawierające ogólne zalecenia dotyczące sztucznej inteligencji, takie jak monitorowanie systemów pod kątem nadużyć, ochrona danych przed manipulacją i weryfikacja dostawców oprogramowania.

Stany Zjednoczone uruchomią instytut bezpieczeństwa sztucznej inteligencji w celu oceny znanych i nowych się zagrożeń związanych z tak zwanymi pionierskimi modelami sztucznej inteligencji.

Prezydent Joe Biden wydał 30 października rozporządzenie wykonawcze wymagające od twórców systemów sztucznej inteligencji, które mogą stanowić zagrożenie dla bezpieczeństwa narodowego USA, gospodarki, zdrowia publicznego lub bezpieczeństwa, udostępniania rządowi wyników testów bezpieczeństwa.

Także Chiny zdecydowały się na wprowadzenie regulacji prawnych dotyczących AI, Wu Zhaohui, chiński wiceminister nauki i technologii, powiedział podczas sesji otwierającej AI Safety Summit w Wielkiej Brytanii 1 listopada, że Pekin jest gotowy do zwiększenia współpracy w zakresie bezpieczeństwa sztucznej inteligencji, aby pomóc w budowaniu międzynarodowych „ram zarządzania”.

W październiku Chiny opublikowały proponowane wymogi bezpieczeństwa dla firm oferujących usługi oparte na generatywnej sztucznej inteligencji, w tym czarną listę źródeł, których nie można wykorzystywać do trenowania modeli AI.

W sierpniu kraj ten wydał zestaw tymczasowych środków wymagających od usługodawców przedłożenia ocen bezpieczeństwa i uzyskania zgody przed wypuszczeniem produktów AI na rynek.

pap logo

Źródło: PAP

 

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2025 rok

Po osiągnięciu celu na 2024 rok nie zwalniamy tempa! Zainwestuj w rozwój PCh24.pl w roku 2025!

mamy: 32 506 zł cel: 500 000 zł
7%
wybierz kwotę:
Wspieram