8 listopada 2023

Sztuczna inteligencja użyta jako broń? „Byłoby to ogromnym zmartwieniem”

(fot. Pixabay)

„Byłoby ogromnym zmartwieniem, gdyby sztuczna inteligencja była użyta jako broń lub niewłaściwie wykorzystana przez wrogie podmioty. Rząd Wielkiej Brytanii często używa przykładu użycia jej do tworzenia broni biologicznej, innym przykładem niebezpieczeństwa są cyberataki” – mówi PAP Olivia O’Sullivan z Królewskiego Instytutu Spraw Międzynarodowych (Chatham House) w Londynie.

O’Sullivan wskazuje, że firmy technologiczne muszą być zaangażowane w debatę na temat regulacji sztucznej inteligencji, bo to one są jej twórcami, ale nie mogą jej zdominować.

„Państwa i instytucje międzynarodowe muszą mieć możliwość zarządzania zagrożeniami” – powiedziała.

Wesprzyj nas już teraz!

Podczas zorganizowanego przez Wielką Brytanię pierwszego globalnego szczytu ws. bezpieczeństwa sztucznej inteligencji (AI), który w środę i czwartek odbył się w Bletchley Park, przyjęto deklarację na temat współpracy przy zapobieganiu zagrożeniom związanym z tą technologią. Ustalono również, że państwa i firmy technologiczne będą wspólnie testować nowe modele AI pod kątem ewentualnych zagrożeń.

„To, że podczas szczytu udało się zawrzeć deklarację o potrzebie współpracy i zrozumienia zagrożeń związanych ze sztuczną inteligencją, pod którą podpisały się zarówno Stany Zjednoczone, jak i Chiny, jest prawdopodobnie najważniejszym jego osiągnięciem. Znaczące jest to, że te dwa kraje, pomimo napięcia na innych polach i rywalizacji w kwestii zaawansowanej sztucznej inteligencji, były gotowe podpisać ten sam dokument” – mówi w rozmowie z PAP O’Sullivan.

Przyznaje ona, że kwestia włączenia Chin w proces regulacyjny stwarza pewne ryzyko, ale ryzykiem byłoby też ich wykluczenie z niego. Jak wskazuje, sztuczna inteligencja jest polem znaczącej konkurencji geopolitycznej i dopiero okaże się, czy uda się utrzymać obecne w Bletchley Park poczucie, że wynikające z niej zagrożenia są wspólne, a zatem warto spróbować, przynajmniej jeśli chodzi o najpotężniejsze jej modele, przeprowadzić wspólną międzynarodową rozmowę i wspólny międzynarodowy proces zarządzania ryzykiem.

Jak dodaje, zachęcające jest także to, że prywatne firmy zgadzają się na udostępnianie do testowania nowych modeli sztucznej inteligencji i publikowania szczegółów na ten temat. „Kluczowe jest również to, że na prywatnych firmach będzie spoczywał obowiązek wykazania, że to, co robią, jest bezpieczne, Bardzo ważne jest, aby międzynarodowe bezpieczeństwo sztucznej inteligencji było postrzegane jako wspólne przedsięwzięcie, dlatego firmy big tech muszą być zaangażowanie w proces regulacji, ale nie mogą nim kierować” – wyjaśnia.

„Sztuczna inteligencja jest podobna do innych wyzwań regulacyjnych w ciągu ostatnich kilku dekad, w których firmy technologiczne są coraz bardziej wpływowe w rozmowach, ale ważne jest, abyśmy ustanowili normę, że demokratycznie wybrani przywódcy, instytucje międzynarodowe, prowadzą tę rozmowę i mają zdolność do regulowania i zarządzania tymi zagrożeniami. Oczywiście musimy słuchać firm technologicznych, ponieważ to one rozumieją tę technologię. To one ją rozwijają i muszą być częścią dyskusji, ale nie dominować w niej. Musimy zapewnić, że ta równowaga będzie właściwa” – mówi O’Sullivan.

Odnosząc się do pojawiających się często w kontekście regulacji sztucznej inteligencji porównań do energii jądrowej, zwraca uwagę, że nie do końca są one uzasadnione. „Znajdujemy się w nieco nowym świecie, bo energia jądrowa czy inne naprawdę potężne technologie, dla których opracowaliśmy globalne systemy zarządzania, jak wczesny Internet, były tworzone przez publiczne instytuty badawcze. Sztuczna inteligencja jest zupełnie inna, ponieważ znaczna część rozwoju tej technologii odbywa się w prywatnych laboratoriach i jest własnością prywatnych firm. Musimy uznać, że jesteśmy w pewnym sensie w nowym świecie i musimy znaleźć sposób, aby te duże firmy technologiczne były stanowiły część międzynarodowego zarządzania i nadzoru oraz by były związane tym” – wyjaśnia.

Jeśli chodzi o potencjalne zagrożenia związane ze sztuczną inteligencją, to O’Sullivan podkreśla, że cała debata na ten temat ma charakter bardzo spekulatywny, ale dobrze, że rządy podejmują działania mające na celu badanie ich. „Niektórzy eksperci obawiają się, że w pewnym momencie wysoce zaawansowana sztuczna inteligencja może działać w sposób, którego ludzie nie będą w stanie w pełni nadzorować ani kontrolować. Mówienie o tym wciąż jest to bardzo spekulatywne. Ważne jest, aby skupić się na zapewnieniu, że mamy lepsze dowody na temat zagrożeń związanych ze sztuczną inteligencją, stąd też utworzenie, co ogłoszono w tym tygodniu, brytyjskiego Instytutu Bezpieczeństwa AI, a także podobnej instytucji w USA, to bardzo dobre działania. Konieczne jest, aby rządy, a także niezależne, międzynarodowe instytucje posiadały tę wiedzę na temat zagrożeń, bo nie możemy być zdani w tej kwestii tylko na prywatne firmy” – podkreśla.

O’Sullivan mówi, że trudno na obecnym etapie wskazać, jakie jest największe zagrożenie związane z rozwojem sztucznej inteligencji. „To zależy od tego, kogo i w jakim stopniu dotyczą poszczególne zagrożenia. Ryzyko związane z dyskryminacją jest naprawdę ważne. Ryzyko związane z dezinformacją też, ale byłoby również ogromnym zmartwieniem, gdyby sztuczna inteligencja była użyta jako broń lub niewłaściwie wykorzystana przez wrogie podmioty. Rząd Wielkiej Brytanii często używa przykładu użycia jej do tworzenia broni biologicznej, innym przykładem niebezpieczeństwa są cyberataki. Wszystkie te obawy istnieją i nie jest po prostu możliwe do określenia w tym momencie, która z nich jest ryzykiem numer jeden” – uważa ekspertka.

pap logo

Największe zagrożenie dla ludzkości. Prof. Zybertowicz o niekontrolowanym rozwoju sztucznej inteligencji

Moralność, etyka? Dla „sztucznej inteligencji” to pojęcia obce. Liczy się osiągnięcie celu

 

 

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2025 rok

Po osiągnięciu celu na 2024 rok nie zwalniamy tempa! Zainwestuj w rozwój PCh24.pl w roku 2025!

mamy: 31 006 zł cel: 500 000 zł
6%
wybierz kwotę:
Wspieram