Z inicjatywy Brytyjczyków Rada Bezpieczeństwa ONZ zorganizuje pierwsze w historii spotkanie w sprawie potencjalnego zagrożenia dla pokoju i bezpieczeństwa międzynarodowego, jakie stwarza sztuczna inteligencja (AI). Chodzi o zagrożenia związane z użyciem autonomicznej broni i kontroli arsenału nuklearnego.
Specjalne posiedzenie w ONZ zaplanowano na 18 lipca i poprowadzi je ambasador Wielkiej Brytanii Barbara Woodward. Brytyjczycy przejmują półroczną prezydencję w Radzie. Zaznaczyli, że kwestia wykorzystania AI na świecie jest dla nich priorytetem.
W obradach wezmą udział eksperci od sztucznej inteligencji i Sekretarz Generalny ONZ Antonio Guterres. Szef ONZ, powołując się na alarmistyczne wypowiedzi ekspertów odnośnie egzystencjalnego zagrożenia sztucznej inteligencji dla ludzkości, zaznaczył, że trzeba podjąć zdecydowane działania, by zniwelować te zagrożenia.
Wesprzyj nas już teraz!
W tym celu we wrześniu zostanie powołana rada doradcza ds. sztucznej inteligencji. Przygotuje ona inicjatywy, które miałoby podjąć ONZ. Rada ds. AI byłaby podobna do Międzynarodowej Agencji Energii Atomowej, opartej na wiedzy i mającej pewne uprawnienia regulacyjne.
Brytyjska ambasador wskazała na ogromne możliwości, jak i zagrożenia AI, postulując, że wymagane jest wielostronne podejście do problemu. Pośród korzyści Woodraw wymieniła potencjał sztucznej inteligencji do pomocy w programach rozwojowych ONZ, usprawnienia operacji pomocy humanitarnej, wspierania operacji pokojowych i zapobiegania konfliktom poprzez gromadzenie i analizę danych. Sztuczna inteligencja miałaby też pomóc w likwidacji luki rozwojowej między krajami rozwijającymi się a krajami rozwiniętymi.
Za uregulowaniem kwestii zagrożeń dla bezpieczeństwa ze strony sztucznej inteligencji opowiadają się kraje europejskie. Wskazują one na zagrożenia płynące z możliwości generowania tekstów, obrazów, dźwięków i nagrań video za pośrednictwem nowej generacji sztucznej inteligencji (chatboty AI takie jak ChatGPT).
14 czerwca unijni prawodawcy przyjęli pierwszy na świecie zestaw kompleksowych zasad dotyczących sztucznej inteligencji. Brytyjczycy natomiast powiadomili, że jeszcze w tym roku zorganizują globalny szczyt AI.
W maju szef firmy, która stworzyła ChatGPT i go udoskonala mówił przed senacką komisją w USA, że konieczna jest interwencja rządu, by złagodzić ryzyko związane z coraz potężniejszymi systemami sztucznej inteligencji.
Dyrektor generalny OpenAI, Sam Altman, zaproponował utworzenie amerykańskiej lub globalnej agencji, która udzielałaby licencji na najbardziej zaawansowane systemy AI. Miałaby ona prawo cofnąć stosowne pozwolenia na użytkowanie tych systemów ze względów bezpieczeństwa.
– Nie wszyscy musimy dokładnie wiedzieć, jak działa sztuczna inteligencja, ale musimy się upewnić, że ją kontrolujemy – uważa John Chris Inglis, który zrezygnował z funkcji National Cyber Director w Białym Domu na początku tego roku.
Inglis, pierwszy krajowy dyrektor ds. cyberprzestrzeni w Białym Domu, zaznacza, że ważne jest, by to nie technologia rządziła ludźmi, ale ludzie technologią. Tymczasem obecnie jest odwrotnie i dzisiaj nie osoba, lecz technologia znajduje się w centrum. Postrzegana jest jako remedium na wszelkie problemy.
68-letni Inglis zasugerował sporządzenie „nowej umowy społecznej” między tymi, którzy rozwijają technologię, a obywatelami. – Może nie wiem, co dzieje się pod maską mojego samochodu ani dlaczego silnik rozpędza mnie do 100 mil na godzinę, ale mam nad tym kontrolę. Mam pedał gazu, kierownicę, hamulce. Musimy upewnić się, że mamy takie same relacje ze sztuczną inteligencją. Nie każdy z nas musi dokładnie wiedzieć, jak to działa, ale musimy się upewnić, że to kontrolujemy – mówił. Dodał, że ważne jest doskonalenie krytycznego myślenia, byśmy potrafili zrozumieć, co oferuje nam technologia w kontekście świata, w którym żyjemy.
Inglis, zanim został mianowany przez prezydenta Joe Bidena na stanowisko National Cyber Director, był zastępcą dyrektora wewnętrznej agencji wywiadowczej National Security Agency, gdzie spędził większość swojego życia. Zaczynał pracę na samym początku rewolucji cyfrowej.
– Jako informatyk wierzyłem w potęgę technologii, że można napisać dowolny kod lub zbudować dowolny system o wysokim poziomie bezpieczeństwa, ale ostatecznie rzeczywistość jest taka, że te systemy nigdy nie będą w pełni bezpieczne. I nie chodzi jedynie o napisany kod, ale także o jego interakcję z fundamentami, takimi jak Internet – wskazał.
Inglis dodał, że jest prawie niemożliwe stworzenie zamkniętego systemu, który nie będzie zależał od niczego. Zawsze będą jakieś luki, które będą starali się wykorzystać przestępcy czy służby wywiadowcze innych państw.
Źródła: voanews.com / calcalistech.com
AS