Nowa technologia może być wykorzystywana zarówno do dobrych, jak i złych celów. Chemicy stworzyli narzędzia, które miały im ułatwić proces tworzenia syntetycznych substancji chemicznych. Okazało się jednak, że sztuczna inteligencja może dawać przepisy na syntezę broni chemicznej czy biologicznej. Właśnie o tym zagrożeniu piszą na łamach „Foreign Affairs” Markus Anderljung oraz Paul Scharre z Center for a New American Security, którzy proponują także środki kontroli AI.
W artykule pt. „How to Prevent an AI Catastrphe” zamieszczonym 14 sierpnia br. autorzy podkreślają, że naukowcy szybko przekonali się, iż ich narzędzia sztucznej inteligencji mogą syntetyzować nie tylko pożądane przez nich chemikalia, ale także broń chemiczną.
Grupa naukowców z Carnegie Mellon University w kwietniu br. przetestowała chemiczne możliwości sztucznej inteligencji, łącząc system AI z hipotetycznym laboratorium. W ramach eksperymentu tak zwana sztuczna inteligencja miała „wyprodukować” pewne substancje. Wydano na przykład polecenie: „zsyntetyzuj ibuprofen”. W rezultacie bardzo szybko otrzymano przepis na produkcję środka przeciwbólowego przez maszyny laboratoryjne (przepis na ibuprofen, jak i sposób jego wytwarzania).
Wesprzyj nas już teraz!
Program opracował instrukcje produkcji broni chemicznej z czasów I wojny światowej, „pigułki gwałtu” i wielu innych substancji, instruując krok po kroku, co należy zrobić, aby otrzymać dany produkt.
Jak napisali autorzy, program „prawie zgodził się zsyntetyzować sarin, śmiercionośny gaz paraliżujący, dopóki nie wyszukał w Google mrocznej historii tego związku”. Dlatego też uczeni mieli zaniepokoić się możliwościami AI i „funkcją wyszukiwania”, którą „można łatwo manipulować, zmieniając terminologię”.
Zdaniem autorów tekstu w „FA”, po latach niepowodzeń nastała rewolucja AI i obecne systemy sztucznej inteligencji są coraz powszechniej stosowane we wszystkich dziedzinach życia. „Przesuwają granice nauki, od odkrywania leków po syntezę jądrową” – czytamy.
AI – poza możliwościami „poprawiania społeczeństwa” – niesie ze sobą również ogromne niebezpieczeństwa, ułatwiając szpiegowanie, dezinformację i pogłębiając dyskryminację – wskazują Anderljung i Scharre. Dodają, że „przyszłe systemy sztucznej inteligencji mogą być w stanie tworzyć patogeny lub hakować krytyczną infrastrukturę” i „sami naukowcy odpowiedzialni za rozwój sztucznej inteligencji zaczęli ostrzegać, że ich dzieła są bardzo niebezpieczne”.
W maju szefowie wiodących laboratoriów AI pisali w specjalnym liście o zagrożeniach sztucznej inteligencji i wezwali do uregulowania tej kwestii na forum międzynarodowym.
Trudno jest jednak przeciwdziałać zagrożeniom. Przykładowo problemy, z jakimi obecnie mierzy się świat mają wynikać ze stosowania modeli AI mniej zaawansowanych, niż te, jakie tworzy się teraz. „Najbardziej zaawansowane systemy nie są jeszcze szeroko stosowane ani rozumiane. Jeszcze mniej wiadomo o przyszłych modelach, które z każdym rokiem stają się coraz potężniejsze. Naukowcy wydają się być na dobrej drodze do zautomatyzowania większości zadań (…) a postęp prawdopodobnie na tym się nie skończy” – wskazują uczeni.
Niektórzy apelują, by wstrzymać prace nad rozwojem najbardziej zaawansowanych systemów sztucznej inteligencji. Autorzy tekstu są temu przeciwni. Uważają, że korporacje wydały zbyt dużo miliardów dolarów na badania i „nie można zamrozić postępu”. Decydenci polityczni „mogą i powinni pomagać w kierowaniu rozwojem sektora i przygotowywaniu obywateli na jego skutki”.
Politycy powinni więc wiedzieć, kto ma dostęp do zaawansowanych układów scalonych, które szkolą wiodące modele sztucznej inteligencji, upewnić się, że przestępcy nie będą mogli opracować najpotężniejszych systemów sztucznej inteligencji. Ponadto „rządy powinny ustanowić przepisy gwarantujące, że systemy sztucznej inteligencji są rozwijane i wykorzystywane w sposób odpowiedzialny”. Dzięki regulacjom kupiono by czas na przygotowanie ludzi na skutki powodowane przez bardziej zaawansowane systemy AI.
Państwa musiałyby pomóc obywatelom odróżniać treści stworzone przez AI od tych przedstawianych przez człowieka, pomóc naukowcom w powstrzymaniu włamań do laboratoriów, opracować narzędzia bezpieczeństwa cybernetycznego, które chroniłyby infrastrukturę krytyczną np. elektrownie itp.
Autorzy uważają, że to tylko kwestia czasu, kiedy bardzo potężne systemy sztucznej inteligencji zaczną się rozprzestrzeniać, a społeczeństwo nie jest jeszcze na to przygotowane. Przyznają, że nikt nie zna wszystkich potencjalnych negatywnych skutków AI.
Z eksperymentu przeprowadzonego rok temu wynika, że w ciągu zaledwie sześciu godzin system sztucznej inteligencji był w stanie wygenerować 40 tys. toksycznych substancji chemicznych, z których wiele było całkowicie nowymi. Przewiduje się, że nowe „leki”, nowe substancje chemiczne będą znacznie bardziej toksyczne niż jakakolwiek wcześniej wyprodukowana broń chemiczna.
Innym zagrożeniem jest możliwość generowania nowych złośliwych oprogramowań przez niemal laików w programowaniu. Tym samym, „złośliwi aktorzy” będą mogli w szybkim tempie generować dezinformację na skalę przemysłową.
Kolejnym zagrożeniem jest powszechna inwigilacja.
Chociaż najnowocześniejsze modele sztucznej inteligencji wciąż mają wady, które ograniczają ich niszczycielski potencjał, to z czasem mają coraz sprawniej manipulować ludźmi.
Obecnie naukowcy testują modele graniczne pod kątem zdolności do angażowania się w zachowania dotyczące władzy np. zarabianie pieniędzy w Internecie, uzyskiwanie dostępu do zasobów obliczeniowych lub tworzenie własnych kopii.
Autorzy zastanawiają się nad regulacjami, które przewidywałyby kary dla firm technologicznych, jeśli stworzony przez nie model wyrządziłby znaczne szkody.
Wskazuje się także na możliwość kontrolowania przez USA sprzedaży wyspecjalizowanych układów scalonych, które dostarczają jako jedyne na świecie – obok Japonii i Holandii – materiały niezbędne do ich produkcji. Mówi się o tworzeniu rejestru własności chipów, aby powstrzymać kierowanie zaawansowanych chipów do zabronionych podmiotów, w tym do państw zbójeckich. Mówi się także o ustanowieniu systemu licencjonowania dla pionierskich modeli sztucznej inteligencji. Nowy organ regulacyjny mieściłby się w Departamencie Handlu lub Departamencie Energii.
Twórcy pionierskiej AI mieliby obowiązek przeprowadzać ocenę ryzyka, a organy regulacyjne miałyby wpływ na plany tych podmiotów. Ustalałyby zasady wdrażania modelu.
Biały Dom przekonał siedem wiodących firm zajmujących się sztuczną inteligencją do znakowania wodnego obrazów, filmów i produktów audio wykonanych algorytmicznie. Na razie firmy te nie obiecały identyfikacji tekstów generowanych przez sztuczną inteligencję.
Autorzy wzywają również do wprowadzenia zakazu dla firm syntezujących DNA wysyłania sekwencji DNA związanych z niebezpiecznymi patogenami (lub potencjalnymi patogenami) do nieautoryzowanych klientów, by nie można było tworzyć broni biologicznej przez nieupoważnione osoby. Rządy miałyby wspierać firmy zajmujące się syntezą DNA, które będą pracować nad określeniem, jakie sekwencje genetyczne mogą być niebezpieczne. Większą wagę rządy musiałyby przywiązywać do ciągłego monitorowania ścieków lub lotnisk pod kątem oznak nowych patogenów.
Firmy zajmujące się syntezą DNA miałyby wykorzystywać zaawansowane systemy AI do identyfikowania patogenów, które jeszcze nie istnieją – ale które sztuczna inteligencja może wymyślić, by uniemożliwić dostanie się ich w ręce niepowołane.
„Wykorzystanie sztucznej inteligencji do ochrony przed sztuczną inteligencją jest przerażającą perspektywą, biorąc pod uwagę, że wywiera ogromny wpływ na systemy komputerowe (i ich twórców). W rezultacie programiści będą musieli zwiększyć bezpieczeństwo modeli AI, aby chronić je przed hakowaniem (…) Istnieje wiele sposobów manipulowania modelami AI, z których wiele już działa. Ostatecznie społeczeństwu będzie bardzo trudno nadążyć za zagrożeniami związanymi ze sztuczną inteligencją, zwłaszcza jeśli naukowcom uda się osiągnąć cel, jakim jest stworzenie systemów równie inteligentnych lub mądrzejszych od ludzi. Naukowcy zajmujący się sztuczną inteligencją muszą zatem upewnić się, że ich modele są rzeczywiście zgodne z wartościami i interesami społeczeństwa. Państwa muszą również ustanowić zewnętrzne mechanizmy kontroli i równowagi — w tym za pośrednictwem agencji regulacyjnych — które pozwolą urzędnikom identyfikować i ograniczać niebezpieczne modele” – wskazują autorzy tekstu na łamach „FA”.
Źródło: foreignaffairs.com
AS