4 listopada 2023

Henry Kissinger: jeżeli teraz nie zareagujemy, AI będzie w stanie realizować własne cele za pięć lat

(fot. Pixabay)

Czy sztuczną inteligencję uda się okiełznać tak, jak broń nuklearną? Nie jest jeszcze za wcześnie na rozpoczęcie poważnych rozmów między Ameryką i Chinami, jednymi supermocarstwami w zakresie sztucznej inteligencji – twierdzą Henry Kissinger, weteran amerykańskiej polityki i profesor Graham Allison w tekście „Droga do kontroli zbrojeń sztucznej inteligencji”, opublikowanym przez magazyn Foreign Affairs.

Autorzy są zdania, że przy mierzeniu się z obecnymi wyzwaniami związanymi z rozwojem sztucznej inteligencji można sięgnąć po nauki zaczerpnięte z historii ograniczania ryzyka broni nuklearnej. Twierdzą jednak, że oba typy zagrożeń dzielą zasadnicze różnice. Przykładowo, tworzenie broni jądrowej wymagało złożonej infrastruktury na każdym etapie: od wzbogacania uranu po projektowanie broni jądrowej. Produkty były obiektami fizycznymi, a zatem policzalnymi. Tam, gdzie można było sprawdzić, co robi przeciwnik, można było tworzyć ograniczenia. Natomiast sztuczna inteligencja stanowi zupełnie inne wyzwanie.

Jak piszą autorzy jej główne ewolucje zachodzą w umysłach ludzi. „Jej zastosowanie ewoluuje w laboratoriach, a jej wdrożenie jest trudne do zaobserwowania. Broń nuklearna jest namacalna; istota sztucznej inteligencji jest konceptualna” – diagnozują eksperci.

Wesprzyj nas już teraz!

Autorzy zaznaczają, że sztuczna inteligencja rozwija się i rozprzestrzenia z prędkością, która uniemożliwia długie negocjacje. Kontrola zbrojeń rozwijała się przez dziesięciolecia, ale ograniczenia dla AI muszą pojawić się, zanim AI zostanie wbudowana w strukturę bezpieczeństwa każdego społeczeństwa, a więc zanim maszyny zaczną wyznaczać własne cele (a to może nastąpić w ciągu najbliższych pięciu lat).

Na szczęście – zauważają – największe firmy, które uczyniły Stany Zjednoczone wiodącym supermocarstwem AI, zdają sobie sprawę, że mają obowiązki nie tylko wobec swoich akcjonariuszy, ale także wobec kraju i całej ludzkości. Wiele z nich opracowało już własne wytyczne dotyczące oceny ryzyka przed wdrożeniem, zmniejszania stronniczości danych szkoleniowych i ograniczania niebezpiecznych zastosowań swoich modeli. Znaczącym krokiem we właściwym kierunku była inicjatywa administracji prezydenta Bidena, dzięki której liderów siedmiu głównych firm zajmujących się sztuczną inteligencją zjawili się w Białym Domu, by wspólnie zobowiązać się do ustanowienia wytycznych zapewniających „bezpieczeństwo, ochronę i zaufanie”.

Skala zagrożeń związanych z nieograniczonym postępem sztucznej inteligencji wymaga, aby liderzy zarówno w rządzie, jak i biznesie zaczęli działać jak najszybciej, i to mimo istniejących w USA ostrych podziałów politycznych – twierdzą eksperci.

Każda z firm dysponujących ogromnymi możliwościami obliczeniowymi do trenowania nowych modeli sztucznej inteligencji oraz każda firma lub grupa badawcza opracowująca nowe modele powinna stworzyć grupę analizującą ludzkie i geopolityczne implikacje swoich komercyjnych operacji AI.

Analitycy zwracają uwagę, że wcale nie jest za wcześnie na rozpoczęcie poważnych rozmów z jedynym na świecie supermocarstwem AI. Chińscy mistrzowie w sektorze technologicznym – Baidu (czołowa wyszukiwarka w kraju), ByteDance (twórca TikTok), Tencent (twórca WeChat) i Alibaba (lider w handlu elektronicznym) – budują własne chińskojęzyczne analogi ChatGPT, chociaż chiński system polityczny stwarza szczególne trudności dla sztucznej inteligencji. Biden i Xi Jinping powinni zatem spotkać się w najbliższej przyszłości na prywatnej rozmowie o kontroli broni AI.

Zdaniem autorów, amerykańsko-chińskie działania byłyby tylko częścią globalnej dyskusji na temat sztucznej inteligencji. W dłuższej perspektywie wymagany będzie globalny porządek w zakresie sztucznej inteligencji. Prace nad nim powinny rozpocząć się od krajowych wysiłków na rzecz zapobiegania najbardziej niebezpiecznym i potencjalnie katastrofalnym konsekwencjom sztucznej inteligencji. Wszystkie te inicjatywy powinny być uzupełnione dialogiem między naukowcami z różnych krajów.

„Czy jeśli Biden, Xi i inni światowi przywódcy podejmą teraz działania, aby stawić czoła wyzwaniom związanym ze sztuczną inteligencją, tak jak ich poprzednicy w walce z zagrożeniami nuklearnymi we wcześniejszych dziesięcioleciach, odniosą taki sam sukces? Patrząc na historię i rosnącą polaryzację, trudno być optymistą. Niemniej jednak fakt, że minęło już 78 lat pokoju między mocarstwami nuklearnymi, powinien zainspirować wszystkich do opanowania rewolucyjnych, nieuniknionych wyzwań naszej przyszłości związanych ze sztuczną inteligencją” – konkludują Henry Kissinger i Graham Allison.

PAPpap logo / oprac. PR

Największe zagrożenie dla ludzkości. Prof. Zybertowicz o niekontrolowanym rozwoju sztucznej inteligencji

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2025 rok

Po osiągnięciu celu na 2024 rok nie zwalniamy tempa! Zainwestuj w rozwój PCh24.pl w roku 2025!

mamy: 32 506 zł cel: 500 000 zł
7%
wybierz kwotę:
Wspieram