Chociaż Stany Zjednoczone wiodą prym na świecie, jeśli chodzi o rozwój generatywnej sztucznej inteligencji (AI), to jednak rywale, tacy jak Chiny, zyskują na znaczeniu. Ma to poważne konsekwencje dla gospodarki i bezpieczeństwa USA. Nowa administracja powinna priorytetowo potraktować dalszy rozwój tak zwanej sztucznej inteligencji, inwestując w programy badawcze na uniwersytetach, jednocześnie szukając możliwości zapewnienia większej mocy energetycznej niezbędnej dla działania i szkolenia AI – sugerują Sebastian Elbaum i Adaa Segal z Council on Foreign Relations.
Elbaum jest technologiem, rezydentem w Council on Foreign Relations, a Segal jest przewodniczącym Ira A. Lipman Chair in Emerging Technologies and National Security oraz dyrektorem programu Digital and Cyberspace Policy w CFR.
Obaj eksperci liberalnego think tanku dają rady nowej administracji Donalda Trumpa, która oficjalnie rozpocznie urzędowanie pod koniec stycznia przyszłego roku. Opisując obecną sytuację, uczeni zaznaczają, że „wedle wszelkich miar Stany Zjednoczone dominują w krajobrazie AI”. To w USA znajduje się większość najlepszych modeli zaawansowanych systemów algorytmicznych wiodących firm. Również USA więcej inwestują w tę dziedzinę niż Chiny i Europa. Na rynku dominuje jednak garstka prywatnych firm produkujących modele podstawowe – duże modele trenowane na ogromnych zestawach danych, które mogą wykonywać wiele zadań. Rośnie sektor mniejszych firm budujących wyspecjalizowane systemy, często na bazie systemów podstawowych. Sprzęt dostarczają inne amerykańskie firmy takie, jak: Nvidia wraz z Advanced Micro Devices (AMD) i Intel. Coraz bardziej konkurencyjny w produkcji półprzewdoników staje się chiński Huawei. Nvidia zaś jest uzależniona od zdolności produkcyjnych Tajwanu. Wyzwaniem staje się nie tylko konkurencja chińska, ale przede wszystkim konieczność dostępności ogromnych ilości energii potrzebnej do trenowania modeli.
Wesprzyj nas już teraz!
Wyzwaniem są także regulacje, które równoważyłyby szanse i ryzyko związane z rozwojem AI.
W ciągu ostatniej dekady rząd USA poczynił postępy w kierunku upowszechnienia tzw. sztucznej inteligencji. Agencje rządowe ma swoich urzędników od AI, tworzy się listę potencjalnego zastosowania tej technologii, dostosowuje mechanizmy zgodności, integruje wytyczne z praktyką. Powstał AI Safety Institute, który dostosował ramy ryzyka opracowane przez National Institute of Standards and Technology do pracy nad AI i ustanowił dobrowolny program oceny z głównymi firmami technologicznymi tworzącymi najbardziej zaawansowane systemy AI. Trwają prace National Artificial Intelligence Research Resource Pilot nad zwiększaniem mocy obliczeniowej, zestawami danych i modeli dla badaczy i edukatorów.
Administracja Donalda Trumpa ma priorytetowo traktować przyspieszenie innowacji AI. Zamierza także zlikwidować niektóre bariery regulacyjne wprowadzone przez ekipę Bidena.
Nowa administracja, zdaniem ekspertów, powinna priorytetowo potraktować kwestie bezpieczeństwa i zapewnienia większej konkurencyjności na rynku.
Nie ma do tej pory kompleksowego prawa dotyczącego AI. Kongres przyjął ustawy, które w pewnym stopniu odnoszą się do AI, jak np. ustawa CHIPS and Science Act z 2022 r. (kwestia produkcji półprzewodników i badań naukowych), a ponadto opracowano kilka projektów ustaw dotyczących sztucznej inteligencji osadzonych w corocznych ustawach National Defense Authorization Acts. Na przykład w 2021 r. ustawa utworzyła National Artificial Intelligence Initiative Office i zapewniła strukturę do koordynacji badań i rozwoju (R&D) między społecznościami obronnymi i wywiadowczymi a cywilnymi agencjami federalnymi.
Republikanie i Demokraci różnią się co do celu i proponowanych metod legislacyjnych. Pierwsi bardziej koncentrują się na sztucznej inteligencji i moderowaniu treści, drudzy na wpływie „sztucznej inteligencji” na równość i inkluzję gospodarczą.
Rozporządzenia wykonawcze dotyczące sztucznej inteligencji EO 13859 z lutego 2019 r. przewidywało nadanie priorytetu badaniom i rozwojowi AI, opracowanie standardów w celu ułatwienia jej wdrażania i zapewnienie bezpieczeństwa oraz szkolenie pracowników i budowanie zaufania publicznego do AI. Rozporządzenie wykonawcze 13960, podpisane w grudniu 2020 r., nakazało wykorzystanie AI w rządzie federalnym w celu zwiększenia wydajności i skuteczności operacji i usług. Agencje miały tworzyć listy potencjalnego zastosowania AI, naciskano na koordynację między-agencyjną w celu wspierania zaufania publicznego do technologii AI.
W lipcu 2023 r. prezydent Biden wezwał firmy do dobrowolnego zobowiązania do promowania bezpiecznego, pewnego i przejrzystego rozwoju technologii AI. W październiku 2023 r. prezydent podpisał rozporządzenie wykonawcze nr 14110, które skupiało się na odpowiedzialnym rozwoju i wdrażaniu nowej technologii AI, z nakazami oceny ryzyka, by zapewnić szeroką ochronę użytkowników. Rozporządzenie wsparło szkolenia zawodowe i edukację w erze AI i promuje globalne przywództwo USA w zakresie opracowania ram zarządzania ryzykiem i korzyściami AI.
Również w październiku br. prezydent wydał memorandum odnośnie do bezpieczeństwa narodowego w sprawie AI. Technologia ta ma być wykorzystywana w obronie i wywiadzie w celu „ochrony praw człowieka i promowania wartości demokratycznych”.
Prezydent-elekt zapowiedział, że odwoła rozporządzenie Bidena EO 14110, bo ogranicza ono możliwości lepszej konkurencji z Chinami.
Eksperci radzą, by Trump nie ciął kosztów i powołał Komisję ds. AI, aby zapewnić bezpieczeństwo systemów AI. Tym bardziej, że prywatne firmy technologiczne, które napędzają rewolucję AI, nie są w stanie zagwarantować, że korzyści płynące z ich produktów przewyższą ryzyko. Nowa administracja powinna więcej zainwestować w laboratoria federalne i uczelnie badające AI, aby były one w stanie niezależnie oceniać mocne i słabe strony powstającej technologii, jeśli chodzi o cele społeczne np. tworzenie miejsc pracy, dostęp do edukacji itp.
Ponieważ systemy AI stają się coraz bardziej wyrafinowane i wymagają centrów danych o większej mocy obliczeniowej, zużywając znacznie więcej energii (jedno z badań szacuje, że AI zużyje około 0,5 procent światowej energii elektrycznej do 2027 r.), ważne jest, by firmy mogły obniżyć koszty energii np. opracowując bardziej wydajne układy scalone, architekturę, algorytmy i modele. Chociaż nie wiadomo, czy to ostatecznie przyczyni się do niższego zużycia energii. Rząd miałby pomóc zapewnić wystarczającą moc energetyczną poprzez usprawnienie procesu regulacyjnego, zachęcając sektor prywatny do inwestowania w modernizację sieci oraz zezwalając na zaawansowane projekty nuklearne.
Rozwój technologii AI stwarza wiele ryzyka. Dotyczy ono etyczności, w tym naruszeń prywatności, utrwalania stronniczości i kontroli społecznej. Bardzo duże ryzyko związane jest również z wykorzystaniem AI w dziedzinie zdrowia, wymiaru sprawiedliwości, zwłaszcza w sprawach karnych. Dotyczy naruszeń praw człowieka. Modele są stronnicze, co prowadzi do niesprawiedliwego traktowania i dyskryminacji. Może to mieć ogromne znaczenie w przypadku egzekucji prawa, zatrudniania, zatwierdzania pożyczek (system kredytu społecznego). Wadliwe działanie oprogramowania AI powoduje krytyczne ryzyka, w tym błędne wyniki, awarie systemu lub cyberataki, zagrażając bezpieczeństwu itp.
Źródło; cfr.org, simplilearn.com
AS