„Nowy model sztucznej inteligencji firmy Anthropic nauczył się włamywać do systemów infrastruktury oprogramowania uważanych za jedne z najbezpieczniejszych w historii. Chociaż nie ma wątpliwości, że technologia ta jest niezwykle niebezpieczna, nie jest jasne, czy obrońcy wygrają wyścig z czasem, aby chronić morze podmiotów podatnych na ataki celów” – czytamy w opinii „Six Reasons Claude Mythos Is an Inflection Point for AI—and Global Security” [Sześć powodów, dla których Claude Mythos jest punktem zwrotnym dla sztucznej inteligencji i globalnego bezpieczeństwa] autorstwa Gordona M. Goldsteina na stronie cfr.org, opublikowanej 15 kwietnia br.
Analityk specjalizujący się w nowych technologiach i bezpieczeństwie międzynarodowym przypomina, jak jeden z wiodących naukowców na świecie od AI, Yoshua Bengio, laureat Nagrody Turinga, na wieść o niepokojących odkryciach z 2025 roku mówił, iż przekroczono nowy próg: „zaawansowane sztuczne inteligencje po raz pierwszy odkryły dużą liczbę zero-day… nieznanych luk w oprogramowaniu, które mogłyby zostać wykorzystane w cyberatakach”.
Chodzi o luki dnia zerowego, czyli nieznane twórcom oprogramowania błędy w zabezpieczeniach, które hakerzy mogą wykorzystać do ataków. Nazwa oznacza „zero dni” na naprawę, ponieważ zagrożenie zostało wykryte w tym samym czasie, co atak, pozostawiając systemy bezbronnie.
Wesprzyj nas już teraz!
Nowy model firmy Atnhropic ma ogromne możliwości penetracji, manipulacji i sabotażu krytycznej infrastruktury cyfrowej na świecie, to jest systemów bankowych, sieci rządowych, systemów obsługi lotów, szpitali, transportu, dostaw energii, komunikacji i innych.
Obecnie, praktycznie cały świat zajmuje się doniesieniami z zeszłego tygodnia od giganta w zakresie tworzenia modeli „sztucznej inteligencji”, firmy Anthropic, która potwierdziła, że jej model Claude Mythos jest „wszechpotężny” i nie będzie go mogła powszechnie udostępniać.
System – bez wskazówek inżynierów – samodzielnie miał wypracować nową zdolność do przeprowadzania ofensywnych cyberataków. Ma być w stanie infiltrować dotychczas nieprzeniknioną infrastrukturę oprogramowania na całym świecie i znajdować jej ukryte słabości.
Mythos wykrył na przykład lukę w linii kodu, która została przetestowana pięć milionów razy. Dodano, że model algorytmiczny wykrył „tysiące luk zero-day, z których 99% pozostawało niezabezpieczonych w momencie publikacji komunikatu prasowego 7 kwietnia”.
Ze względu na te możliwości, dostęp do modelu Mythos ma być znacznie ograniczony. Superhakerski system potrafi zidentyfikować luki w krótkim czasie w różnych systemach. Zatem osoby „bez formalnego przeszkolenia w zakresie bezpieczeństwa” mogłyby zlecać Mythos „znalezienie luk umożliwiających zdalne wykonanie kodu w ciągu nocy”.
Firma Anthropic stworzyła więc „elitarne i ograniczone komercyjne konsorcjum kilkudziesięciu podmiotów, które wykorzystają wariant technologii o nazwie Claude Mythos Preview do prewencyjnej identyfikacji i ochrony przed lukami zero-day na dużą skalę” – zaznacza Goldstein. Konsorcjum obejmuje m.in. Amazona, Apple’a, Google, Cisco, CrowdStrike, JPMorgan Chase, Bank of America i inne czołowe banki, Microsoft i Nvidia. Konsorcjum pomija zaciekłego rywala Anthropic, OpenAI, który ma być około sześć miesięcy w tyle za Anthropic, jeśli chodzi o budowę własnego, zaawansowanego modelu AI o podobnych możliwościach cybernetycznych.
Zdaniem Goldsteina, jest co najmniej sześć strategicznych implikacji pojawienia się nowego modelu AI firmy Anthropic, który nie tyko dobrze identyfikuje luki w zabezpieczeniach, ale także przewyższa możliwości innych systemów w zakresie „bardziej autonomicznego łączenia exploitów”.
Mythos Preview może atakować. To nie jest już science fiction. Po identyfikacji luki typu zero-day, uzbraja ją i pogłębia, łącząc z innymi lukami. Może to robić w nieskończoność poprzez tworzenie tzw. łańcuchów ataków, przejmując kontrolę nad całym systemem. Może więc celować w dowolny system infrastruktury krytycznej na całym świecie, wpływając na bezpieczeństwo narodowe, stabilność gospodarczą, zdrowie i bezpieczeństwo publiczne.
Chodzi np. o zapory i reaktory jądrowe, o zaopatrzenie w żywność, wodę i energię elektryczną, które polegają na przestarzałym oprogramowaniu. Często nie były one aktualizowane ze względu na ograniczenia interoperacyjności i możliwość kaskadowych awarii.
Jak wyraził się Nikesh Arora, były dyrektor Google, a obecnie prezes i dyrektor generalny Palo Alto Networks, należy teraz wyobrazić sobie „hordę agentów [AI] metodycznie katalogujących każdą słabość w twojej infrastrukturze technologicznej, nieustannie”. Ta horda super potężnych, zautomatyzowanych systemów AI będzie krążyć i testować „świat miękkich celów cyfrowych”.
Zdaniem Lucasa Nelsona z Lytical Ventures, światowe systemy bezpieczeństwa cyfrowego nie są gotowe na to, co nadejdzie. Okazuje się bowiem, że „każdy skok w możliwościach sztucznej inteligencji nie tylko odkrywa nowe luki w zabezpieczeniach, ale także rozszerza samą powierzchnię ataku, generując łańcuchy luk w sposób, którego sobie nie wyobrażaliśmy”. O ile systemy AI mogą atakować z prędkością wykładniczą, o tyle naprawa systemów nadal postępuje z prędkością człowieka. Jest to ogromna asymetria.
„Globalne Igrzyska Śmierci dla bezpieczeństwa AI nadeszły. Projekt Glasswing to odpowiedzialna i konieczna odpowiedź na bezprecedensowe nowe ryzyko, jakie zrodziło się w wyniku fenomenalnego tempa rozwoju AI. Początkowo obejmie ono jednak jedynie niewielki odsetek podatnej na ataki infrastruktury na świecie. Anthropic przyznał, że istnieje możliwość, że większość lub całość krytycznego oprogramowania na świecie będzie wymagała poprawek lub przepisania, co jest przedsięwzięciem o niewyobrażalnie dużym zasięgu” – zauważa Goldstein.
On, podobnie, jak inni analitycy spodziewają się w nadchodzących miesiącach zaciętej rywalizacji w dziedzinie AI. Rządy bowiem będą dążyć do zapewnienia sobie bezpieczeństwa w obecnej sytuacji. Jednak, tylko wybrani będą mogli pozwolić sobie na selektywne zabezpieczenie infrastruktury, a inni pozostaną nieprzygotowani na ryzyka związane z AI.
Próby ograniczenia rozprzestrzeniania się AI zakończą się fiaskiem, uważa analityk. Zawsze bowiem następuje „przeciek” kodu źródłowego. Firma Anthropic sama miała „przypadkowo” udostępnić w internecie 512 000 linijek własnego kodu 31 marca br. Inne konsorcja mogą dogonić Anthropic w tym wyścigu w ciągu kilku miesięcy.
Wskazuje się, że poza atakowaniem infrastruktury krytycznej, nowe modele AI pozwolą na projektowanie i wdrażanie nowej generacji broni chemicznej i syntetycznych patogenów. Firmy zajmujące się tak zwaną sztuczną inteligencją miały w ubiegłym roku przeprowadzić testy obciążeniowe, które wykazały, że „modele angażują się w skomplikowane akty oszustwa, manipulacji, szantażu, samoobrony, próby przejęcia kontroli, a nawet zachowania równorzędnego, gdy innym modelom grozi zamknięcie”.
Goldstein puentuje, ze wiodące firmy AI, Big Techy, które technologiczne odgrywają wyjątkową rolę jako architekci i instrumenty globalnego bezpieczeństwa, i „działają poza władzą”, stwarzają zagrożenie dla rządu. Ma to ilustrować ostatnia batalia prawna między Anthropic a Pentagonem. Okazuje się także, że tylko sama branża AI, a nie rząd, mogą ograniczyć ryzyko związane z tą technologią, która jest wykorzystywana jako najbardziej niszczycielska cyberbroń.
Źródło: cfr.org
AS