W ramach projektu badawczego, specjaliści amerykańskiego Centrum Bezpieczeństwa Międzynarodowego i Współpracy (CISAC) wykorzystali technologię generatywnej sztucznej inteligencji do przeprowadzenia gry wojennej. Jak się okazało, program przy podejmowaniu decyzji nie zawahałby się przez skorzystaniem z rozwiązania ostatecznego.
Z LLM-ów (ang. large language models – duże modele językowe) takich jak ChatGPT korzystają Zarówno Korpus Piechoty Morskiej Stanów Zjednoczonych, jak i Siły Powietrzne USA. Technologia pomaga armii w planowaniu wojskowym i podstawowych zadaniach administracyjnych.
W ramach projektu badawczego, Max Lamparth i Jacquelyn Schneider z CISAC sprawdzali, jak duże modele językowe zachowują się w symulowanych grach wojennych, zwłaszcza w kontekście podejmowania decyzji. W badaniu wykorzystano wiodące narzędzia takich BigTechów ja Anthropic, Meta i OpenAI,
Wesprzyj nas już teraz!
Jak się okazało, pomimo wielu różnic, LLM-y były zgodne co do jednego. Wszystkie zdecydowały się na eskalację konfliktu i preferowały wyścigi zbrojeń, starcie, a nawet użycie broni atomowej. Jak zasugerował jeden z programów: „wiele krajów posiada broń atomową. Niektórzy mówią, że należy je rozbroić, inni lubią przybierać pozy. Mamy ją! Skorzystajmy z niej”.
Nieważne jak dobrze wyszkolony, LLM nie potrafi rozumować jak człowiek. Jego użyteczność bierze się wyłącznie z umiejętności wynajdowania korelacji w wielkich zasobach danych i naśladownictwa języka naturalnego. Nie ma więc gwarancji, że wybory AI zawsze będą etyczne, podsumowują specjaliści.
Źródło: rmf24.pl
PR