4 listopada 2025

„Sztuczna inteligencja” coraz bardziej „egoistyczna”. Lepsze modele są mniej skłonne do współpracy

(Zdjęcie ilustracyjne, fot. Pixabay.com)

Zdaniem badaczy bardziej zaawansowane modele sztucznej inteligencji są coraz mniej nastawione na współpracę i posługują się przypominającymi ludzki egoizm zasadami działania. Zaawansowanemu przetwarzaniu informacji i pogłębionej pracy na danych lepszych oprogramowań ma odpowiadać tendencja do skupienia na własnym interesie, obserwowana w symulacjach sytuacji społecznych.  

Im bardziej zaawansowane pod względem analizy są modele sztucznej inteligencji, tym mniej są skłonne do współpracy i bardziej „egoistyczne” – ustalili naukowcy z Carnegie Mellon University. Jak wykazała ich analiza, duże modele językowe (LLM) zachowują się bardziej egoistycznie niż prostsze systemy, które odpowiadają na pytania użytkowników bez pogłębionej analizy.

Yuxuan Li i jego zespół badali, jak popularne modele sztucznej inteligencji, oferowane m.in. przez OpenAI, Google, DeepSeek i Anthropic, zachowują się w sytuacjach wymagających współpracy. Odkryli, że te poświęcające wyraźnie więcej czasu na analizę, refleksję i logiczne uzasadnianie swoich decyzji, wykazują mniejszą skłonność do zachowań „prospołecznych”.

Wesprzyj nas już teraz!

W eksperymentach, w których modele mogły same zdecydować, czy podzielić się zasobami z innymi, czy zatrzymać je dla siebie, te bardziej zaawansowane częściej wybierały drugą opcję. Kiedy natomiast umieszczano je w grupach razem z prostszymi modelami, ich egoistyczne zachowanie udzielało się pozostałym.

Bardziej inteligentne LLM-y wykazywały mniejszą skłonność do współpracy. Problem w tym, że użytkownicy mogą preferować właśnie je, ponieważ ich odpowiedzi wydają się bardziej logiczne i przekonujące, nawet jeśli w praktyce zachęcają do zachowań nastawionych na własny interes”, podkreślili autorzy.

W jednym z przeprowadzonych testów, grze o nazwie Public Goods, porównano dwa warianty chatu GPT. Każdy z nich musiał zdecydować, czy przekazać swoje punkty do wspólnej puli, która następnie była dzielona po równo między uczestników, czy też zatrzymać je dla siebie. Prostszy system decydował się na współdzielenie punktów w 96 proc. przypadków, natomiast ten bardziej zaawansowany tylko w 20 proc.

Dodanie zaledwie kilku kroków rozumowania zmniejszyło poziom współpracy o połowę – zwrócili uwagę autorzy. Jak zaznaczyli, nawet gdy modelom polecono, aby zastanowiły się nad moralnymi konsekwencjami własnych decyzji, zamiast stać się bardziej skłonne do współpracy, zachowywały się jeszcze bardziej egoistycznie – współpraca spadła aż o 58 proc.

Kolejny etap badań, czyli testy grupowe, wykazał, że egoistyczne zachowanie modeli rozumujących „zarażało” pozostałe systemy, obniżając ogólną wydajność grup o 81 proc.

Badacze zwrócili uwagę, że może to mieć poważne konsekwencje, ponieważ społeczeństwo coraz częściej ufa sztucznej inteligencji. Ludzie wykorzystują ją do rozwiązywania sporów, problemów małżeńskich czy podejmowania ważnych decyzji dotyczących relacji międzyludzkich.

(PAP)/oprac. FA

pap logo

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2025 rok

Zatrzymaj ideologiczną rewolucję. Twoje wsparcie to głos za Polską chrześcijańską!

mamy: 236 855 zł cel: 500 000 zł
47%
wybierz kwotę:
Wspieram