9 października 2025

Ekspert ostrzega przed wyścigiem o rozwój sztucznej inteligencji. „Jeśli ktoś to zbuduje, wszyscy zginą”

(fot. Pixabay)

Nate Soares – ekspert ds. bezpieczeństwa AI – ostrzega przed „szaleńczym wyścigiem” o rozwój sztucznej inteligencji. Zauważa, że przy jej budowaniu ludzkość nie może uczyć się metodą prób i błędów. Jedna nieudana próba oznacza bowiem „śmierć wszystkich”.

Soares jest dyrektorem wykonawczym Machine Intelligence Research Institute i współautorem nowej książki „If Anyone Builds It, Everyone Dies” („Jeśli ktoś to zbuduje, wszyscy zginą”). W rozmowie z portalem Business Insider ostrzega przed pośpiechem w budowaniu sztucznej superinteligencji, która mogłaby prześcignąć ludzi w nauce, a nawet ulepszać samą siebie. Jego zdaniem, zagłada jest „przytłaczająco prawdopodobna”. – Wszyscy giną przy pierwszej nieudanej próbie — zaznacza Soares.

Ekspert wskazuje na porażki, które choć na razie subtelne, to są już widoczne w chatbotach. – Chodzi o to, że AI robi rzeczy, których jej operatorzy nie zamierzali, mimo że wie, czego operatorzy chcieli – wyjaśnia. Rozmówca Business Insidera wylicza sytuacje, w których chatboty namawiały do samobójstwa bądź podsycały urojenia. Z kolei model Claude firmy Anthropic oszukiwał kiedyś przy zadaniach programistycznych i to ukrywał.

Wesprzyj nas już teraz!

Zdaniem Soaresa, znakiem ostrzegawczym jest również fakt, że chatboty wiedzą, co jest dobre, a co złe, a jednak ich to „nie obchodzi”. Co więcej, nowoczesne systemy AI są „hodowane, a nie tworzone ręcznie”, czyli karmione ogromnymi zbiorami danych, ale nie w pełni rozumiane przez twórców. – Czasami kończy się to popędami, których nie oczekiwaliśmy – podkreśla ekspert w podcaście Carnegie Endowment „The World Unpacked”.

Jednak największym niebezpieczeństwem związanym z rozwojem sztucznej superinteligencji jest w opinii Soaresa to, że nie możemy uczyć się metodą prób i błędów. – W prawdziwym życiu wszyscy giną przy pierwszej nieudanej próbie – ostrzega ekspert.

Nie przekonuje go również tłumaczenie pioniera AI, Geoffreya Hintona, że bezpieczeństwo mogłoby nam zapewnić nadanie sztucznej inteligencji „instynktów macierzyńskich”. – Gdybyśmy spróbowali podejścia z „instynktami macierzyńskimi” w realnym życiu, prawdopodobnie okazałoby się, że zachowanie macierzyńskie jest powierzchowne, a głębsze preferencje miałyby tylko złożony i pośredni związek z celem szkolenia AI – wyjaśnia Soares. Nie widzi on wreszcie większej nadziei w większości badań nad tzw. alignmentem, czyli dziedziną próbującą zapewnić, że AI będzie działać zgodnie z ludzkimi zamierzeniami.

Soares nie wzywa jednak to całkowitego porzucenia sztucznej inteligencji. – AI trenowane wąsko, na przykład na zastosowaniach medycznych (a nie na całym korpusie ludzkich tekstów), mogłyby zajść bardzo daleko w opracowywaniu leków; ale jeśli zaczną rozwijać ogólne umiejętności poznawcze i naukowe, to znak ostrzegawczy – tłumaczy. – Jeśli uważasz, że zagrożenie wynosi 25 procent, nie rzucasz kością o pozostałe 75 proc. szans, nawet jeśli myślisz, że to utopia. Szukasz sposobu, by te proporcje zmienić – porównuje we wspomnianym podcaście.

Źródło: businessinsider.com.pl

AF

 

Czy romans z chat-botem to grzech?

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2025 rok

Zatrzymaj ideologiczną rewolucję. Twoje wsparcie to głos za Polską chrześcijańską!

mamy: 236 915 zł cel: 500 000 zł
47%
wybierz kwotę:
Wspieram