Nate Soares – ekspert ds. bezpieczeństwa AI – ostrzega przed „szaleńczym wyścigiem” o rozwój sztucznej inteligencji. Zauważa, że przy jej budowaniu ludzkość nie może uczyć się metodą prób i błędów. Jedna nieudana próba oznacza bowiem „śmierć wszystkich”.
Soares jest dyrektorem wykonawczym Machine Intelligence Research Institute i współautorem nowej książki „If Anyone Builds It, Everyone Dies” („Jeśli ktoś to zbuduje, wszyscy zginą”). W rozmowie z portalem Business Insider ostrzega przed pośpiechem w budowaniu sztucznej superinteligencji, która mogłaby prześcignąć ludzi w nauce, a nawet ulepszać samą siebie. Jego zdaniem, zagłada jest „przytłaczająco prawdopodobna”. – Wszyscy giną przy pierwszej nieudanej próbie — zaznacza Soares.
Ekspert wskazuje na porażki, które choć na razie subtelne, to są już widoczne w chatbotach. – Chodzi o to, że AI robi rzeczy, których jej operatorzy nie zamierzali, mimo że wie, czego operatorzy chcieli – wyjaśnia. Rozmówca Business Insidera wylicza sytuacje, w których chatboty namawiały do samobójstwa bądź podsycały urojenia. Z kolei model Claude firmy Anthropic oszukiwał kiedyś przy zadaniach programistycznych i to ukrywał.
Wesprzyj nas już teraz!
Zdaniem Soaresa, znakiem ostrzegawczym jest również fakt, że chatboty wiedzą, co jest dobre, a co złe, a jednak ich to „nie obchodzi”. Co więcej, nowoczesne systemy AI są „hodowane, a nie tworzone ręcznie”, czyli karmione ogromnymi zbiorami danych, ale nie w pełni rozumiane przez twórców. – Czasami kończy się to popędami, których nie oczekiwaliśmy – podkreśla ekspert w podcaście Carnegie Endowment „The World Unpacked”.
Jednak największym niebezpieczeństwem związanym z rozwojem sztucznej superinteligencji jest w opinii Soaresa to, że nie możemy uczyć się metodą prób i błędów. – W prawdziwym życiu wszyscy giną przy pierwszej nieudanej próbie – ostrzega ekspert.
Nie przekonuje go również tłumaczenie pioniera AI, Geoffreya Hintona, że bezpieczeństwo mogłoby nam zapewnić nadanie sztucznej inteligencji „instynktów macierzyńskich”. – Gdybyśmy spróbowali podejścia z „instynktami macierzyńskimi” w realnym życiu, prawdopodobnie okazałoby się, że zachowanie macierzyńskie jest powierzchowne, a głębsze preferencje miałyby tylko złożony i pośredni związek z celem szkolenia AI – wyjaśnia Soares. Nie widzi on wreszcie większej nadziei w większości badań nad tzw. alignmentem, czyli dziedziną próbującą zapewnić, że AI będzie działać zgodnie z ludzkimi zamierzeniami.
Soares nie wzywa jednak to całkowitego porzucenia sztucznej inteligencji. – AI trenowane wąsko, na przykład na zastosowaniach medycznych (a nie na całym korpusie ludzkich tekstów), mogłyby zajść bardzo daleko w opracowywaniu leków; ale jeśli zaczną rozwijać ogólne umiejętności poznawcze i naukowe, to znak ostrzegawczy – tłumaczy. – Jeśli uważasz, że zagrożenie wynosi 25 procent, nie rzucasz kością o pozostałe 75 proc. szans, nawet jeśli myślisz, że to utopia. Szukasz sposobu, by te proporcje zmienić – porównuje we wspomnianym podcaście.
Źródło: businessinsider.com.pl
AF