Szybki rozwój AI oraz brak wiedzy na jej temat sprawił, że obecnie już co piąty Amerykanin twierdzi, że sztuczna inteligencja ma świadomość. Co na to naukowcy? Łapią się za głowy zaniepokojeni stanem wiedzy społeczeństwa na ten temat. Wskazują, że AI to wciąż proste – choć sprawne – rozwiązania, a nadawanie jej cech, których nie posiada może być bardzo groźne – oznacza, że ludzie mogą ufać „opiniom wydawanym przez AI” bardziej, niż opiniom pochodzącym od człowieka.
Jacy Reese Anthis z Sentience Institute w Nowym Jorku wraz z współpracownikami zapytali reprezentatywną próbę 3500 osób w USA o postrzeganie AI i jej świadomości. Wyniki badania zostały opublikowane na stronie arXiv (platforma upublicznia artykuły naukowe przed recenzją).
W ankietach, przeprowadzonych w trzech falach między 2021 a 2023 rokiem, znalazły się pytania: „czy uważasz, że jakiekolwiek obecnie istniejące roboty/AI są świadome?” oraz „czy kiedykolwiek będzie możliwe, aby ta technologia osiągnęła świadomość?”.
Wesprzyj nas już teraz!
Autorzy badania argumentują, że chcieli zebrać informacje o poziomie wiedzy na temat sztucznej inteligencji, by spróbować zrozumieć, jak opinia publiczna wpłynie na rozwój AI w przyszłości.
I tak w 2021 roku około 18 proc. respondentów stwierdziło, że istniejące systemy AI lub roboty są już świadome. Liczba ta wzrosła do 20 proc. w 2023 r., kiedy to odbyły się dwie fale badania.
Ponadto 30 proc. Amerykanów sądzi, że już istnieje sztuczna inteligencja zdolna do wykonania każdego zadania, które zazwyczaj wykonuje człowiek. Z kolei jedna na dziesięć osób zapytanych w 2023 r. uważała, że ChatGPT, uruchomiony pod koniec 2022 roku, jest świadomy.
Naukowcy zwracają uwagę na to, że technologie, które dziś kryją się pod hasłem „sztuczna inteligencja”, są wciąż dość proste i w żaden sposób nie można mówić o tym, że AI posiada świadomość. Fakt, że społeczeństwo w to wierzy – ich zdaniem – jest bardzo groźny, bo oznacza, że ludzie mogą ufać „opiniom wydawanym przez AI” bardziej, niż opiniom pochodzącym od człowieka.
Jacy Reese Anthis uważa, że społeczeństwo zbyt łatwo dało się nabrać na chwyt marketingowy zastosowany przez firmy technologiczne, polegający na wyolbrzymieniu umiejętności sztucznej inteligencji. – Wielkie firmy technologiczne sprzedają swoje produkty jako obdarzone większymi zdolnościami, niż sugeruje to podstawowa technologia. Myślę, że ludzie zbytnio skupili się na terminie ‘sztuczna inteligencja’ – powiedziała Anthis, cytowana przez „New Scientist”.
– Ludzie często są pod wrażeniem tego, jak modele AI wypadają w testach IQ lub standaryzowanych egzaminach dla ludzi. Ale to często bardzo zły sposób myślenia o tych modelach, ponieważ AI po prostu powtarza odpowiedzi znalezione w swojej ogromnej bazie danych, na których została wytrenowana, zamiast rzeczywiście ‘wiedzieć’ cokolwiek – powiedziała Anthis.
Źródło: PAP
Oprac. MA
Generatywna sztuczna inteligencja nadchodzi – czas apokalipsy twórców?