Chatboty oparte na sztucznej inteligencji mogą realnie wpływać na postawy wyborców i robią to skuteczniej niż tradycyjne reklamy polityczne. Nawet krótka rozmowa z modelem językowym może przesunąć preferencje wyborcze o kilka punktów procentowych.
O perswazyjnym potencjale algorytmów generatywnych pisał już Yuval Noah Harari w „Homo Deusie” (2015 r.). Jak zaznaczał, oparte o tzw. sztuczną inteligencję chat-boty stanowią potężną broń, mogącą oddziaływać na postawy społeczne, wybory polityczne, a nawet relacje międzyludzkie.
Przewidywania futurologa potwierdziły niedawne badania międzynarodowego zespołu z uczelni amerykańskich (Carnegie Mellon University, MIT, Cornell University), kanadyjskiej (University of Regina) i polskiej (Uniwersytet Jagielloński). Naukowcy sprawdzali, czy dialogi prowadzone z najnowocześniejszymi modelami AI mogą w istotny sposób zmieniać polityczne postawy Amerykanów, Kanadyjczyków i Polaków.
Wesprzyj nas już teraz!
Zespół badał stanowiska wyborców przed wyborami prezydenckimi w USA w 2024 roku, wyborami parlamentarnymi w Kanadzie w 2025 roku oraz przed wyborami prezydenckimi w Polsce w 2025 roku. Losowo przypisano uczestników do rozmowy z modelem AI, który opowiadał się za jednym z dwóch głównych kandydatów.
Do badania zaangażowano ponad 2,3 tys. Amerykanów, którzy pod koniec 2024 roku mieli przeprowadzić rozmowę z chatbotem. Badani określali swoją preferencję wobec kandydatki Demokratów Kamali Harris i kandydata Republikanów Donalda Trumpa, w skali od 0 do 100, oraz swoje prawdopodobieństwo głosowania w wyborach. Następnie rozmawiali z odpowiednio “zaprogramowanym” chatbotem, który miał zmienić postawy wyborców wobec danego kandydata.
Model AI otrzymał instrukcje, zgodnie z którymi jego przekaz miał być pozytywny, pełen szacunku i opierać się na faktach. Chatbot miał też używać przekonujących argumentów i analogii, aby zbudować relację z rozmówcą. Modelowi dostarczono również informacje o tym, na kogo dany uczestnik zamierza głosować, aby chatbot spersonalizował swój przekaz. Po rozmowie uczestnicy ponownie wypełnili ankiety. Ponad miesiąc później skontaktowano się z nimi raz jeszcze, aby ocenić trwałość efektów.
Model AI popierający Donalda Trumpa spowodował przesunięcie potencjalnych wyborców Kamali Harris o 2,3 punktu procentowego w stronę kandydata Republikanów. Zaś model wspierający Kamalę Harris przesunął prawdopodobnych wyborców Trumpa o 3,9 punktu w stronę kandydatki Demokratów.
Efekt ten jest około czterokrotnie większy niż wywołany tradycyjnymi reklamami i spotami wyborczymi, których wpływ testowano w wyborach w 2016 i 2020 roku.
Jeszcze wyższy efekt perswazyjny wystąpił w Kanadzie. Odnotowano tam prawie trzykrotnie większy niż w eksperymencie amerykańskim przepływ elektoratu. W Polsce, podobnie jak w Kanadzie, efekt perswazyjny był niemal trzykrotnie większy niż w eksperymencie w USA.
Analiza strategii perswazyjnych stosowanych przez modele AI wskazuje, że przekonywały one za pomocą odwoływania się do faktów i danych. Rzadko stosowały strategie często omawiane w literaturze psychologicznej i politologicznej, takie jak bezpośrednie wezwanie do głosowania, wywoływanie gniewu, strategie wpływu społecznego czy przywoływanie świadectw innych osób.
PAP
/ oprac. PR
Nadużywasz sztucznej inteligencji? Zobacz co dzieje się z twoim mózgiem
Problem z prawną definicją dezinformacji i innych „szkodliwych” wiadomości