21 lipca 2023

Jak kłamie ChatGPT? Wyniki badań sugerują ogromną skalę konfabulacji

(fot. pixabay.com)

Niemal połowa danych przekazywana przez Chat GPT jest „wyssana z palca”, sugerują wyniki badań poświęconych manipulacjom sztucznej inteligencji. Indyjscy naukowcy przeprowadzili eksperyment poświęcony tzw. halucynacjom sztucznej inteligencji – poprosili oprogramowanie Open AI o sporządzenie zestawienia naukowych publikacji i ich źródeł. Znaczna część odpowiedzi była zwyczajnymi konfabulacjami – opisuje wydarzenie Michał Duszczyk na łamach portalu rp.pl.

Na 178 przedłożonych przez bota odpowiedzi wątpliwości budziło 98 z nich. Blisko 70 nie zawierało bowiem numeru DOI – systemu oznaczenia służącego do odnajdowania publikacji naukowych, a 28 po zweryfikowaniu przez autorów eksperymentu okazało się fikcyjnych – przywoływane przez oprogramowanie materiały naukowe nie zawierały bowiem ani DOI, ani nie były możliwe do odnalezienia w wyszukiwarce Google’a.

Zdaniem autora badanie dokumentuje szeroki problem, jaki w istocie stanowią „halucynacje” sztucznej inteligencji. Terminem tym określa się konfabulacje, wyssane z palca treści, jakie generuje m.in. Chat GPT. „Konwersacyjne boty masowo fabrykują informacje – wymyślają imiona i daty, generują fałszywe wyjaśnienia medyczne i adresy internetowe, opisują nawet wydarzenia historyczne, które nigdy się nie wydarzyły”, czytamy w tekście.

Wesprzyj nas już teraz!

Jak dodawał Duszczyk, skłonności do podobnych manipulacji mają nawet najnowocześniejsze oprogramowania. „W chwili niepewności”, czyli w momencie, gdy sztuczna inteligencja nie jest w stanie znaleźć prawidłowej odpowiedzi na pytanie, podsuwa po prostu fikcję literacką.

Skłonności do manipulacji botów tego rodzaju wynikają nie tylko z technologicznych braków. Szereg pytań dotyczących zagadnień związanych z wiarą i sytuacja w kościele oprogramowaniu zadała również redakcja PCh24.pl. Wyniki konwersacji ze sztuczną inteligencją opisał na łamach redaktor portalu Paweł Chmielewski: Chat GPT ukrywał istnienie artykułów podważających konklawe z 2013 r. a proszony o korektę krótkiego tekstu wprowadzał do niego ideologiczne zmiany.

Zapytaliśmy ChatGPT o tematy kościelne i moralne. Jego odpowiedzi? Szokujące…

źródło: rp.pl/PCh24.pl

FA

 

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2025 rok

Po osiągnięciu celu na 2024 rok nie zwalniamy tempa! Zainwestuj w rozwój PCh24.pl w roku 2025!

mamy: 32 506 zł cel: 500 000 zł
7%
wybierz kwotę:
Wspieram