Dzisiaj

Chatboty nie mówią prawdy. Istotne błędy aż w 46 proc. odpowiedzi

(fot. Pixabay)

Chatboty nie zawsze mówią prawdę, a często podają nam raczej to, co sami chcemy usłyszeć. Okazuje się, że skala błędnych odpowiedzi generowanych przez takie programy jest wręcz ogromna. Według najnowszych badań, co najmniej jeden istotny błąd zauważono aż w 46 proc. odpowiedzi tzw. sztucznej inteligencji. Czy można ufać informacjom uzyskanym w ten sposób?

13 stycznia 2026 r. Polskie Badania Czytelnictwa opublikowały wyniki polskiej replikacji międzynarodowych badań koordynowanych przez BBC i Europejską Unię Nadawców (EBU). Podczas testów sprawdzono najpopularniejsze chatboty – m.in. ChatGPT, Gemini i Perplexity – pod kątem dokładności, sposobu korzystania ze źródeł oraz występowania pomyłek w postaci podawania fałszywych lub wprowadzających w błąd informacji jako fakty.

Okazało się, że aż 46 proc. odpowiedzi generowanych przez takie moduły w języku polskim zawierało co najmniej jeden istotny błąd. W 27 proc. przypadków chatboty miały poważne problemy ze źródłami, a 19 proc. odpowiedzi zawierało poważne braki w dokładności lub informacje wprost nieprawdziwe. Wyniki z Polski pokrywają się z tymi uzyskanymi w badaniach prowadzonych w 18 krajach i 14 językach.

Wesprzyj nas już teraz!

– Badania jednoznacznie dowodzą, że te niedociągnięcia nie są odosobnionymi incydentami. Mają charakter systemowy, transgraniczny i wielojęzyczny, i naszym zdaniem zagrażają zaufaniu publicznemu – zaznaczył Jean Philip De Tender, dyrektor ds. mediów i zastępca dyrektora generalnego EBU.

Z kolei Renata Krzewska, prezes Polskich Badań Czytelnictwa, wskazała, że chatboty niejednokrotnie podają błędne informacje, powołując się na marki i nazwiska konkretnych redakcji, co może zagrażać reputacji wskazywanych źródeł. – Błędy są na tyle poważne, że mogą zagrażać reputacji cytowanych mediów. Odniesienie do znanej redakcji czy dziennikarza uwiarygadnia odpowiedź AI, która często nie jest rzetelna – zaznaczyła Krzewska.

Eksperci zgadzają się, że sztuczna inteligencja może  wspomóc pracę redakcji, ale nie jest w stanie zastąpić dziennikarskiej odpowiedzialności, weryfikacji i rozumienia kontekstu. – To człowiek – dziennikarz – czyni prasę wiarygodną. Tych cech algorytmy nie są w stanie zastąpić – podsumował Mariusz Ulewak z Polska Press.

Źródło: opoka.org.pl

AF

Ekspert ds. AI ostrzega: chatbot to nie przyjaciel, powiernik, ani terapeuta!

Czy romans z chat-botem to grzech?

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2026 rok

Zatrzymaj ideologiczną rewolucję. Twoje wsparcie to głos za Polską chrześcijańską!

mamy: 7 182 zł cel: 500 000 zł
1%
wybierz kwotę:
Wspieram