Chatboty nie mówią prawdy. Istotne błędy aż w 46 proc. odpowiedzi

Sztuczna-inteligencja-1.jpg
fot. Pixabay

Chatboty nie zawsze mówią prawdę, a często podają nam raczej to, co sami chcemy usłyszeć. Okazuje się, że skala błędnych odpowiedzi generowanych przez takie programy jest wręcz ogromna. Według najnowszych badań, co najmniej jeden istotny błąd zauważono aż w 46 proc. odpowiedzi tzw. sztucznej inteligencji. Czy można ufać informacjom uzyskanym w ten sposób?

13 stycznia 2026 r. Polskie Badania Czytelnictwa opublikowały wyniki polskiej replikacji międzynarodowych badań koordynowanych przez BBC i Europejską Unię Nadawców (EBU). Podczas testów sprawdzono najpopularniejsze chatboty - m.in. ChatGPT, Gemini i Perplexity - pod kątem dokładności, sposobu korzystania ze źródeł oraz występowania pomyłek w postaci podawania fałszywych lub wprowadzających w błąd informacji jako fakty.

Okazało się, że aż 46 proc. odpowiedzi generowanych przez takie moduły w języku polskim zawierało co najmniej jeden istotny błąd. W 27 proc. przypadków chatboty miały poważne problemy ze źródłami, a 19 proc. odpowiedzi zawierało poważne braki w dokładności lub informacje wprost nieprawdziwe. Wyniki z Polski pokrywają się z tymi uzyskanymi w badaniach prowadzonych w 18 krajach i 14 językach.

Zróbmy to razem!

– Badania jednoznacznie dowodzą, że te niedociągnięcia nie są odosobnionymi incydentami. Mają charakter systemowy, transgraniczny i wielojęzyczny, i naszym zdaniem zagrażają zaufaniu publicznemu – zaznaczył Jean Philip De Tender, dyrektor ds. mediów i zastępca dyrektora generalnego EBU.

Z kolei Renata Krzewska, prezes Polskich Badań Czytelnictwa, wskazała, że chatboty niejednokrotnie podają błędne informacje, powołując się na marki i nazwiska konkretnych redakcji, co może zagrażać reputacji wskazywanych źródeł. – Błędy są na tyle poważne, że mogą zagrażać reputacji cytowanych mediów. Odniesienie do znanej redakcji czy dziennikarza uwiarygadnia odpowiedź AI, która często nie jest rzetelna – zaznaczyła Krzewska.

Eksperci zgadzają się, że sztuczna inteligencja może  wspomóc pracę redakcji, ale nie jest w stanie zastąpić dziennikarskiej odpowiedzialności, weryfikacji i rozumienia kontekstu. – To człowiek – dziennikarz – czyni prasę wiarygodną. Tych cech algorytmy nie są w stanie zastąpić – podsumował Mariusz Ulewak z Polska Press.

Źródło: opoka.org.pl

AF

Sztuczna-inteligencja-1.jpg
fot. Pixabay

Ekspert ds. AI ostrzega: chatbot to nie przyjaciel, powiernik, ani terapeuta!

Czatbot nie jest człowiekiem i człowieka nie zastąpi. Nie próbujmy zastępować relacji międzyludzkich relacją z czatem AI – przestrzega specjalista do spraw sztucznej inteligencji, prof. dr hab. Piotr Kulicki z Katedry Podstaw Informatyki KUL.Przyjaciel, powiernik, terapeuta – to rola, jaką wielu, nie tylko młodych ludzi, przypisuje sztucznej inteligencji. Rozmowa z czatem AI zastępuje im kontakt z...Czytaj dalej

cyber-milosc.jpg
fot. PCh24.pl / GS

Czy romans z chat-botem to grzech?

Moja Żona w ramach zabawy z ChatemGPT postanowiła poprosić o opis swojego wizerunku na jednym ze zdjęć. Jakież było moje zdumienie, gdy algorytm napisał poetycką odę do wrażliwości kobiety, snując dociekania na temat jej marzeń i aspiracji. Uwadze chat-bota nie uszło, że Żona na zdjęciu była w ciąży, przez co dopełnił opis piękną pochwałą macierzyństwa.Uznaniom dla możliwości narzędzia towarzyszył...Czytaj dalej

Zróbmy to razem!
Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.
Wybierz kwotę: