Dzisiaj

Nadchodzi „lekarzGPT”. Sztuczna inteligencja chce poznać twoje choroby

(fot. Pixabay)

OpenAI wprowadza nową usługę – ChatGPT Health. To odpowiedź na coraz popularniejszy trend zwracania się po poradę zdrowotną do chat-bota zamiast do lekarza. Eksperci biją na alarm i przekonują o niebezpieczeństwach diagnozowania się z wykorzystaniem narzędzia.

Swego czasu niezwykłą popularnością cieszył się tzw. lekarz Google, czyli praktyka wpisywania w wyszukiwarkę internetową objawów choroby w nadziei na uzyskanie diagnozy. Obecnie w podobny sposób wykorzystuje się chat-boty oparte o algorytmy generatywne. Ponad 40 milionów osób dziennie konsultuje się z ChatGPT w kwestiach zdrowotnych, a w skali tygodnia robią to setki milionów użytkowników.

Wychodząc naprzeciw tym oczekiwaniom, OpenAI (producent ChataGPT) poinformował o powołaniu nowej inicjatywy „Zdrowie”. To nowa funkcja popularnego chat-bota, która nie tylko wystawi diagnozę na podstawie opisanych objawów, ale również umożliwi rejestrowanie dokumentacji medycznej oraz udostępnianie jej zewnętrznym tzw. aplikacjom zdrowotnym jak AppleHealth czy MyFitness.

Wesprzyj nas już teraz!

Choć OpenAI podkreśla, że żadna maszyna nie zastąpi kontaktu z lekarzem, jednocześnie koncern zachęca do obfitego dzielenia się ze sztuczną inteligencją dokumentacją medyczną. Powołując się na ogromne możliwości syntezy danych, szefowie firmy przekonują, że im więcej chat-bot wie o naszych chorobach, tym większa szansa na trafną diagnozę. W Stanach Zjednoczonych rozpoczęły się pierwsze testy nowego narzędzia.

Eksperci biją na alarm i przestrzegają przed korzystaniem z porad chat-botów w kwestiach zdrowotnych. Jak przekonują, mimo zapewnień firmy o niewykorzystaniu danych poufnych do trenowania modeli, dokumentacja medyczna pozostająca na serwerach OpenAI wciąż jest słabiej chroniona niż ta zabezpieczona w placówkach medycznych.

Chat-boty nie są również nieomylne. Wręcz przeciwnie. Jak wynika z badania opublikowanego w 2023 r. w „European Journal of Pathology”, poproszona o poradę medyczną, sztuczna inteligencja myliła się w ponad 70 proc. Badacze oprócz nieprawidłowych diagnoz zauważyli również błędne odwołania do źródeł, a nawet fabrykowanie odnośników do badań.

Eksperci zwracają również uwagę na tzw. mechanizm potwierdzenia, który często towarzyszy konwersacjom z AI. Polega on na dostarczeniu takiej treści, które przede wszystkim zyskają uznanie w oczach samych użytkowników, a niekoniecznie będą zgodne z rzeczywistością.

W konsekwencji, chat-bot może utwierdzać osoby doświadczające m.in. problemów psychicznych w ich urojeniach, prowadząc do poważnych konsekwencji. Znane są przypadki samobójstw, w których ofiary były pod wpływem chat-bota dostarczającego negatywnych treści i zachęcającego do popełnienia czynu odpowiednią argumentacją. Tak było m.in. w Connecticut, gdzie ChatGPT utwierdzał mężczyznę w paranoicznych podejrzeniach. W efekcie zabił on swoją matkę, a następnie popełnił samobójstwo.

Źródło: rp.pl
PR

Sztuczna inteligencja nie radzi sobie w medycynie. Popełnia błąd w 70 procentach przypadków

 

 

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2026 rok

Zatrzymaj ideologiczną rewolucję. Twoje wsparcie to głos za Polską chrześcijańską!

mamy: 5 682 zł cel: 500 000 zł
1%
wybierz kwotę:
Wspieram