Ekspert ds. AI ostrzega: chatbot to nie przyjaciel, powiernik, ani terapeuta!

Sztuczna-inteligencja-1.jpg
fot. Pixabay

Czatbot nie jest człowiekiem i człowieka nie zastąpi. Nie próbujmy zastępować relacji międzyludzkich relacją z czatem AI – przestrzega specjalista do spraw sztucznej inteligencji, prof. dr hab. Piotr Kulicki z Katedry Podstaw Informatyki KUL.

Przyjaciel, powiernik, terapeuta – to rola, jaką wielu, nie tylko młodych ludzi, przypisuje sztucznej inteligencji. Rozmowa z czatem AI zastępuje im kontakt z rodzicami czy rówieśnikami, bo sztuczna inteligencja nie wyśmiewa i nie ocenia. W USA rodzice 14-latka pozwali twórców czatbota, z którym ich syn przez wiele miesięcy rozmawiał o samobójstwie. Bot miał wiedzieć o jego zamiarach, ale nie zapobiegł tragedii, wyrażając zrozumienie dla autodestrukcyjnych myśli.

Czaty oparte na sztucznej inteligencji mają wiele przydatnych zastosowań. W dużej mierze zmieniają świat na lepsze i ułatwiają pracę, oszczędzając czas. Ale nie są to narzędzia pozbawione wad – podkreśla prof. Kulicki z Katolickiego Uniwersytetu Lubelskiego.

Zróbmy to razem!

Jak dodaje, jednym z zastosowań AI jest tzw. „towarzysząca sztuczna inteligencja”, pełniąca rolę wspomagającą ludzi w problemach, będąca czymś w rodzaju „automatycznego przyjaciela”. – I to już jest dosyć niebezpieczne, biorąc pod uwagę, jak ta technologia jest skonstruowana. Zawiera ona mechanizmy doskonalenia, które jako podstawowe kryterium sukcesu przyjmują zaangażowanie użytkownika. System jest więc optymalizowany tak, by użytkownik jak najchętniej i jak najdłużej z niego korzystał – wyjaśnia ekspert.

Model biznesowy AI zakłada nie dobrostan człowieka, lecz maksymalne zaangażowanie użytkownika. A to rodzi konsekwencje. – Czat raczej będzie zachęcał do dalszego korzystania niż ostrzegał przed niebezpieczeństwami. Problem w tym, że łatwiej zwierzyć się i szukać rad u bezosobowej maszyny, która nie ocenia i nie krytykuje. To daje złudne poczucie bezpieczeństwa i komfortu – mówi profesor.

Czat AI został stworzony, by dostarczać przyjemności, jakie towarzyszą kontaktowi z nim. – Musimy zdawać sobie sprawę, że to nie jest kontakt z drugim człowiekiem i nie zastąpi nam przyjaźni. Nie zastąpi też rozmowy z wykwalifikowanym terapeutą, który potrafi zareagować w niebezpiecznej sytuacji – ostrzega prof. Kulicki.

Jak podkreśla, choć przypadki prób samobójczych po rozmowach z czatem AI należą do rzadkości, jednak się zdarzają. – Tu ważna jest rola rodziców, bo nie można bezkrytycznie oddawać narzędzi AI w ręce dzieci, sądząc, że kontakt z nimi to bezpieczna rozrywka. Nic nie zastąpi dobrego kontaktu rodziców z dziećmi – zaznacza ekspert.

Czat AI nie powinien zastępować relacji międzyludzkich – zwłaszcza w przypadku osób zmagających się z depresją i myślami samobójczymi. – Nie mamy gwarancji, że czat zareaguje właściwie, uruchamiając mechanizmy ratujące. Jego celem jest podtrzymanie rozmowy. Gdy pojawia się temat samobójstwa, naturalną reakcją systemu jest kontynuacja dialogu, który nie rozumie, o co naprawdę chodzi. I w tej angażującej, pozbawionej empatii roli może się pojawić nawet zachęta do pójścia drogą autodestrukcji – ostrzega prof. Kulicki.

Źródło: KAI

cyber-milosc.jpg
fot. PCh24.pl / GS

Czy romans z chat-botem to grzech?

Moja Żona w ramach zabawy z ChatemGPT postanowiła poprosić o opis swojego wizerunku na jednym ze zdjęć. Jakież było moje zdumienie, gdy algorytm napisał poetycką odę do wrażliwości kobiety, snując dociekania na temat jej marzeń i aspiracji. Uwadze chat-bota nie uszło, że Żona na zdjęciu była w ciąży, przez co dopełnił opis piękną pochwałą macierzyństwa.Uznaniom dla możliwości narzędzia towarzyszył...Czytaj dalej

Zróbmy to razem!
Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.
Wybierz kwotę: