Chatbot może empatię opisać, może ją językowo symulować, ale nie jest w stanie jej odczuwać. To zasadnicza różnica – podkreśla psychiatra prof. Napoleon Waszkiewicz w rozmowie z „Dziennikiem Gazetą Prawną”.
Kryzys psychiczny dopada coraz większą część populacji naszego kraju. Z porad specjalistów korzysta już, jeżeli wierzyć szacunkom, 8 proc. Polaków. Co piąty zaś przynajmniej raz umówił się na spotkanie z terapeutą. Jak się okazuje, coraz więcej osób dzieli się swoimi problemami z generatywną sztuczną inteligencją. Eksperci ostrzegają, że choć chat-bot jest w stanie wysłuchać, a często nawet zdiagnozować pacjenta, nie jest w stanie zastąpić profesjonalnej pomocy.
„W terapii psychodynamicznej, systemowej czy analitycznej rola relacji, przeniesienia, przeciwprzeniesienia i realnej obecności terapeuty jest kluczowa. Tego algorytm nie zastąpi” – podkreśla kierownik Kliniki Psychiatrii Uniwersytetu Medycznego w Białymstoku.
Wesprzyj nas już teraz!
Największe niebezpieczeństwo chat-boty stwarzają, zdaniem prof. Waszkiewicza, w sytuacjach kryzysowych, kiedy pojawiają się np. myśli samobójcze. „U młodych osób samobójstwo jest jedną z głównych przyczyn zgonów (…) W takim kontekście kluczowe jest pytanie: czy chatbot potrafi właściwie rozpoznać zagrożenie i zareagować? Czy odeśle do specjalisty? Czy przerwie rozmowę? Czy ponosi jakąkolwiek odpowiedzialność? W przypadku terapeuty czy lekarza odpowiedzialność jest jasna. W przypadku chatbota – obowiązuje regulamin. To zasadnicza różnica” – podkreśla ekspert.
Klinicysta ostrzega, że głownym zadaniem chat-bota jest podtrzymanie rozmowy, często poprzez potwierdzanie przypuszczeń użytkownika, a nie konfrontacja z objawami. Jego zdaniem, w niektórych przypadkach zamiast skłonić do kontaktu z profesjonalistą, rozmowa z systemami AI stanie się jej substytutem i „realna pomoc zostanie odroczona”.
Źródło: gazetaprawna.pl
PR
AI na wojnie z mężczyznami. Dzikie serce w pułapce algorytmu