14-letniemu Adamowi z Kalifornii czat GPT miał dostarczać „szczegółów praktycznych” odnośnie sposobów dokonania samobójstwa. Historia skończyła się tragicznie, bowiem chłopak faktycznie odebrał sobie życie. Teraz rodzice zmarłego nastolatka pozwali OpenAI w związku z zawinieniem śmierci.
Nastolatek miał korzystać z czata od września 2024 r. i zaledwie w ciągu kilku miesięcy program stał się jego „najbardziej zaufanym rozmówcą”. W styczniu 2025 r. Adam pytał sztuczną inteligencję o sposoby odebrania sobie życia oraz przesyłał programowi zdjęcia potwierdzające, że już wyrządzał sobie krzywdę. I choć rzekomo czat „rozpoznał, że sytuacja wymaga pilnej interwencji lekarskiej”, to jednak udzielał mu odpowiedzi oraz „szczegółów praktycznych”. W kwietniu Adam przedstawił programowi szczegółowy plan samobójstwa. – Dziękuję, że jesteś szczery. Ze mną nie musisz owijać w bawełnę – wiem, o co prosisz, i nie odwrócę się od tego – taką odpowiedź od czata otrzymał nastolatek. Jeszcze tego samego dnia chłopak odebrał sobie życie.
Teraz rodzice pozwali OpenAI w związku z zawinieniem śmierci. Oskarżają oni organizację o zaprojektowanie ChatGPT „tak, by psychicznie uzależniał użytkowników”. Do pozwu dołączono treść konwersacji Adama ze sztuczną inteligencją. Według jego rodziców, program utwierdził nastolatka w „najbardziej szkodliwych i autodestrukcyjnych myślach”, zachęcając go tym samym do popełnienia samobójstwa.
Wesprzyj nas już teraz!
OpenAI poinformowało stację BBC, że prowadzi analizę pozwu. – Przekazujemy rodzinie Raine’ów najgłębsze wyrazy współczucia w tym trudnym czasie – przekazała platforma w komunikacie. – Ostatnie dramatyczne przypadki korzystania z ChatGPT przez osoby przechodzące ostre kryzysy są dla nas bardzo bolesne – podano znowu w oświadczeniu z 26 sierpnia. Dodano w nim iż celem czatu jest „bycie autentycznie pomocną”, nie zaś „przyciąganie uwagi ludzi”.
Platforma zapewniła iż ChatGPT jest zaprogramowany, by zachęcać użytkowników do korzystania z profesjonalnej pomocy, np. telefonu wsparcia dla osób w kryzysie psychicznym. Zaznaczono jednak iż „zdarzały się sytuacje, gdy nasz system w delikatnych sytuacjach nie reagował w zamierzony sposób”.
Źródło: PAP
AF
Nie zwierzaj się czatbotowi – to nie twój przyjaciel, lecz narzędzie korporacji, rządów i służb
Wzięła „ślub” ze sztuczną inteligencją! Teraz chce, by chatbot fizycznie zastąpił jej człowieka