„Sztucznej inteligencji będzie coraz więcej. Na pewno jej możliwości zainteresują najgorszych łajdaków. Kto będzie kontrolował jej rozwój i użycie? Kto będzie nadzorował jej używanie przez zwykłych ludzi z ich nerwicami i rozchwianiem emocjonalnym?”, pyta na łamach tygodnika „Do Rzeczy” Piotr Semka.
Publicysta przywołuje tragiczną informację sprzed kilkunastu dni: „Chatbot Eliza, kierowany przez sztuczną inteligencję amerykańskiej firmy Chai, namówił młodego Belga do samobójstwa. (…) Trzydziestokilkuletni ojciec dwojga małych dzieci, który dwa lata temu zaczął niepokoić się klimatem i przyszłością naszej planety, w rezultacie zaczął izolować się od swojej rodziny i twierdził, że jedynie technologia, w tym AI, może uratować świat od katastrofy. Wielotygodniowe rozmowy z chatbotem doprowadziły ostatecznie do tego, że mężczyzna popełnił samobójstwo”, czytamy w tygodniku „Do Rzeczy”.
„Ktoś te chatboty zaprojektował. Ktoś zawarł w nich przekonanie, że przyszłość klimatu to idea, w imię której warto poświęcić wszystko. Belg odczytał to jako zachętę do ofiarowania nawet życia. Przesadził? A może firma, wypuszczając chatbot sterowany sztuczną inteligencją, nie pojęła, że ludzie mogą uznać wytwór AI za wyrocznię w kwestii życia i śmierci? (…) Czy da się uniknąć takich tragedii?”, podsumowuje Piotr Semka
Źródło: tygodnik „Do Rzeczy”
TK