31 maja 2025

Nie zwierzaj się czatbotowi – to nie twój przyjaciel, lecz narzędzie korporacji, rządów i służb

(Screenshot: RoM/PCh24.pl)

Dane z czatbotów AI mogą dostać się w ręce cyberprzestępców, zagranicznych służb czy reklamodawców i zostać wykorzystane na niekorzyść użytkowników – przypomina Mateusz Chrobok, ekspert ds. cyberbezpieczeństwa. Zalecił stosowanie higieny cyfrowej i sceptycyzm wobec generowanych treści. Przypomniał w tym kontekście tragiczną historię mężczyzny, którego AI „przekonała” do samobójstwa w imię walki z globalnym ociepleniem.

 

W rozmowie z PAP ekspert zwrócił uwagę, że firmy technologiczne rozwijające czatboty sztucznej inteligencji często pozyskują dane o użytkownikach z internetu, w tym z mediów społecznościowych oraz na podstawie informacji, które wpisują oni do czatbotów. – Na tej podstawie jesteśmy przez daną firmę zazwyczaj profilowani, aby odpowiedzi czatbota były bardziej do nas dopasowane – wyjaśnił.

Wesprzyj nas już teraz!

Specjalista wskazał, że z promptów, czyli zapytań, które dany użytkownik wpisuje do czatbota, firmy mogą wyczytać informacje o języku, jakim się on posługuje, wyglądzie – w przypadku dołączanych zdjęć – a także o poglądach, sytuacji rodzinnej, problemach itp. Niektóre firmy dodatkowo proszą o dostęp do informacji z urządzenia użytkownika, np. kontaktów, lokalizacji. – Chiński DeepSeek zbierał też sposób pisania na klawiaturze, z którego można wyciągnąć sporo danych, np. wiek, bądź to czy jesteśmy danego dnia zmęczeni lub niewyspani – zauważył Chrobok.

Zdarza się, że jesteśmy kuszeni oddaniem swoich danych w zamian za darmowy dostęp do czatbota, lepszy model itp. Czyli tak naprawdę oddajemy naszą prywatność za pewne korzyści – zaznaczył. Wskazał, że korzystanie z czatbotów wiąże się z ryzykiem wycieku wrażliwych danych. Chrobok przypomniał sytuację sprzed dwóch lat, kiedy to firma OpenAI pomyliła indeksy użytkowników ChatGPT. Skutkowało to sytuacją, w której po zalogowaniu się na swoje konto, dana osoba miała dostęp do historii rozmów innej osoby. – Problem dotknął 1,2 proc. użytkowników, ale w praktyce to miliony osób – podkreślił.

Innym zagrożeniem bezpieczeństwa związanym z czatbotami jest atak ATO, czyli Account Takeover (przejęcie konta) – wskazał ekspert. Po przejęciu konta cyberprzestępca może zyskać dostęp do danych z historii konwersacji użytkownika, np. imienia, nazwiska, numeru telefonu, numeru karty kredytowej, jeśli przez przypadek ją wpisał lub udostępnił w jakimś dokumencie – ostrzegł Mateusz Chrobok. – Badania pokazują, że modele przechowują tego typu informacje i jeżeli będą na nich trenowane, nie da się ich łatwo wymazać. Są też sposoby, jak te dane wyciągnąć z czatbota – zaznaczył ekspert.

Dodał, że część firm umożliwia użytkownikom wyłączenie opcji zapisywania historii czy szkolenia modelu na ich danych. – Dla bardzo wrażliwych informacji najbezpieczniej jest zainstalować na swoim urządzeniu lub serwerze lokalny model. Wtedy jest największa szansa, że nasze dane nie wyciekną – podkreślił.

Specjalista od cyberbezpieczeństwa wskazał, że zbierane dane mogą też posłużyć do tworzenia profilowanych reklam. – Wyobraźmy sobie, że mamy gorszy dzień albo zmagamy się z depresją, otyłością, czy innym problemem i reklamodawcy wykorzystują te informacje, aby wpłynąć na nasze decyzje zakupowe, które niekoniecznie będą dla nas korzystne. Wchodzimy tutaj w szary świat manipulacji. To co, uważamy, że byłoby dla nas dobre, niekoniecznie jest dobre dla twórców modeli AI i firm, które optymalizują zysk – ostrzegł.

Według eksperta, na poziom ochrony danych użytkowników może wpływać kraj pochodzenia czatbota. – DeepSeek czyli chińska firma, tworzy świetne modele takie jak r1, ale jest on blokowany w wielu miejscach, ponieważ zgodnie z chińskim prawem, jego twórcy muszą przekazywać dane o użytkownikach władzom, a te np. mogą oddać je służbom – wskazał. Podał przykład hipotetycznej sytuacji, w której amerykański urzędnik pisze z chińskim czatbotem i opowiada mu o swoich problemach z rodziną, czy biznesem. – Zebrane informacje mogłyby posłużyć Chinom do zwerbowania tej osoby na szpiega bądź do innego wywarcia wpływu. Myślę, że ujawniając nasze słabości, jesteśmy w takiej sytuacji bardziej podatni na manipulację – podkreślił.

Chrobok zaznaczyła, że badania pokazują, że modele odzwierciedlają poglądy ich twórców. – Przykładowo chiński DeepSeek ma negatywny sentyment [ton generowanej treści] przy wypowiedziach o amerykańskich żołnierzach, a modele OpenAI zupełnie odwrotnie – wskazał i dodał, że „każdy model to pewna bańka informacyjna”. – One nie są neutralne, nawet, jeśli niektórzy twórcy starają się, aby takie były. Warto o tym pamiętać – podkreślił.

Ekspert pytany o bezpieczeństwo korzystania z czatbotów jako wsparcie emocjonalne, czy terapeutę – co czyni część użytkowników, przywołał sytuację, która miała miejsce w 2023 r. w Belgii. Mężczyzna będący pod dużym wpływem obecnej propagandy klimatycznej pisał na ten temat z czatbotem. – W pewnym momencie AI podpowiedziała mu, że jeśli chce zmniejszyć ilość CO2, którą generuje, to najlepiej, gdyby go nie było, wskutek czego mężczyzna odebrał sobie życie. Było to pierwsze zarejestrowane samobójstwo po rozmowie ze sztuczną inteligencją – zaznaczył Mateusz Chrobok.

To jest ekstremum, które jednak pokazuje, co może nam grozić, kiedy prosimy AI o radę, dzielimy się z nią swoim stanem psychicznym i poglądami. Odpowiedzi, których udziela, są oparte na statystyce, co oznacza, że nie zawsze będą trafne. Dzięki postępowi technologii w coraz większym stopniu takie właśnie są, co sprawia, że najczęściej im ufamy, a to może uśpić naszą czujność – zaznaczył i dodał, że im bardziej specjalistyczne zagadnienie, tym bardziej – przynajmniej na chwilę obecną – modele sztucznej inteligencji się mylą.

Można to znacznie poprawić technicznymi metodami jak Deep Research, [zaawansowana metoda analizy informacji] ale nie każdy wie, jak z nich korzystać. Dlatego też zachęcam do sceptycyzmu wobec treści, które generują czatboty – podkreślił ekspert.

Pytany o zagrożenia związane z czatbotami w miejscu pracy, rozmówca PAP podał kolejny przykład, również z 2023 roku. Wówczas to pracownik firmy Samsung wrzucił w ChatGPT prezentację z tajnymi danymi, które w konsekwencji wyciekły i mogła je zdobyć konkurencja. – Tego boi się wiele firm, managerów i zdarza się, że całkowicie zakazują pracownikom korzystania ze sztucznej inteligencji. Moim zdaniem to nie jest dobra droga – ocenił edukator. Według niego, bez tej technologii firmy będą mniej konkurencyjne. – Po prostu trzeba wiedzieć, jak bezpiecznie z niej korzystać – zaznaczył.

Według Mateusza Chroboka, proces bezpiecznego wdrażania AI w firmach należy zacząć od wypracowania „higieny AI”, czyli edukacji – najpierw przełożonych, a później pracowników. – Po drugie, ważne są środki techniczne – wskazał badacz sztucznej inteligencji. Wyjaśnił, że istnieje cała dziedzina rozwiązań o nazwie Data Leak Prevention [ochrona przed wyciekiem danych], w którą mogą zainwestować pracodawcy. Należą do niej np. modele, które oceniają, jakie dane mogą opuścić firmę, a jakie nie. Ekspert wskazał, że w każdej organizacji powinny również istnieć zasady korzystania z AI, w których określa się np. jakie dane można wrzucić do czatbota, które z nich są wrażliwe, a które powinny być oznaczone jako wygenerowane przy pomocy sztucznej inteligencji, bo np. tego wymaga prawo.

Ekspert pytany, czy – według niego – mimo ryzyka sztuczna inteligencja powinna być implementowana w każdej firmie, stwierdził, że zmuszanie wszystkich przedsiębiorców do AI byłoby „nieludzkie”. – Ale lepiej znać tę technologię, bo może pomóc odnaleźć się na rynku pracy, czy usprawnić samą pracę, tak by było jej mniej i by była bardziej efektywna – ocenił.

Jesteśmy w momencie, który niektórzy określają ewolucją, rewolucją, czy używają innych wielkich słów. To jeszcze nie jest ten moment, gdzie AI nas przerasta, chociaż pod pewnymi względami na pewno tak jest – wskazał. Podkreślił, że ludzka inteligencja jest ograniczona. – Modele AI też mają swoje ograniczenia i zagrożenia, ale są coraz dokładniejsze i w przyszłości staną się lepsze od ludzi. Nasze umiejętności i zdolności będą po prostu słabsze – ocenił.

Zaznaczył, że niepokoi go podejście niektórych firm do pracowników w związku z wyciekiem maila prezesa pewnego przedsiębiorstwa, w którym napisał on, że „zanim zatrudnisz człowieka, przetestuj kilka modeli AI”. – Być może taka przyszłość nas czeka, jeżeli po drodze nie pojawią się inne rozwiązania. Mimo wszystko jestem fanem implementowania sztucznej inteligencji, aby polepszyć naszą pracę. Mówienie o „chwilowej modzie” czy „hajpie na AI”, to moim zdaniem przesypianie ważnego momentu – podkreślił Mateusz Chrobok.

pap logo

Źródło: PAP, PCh24.pl

RoM

 

 

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2025 rok

Zatrzymaj ideologiczną rewolucję. Twoje wsparcie to głos za Polską chrześcijańską!

mamy: 236 915 zł cel: 500 000 zł
47%
wybierz kwotę:
Wspieram