Dzisiaj

Eksperci Kościoła przeciwko stosowaniu broni autonomicznej, czyli „robotów-zabójców”

(fot. pixabay.com)

Musimy zapobiec sytuacji, w której technologia wymknie się spod moralnej i prawnej kontroli człowieka – powiedział abp Vincenzo Paglia, emerytowany przewodniczący Papieskiej Akademii Życia. Wydaje się bowiem, że jesteśmy o krok od stosowania autonomicznych systemów uzbrojenia, czyli maszyn, które mogłyby same wybierać cele i atakować je bez istotnej kontroli człowieka. Eksperci Kościoła sprzeciwiają się takiemu rozwiązaniu, gdyż stanowiłoby poważne zagrożenie dla międzynarodowego prawa humanitarnego i praw człowieka.

W obliczu szybkiego postępu w dziedzinie tzw. sztucznej inteligencji (AI) eksperci, organizacje pozarządowe i przedstawiciele Kościoła katolickiego podczas konferencji we włoskim Senacie ostrzegli przed autonomicznymi systemami broni śmiercionośnej i wezwali do wprowadzenia zakazu obowiązującego na mocy prawa międzynarodowego. Jak poinformował portal Vatican News, w ramach międzynarodowej kampanii „Stop Killer Robots” (Stop Robotom Zabójcom) skupiono się na kwestii etycznej, czy maszyny mogą podejmować decyzje dotyczące życia i śmierci.

– Musimy zapobiec sytuacji, w której technologia wymknie się spod moralnej i prawnej kontroli człowieka – powiedział arcybiskup Vincenzo Paglia, emerytowany przewodniczący Papieskiej Akademii Życia. Autonomiczne systemy uzbrojenia, które wybierają cele i atakują je bez istotnej kontroli człowieka, stanowiłyby poważne zagrożenie dla międzynarodowego prawa humanitarnego i praw człowieka.

Wesprzyj nas już teraz!

Abp Paglia zwrócił również uwagę na niebezpieczeństwo eskalacji nuklearnej w wyniku wykorzystania sztucznej inteligencji. – Regulacja broni autonomicznej stanowi wyzwanie dla „zbiorowej świadomości” i wymaga globalnych działań politycznych – powiedział arcybiskup.

Nicole van Rooijen, dyrektor wykonawczy kampanii „Stop Killer Robots”, do której należy ok. 270 organizacji pozarządowych z całego świata, mówiła o jednym z „najgłębszych wyzwań dla współczesnej cywilizacji”. Przekazanie decyzji o życiu i śmierci algorytmom oznacza niedopuszczalne naruszenie zasad etycznych. Ponadto powstaje problem odpowiedzialności: jeśli maszyna popełni zbrodnię wojenną, grozi jej faktycznie bezkarność prawna.

Prawa człowieka pod ostrzałem

Rzecznik Amnesty International we Włoszech, Riccardo Noury, zwrócił uwagę na wykorzystanie systemów opartych na sztucznej inteligencji w obecnych konfliktach, np. w Strefie Gazy. Bez jasnych międzynarodowych zasad istnieje ryzyko, że takie technologie będą stosowane w sposób niekontrolowany, co może mieć poważne konsekwencje dla ludności cywilnej. „Prawo międzynarodowe jest pod ostrzałem” – ostrzegł Noury i zaapelował o stworzenie wiążących ram regulacyjnych. Nawet poza klasycznymi scenariuszami wojennymi, na przykład w przypadku nadzoru granic lub bezpieczeństwa wewnętrznego, stosowanie autonomicznych systemów niesie ze sobą poważne zagrożenie dla praw człowieka.

Międzynarodowe prawo humanitarne nie wystarcza

Tommaso Natoli z Włoskiego Czerwonego Krzyża podkreślił, że systemy autonomiczne nie są w stanie zagwarantować przestrzegania podstawowych zasad, takich jak rozróżnienie między ludnością cywilną a siłami militarnymi. Fabrizio Battistelli z instytutu badawczego „Archivio Disarmo” dodał, że istniejące międzynarodowe prawo humanitarne nie wystarcza i zaapelował o zawarcie prewencyjnego porozumienia w ramach Organizacji Narodów Zjednoczonych. Odpowiednie inicjatywy są jednak obecnie blokowane przez Stany Zjednoczone i Rosję.

Na zakończenie konferencji Francesco Vignarca z sieci „Rete Italiana Pace e Disarmo” (Włoska Sieć Pokoju i Rozbrojenia) wezwał do zwiększenia presji politycznej, aby zapobiec „dehumanizacji wojny” przez sztuczną inteligencję. Celem musi być wykorzystanie technologii ściśle związane z godnością ludzką i pokojem.

Źródło: KAI

Chatboty nie mówią prawdy. Istotne błędy aż w 46 proc. odpowiedzi

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2026 rok

Zatrzymaj ideologiczną rewolucję. Twoje wsparcie to głos za Polską chrześcijańską!

mamy: 7 812 zł cel: 500 000 zł
2%
wybierz kwotę:
Wspieram