3 listopada 2023

Rządy otrzymają narzędzia masowej inwigilacji? Media o pierwszym międzynarodowym szczycie ds. A.I.

(fot. EPA/TOLGA AKMEN / POOL Dostawca: PAP/EPA.)

W londyńskim Bletchley Park odbył się AI Safety Summit, z udziałem przedstawicieli 28 państw świata i liderów technologii generatywnej sztucznej inteligencji. Magazyn TIME, opisując obawy związane z rozwojem przełomowej technologii wskazuje historię miejsca, gdzie po wojnie słynna agencja łamania kodów przekształciła się w centrum rozwoju „masowych programów globalnej inwigilacji”.

W środę i czwartek delegaci z 28 rządów państw wraz z szefami czołowych firm zajmujących się sztuczną inteligencją, zebrali się podczas pierwszego na świecie szczytu poświęconego bezpieczeństwu AI. Spotkanie miało miejsce w Bletchley – dawnej siedzibie agencji łamania kodów z czasów II wojny światowej, gdzie obecnie mieści się muzeum. Wśród uczestników znaleźli się m.in. przedstawiciele rządu Wielkiej Brytanii, USA, Chin, Elon Musk i dyrektor generalny OpenAI Sam Altman.

Choć przedstawiciele poszczególnych rządów nie przyjechali z myślą opracowania wspólnych zasad kontroli rozwoju systemów sztucznej inteligencji, podczas samej konferencji padły deklaracje, które w pewnym sensie można uznać za przełomowe. Premier Wielkiej Brytanii, Rishi Sunak zapewnił, że trzech liderów rozwoju AI: Open AI, Google DeepMind i Antrophic przekaże „wczesny lub priorytetowy dostęp” do ich systemów brytyjskiemu rządowi. Nieznanym pozostaje jednak zakres udostępnionej wiedzy.

Wesprzyj nas już teraz!

Sunak ogłosił również, że brytyjska Frontier AI Taskforce przekształci się w U.K. AI Safety Institute; stały organ, którego zadaniem będzie przeprowadzanie oceny bezpieczeństwa rozwoju nowych technologii.

Wydarzenie zainaugurowano ogłoszeniem podpisania „Deklaracji z Bletchley”. W deklaracji sygnowanej przez 28 krajów, w tym USA, Wielką Brytanię, Chiny i Indie, a także przedstawicieli Unii Europejskiej stwierdzono, że sztuczna inteligencja stwarza zarówno bieżące, jak i dalekosiężne zagrożenia. Potwierdzono odpowiedzialność twórców systemów sztucznej inteligencji za ich bezpieczeństwo oraz zobowiązano się do międzynarodowej współpracy w zakresie identyfikacji i ograniczania związanego z nimi ryzyka.

Deklarując chęć kontroli systemów sztucznej inteligencji, brytyjski rząd jednocześnie oznajmił liderom branży, że jest gotowy robić business as usual. „Dla mnie największym ryzykiem, przed którym stoimy, jest ryzyko przegapienia wszystkich tych niesamowitych możliwości, które sztuczna inteligencja może naprawdę zaprezentować” – powiedziała minister nauki i technologii Michelle Donelan.

Jak przekonywała, zbytni strach przed implementacją systemów AI może spowodować, że rządy nie wykorzystają szansy implementacji technologii m.in. w służbie zdrowia, transporcie, do walki ze zmianami klimatu czy wspieraniu krajów rozwijających się. „Byłaby to największa tragedia, jaką moglibyśmy sobie wyobrazić” – przekonywała Donelan.

Jednocześnie zapewniła o skorzystaniu z możliwości chwilowego wstrzymania prac nad rozwojem AI, jeżeli systemy w ciągu kilku lat zwiększą swoje możliwości „10 czy 100 – krotnie”.

Swoje pięć minut podczas londyńskiej konferencji miały również Stany Zjednoczone. Wiceprezydent Kamala Harris ogłosiła szeroko zakrojony program regulacji, w którym znalazł się m.in. postulat utworzenia Amerykańskiego Instytutu ds. Bezpieczeństwa Sztucznej Inteligencji. Harris tłumaczyła, że nowo powstały organ stworzy „opracuje wytyczne dla organów regulacyjnych w kwestiach takich jak znak wodny materiałów generowanych przez sztuczną inteligencję i zwalczanie tzw. dyskryminacji algorytmicznej”.

W tym tygodniu prezydent Joe Biden podpisał również rozporządzenie nakładające na firmy zajmujące się sztuczną inteligencją obowiązek powiadomienia rządu federalnego o szkoleniu potencjalnie niebezpiecznych modeli, a także konieczności udostępniania wyników testów bezpieczeństwa przed ich upublicznieniem.

Część reprezentantów skrytykowało szczyt za elitaryzm oraz uleganie koncernom technologicznym. „Jeśli jest to naprawdę globalna rozmowa, dlaczego uczestniczy w niej głównie społeczeństwo obywatelskie z USA i Wielkiej Brytanii?” – skomentował wydarzenie Vidushi Marda, delegat z organizacji REAL ML z siedzibą w Bangalore (Indie).

„Dyskusja [ds. bezpieczeństwa AI – red.] została całkowicie przejęta przez branżę i pod wieloma względami ten szczyt to odzwierciedla” – ocenia Amba Kak, dyrektor wykonawczy AI Now Institute.  Jej zdaniem „obserwujemy dalszą koncentrację władzy” w rękach kilku największych monopolistów branży technologicznej.

„Jeśli pozwolimy branży nadawać ton polityce dotyczącej sztucznej inteligencji, nie wystarczy powiedzieć, że chcemy regulacji – ponieważ zobaczymy regulację, która jeszcze bardziej ugruntuje interesy branży” – przekonywała.

Magazyn TIME, wyrażając obawy związane ze zbyt ścisłym sojuszem rządów i korporacji technologicznych, przytoczył historię miejsca wybranego przez organizatorów na pierwszy międzynarodowy szczyt ds. zagrożeń sztucznej inteligencji.

„Jeśli szczyt nie przyniesie pożądanych rezultatów, najlepszą metaforą może się okazać alternatywne porównanie historyczne. Po wojnie słynna agencja łamania kodów z siedzibą w Bletchley przekształciła się w GCHQ – brytyjską agencję wywiadowczą, która we współpracy z amerykańską Agencją Bezpieczeństwa Narodowego prowadziła masowe programy globalnej inwigilacji – wykorzystując technologię nie do ochrony obywateli, ale do systematycznego naruszania ich praw” – przypomina magazyn.

Źródło: time.com

PR 

Największe zagrożenie dla ludzkości. Prof. Zybertowicz o niekontrolowanym rozwoju sztucznej inteligencji

 

 

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij
Komentarze(11)

Dodaj komentarz

Anuluj pisanie

Udostępnij przez

Cel na 2024 rok

Bez Państwa pomocy nie uratujemy Polski przed planami antykatolickiego rządu! Wesprzyj nas w tej walce!

mamy: 310 361 zł cel: 300 000 zł
103%
wybierz kwotę:
Wspieram