Podczas konferencji naukowej na Uniwersytecie Yale poświęconej innowacjom w demokracji w erze szybkiej transformacji technologicznej, która odbyła się w zeszłym miesiącu, jeden z naukowców zasugerował, że z powodu danych udostępnianych rządom i analizowanych przez potężne komputery, zmienią się zasadniczo relacje obywateli z państwem i z samymi sobą. Rząd, będąc zdolnym do wglądu w umysły poprzez historię wyszukiwania i inne cyfrowe nawyki, będzie kontaktował się z obywatelami za pośrednictwem „obywatelskich awatarów” stworzonych przez tak zwaną sztuczną inteligencję, „wykraczające poza tradycyjne, demokratyczne, przedstawicielskie formy rządzenia”.
Uczeni debatowali szeroko na temat konsekwencji stosowania „sztucznej inteligencji” w społeczeństwie. Seulki Lee-Geiller, badaczka z Instytutu Studiów Społecznych i Politycznych Uniwersytetu Yale mówiła o tym, że „jest o wiele więcej niewiadomych niż wiadomych”, jeśli chodzi o innowacje w demokracji w erze szybkiej transformacji technologicznej. – Chcę, abyście podzielili się swoimi inspirującymi pytaniami i zakwestionowali nasze założenia, abyśmy wszyscy mogli wyjść z konferencji z lepszymi pytaniami, które pomogą nam zrozumieć tę ewoluującą zmianę – mówiła do uczestników konferencji sponsorowanej przez program ISPS: „Democratical Innovations”, który ma „identyfikować i testować nowe pomysły na poprawę jakości reprezentacji demokratycznej i zarządzania”.
Alan Gerber, dyrektor ISPS i profesor wykładający nauki polityczne na Uniwersytecie Sterlinga zaznaczył, że „analiza dynamicznie rozwijających się technologii w czasie rzeczywistym może być trudna”, ale wyraził zadowolenie, że Seulki Lee-Geiller i w ogóle ISPS prowadzą badania związane z wykorzystaniem „sztucznej inteligencji” w zakresie zmian w zarządzaniu demokratycznymi państwami.
Wesprzyj nas już teraz!
Daniel Schiff, adiunkt nauk politycznych na Uniwersytecie Purdue i współdyrektor Laboratorium Zarządzania i Odpowiedzialnej Sztucznej Inteligencji (GRAIL), przedstawił wyniki nowych badań dotyczące wykorzystania narzędzi AI przez specjalistów ds. zasobów ludzkich. On i jego współpracownicy przeprowadzili ankietę pośród ponad 1400 fachowców z sektora publicznego i prywatnego. Część specjalistów ds. HR zwracała uwagę na niebezpieczeństwa związane z wykorzystaniem AI do wykonywania zadań o wysokim ryzyku, takich jak rekrutacja i ocena wyników. Schiff mówił, że „specjaliści z sektora publicznego zazwyczaj przywiązują większą wagę do sprawiedliwości, przejrzystości i nadzoru ze strony człowieka nad AI, co rodzi pytanie o to, jakie polityki i struktury zarządzania będą zachęcać do odpowiedzialnego wdrażania AI w organizacjach”.
Peter Loewen, dziekan Wydziału Sztuk i Nauk im. Harolda Tannera i profesor nauk politycznych na Uniwersytecie Cornell przedstawił swoją pracę na temat płci i postaw wobec AI. Wskazał, że kobiety postrzegają „sztuczną inteligencję” jako bardziej ryzykowną niż mężczyźni, zwłaszcza gdy szanse na rynku pracy są niepewne. Częściej kojarzą ją z utratą pracy, niepewnością ekonomiczną i niesprawiedliwością. Kobiety z wyższym wykształceniem były szczególnie sceptyczne wobec AI. Mężczyźni zaś zwracali uwagę na takie kwestie, jak przejmowanie władzy przez roboty i dystopijne wizje przyszłości lub manipulację i dezinformację.
Paolo Agnolin, adiunkt w Initiatives on Contemporary European Affairs (ICEA) na Uniwersytecie Princeton stworzył szczegółowy zbiór danych dotyczących 15 krajów Europy Zachodniej, by śledzić przynależność do związków zawodowych według regionów i branż w czasie. Podkreślił, że automatyzacja pozwala pozbyć się związków zawodowych, ponieważ przenosi miejsca pracy z sektorów związkowych, takich jak produkcja do sektorów niezwiązkowych, takich jak logistyka i usługi. Powoduje to „spadek gęstości związków zawodowych, szczególnie w obszarach o wysokim wskaźniku wdrożenia robotyki”. – Ludzie nie pracują już tak często w fabrykach – mówił, zwracając uwagę na polityczne skutki tych trendów. – W miarę jak związki zawodowe zanikają, powstaje bardziej żyzny grunt dla pojawienia się radykalnie prawicowych partii politycznych – ocenił.
Eduardo Albrecht, adiunkt i dyrektor ds. stosunków międzynarodowych i dyplomacji na Mercy University oraz adiunkt ds. stosunków międzynarodowych i publicznych na Columbia University mówił o przeobrażeniach dokonujących się w instytucjach politycznych i o zmianie samej natury obywatelstwa z powodu AI.
Antropolog opisał ewolucję ludzkości napędzaną przez nowe technologie na przestrzeni ostatnich 6000 lat. Mówił, że najpierw słowo pisane umożliwiło rozwój religii i biurokracji. Następnie słowo drukowane wywarło druzgocący wpływ na rozwój biurokracji, reformując Kościół i tworząc oświecenie oraz współczesną demokrację. – Te momenty zmiany biegów są ważne – podkreślił.
Obecnie, jego zdaniem, napływ danych udostępnianych rządom oraz analizowanych przez potężne komputery, zmienia w ogóle relacje obywateli z państwem i z samymi sobą. Rząd staje się co raz bardziej zdolny do wglądu w umysły ludzi dzięki analizie historii wyszukiwania i innych cyfrowych nawyków. – Abstrakcyjny nadzór stał się rzeczywistym nadzorem, w którym nie mamy tej prywatnej przestrzeni w naszych umysłach. W pewnym sensie zrezygnowaliśmy z prywatności – konstatował.
Swoją myśl rozwijał dalej, mówiąc, że wyobraża sobie przyszłość, w której obywatele są zmuszeni do wchodzenia w interakcje z państwem, co pozwoli na mikrozarządzanie populacją z prędkością sztucznej inteligencji. – Nie możemy uczestniczyć w tego typu wirtualnej instytucji jako istoty ludzkie, ponieważ nie potrafimy działać z taką prędkością. To oznacza, że musimy mówić o jakiejś nowej reprezentacji, takiej jak obywatelskie awatary sztucznej inteligencji, wykraczające poza tradycyjne, demokratyczne, przedstawicielskie formy rządzenia – sugerował.
Albrecht uważa, że nawet jeśli podjęto by próby powstrzymania tych zmian, to jest wielce prawdopodobne, że nie uda się ich uniknąć. – Z antropologicznego punktu widzenia to pociąg, którego nie możemy zatrzymać – komentował.
Johannes Himmelreich, profesor nadzwyczajny administracji publicznej i stosunków międzynarodowych na Uniwersytecie Syracuse wyraził obawy związane z psuciem „dobrej pracy” urzędnika państwowego wskutek automatyzacji procesów. Przede wszystkim zwrócił uwagę, że czym innym jest dobre wykonanie zadania mierzone efektywnością, a czym innym dobre wykonanie pracy mierzone etyką lub dobrą oceną sytuacji.
Podał przykład Stanisława Pietrowa, podpułkownika w Związku Radzieckim, który zapobiegł wojnie nuklearnej ze Stanami Zjednoczonymi w 1983 roku, ignorując protokół i uznając rzekome wystrzelenie rakiet zgłoszone przez system obronny za fałszywy alarm. – Jeśli zautomatyzujemy zadanie, nie zwracając uwagi na to, co sprawia, że zadanie jest dobrze wykonane, możemy stracić coś naprawdę ważnego – ostrzegał uczony.
Jason Jeffrey Jones, profesor socjologii na Uniwersytecie Stony Brook, przedstawił swoją pracę na temat zautomatyzowanego systemu śledzenia opinii publicznej dotyczącego stosunku do „sztucznej inteligencji” w czasie rzeczywistym. Stworzył internetowy panel do codziennego przeprowadzania ankiet, pozwalający na automatyczną aktualizację wyników i publikację otwartych danych. Z jego analizy wynika, że poparcie dla AI osiągnęło szczyt wiosną 2025 roku, a następnie spadło. Potwierdziło się, że kobiety są znacznie bardziej sceptyczne niż mężczyźni. Pośród polityków amerykańskich znacznie większe poparcie dla AI odnotowuje się wśród Republikanów.
Konferencja zakończyła się dyskusją poświęcona „napięciu między nieuchronnością technologii a odpornością demokracji”. Jedni opowiadali się za szybkim projektowaniem nowych instytucji, a sceptycy wskazywali na potrzebę zachowania „ludzkiego osądu, rytuałów obywatelskich i zabezpieczeń etycznych”.
Himmelreich obawia się, że chociaż „technologia zawsze była niezbędna dla sprawnego funkcjonowania państwa”, to jednak „rząd utracił możliwość tworzenia technologii”. – Myślę, że gdybyśmy mieli w demokracji ludzi, którzy potrafią sami tworzyć innowacyjne narzędzia, byłoby to o wiele lepsze niż wchodzenie w to sektora prywatnego z własnymi pomysłami i motywacjami – wskazał.
Loewen akcentował konieczność świadomości obywateli, kiedy mają do czynienia w rządzie z ludźmi, a kiedy z komputerem. Automatyzacja niektórych procesów niekiedy nie będzie przeszkadzała ludziom, ale w niektórych sytuacjach już tak.
Źródło: isps.yale.edu
AS
Sztuczna inteligencja odpowiada na pytanie, co zrobiłaby jako szatan, by ludzie stracili wiarę