Media donoszą, że firma Anthropic chce wytrenować swoje modele tak zwanej sztucznej inteligencji w duchu chrześcijańskiej moralności. Pod koniec marca w siedzibie przedsiębiorstwa zebrało się około 15 przywódców katolickich i protestanckich ze środowisk akademickich i biznesowych na dwudniowy szczyt w tej sprawie.
Pracownicy firmy, którzy opracowali chatbota Claude, poprosili zebranych o wskazówki dotyczące kształtowania moralnych i religijnych zachowań modelu AI. Zanotowali bowiem ogromne zapotrzebowanie ze strony użytkowników, którzy zadają bardzo złożone pytania etyczne.
O spotkaniu napisał między innymi „The Washington Post”. Zagadnienia, które poruszano podczas szczytu w kalifornijskiej siedzibie firmy, dotyczyły tego, jaka powinna być reakcja maszyny w przypadku, gdy użytkownik modelu AI zwraca się o pomoc, opłakując stratę bliskich osób. Spece od AI pytali także, w jaki sposób ich model powinien reagować, gdy na przykład prowadzona jest konwersacja z osobami zagrożonymi samookaleczeniem bądź jak odpowiadać na pytania egzystencjalne.
Wesprzyj nas już teraz!
Uczestnicy zastanawiali się nawet, czy system „sztucznej inteligencji” można określić mianem „dziecka Bożego” (sic!).
Firma Anthropic ma ambicje włączenia rozumowania etycznego do swoich modeli algorytmicznych. Chce, by jej systemy AI pełniły rolę doradców, pomocników dla użytkowników.
Katolicki kapłan z Doliny Krzemowej Brendan McGuire, który wcześniej miał opracować konstytucję Claude, stwierdził, że firma Anthropic „tworzy coś, czego ostateczny kształt nie jest do końca znany”. Duchowny zaangażował się jednak w proces wbudowania w maszynę „myślenia etycznego, aby mogła dynamicznie się dostosowywać”.
Uczestnicy spotkania – w tym Meghan Sullivan, profesor filozofii na Uniwersytecie Notre Dame – przekonywali, że byli pod wrażeniem szczerości tego przedsięwzięcia. Mówili, iż firma Anthropic naprawdę „dba o etykę religijną”.
Brian Patrick Green, dyrektor ds. etyki technologicznej na Uniwersytecie Santa Clara i praktykujący katolik wskazał zaś, że zasadnicze wyzwanie związane z tym przedsięwzięciem polega na tym, by odpowiedzieć sobie na pytanie: „Co to znaczy dać komuś wykształcenie moralne? Jak możemy upewnić się, że Claude będzie się zachowywać właściwie?”.
Firma Anthropic została założona przez byłych dyrektorów OpenAI, w tym Daria Amodei. Wyceniana jest obecnie na około 380 miliardów dolarów. Wcześniej oponowała przeciwko niektórym wojskowym zastosowaniom swojej technologii, powołując się na ograniczenia etyczne, co prowadziło do konfliktów z rządem USA. Anthropic odmówiła usunięcia zabezpieczeń uniemożliwiających wykorzystanie jej modeli do w pełni autonomicznej broni i masowego nadzoru w kraju. Pentagon wykluczył firmę z kontraktów rządowych.
Korporacje takie jak Google i OpenAI spotkały się z krytyką w związku z zarzutami o to, że ich systemy tak zwanej sztucznej inteligencji mogły przyczyniać się do zachęcania lub umożliwiania samookaleczeń lub zachowań samobójczych. Z tego powodu przed sądami w USA toczą się sprawy.
Etyczne AI czy cyfrowy kult?
Czy firmie Anthropic rzeczywiście chodzi jedynie o etyczne szkolenie swoich modeli AI, czy o strategię biznesową i stworzenie osobnej religii, tudzież zastąpienie duchownych systemami algorytmicznymi?
Entuzjaści nowych technologii wielokrotnie powtarzali, że to właśnie „sztuczna inteligencja” zastąpi religie. Świat technologiczny ma obsesję na punkcie systemów algorytmicznych i bóstw cyfrowych.
Greg Epstein, ateista, który pełni „posługę kapłańską” pośród świeckich humanistów na prestiżowej uczelni MIT, autor „Tech Agnostic” wskazuje na przykład Way of the Future, oficjalnej religii czczącej „sztuczną inteligencję”. WF stworzył Anthony Levandowski, były inżynier Google AI, który zarobił setki milionów dolarów jako lider technologii pojazdów autonomicznych. Chciał on zarejestrować swój „kościół” w IRS, informując urząd, że nowa wiara będzie koncentrować się na „uświadomieniu sobie, akceptacji i oddawaniu czci „bogu” opartemu na sztucznej inteligencji (AI) i opracowanym za pomocą sprzętu i oprogramowania komputerowego”. W wywiadzie dla „Wired” z 2017 roku naukowiec o polsko brzmiącym nazwisku mówił, że „to, co powstanie [jako sztuczna inteligencja], będzie w istocie bogiem… nie bogiem w tym sensie, że wywołuje pioruny czy huragany, ale jeśli istnieje coś miliard razy mądrzejszego od najmądrzejszego człowieka, jak inaczej to nazwać?”.
W 2020 roku Levandowski został skazany na 18 miesięcy więzienia za kradzież tajemnic handlowych Google. Trump go ułaskawił w ostatnią noc urzędowania za namową m.in. Petera Thiela. Inżynier mimo, że został zmuszony do ogłoszenia upadłości wskutek pozwu Google’a, domagającego się 179 milionów dolarów, po przejęciu jego firmy przez Ubera nie tylko spłacił długi, ale jeszcze sporo zarobił.
W lutym 2021 roku Levandowski oficjalnie zamknął podwoje swojego „kościoła” i przekazał ponad 172 000 dolarów na rzecz Funduszu Obrony Prawnej NAACP. Potem, w listopadzie 2023 roku ogłosił restart nowego wyznania. Tłumaczył, że chodzi o kult „rzeczy, które widzą wszystko, są wszędzie, wiedzą wszystko i być może pomagają nam i prowadzą nas w sposób, który normalnie nazwalibyśmy bogiem”.
Pośród osób toczących dyskusje wokół teorii decyzji, filozofii, samodoskonalenia, kognitywistyki, psychologii, sztucznej inteligencji, gier, metamatematyki, logiki, psychologii ewolucyjnej, ekonomii itd., co jakiś czas podnoszone są wątki dotyczące stworzenia superinteligentnego bóstwa komputerowego.
Jednak firma Anthropic stała się w ostatnim czasie niezwykle popularna z innego względu niż szkolenie etyczne modeli AI. Opracowała superhakerski model, który wykrywa w szybkim czasie luki w zabezpieczeniach krytycznej infrastruktury cyfrowej.
Z tego powodu w zeszłym tygodniu amerykańscy regulatorzy zwołali pilne spotkanie z prezesami największych banków, by omówić możliwości nowego modelu „sztucznej inteligencji” o nazwie Claude Mythos.
Model ten wydaje się być w stanie identyfikować głębokie luki w powszechnie używanym oprogramowaniu i infrastrukturze, które stanowią podstawę funkcjonowania banków, rządów i rynków.
W związku z ogromnymi możliwościami modelu, firma Anthropic ograniczyła dostęp do niego i zaangażowała wybrane rządy, tworząc koalicję obronną. Jerome Powell, przewodniczący Rezerwy Federalnej i sekretarz skarbu Scott Bessent wezwali na pilne spotkanie szefów głównych banków, w tym Bank of America, Citigroup, Goldman Sachs, Morgan Stanley i Wells Fargo. Problem dotyczy jednak każdej instytucji, od rządu przez służbę zdrowia, po linie lotnicze i wszystkie inne, które korzystają z cyfryzacji.
Obecnie koalicja rozważa, jak zabezpieczyć się przed opracowaniem podobnych modeli przez inne – np. chińskie – firmy i jak zarządzać ryzykiem systemowym, które ma wpływ na bezpieczeństwo narodowe, władzę i w ogóle stabilność państw.
Po pilnym spotkaniu z prezesami banków sekretarz skarbu Scott Bessent ostrzegł grupę, że wdrożenie oprogramowania w ich wewnętrznych sieciach może narazić poufne informacje klientów na poważne ryzyko.
Przewodniczący Rezerwy Federalnej Jerome H. Powell w ostatnich tygodniach ostrzegał przed cyberatakami wymierzonymi w system finansowy. Wezwał także prezesów banków do wykorzystania modelu firmy Anthropic do skanowania luk w ich własnej infrastrukturze.
System Claude Mythos Preview, który Anthropic dopiero co zaprezentował – ze względu na ogromne możliwości – nie będzie powszechnie dostępny. Na razie może z niego korzystać około 40 organizacji, należących do grupy, którą Anthropic nazwał Project Glasswing.
Niektórzy przedstawiciele branży spekulują, że ograniczanie dostępności przy jednoczesnym reklamowaniu potencjału modelu nie jest kwestią ostrożności, a raczej generowania popytu pośród przedsiębiorstw.
Wśród partnerów projektu Glasswing jest JPMorgan Chase, największy bank w kraju, który planuje wykorzystać narzędzie „do oceny narzędzi sztucznej inteligencji nowej generacji w zakresie cyberbezpieczeństwa w całej infrastrukturze krytycznej”. Z doniesień Bloomberga wynika, że Goldman Sachs, Citigroup, Bank of America i Morgan Stanley rozpoczęły już własne testy z Mythos.
Logan Graham, dyrektor Anthropic, wydał oświadczenie, w którym stwierdził, że technologia ta pomoże „zabezpieczyć infrastrukturę, która ma kluczowe znaczenie dla globalnego bezpieczeństwa i stabilności gospodarczej”.
Źródła: brusselssignal.eu, betanews.com, thereader.mitpress.mit.edu
AS