7 października 2022

Rewolucjoniści w rozpaczy. Sztuczna inteligencja okazała się… „seksistowska i rasistowska”

(Zdjęcie ilustracyjne / Pixabay)

National Geographic donosi o „wadliwej sztucznej inteligencji”, która objawiła swoją skłonność do podejmowania… „seksistowskich lub rasistowskich decyzji”. Jak widać, próba przerabiania świata na lewicową modłę upada nawet w zderzeniu z „myślącym” algorytmem…

„Robot, którym sterował popularny system sztucznej inteligencji, okazał się seksistą i rasistą. Naukowcy wykazali, że konsekwentnie faworyzował mężczyzn, osoby o białym kolorze skóry i wyciągał wnioski o zawodzie danej osoby wyłącznie na postawie jej wyglądu” – czytamy w polskim portalu National Geographic.

W ramach badania połączone zespoły Uniwersytetu Johna Hopkinsa, Uniwersytetu Waszyngtońskiego i Instytutu Technologii Georgii miały sprawdzić jak sieć neuronowa CLIP będzie sterował robotem w zadaniu łączenia zdjęć z tekstem.

Wesprzyj nas już teraz!

Podczas niedawnej konferencji w Seulu badacze wyjaśnili jak sztuczna inteligencja nabrała „stereotypowych” wyobrażeń. „Różne inteligentne programy rozpoznające ludzi i przedmioty operują na ogromnych bazach danych dostępnych za darmo w internecie. Jednak sieć pełna jest danych z jednej strony przestarzałych, z drugiej – powielających uprzedzenia. Sztuczna inteligencja «uczona» na takich zbiorach dziedziczy ich wady” – tłumaczy National Geographic. „Niestety, jeśli ma wykonywać działania bez kontroli człowieka, może to przynieść opłakane skutki” – dodaje magazyn.

Zespół naukowy wyjaśnił, jak działał „uprzedzony robot”. Otóż miał on umieszczać zdjęcia osób w odpowiednich pudełkach, zgodnie z tematami takimi jak „przestępczość”, „zajmowanie się domem”, czy też po prostu przypasowując ludzi do określonych zawodów.

Dowodem na „rasizm” i owego robota ma być to, że częściej wskazywał on mężczyzn niż kobiety, a na dodatek – o zgrozo! – większość tych mężczyzn nosiła… biały kolor skóry. Sieć neuronowa szczególnie uwzięła się na czarnoskóre kobiety, które najczęściej były wrzucane do pudełek z szanowanymi zawodami. Ale nie oszczędził także czarnych mężczyzn, których wizerunki przodowały w kategorii kryminalistów.

Z kolei „seksizm” ma objawiać się tym, że niesforny robot ośmielił się umieścić więcej zdjęć kobiecych w pudełku „osoby opiekujące się domem”.

Naukowcy, którzy prowadzili ten eksperyment, biją na alarm. – Grozi nam, że stworzymy całą generację seksistowskich i rasistowskich systemów i maszyn – ostrzega dr Andrew Hundt. Inna badaczka wskazała na poważne jej zdaniem skutki takiej „błędnej” formacji robota, który, gdy usłyszy komendę, by podać dziecku ładną lalkę, to automatycznie zadecyduje, by podać lalkę… białą. – W sklepie, gdy na opakowaniach produktów będą ludzie, maszyna może częściej sięgać po towary z białymi twarzami – ubolewa Vicky Zeng.

National Geographic dotarło do dr Aleksandry Przegalińskiej, która zajmuje się tą tematyką, aby poprosić o komentarz. – To jest realny problem. W swojej pracy kilka kilka razy złapałam sieć, mimo że zabezpieczoną, na niepokojących komunikatach o zabarwieniach szowinistycznych i dyskryminacyjnych. Trudno się dziwić, sieć refrazuje to, co czyta. Na szczęście, zarówno środowisko naukowe, jak i biznesowe, jest świadome problemu i pracuje na jego rozwiązaniem – zapewnia polska badaczka.

Źródło: national-geographic.pl

FO

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2025 rok

Po osiągnięciu celu na 2024 rok nie zwalniamy tempa! Zainwestuj w rozwój PCh24.pl w roku 2025!

mamy: 32 506 zł cel: 500 000 zł
7%
wybierz kwotę:
Wspieram