„Facebook właśnie przyznał, że błędnie ocenzurował zdjęcie z próby zamachu na Trumpa i został przyłapany” – stwierdził w mediach społecznościowych Donald Trump. W ostatnich dniach internauci zgłaszali problemy z niemożnością wyszukania w Google części informacji dotyczących zamachu na kandydata Republikanów. Z kolei Facebook (Meta) nie pozwalał opublikować słynnego zdjęcia, w którym ocalały z zamachu Trump trzyma uniesioną rękę w geście zwycięstwa.
„Sprawili, że wyszukiwanie informacji na temat tego haniebnego czynu było niemal niemożliwe” – orzekł Donald Trump we wpisie. Działania, które zarzucił internetowym gigantom nazwał wprost „kolejną próbą sfałszowania wyborów”. Trump zaapelował do swoich zwolenników o baczne obserwowanie poczynań Google i Meta.
W ostatnich dniach internauci skarżyli się na niemożność odnalezienia w wyszukiwarce Google’a niektórych informacji na temat zamachu, do którego doszło 13 lipca w Pensylwanii. Podczas wpisywania hasła, brakowało opcji autouuzupełnienia. W zamian pojawiały się opcje dotyczące m.in. zamachu na Ronalda Reagana.
Wesprzyj nas już teraz!
Rzecznik Google’a ocenił, że brak autouzupełnienia może wynikać z zabezpieczeń wyszukiwarki przed odnajdywaniem informacji na temat przemocy politycznej. Jak dodał, mimo braku opcji autouzupełnienia, w Google wciąż można było odnaleźć wszystkie potrzebne informacje.
Oburzeni internauci publikowali również screeny z konwersacji z chat-botem Meta AI, który miał uznać zamach na Trumpa jako „wydarzenie fikcyjne”. Powodem takiej odpowiedzi mogły być źródła z których model językowy czerpie informacje. W dniu tragicznego wydarzenia wiele lewicowo-liberalnych mediów początkowo w ogóle nie używało w swoich tekstach słowa „zamach”.
Wiceprezes ds. polityki globalnej firmy, Joel Kaplan uznał odpowiedzi Meta AI za tzw. halucynacje, czyli dość powszechny problem w całej branży AI.
Facebook miał również banować zdjęcie przedstawiające polityka wznoszącego pięść w górę. Użytkownicy otrzymywali komunikat, z którego wynikało, że „anonimowi weryfikatorzy” ocenili sposób przedstawienia sceny za „wprowadzający w błąd”. Meta przyznało, że w tym przypadku zastosowano nieprawidłowy system weryfikacji informacji.
Społecznościowe BigTechy wielokrotnie przyznawały się do ingerencji w procesy polityczno-społeczne, w tym wybory parlamentarne czy referenda. Przykładowo, szef Mety Mark Zuckerberg przyznał, że podczas pandemii COVID-19 Facebook cenzurował treści niezgodne z przyjętą narracją dotyczącą pochodzenia wirusa, działania patogenu czy skuteczności samych szczepionek, nawet jeżeli po czasie okazywało się, że informacje te są prawdziwe. Firma przyznała się również do ingerencji w referendum aborcyjne w Irlandii, gdzie celowo uniemożliwiała wykupywanie reklam przez podmioty o charakterze pro-life.
Źródło: własne PCh24.pl / interia.pl / X
PR