W związku z zaplanowanymi na 12 kwietnia br. wyborami parlamentarnymi na Węgrzech Komisja Europejska uruchomiła mechanizm „szybkiego reagowania”, przewidziany w unijnym Akcie o usługach cyfrowych (DSA). Ma on umożliwić szybkie usuwanie treści określanych jako rzekoma dezinformacja.
Procedura ma obowiązywać do tygodnia po wyborach na Węgrzech, które odbędą się 12 kwietnia 2026 r.
System szybkiego reagowania pozwala instytucjom unijnym żądać od platform internetowych podjęcia działań „bez zbędnej zwłoki”, w tym usuwania treści klasyfikowanych przez Brukselę jako rzekoma dezinformacja, misinformacja lub malinformacja. W praktyce mechanizm ten ma charakter polityczny i może ingerować w debatę publiczną oraz procesy polityczne w państwach członkowskich.
Wesprzyj nas już teraz!
Jak poinformował rzecznik Komisji Europejskiej, duże platformy – w tym TikTok i Meta – mają współpracować z wybranymi przez Brukselę weryfikatorami faktów oraz organizacjami pozarządowymi. Podmioty te, często finansowane ze środków unijnych, mają „szybko sygnalizować” potencjalne zagraniczne ingerencje oraz kampanie dezinformacyjne w okresie poprzedzającym wybory, a także wnioskować o usuwanie określonych treści. System szybkiego reagowania daje Brukseli potężne narzędzie wpływu na przepływ informacji w okresach wyborczych w całej Unii Europejskiej.
Gregory Szilvay, główny publicysta „Mandiner”, uznał działania Komisji za bezpośrednią ingerencję w politykę wewnętrzną Węgier. – To z pewnością ingerencja w węgierską kampanię wyborczą – stwierdził, dodając, że mechanizm został „zaprojektowany z myślą o tego typu cenzurze”. – Liberalno-federalistyczne kierownictwo UE nie ufa swoim obywatelom, a wręcz traktuje ich paternalistycznie, jakby nie mogli sami decydować, w co wierzyć i co myśleć – stwierdził.
Publicysta zakwestionował też przejrzystość systemu. – Chciałbym wiedzieć, kto zajmuje się weryfikacją faktów i monitoringiem post-publikacji w ramach DSA oraz które posty są usuwane i dlaczego? – dopytywał Szilvay.
Tymczasem Bruksela uzasadnia swoje działania koniecznością przeciwdziałania rzekomej rosyjskiej dezinformacji.
Nie jest to pierwsza tego typu sytuacja. Podobne działania unjni urzędnicy podejmowali bowiem wcześniej m.in. w stosunku do Rumunii, gdzie unieważniono wybory prezydenckie po tym, jak znaczące poparcie w pierwszej turze uzyskał kandydat eurosceptyczny. Bruksela miała ingerować również w wybory w Mołdawii w 2025 roku, wskazując na możliwą rosyjską ingerencję, choć nie została ona udowodniona.
6 marca 2026 r. „Ukraińska Prawda” informowała, że prezydent Rosji Władimir Putin miał zlecić działaniom politycznym i wywiadowczym wpływ na wynik wyborów parlamentarnych na Węgrzech, aby zapewnić zwycięstwo urzędującemu premierowi Viktorowi Orbánowi.
Regulacje zawarte w Akcie o usługach cyfrowych to „złoty standard” europejskiej cenzury i jedna z broni „demokracji walczącej”. Rozporządzenie, zaproponowane przez Komisję Europejską pod koniec 2020 roku, miało na celu harmonizację przepisów dotyczących funkcjonowania platform cyfrowych w państwach członkowskich. Jednak trudno nie odnieść wrażenia, że KE chciała niejako przerzucić odpowiedzialność za zwalczanie tzw. mis-, mal- i dezinformacji na prywatne platformy cyfrowe. Jest to niepokojąca tendencja polegająca na przekazywaniu kompetencji publicznych podmiotom, które nie podlegają bezpośredniej kontroli demokratycznej.
DSA wprowadza pojęcie „nielegalnych treści” (art. 3), obejmujące m.in. treści uznawane za dezinformację w przepisach krajowych. W praktyce oznacza to uwzględnienie różnych, często rozbieżnych podejść państw członkowskich do tego zagadnienia, zamiast ich ujednolicenia.
Rozporządzenie zobowiązuje bardzo duże platformy internetowe i wyszukiwarki do corocznej oceny tzw. ryzyk systemowych (art. 34), wynikających z funkcjonowania ich usług oraz algorytmów. Katalog tych ryzyk jest szeroki. Obejmuje m.in.: rozpowszechnianie nielegalnych treści, zagrożenia dla praw podstawowych (takich jak godność ludzka, poszanowanie życia prywatnego i rodzinnego, ochrona danych osobowych, wolność wypowiedzi i informacji), negatywny wpływ na debatę publiczną i procesy wyborcze, bezpieczeństwo publiczne, a także zdrowie i dobrostan użytkowników. Platformy są zobowiązane do dostosowania swoich systemów moderowania treści i reklamy do zidentyfikowanych zagrożeń.
Art. 34 odnosi się także do ryzyka „celowej manipulacji usługą”, np. poprzez użycie fałszywych kont lub automatyzacji. Przepis ten był podstawą do ingerencji w procesy wyborcze w niektórych państwach.
Rozporządzenie podkreśla również konieczność uwzględniania specyfiki krajowej, w tym różnic w regulacjach dotyczących wolności słowa. Dokumentacja związana z oceną ryzyka musi być przechowywana przez trzy lata i może być w tym czasie kontrolowana przez Komisję Europejską lub właściwe organy krajowe.
DSA wprowadza także mechanizm reagowania kryzysowego (art. 36), który umożliwia Komisji zobowiązanie platform do podjęcia określonych działań w sytuacjach nadzwyczajnych, gdy „nadzwyczajne okoliczności prowadzą do zagrożenia bezpieczeństwa publicznego lub zdrowia publicznego w Unii lub w jej znacznej części” (art. 36.2). Regulacje obejmują również kwestie reklamy (art. 39), w szczególności w kontekście technik manipulacyjnych.
W motywach rozporządzenia zwrócono uwagę na ryzyko rzekomych skoordynowanych kampanii dezinformacyjnych, zwłaszcza w obszarze zdrowia publicznego, oraz na rozpowszechnianie treści, które w ocenie Brukseli wprowadzają w błąd – nawet jeśli są one formalnie legalne. Wskazano także na zagrożenia związane z wykorzystaniem botów i fałszywych kont.
Akt o usługach cyfrowych promuje tworzenie dobrowolnych kodeksów postępowania. W praktyce jednak, po ich przyjęciu przez platformy, stają się one de facto obowiązujące, umożliwiając egzekwowanie określonych standardów. To dzięki tym zawierającym określone „standardy” kodeksom można egzekwować niejako na około sankcje ograniczające wolność słowa.
Unijne instytucje kładą nacisk na samoregulację, co pozwala im unikać bezpośrednich zarzutów o wprowadzanie cenzury, przy jednoczesnym wpływie na kształt debaty publicznej.
Już na etapie projektowania rozporządzenia wprowadzono przepisy, które znacząco zmieniają podejście do zarządzania treściami w internecie w sprawie rzekomej dezinformacji. I tak choćby art. 9 zobowiązuje platformy do szybkiego reagowania na polecenia organów krajowych dotyczące usuwania „nielegalnych treści”. Z kolei art. 16 umożliwia użytkownikom zgłaszanie takich treści, bez konieczności przeprowadzania pełnej analizy prawnej przed podjęciem decyzji przez platformę.
Wreszcie art. 22 wprowadza instytucję tzw. zaufanych podmiotów sygnalizujących, których zgłoszenia mają być traktowane priorytetowo. Są to m.in. organizacje fact-checkingowe i podmioty eksperckie. A właśnie tego typu organizacje w USA są uwikłane w projekty tworzenia systemu globalnej cenzury (sprawy przed amerykańskim SN i dochodzenia komisji sądowniczej Izby Reprezentantów).
DSA zaczęła obowiązywać wobec największych platform 25 sierpnia 2023 r., a wobec pozostałych dostawców usług pośrednich – 17 lutego 2024 r. Regulacja ta wprowadziła odpowiedzialność platform za treści publikowane przez użytkowników na niespotykaną dotąd skalę.
Akt o usługach cyfrowych jest pierwszą na świecie regulacją cyfrową, która nakłada na firmy cyfrowe w całej UE odpowiedzialność za treści zamieszczane na platformach do nich należących. W praktyce walka z dezinformacją odbywa się jednak głównie poprzez wytyczne, standardy i kodeksy postępowania, które określają oczekiwane zachowania platform, mediów i reklamodawców.
Źródło: brusselssignal.eu
AS
Cenzura i ingerencja w wybory. Unia stworzy Centrum Odporności Demokratycznej