Dzisiaj

Grudniowa decyzja Sądu Konstytucyjnego Rumunii o unieważnieniu I tury wyborów prezydenckich w tym kraju oraz przedłużeniu mandatu urzędującego prezydenta wywołała szok w całej Europie. Chociaż ostro skrytykowała go Komisja Wenecka w raporcie z końca stycznia, Komisja Europejska podjęła zdecydowane działania mające „zabezpieczyć” przyszłe wybory w krajach UE przed obcą ingerencją.

 

Rumuński trybunał stwierdził, że „proces wyborczy został naznaczony (…) wieloma nieprawidłowościami i naruszeniami prawa wyborczego, które zniekształciły wolny i uczciwy charakter głosowania obywateli oraz równość szans kandydatów w wyborach, wpłynęły na przejrzysty i uczciwy charakter kampanii wyborczej oraz zlekceważyły ​​przepisy dotyczące jej finansowania” (paragraf 5).

Wesprzyj nas już teraz!

Takie „nieprawidłowości” w kampanii wyborczej miały stworzyć „rażącą nierówność” między kandydatem – który rzekomo manipulował technologiami cyfrowymi – a innymi pretendentami. „Znaczna ekspozycja” w mediach społecznościowych jednego polityka doprowadziła do wprost proporcjonalnego zmniejszenia widoczności innych.

Wskutek unieważnienia wyborów, kandydat Călin Georgescu zażądał od Europejskiego Trybunału Praw Człowieka (ETPC) zastosowania zabezpieczenia poprzez zawieszenie decyzji krajowego sądu i wznowienie II tury głosowania. Trybunał w Strasburgu jednak oddalił wniosek na podstawie twierdzenia, że zastosowanie zabezpieczenia wykraczałoby poza zakres artykułu 39. regulaminu trybunału, ponieważ Georgescu nie doznał „nieodwracalnej szkody”.

 Casus rumuński zmotywował władze UE do zintensyfikowania działań związanych ze zwalczaniem zagranicznej ingerencji, wykorzystując w tym celu Akt o usługach cyfrowych (DSA). Przenosi on zadania i kompetencje podmiotów publicznych na wielkie korporacje wyjęte spod jakiejkolwiek realnej kontroli demokratycznej.

Komisja Europejska 17 grudnia 2024 r. wszczęła postępowanie przeciwko platformie TikTok z powodu niewystarczającego wywiązywania się z obowiązków łagodzenia „ryzyk systemowych” w Rumunii, o których stanowi akt DSA. Mowi on o „zarządzaniu ryzykiem dla wyborów lub dyskursu obywatelskiego”, zwłaszcza ryzykiem „związanym ze skoordynowaną nieprawdziwą manipulacją lub zautomatyzowanym wykorzystaniem usługi”, a także polityką dotyczącą reklam politycznych i płatnych treści politycznych.

Akt o usługach cyfrowych (DSA) a manipulacje wyborami

Rozporządzenie zobowiązuje „bardzo duże platformy internetowe” i „bardzo duże wyszukiwarki internetowe” do dokonania corocznej „oceny ryzyk systemowych” (art. 34) wynikających z funkcjonowania ich usług i powiązanych systemów algorytmicznych.

Katalog ryzyk jest obszerny. Zaliczono do nich: rozpowszechnianie nielegalnych treści; ryzyko faktycznych lub przewidywalnych negatywnych skutków dla wykonywania praw podstawowych, takich jak prawo do godności ludzkiej, do poszanowania życia prywatnego i rodzinnego, do ochrony danych osobowych, wolności wypowiedzi i informacji, w tym wolności mediów, niedyskryminacji, ochrony dzieci, konsumentów; wystąpienie faktycznych lub przewidywalnych negatywnych skutków dla dyskursu obywatelskiego i procesów wyborczych oraz dla bezpieczeństwa publicznego; ryzyko faktycznych lub przewidywalnych negatywnych skutków w związku z przemocą ze względu na płeć, ochronę zdrowia publicznego i małoletnich oraz poważnych negatywnych skutków dla fizycznego i psychicznego dobrostanu osoby. Duże platformy i wyszukiwarki internetowe muszą dostosować swoje systemy algorytmiczne moderowania treści i reklamy do tych ryzyk.

W rozporządzeniu DSA sformułowano pojęcie „nielegalnych treści” (art.3), włączając wszelkie przypadki treści już sankcjonowanych, w tym dezinformacji zdefiniowanej w przepisach krajowych (uwzględnia rozbieżne podejścia krajowe do zwalczania mis-, mal- i dezinformacji – informacje MDM, zamiast harmonizować przepisy).

W art. 34 jest mowa o „celowej manipulacji ich usługą, w tym w wyniku nieautentycznego korzystania z usługi lub zautomatyzowanego wykorzystywania usługi, a także akceptowanie i potencjalnie szybkie, i szerokie rozpowszechnianie nielegalnych treści i informacji, które są niezgodne z ich warunkami korzystania z usług”.

Wskazano ponadto na potrzebę uwzględniania specyfiki danego kraju, w tym regulacji uznających pewne treści za nielegalne. Ocena ryzyk podlega audytowi, dlatego też stosowna dokumentacja musi być przechowywana przez 3 lata. W każdej chwili w tym okresie KE albo koordynator ds. usług cyfrowych może się zwrócić o jej udostępnienie.

Wprowadzono także mechanizm reagowania kryzysowego (art. 36). Na wniosek KE bardzo duża platforma lub wyszukiwarka internetowa mogą zostać zobowiązane do podjęcia określonych działań, by zapobiec wystąpieniu poważnego kryzysu, który ma miejsce wtedy, gdy „nadzwyczajne okoliczności prowadzą do zagrożenia bezpieczeństwa publicznego lub zdrowia publicznego w Unii lub w jej znacznej części” (art.36.2). ​Komisja może też wydawać wytyczne, zalecenia i sugerować najlepsze praktyki.

Rozporządzenie reguluje kwestie reklam (art. 39) pod kątem zagrożeń związanych z technikami manipulacyjnymi itp.

W motywie 83 DSA w związku z oceną ryzyka systemowego przez duże platformy i wyszukiwarki zwrócono uwagę na ryzyko systemowe obejmujące „skoordynowane kampanie dezinformacyjne dotyczące zdrowia publicznego”, a w motywie 84 podkreślono znaczenie ryzyka rozpowszechniania, co prawda treści legalnych, ale „wprowadzających w błąd lub zwodniczych treści, w tym dezinformacji”. „Uczulono” platformy i wyszukiwarki na zautomatyzowane przesyłanie treści za pośrednictwem fałszywych kont, botów itp.

Akt o usługach cyfrowych zachęca do tworzenia dobrowolnych kodeksów postępowania. Komisja Europejska naciska zaś na platformy, by je przyjęły, aby móc monitorować i domagać się respektowania zawartych w nich zobowiązań dotyczących podjęcia konkretnych „środków ograniczających ryzyko”. To dzięki tym kodeksom – zawierającym pewne „standardy” – można egzekwować, niejako okrężną drogą, sankcje ograniczające wolność wypowiedzi.

Już na etapie projektowania rozporządzenia wprowadzono kilka przepisów mających kluczowe znaczenie dla zmiany unijnej polityki dotyczącej dezinformacji.

Pierwszy dotyczy art. 9, który wymaga od platform internetowych podjęcia „bez zbędnej zwłoki” działań przeciwko „nielegalnym treściom” na polecenie „odpowiednich krajowych organów sądowych lub administracyjnych”. Stworzono tym samym mechanizm prawny, który pozwala przedstawicielom władzy żądać usuwania „bez zbędnej zwłoki” treści uznanych za „nielegalne”. Definicja „treści nielegalnych” jest szeroka.

Drugi przepis to art. 16 dotyczący mechanizmu zgłaszania przez indywidualne osoby treści, które uważają one za „nielegalne”. Po zgłoszeniu dostawca usług hostingowych może podjąć decyzję o zablokowaniu ich, działając „z należytą starannością” – bez konieczności przeprowadzenia „szczegółowej analizy prawnej”. Dostawca usług hostingowych nie tylko musi zarejestrować zgłoszenie, podjąć określone działania, ale także poinformować zgłaszającego o podjętych czynnościach.

Trzeci przepis to art. 22 dotyczący zaufanych podmiotów sygnalizujących. Wprowadza „priorytetowe traktowanie zgłoszeń dokonywanych przez zaufane podmioty sygnalizujące, działające w wyznaczonych dziedzinach, w których dysponują wiedzą ekspercką (…), a także rozpatrywania takich zgłoszeń oraz podejmowania decyzji w sprawie bez zbędnej zwłoki”. Ta norma prawna pozwala na priorytetowe traktowanie np. naukowców wybranych uczelni i wybrane organizacje fact-checkingowe, oficjalnie zajmujące się sprawdzaniem wiarygodności informacji. W rzeczywistości natomiast, tego typu organizacje, np. w USA, uwikłane są w projekty tworzenia systemu globalnej cenzury (sprawy przed amerykańskim Sądem Najwyższym i dochodzenia komisji sądowniczej Izby Reprezentantów).

DSA zaczęła obowiązywać w stosunku do dużych platform i wyszukiwarek od 25 sierpnia 2023 roku, a w stosunku do pozostałych dostawców usług pośrednich – od 17 lutego 2024 roku. Wskutek tego KE uniknęła oskarżeń o próbę sankcjonowania dezinformacji w oparciu o niejasną i zbyt szeroką definicję.

Akt o usługach cyfrowych jest pierwszą na świecie regulacją, która nakłada na firmy cyfrowe w całej UE odpowiedzialność za treści zamieszczane na platformach do nich należących. Jednak walkę z „informacjami MDM” prowadzi się za pomocą wytycznych i kodeksów postępowania określających pewne standardy, jakie powinni spełniać dziennikarze, wydawcy, reklamodawcy i dostawcy usług internetowych.

Europejskie inicjatywy walki z dezinformacją

UE – pod pretekstem konieczności przeciwstawienia się rosyjskiej dezinformacji, głównie na terenie państw Europy Wschodniej – wszczęła w marcu 2015 roku własną kampanię. Powołała wówczas grupę zadaniową East StratCom. To część Europejskiej Służby Działań Zewnętrznych – służby dyplomatycznej, na czele której stoi Wysoki Przedstawiciel UE. Sztandarowym projektem tej formacji jest baza danych EUvsDisinfo, gdzie prezentowane są artykuły na temat domniemanych akcji dezinformacyjnych Rosji i nie tylko.

W 2016 roku przyjęto Rezolucję w sprawie unijnej komunikacji strategicznej dla przeciwdziałania wrogiej propagandzie stron trzecich.

W 2017 roku Claire Wardle i Hossein Derakhshan przygotowali dla Rady Europy raport pt. Information Disorder: Toward an interdisciplinary framework for research and policy making. Opisali tam trzy kategorie informacji powodujących „nieład informacyjny” (information disorder): misinformację, dezinformację i malinformację.

W celu radzenia sobie z „zanieczyszczeniem informacyjnym” wydano 34 rekomendacje odnoszące się do działań rządów, firm technologicznych, mediów i innych organizacji pozarządowych oraz ministerstw edukacji i instytucji finansowych.

Pod koniec 2017 roku KE powołała do życia grupę wysokiego szczebla ds. fałszywych wiadomości i dezinformacji w internecie (HLEG). Miała za zadanie przygotować unijną strategię przeciwdziałania rozprzestrzenianiu się fałszywych wiadomości i dezinformacji. Chodziło o uwzględnienie czterech zasad: przejrzystości dotyczącej źródła wiadomości i finansowania; różnorodności; wiarygodności i inkluzji (tzw. włączenia). Na podstawie raportu przygotowano unijną strategię walki z dezinformacją.

Autorzy planu skupili się na problemie wykorzystywania mediów cyfrowych przez aktorów państwowych lub niepaństwowych, podmioty komercyjne, media, obywateli – indywidualnie lub w grupach – dla „manipulowania” infrastrukturą komunikacyjną, wykorzystując ją do wytwarzania, rozpowszechniania i wzmacniania dezinformacji na dany temat na większą skalę.

Chociaż zastrzeżono, że dezinformacja „niekoniecznie jest nielegalna”, to jednak „dezinformacja może być szkodliwa dla obywateli i ogółu społeczeństwa”. Zagraża przede wszystkim: „demokratycznym procesom politycznym, w tym integralności wyborów, wartościom demokratycznym kształtującym politykę publiczną w zakresie zdrowia, nauki, finansów itp.”.

Jednym z zaleceń było opracowanie kodeksu postępowania w zakresie zwalczania „informacji MDM”, który zaakceptują i wdrożą platformy informacyjne, organizacje mediów informacyjnych (prasa i nadawcy), dziennikarze, weryfikatorzy faktów, niezależni twórcy treści i branża reklamowa. Przewidziano ciągły monitoring kodeksu dobrych praktyk i przegląd działań.

Pierwsza wersja kodeksu pojawiła się w 2018 roku, a następna w 2022 roku. Skupiono się przede wszystkim na „znacznym usprawnieniu kontroli” reklam, w celu ograniczenia przychodów dostawców dezinformacji i eliminacji promocji kont oraz witryn nietransparentnych. Działania te miały się odbywać w oparciu o ścisłą współpracę KE z siecią organizacji fact-checkingowych (notabene finansowanych przez KE) i platformami internetowymi.

Późniejsza wersja wzmocnionego kodeksu postępowania w sprawie dezinformacji z 2022 roku zawierała 44 zobowiązania i 128 konkretnych środków reakcji. Zbiór zasad został podpisany w dniu 16 czerwca 2022 roku przez 34 sygnatariuszy, a do marca 2024 roku – przez 43 podmioty.

Powstała grupa zadaniowa, za pośrednictwem której odbywa się współpraca sygnatariuszy. KE regularnie ocenia postępy we wdrażaniu kodeksu w oparciu o szczegółowe sprawozdania jakościowe i ilościowe dostarczane przez poszczególne strony porozumienia.

Unijne organy uruchomiły szereg inicjatyw dotyczących zwalczania dezinformacji i obrony demokracji. Obejmują one nie tylko Europejski plan działania na rzecz demokracji (EDAP) czy Plan działania na rzecz odbudowy i transformacji unijnego sektora medialnego i audiowizualnego. To także szereg strategii i agend, w tym na rzecz równouprawnienia płci, równości osób LGBTIQ, skuteczniejszego stosowania Karty Praw Podstawowych, działania przeciwko rasizmowi, w celu obrony praworządności itp.

KE w sprawie rumuńskiej wykorzystała regulacje DSA, by sprawdzić, jak łagodzone były ryzyka systemowe związane z wpływaniem na „dyskurs obywatelski i proces wyborczy”.

Co istotne, przedstawiciele Komisji uważają, że raporty i audyty opracowane w oparciu o DSA mogą być wystarczające do stwierdzenia naruszeń oraz nałożenia wysokiej kary administracyjnej na platformy w wysokości 6 procent rocznych obrotów.

Jednak, jak słusznie zauważają prawnicy, dokumenty takie nie mogą stanowić „niezbitego dowodu” pozwalającego na ustalenie bezpośredniego związku między tym, co wydarzyło się w sieci a wynikami wyborów, lub przynajmniej na wyciągnięcie wniosku, że ryzyka te nie zostały starannie złagodzone, jak wymaga tego KE.

Casus rumuński

W przypadku Rumunii tamtejszy Krajowy Urząd ds. Administracji i Regulacji Komunikacji (ANCOM) odkrył domniemane nieprawidłowości związane z ingerencją w wybory. Poinformował Komisję Europejską, że ​​TikTok „nie zareagował szybko” na prośby władz o zabezpieczenie elekcji. ANCOM nadzoruje platformy cyfrowe w tym kraju na mocy DSA.

W sprawę uwikłana jest również – w zakresie zgodności działania platform z DSA – Coimisiún on Meán, koordynator usług cyfrowych dla Irlandii, gdzie siedzibę ma TikTok. Tym samym ocena „ryzyka systemowego” dla procesów wyborczych staje się jeszcze bardziej skomplikowana.

 Niedawno były minister cyfryzacji RP Janusz Cieszyński donosił na portalu X, że zapoznał się z niejawnymi dokumentami dotyczącymi unieważnienia wyborów w Rumunii. Okazuje się, że tamtejszy Sąd Konstytucyjny podjął decyzję w oparciu o sugestie służb jakoby doszło do ingerencji zewnętrznej – konkretnie rosyjskiej. Owa ingerencja zaś polegała na tym, że mało znaczący kanał na Telegramie obserwowany zaledwie przez niecałe 4 tysiące osób zawierał 2 tysiące materiałów kampanijnych Calina Georgescu do podawania dalej na TikToku i w innych mediach. Z kolei hasztag kampanijny polityka pojawił się na blisko 1,2 tysiąca kontach w Rumunii, z czego tylko 76 zarejestrowano jako stricte pro-Georgescu. Na tych kontach zachęcano do zamieszczania konkretnych emoji przy nazwisku kandydata na prezydenta. W sumie 83 konta zamieściły 2 912 komentarzy, przy czym 25 z tych kont zidentyfikowano jako stricte pro-Georgescu. Służby zatrzymały Bogdana Peschira, który miał przekazać na kampanię 381 tysięcy dolarów 131 influencerom. Efekty ich prac były znikome. Moderatorzy TikToka usunęli kilkaset filmików, które miały być „dezinformacją” (chodzi o sugestie, że po przegranej Georgescu ludzie będą protestować). Służby wskazują ponadto, że sposób finansowania kampanii kandydata na prezydenta może być niezgodny z prawem wyborczym, ale problem w tym wypadku dotyczyłby około 1,5 proc. dopuszczalnych wydatków kandydata. Dałoby to mało znaczący wpływ.

TikTok sugeruje, że nie ma wystarczających dowodów na to, iż mieliśmy do czynienia z tajną operacją wpływu. Służby, które posiadały jedynie slajdy, jakie otrzymały od TikToka, a uzyskane przez urząd zajmujący się komunikacją elektroniczną, są odmiennego zdania. W oparciu o te doniesienia KE wszczęła dochodzenie wobec chińskiej platformy. Jednocześnie Komisja zapowiedziała, że z całą mocą będzie egzekwować prawo, przeciwstawiając się obcej ingerencji w wybory w krajach Unii.

Państwa unijne proszą Komisję Europejską o większą ingerencję w proces wyborczy

Jak donosił Reuters, 30 stycznia Francja, Niemcy i 10 innych krajów UE wezwało Komisję do wykorzystania swoich uprawnień na podstawie DSA w celu ochrony „integralności wyborów” europejskich przed zagraniczną ingerencją.

Poza Francuzami i Niemcami pod listem podpisali się przedstawiciele Holandii, Belgii, Cypru, Chorwacji, Czech, Danii, Grecji, Rumunii, Słowenii i Hiszpanii. Wyrazili nadzieję, że powstanie specjalny organ UE dedykowany przeciwdziałaniu zagranicznej manipulacji informacjami i ingerencji. Ostrze nowego organu miałoby być wymierzone w Rosję i Chiny, ale nie tylko.

Niemcy, w związku z przedterminowymi wyborami 23 lutego, powołali już grupę zadaniową mającą „chronić” przed wszelkimi próbami wpływania na głosowanie przez obce państwa, w tym walczyć z Elonem Muskiem i platformą X. Polscy urzędnicy również powołali podobną grupę i ostrzegają przed działaniami rosyjskimi.

19 stycznia Komisja Europejska zażądała, aby miliarder technologiczny Elon Musk ujawnił do połowy lutego tajemnice algorytmu platformy mediów społecznościowych X. Po poparciu Muska dla partii Alternatywa dla Niemiec (AfD) KE zapowiedziała, że zintensyfikuje dochodzenie dotyczące X w związku z potencjalnymi naruszeniami DSA.

Henna Virkkunen, wiceprzewodnicząca Komisji odpowiedzialna za suwerenność technologiczną, bezpieczeństwo i demokrację twierdzi, że blok chce zapewnić zgodność z DSA na wszystkich platformach działających w UE.

Bruksela wszczęła dochodzenie przeciwko X w 2023 roku jeszcze podczas kadencji byłego komisarza UE Thierry’ego Bretona. Zażądał on ocenzurowania wywiadu z Donaldem Trumpem przed jego udzieleniem Muskowi na platformie X (niedopuszczalna cenzura prewencyjna).

Pierwsze wstępne ustalenia wszczętego w 2023 postępowania przeciwko X sugerują naruszenie prawodawstwa europejskiego, w szczególności artykułów 25., 39. i 40. (12.) DSA.

Sprawy przed ETPC: wolny i świadomy wybór

Podjęto także inne działania, by znaleźć podstawy dla bezprawnych interwencji politycznych w wybory na podstawie orzecznictwa Europejskiego Trybunału Praw Człowieka. W sprawie Bradshaw i inni przeciwko Zjednoczonemu Królestwu będzie on rozstrzygał, jak daleko może sięgać interwencja władz w celu unieważnienia wyborów w oparciu o domniemaną ingerencję z zewnątrz.

Grupa brytyjskich parlamentarzystów zarzuca Zjednoczonemu Królestwu, że: nie (i) zbadało i (ii) nie wdrożyło skutecznych ram regulacyjnych w celu zwalczania rosyjskiej dezinformacji oraz ingerencji w kilku elekcjach w Wielkiej Brytanii. Naruszono ponoć przez to zobowiązania kraju do zapewnienia „wolnych wyborów” na mocy artykułu 3. Protokołu 1. Europejskiej Konwencji Praw Człowieka (EKPC), który wszedł w życie w 1954 r. Stanowi on: „Wysokie Układające się Strony zobowiązują się organizować w rozsądnych odstępach czasu wolne wybory oparte na tajnym głosowaniu, w warunkach zapewniających swobodę wyrażania opinii ludności w wyborze ciała ustawodawczego”.

W dobie trwających obecnie cenzorskich zapędów, by ograniczyć wolność wypowiedzi usiłuje się nadinterpretować przepisy. Padają sugestie, że dezinformacja, misinformacja i malinformacja szerzone przez inne podmioty – państwowe i pozapaństwowe – zakłócają swobodną debatę publiczną. Obywatele nie są rzekomo przez to dobrze poinformowani. W związku z tym nie podejmują świadomych decyzji przy urnach wyborczych.

Jak dotąd ETPC nie zajmował się tym problemem, chociaż odnosił się do przypadków domniemanych fałszerstw wyborczych i nieprawidłowości.

O ile artykuł 3. Protokołu 1. EKPC nie nakłada obowiązku zapewnienia, by ​​wyborcy pozostali „dobrze poinformowani”, o tyle Trybunał wskazywał na potrzebę promocji „świadomego” głosowania. Rozstrzygał w kilku sprawach, dokonując rozróżnienia między umyślnym oszustwem a niewinnym (lub wytłumaczalnym) błędem, który jest dopuszczalny.

Brak oszukańczego zamiaru, przy jednoczesnym dopuszczeniu błędnego pominięcia informacji, miał znaczenie w przypadku wyborów na Ukrainie, w Armenii czy Rosji.

Jednak, nawet w kontekście unieważnienia wyborów rumuńskich, kandydatowi na prezydenta Georgescu nie można zarzucić „oszukańczych działań”. Tamtejszy trybunał skupił się na rzekomo nielegalnym i sztucznym zawyżaniu poparcia dla kandydata w sposób, który mógł wpłynąć na wyniki głosowania.

ETPC badał także w przeszłości potencjalne znaczenie fałszywych informacji dla wyborców (np. sprawa Sarukhanyan przeciwko Armenii, sprawa Krasnow i Skuratow przeciwko Rosji). Trybunał wskazał więc, że nie wystarczy stwierdzić jakiekolwiek nieprawidłowości, by podważyć wyniki głosowania. Nadużycia muszą być znaczne.  

Oprócz tego należy wskazać wiarygodne dowody potwierdzające, że rzeczywiście doszło do manipulacji wynikami głosowania. Innymi słowy, o ingerencji w wybory możemy mówić wtedy, gdy doszło do znacznych naruszeń przepisów i są niezbite dowody na to, że to właśnie one przyczyniły się do zmiany preferencji wyborczych.

W przypadku decyzji rumuńskiego trybunału wzięto pod uwagę rozpowszechnianie w sposób skoordynowany i rzekomo oszukańczy informacji MDM na temat kandydata na prezydenta. Trzeba zatem ustalić, jak bardzo wiadomości te wprowadzały odbiorców w błąd i w jakim stopniu mogły wpłynąć na ich preferencje polityczne. Trudność w tego typu dochodzeniach polega na szerokim marginesie uznaniowości.

Przypadek rumuński (natychmiastowe i drastyczne działania Sądu Konstytucyjnego nieadekwatne do okoliczności) ma skłonić ETPC do zajęcia takiego stanowiska w sprawie Bradshaw i inni przeciwko Zjednoczonemu Królestwu, by zalegalizować drastyczne i natychmiastowe środki podejmowane przez władze, pod pretekstem zapewnienia ochrony wolnych wyborów przed dezinformacją i niechcianą ingerencją w przyszłości. Przynajmniej takie nadzieje wyrażają niektórzy politycy.

Komisja Wenecka przeciwko unieważnieniu wyborów w Rumunii

28 stycznia 2025 r. organ prawny Rady Europy – Komisja Wenecka – opublikowała raport, w którym stwierdziła, że unieważnienie wyborów w Rumunii przez tamtejszy Sąd Konstytucyjny było nieuprawnione.

Organ doradczy RE w sprawach konstytucyjnych podkreślił, że tego rodzaju decyzja powinna mieć zastosowanie wyłącznie w ostateczności i w oparciu o solidne dowody. „Unieważnienie części wyborów lub wyborów jako całości może być dozwolone wyłącznie w bardzo wyjątkowych okolicznościach jako ultima ratio i pod warunkiem, że nieprawidłowości w procesie wyborczym mogły mieć wpływ na wynik głosowania” — stwierdziła Komisja.

Członkowie prawnego gremium Rady Europy podkreślili, że unieważnienie wyników wyborów podważa zaufanie publiczne do procesów demokratycznych i ma daleko idące konsekwencje. Dlatego, gdy jakiś organ zdecyduje się na tak drastyczne działania, jego decyzja musi być poparta solidnymi, weryfikowalnymi dowodami, musi zostać dobrze uzasadniona i przejrzysta.

Jak dodali autorzy opinii, „uprawnienia sądów konstytucyjnych do unieważniania wyborów z urzędu – jeśli takie istnieją – powinny być ograniczone do wyjątkowych okoliczności i jasno uregulowane, aby zachować zaufanie wyborców do legalności wyborów”.

Decyzja rumuńskiego sądu od samego początku wywołała znaczne kontrowersje. Sąd Konstytucyjny podjął ją w oparciu o dokumenty wywiadowcze, które – jak już wiemy – nie zawierały jakichś szczególnych danych i nie wskazywały na rzekomy wpływ rosyjski.

Takie decyzje „powinny dokładnie wskazywać naruszenia i dowody, a nie mogą opierać się wyłącznie na tajnych informacjach wywiadowczych (które mogą być wykorzystywane wyłącznie jako informacje kontekstowe), ponieważ nie gwarantowałoby to niezbędnej przejrzystości i możliwości weryfikacji” – słusznie zauważyła Komisja Wenecka.

Unieważnienie, które zdyskwalifikowało kandydata „skrajnej prawicy” Călina Georgescu, początkowo opierało się na tajnych dokumentach złożonych 28 listopada, a następnie odtajnionych 4 grudnia ub. roku. Władze państwowe twierdziły, że unieważnienie było uzasadnione rosyjskimi „operacjami wpływu”. Takowych do dziś nie udowodniono. Stąd domniemane nieprawidłowości nie stanowiły wystarczających podstaw do anulowania wyborów.

Komisja Wenecka zainicjowała dochodzenie po 13 grudnia 2024 roku, na prośbę Theodorosa Rousopoulosa, przewodniczącego Zgromadzenia Parlamentarnego Rady Europy. Celem było wskazanie warunków i norm prawnych, na podstawie których sądy konstytucyjne mogłyby unieważniać wybory.

Casus kanadyjski

Sprawa rumuńska nie jest jedynym casusem tego typu rozstrzyganym obecnie na świecie. Podobne działania w sprawie unieważnienia wyborów podjęły władze Kanady.

W styczniu ukazał się raport końcowy śledztwa w Ottawie. Sędzia Marie-Josee Hogue, komisarz komisji ds. ingerencji zagranicznych, nie znalazła dowodów na obecność w składzie parlamentu „zdrajców”, którzy mieli rzekomo spiskować z państwami obcymi. Sędzia zasugerowała, że

​​chociaż zagrożenie ingerencją zagraniczną jest realne, demokratyczne instytucje Kanady dobrze poradziły sobie z niebezpieczeństwami.

Hogue dodała, że nie widzi żadnych oznak, iż ogólne wyniki ostatnich wyborów federalnych zostały zmienione przez zagranicznego aktora i zidentyfikowała tylko niewielką liczbę okręgów wyborczych, w których ingerencja mogła mieć jakiś wpływ. Raport zawiera jednak ponad cztery tuziny zaleceń mających na celu poprawę gotowości federalnej, wspieranie przejrzystości, wzmocnienie integralności wyborów i przeciwdziałanie zagrożeniom dla społeczności diaspory.

Hogue zaapelowała o opracowanie strategii zwalczania ingerencji zagranicznej i rozważenie utworzenia nowej agencji monitorującej przestrzenie internetowe pod kątem dezinformacji i misinformacji, które mają stanowić „największe ryzyko dla naszej demokracji”. Uznała je za „zagrożenie egzystencjalne”.

Warto zauważyć, że raport ukazał się w czasie, gdy trwa walka o przywództwo w rządzącej od dekady Partii Liberalnej, z której wywodzi się premier Justine Trudeau, a której notowania znacznie spadły w sondażach opinii publicznej. Obecnie trwa „zawieszenie rządu”, by dać czas partii rządzącej na wyłonienie nowego szefa i przygotowanie się do tegorocznej kampanii wyborczej.

Śledztwo wszczęto po tym, jak parlamentarna komisja bezpieczeństwa i wywiadu stwierdziła w swoim raporcie, że niektórzy parlamentarzyści byli „półświadomymi lub świadomymi” uczestnikami wysiłków państw obcych mających na celu wtrącanie się w kanadyjską politykę.

DSA a „ochrona demokracji”, „wolnych, uczciwych i inkluzywnych wyborów”

21 stycznia 2025 r. przedstawiciele KE podczas debaty plenarnej Parlamentu Europejskiego na temat konieczności egzekwowania ustawy o usługach cyfrowych w celu ochrony demokracji na platformach mediów społecznościowych – w tym przed zagraniczną ingerencją i stronniczymi algorytmami – zapowiedzieli, że będą surowiej egzekwować DSA, by chronić „demokrację” i „wolne, uczciwe oraz inkluzywne” wybory.

Platformy mają sprawniej usuwać „nielegalne treści”, „nielegalną mowę nienawiści”, podawać warunki i zasady określania głównych parametrów, na których opierają się ich systemy rekomendacji. Co pół roku muszą publikować raporty na temat moderacji treści ściśle współpracując z cenzorskimi

weryfikatorami faktów i badaczami mediów. Komisja „przygotowuje również akt delegowany w sprawie dostępu do danych dla badaczy by uzyskać bardziej dalekosiężny dostęp do danych. Akt konsultowała z zainteresowanymi stronami w ciągu ostatnich kilku miesięcy”.

Zespoły ds. zgodności z DSA mają powiększyć się o kolejne setki pracowników do końca roku. Wzmacniana jest praca koordynatorów usług cyfrowych w Europejskiej Radzie Usług Cyfrowych, w tym za pośrednictwem grupy roboczej ds. „integralności przestrzeni informacyjnej”, a także bezpośrednio z koordynatorami usług cyfrowych państw członkowskich, w których odbędą się wybory.

Działa Europejska Sieć Współpracy ds. Wyborów, System Szybkiego Reagowania w ramach Kodeksu itd. Oprócz tego KE przygotowuje nową Europejską Tarczę Demokracji, która ma zwalczać zagraniczną manipulację informacjami, ingerencję i dezinformację. „Jej celem jest wzmocnienie zdolności UE do wykrywania, analizowania i proaktywnego przeciwdziałania zagrożeniom. Będzie również zajmować się krajowymi zagrożeniami dla demokracji”. Tarcza będzie bazować na pracy już wykonanej nad Europejskim Planem Działań na rzecz Demokracji i Pakietem Obrony Demokracji. Komisarz McGrath rozpocznie konsultacje.

Chociaż KE przyznaje, że „jeśli chodzi o wybory, należy zauważyć, iż organizacja i przeprowadzanie wyborów należy do kompetencji państw członkowskich, zgodnie z ich ramami konstytucyjnymi i ustawodawczymi oraz ich zobowiązaniami międzynarodowymi i prawem UE”, to jednak władze unijne zamierzają w większym stopniu ingerować w procesy wyborcze w innych państwach.

W październiku 2025 r. zacznie obowiązywać nowe rozporządzenie w sprawie reklam politycznych, które co do zasady miało ułatwić prowadzenie online kampanii wyborczych przez polityków unijnych w innych krajach. Regulacja ma zająć się kształtowaniem „dyskursu politycznego” przychylnego dla UE i eliminowaniem niepożądanych treści.

Rozporządzenie ingeruje w kwestie wolności wypowiedzi i prowadzenia kampanii wyborczych pod pretekstem zwalczania bezprawnego wpływu, w tym dezinformacji i nieprzejrzystej reklamy. Będzie ono generować wiele problemów (np. wskutek identyfikacji i etykietowania pewnych przekazów jako reklamy polityczne i ich szybkiego usuwania).

O ile europejskie instytucje zmierzają do zaostrzenia kontroli nad przepływem treści w internecie pod pretekstem konieczności zapewnienia „integralności wyborów”, o tyle w USA obserwowany jest zgoła odmienny trend.

Raport komisji sądownictwa pt. The Weaponization of 'Disinformation’ Pseudo-experts and Bureaucrats: How the Federal Government Partnered with Universities to Censor Americans’ Free Speech, opublikowany jeszcze w listopadzie 2023 r. szczegółowo opisuje, w jaki sposób szereg agencji rządowych (od CISA przez DHS po GEC zaangażowało się w cenzurowanie treści wraz z uczonymi ze Stanford University i innymi podmiotami pod pretekstem zapewnienia „integralności wyborów” (utworzono Partnerstwo na rzecz Integralności Wyborów – EIP w okresie poprzedzającym głosowanie w 2020 r.). Walczono z tzw. dezinformacją, cenzurując prawdziwe informacje, żarty i opinie polityczne Amerykanów, w szczególności konserwatystów.

Na podstawie raportów o dezinformacji składanych do EIP przez „zewnętrznych interesariuszy”, w tym agencje federalne i organizacje finansowane przez rząd federalny, „analitycy” dezinformacji EIP przeszukiwali Internet pod kątem rzekomych treści dezinformujących na innych platformach społecznościowych.

Po zebraniu danych, EIP wysyłało linki bezpośrednio do Big Tech-ów wraz ze szczegółowymi zaleceniami dotyczącymi tego, w jaki sposób platformy mediów społecznościowych powinny cenzurować posty – np. poprzez zmniejszenie ich „znajdowalności”, „zawieszenie możliwości kontynuowania tweetowania przez [konto] przez 12 godzin”, „monitorowanie, czy którekolwiek z oznaczonych kont influencerów retweetuje” określonego użytkownika i, oczywiście usuwanie tysięcy postów).

Agencje rządowe i „eksperci” od dezinformacji tłumaczyli swoje działania koniecznością walki z zagranicznymi podmiotami próbującymi podważyć amerykańskie wybory. Jednak, jak wykazała komisja sądownictwa, prawdziwym celem pracy cenzorów mających zapewnić „integralność wyborów” było cenzurowanie wypowiedzi Amerykanów, które nie sprzyjały elekcji kandydatów z Partii Demokratycznej.

Cenzurowano nie tylko Donalda Trumpa, ale także wielu kongresmenów, gubernatorów i media np. Newsmax. Komisja podkreśliła, że pierwsza poprawka do konstytucji zakazująca cenzury rządowej ma szczególne znaczenie w przypadku wypowiedzi politycznych. Rząd bowiem nie może dyktować rodzaju ani warunków krytyki politycznej.

Komisja napiętnowała współpracę Stanford Internet Observatory, University of Washington Center for an Informed Public, Graphiki i Digital Forensic Research Lab (DFRLab) Atlantic Council wraz z agendami rządowymi, w tym z Zespołem Zadaniowym ds. Wpływów Zagranicznych (FITF) FBI, GEC z Departamentu Stanu, CISA itd.

Obecnie toczy się szereg postępowań sądowych przeciwko cenzorskim działaniom administracji Biden – Harris. Europa zmierza do rażącego ograniczenia wolności wypowiedzi pod pretekstem „obrony demokracji” i „integralności wyborów”.

Agnieszka Stelmach

 

 

 

 

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij
Komentarze(2)

Dodaj komentarz

Anuluj pisanie