Komisja Europejska pod pretekstem zapewnienia „integralności wyborów” i ograniczenia ryzyka związanego z szerzeniem różnych form „dezinformacji” wydała 26 marca br. wytyczne dla dużych platform internetowych i wyszukiwarek. Zgodnie z nimi wiele przekazów i informacji ma nie dotrze do Europejczyków. Prócz tego obywatele UE mają być poddawani indoktrynacji, podobnie jak w czasie tzw. pandemii Covid-19. Wszystko po to, aby ograniczyć szanse „radykalnej prawicy” na uzyskanie dobrych wyników w wyborach do unijnego parlamentu.
Komisja oczekuje, że duże wyszukiwarki i platformy internetowe, w tym media społecznościowe wzmocnią swoje procesy wewnętrzne, tworząc duże zespoły tzw. fact-checkerów. Ci mają decydować, które wiadomości, filmy i przekazy w sieci należy popularyzować, a jakich zasięg ograniczyć. Zespoły te mają wykorzystywać dostępne analizy i informacje na temat „zagrożeń specyficznych” w lokalnym kontekście politycznym oraz na temat korzystania z ich usług przez użytkowników w celu wyszukiwania i uzyskiwania informacji przed wyborami, w ich trakcie i po nich.
Platformy i wyszukiwarki internetowe mają promować oficjalne informacje na temat procesów wyborczych, wdrażać inicjatywy w zakresie umiejętności korzystania z mediów oraz dostosowywać swoje systemy rekomendacji, by „wzmocnić pozycję użytkowników” i „ograniczyć monetyzację” określonych witryn, a także szerzenie niewygodnych treści, które miałyby zagrażać „integralności procesów wyborczych”.
Wesprzyj nas już teraz!
KE przypomina, że zgodnie z Aktem o usługach cyfrowych (DSA), który wszedł w życie w lutym tego roku, w stosunku do wszystkich platform hostingowych, wszystkie reklamy polityczne muszą być oznaczone jako takie. Platformy mają także dokładnie oznaczać treści i obrazy generowane przez sztuczną inteligencję (deepfake).
Przepisy mają ograniczyć „zagrożenia systemowe w internecie”, które mogą mieć wpływ na „rzetelność” wyborów do Parlamentu Europejskiego, ale także innych wyborów w państwach członkowskich. Bruksela domaga się ścisłej współpracy na szczeblu UE i organów krajowych z „niezależnymi” ekspertami i wybranymi organizacjami pozarządowymi w celu wymiany informacji przed wyborami, w ich trakcie i po wyborach, ułatwienia stosowania „odpowiednich środków łagodzących” w przypadku manipulacji i ingerencji w informacje zagranicznych podmiotów, szerzenia „dezinformacji” itp.
W wytycznych zachęca się do ścisłej współpracy z grupą zadaniową Europejskiego Obserwatorium Mediów Cyfrowych (EDMO) w sprawie wyborów europejskich w 2024 r.
Rządzący w UE eurokraci chcieliby mieć pełny dostęp do danych dotyczących moderacji treści w platformach i kontrolować szczegółowo politykę usuwania treści, postów, stron, demonetyzacji i wzmacniania pożądanej narracji.
KE wskazuje, że wytyczne przedstawiają „najlepsze praktyki” w zakresie ograniczania zagrożeń związanych z procesami wyborczymi w obecnym momencie. W razie nieprzestrzegania tych wytycznych, bardzo duże platformy internetowe i wyszukiwarki muszą udowodnić Komisji, że podjęte przez nie środki są równie skuteczne w ograniczaniu ryzyka. Po niezadawalającym wyjaśnieniu KE może żądać dalszych informacji i wszcząć formalne postępowanie wobec platform na podstawie Aktu o usługach cyfrowych (DSA).
Pod koniec kwietnia mają zostać przeprowadzone testy warunków skrajnych, sprawdzających gotowość platform i wyszukiwarek do oznaczania, usuwania treści itd.
Komisja – chociaż nie wyjaśnia, czym jest „integralność wyborów”, zaznacza, że jej ochrona jest jednym z głównych priorytetów egzekwowania Aktu o usługach cyfrowych. Ze względu zaś na „dużą liczbę wyborów odbywających się w UE w 2024 r., w tym nadchodzące wybory europejskie, w kontekście DSA uważnie monitoruje się działania podejmowane przez dostawców usług internetowych, w tym bardzo duże platformy internetowe i wyszukiwarki, aby zapobiec negatywnemu wpływowi na procesy demokratyczne, dyskurs obywatelski i procesy wyborcze”.
Komisja tłumaczy, że jest „zaangażowana w dialog na temat gotowości do uczciwych wyborów z kilkoma bardzo dużymi platformami internetowymi i wyszukiwarkami przed wyborami krajowymi, w celu monitorowania zgodności ich działań z DSA”.
W lutym 2024 r. rozpoczęto także „konsultacje społeczne na temat projektu wytycznych dotyczących wyborów”. W wyniku tych konsultacji otrzymano 89 odpowiedzi od kilku zainteresowanych stron, w tym organizacji pozarządowych, stowarzyszeń przedsiębiorców i obywateli, w oparciu o które przygotowano regulacje. W procesie ich ustalania eurokraci podparli się również Kodeksem postępowania dotyczącego dezinformacji, rozporządzeniem w sprawie przejrzystości reklam politycznych oraz zaleceniami Komisji w sprawie „włączających i odpornych procesów wyborczych”.
Wolność słowa jest jedną z podstawowych wolności konstytucyjnych chronionych traktami i umowami międzynarodowymi. Obejmuje nie tylko prawo do wyrażania swoich poglądów, ocen, opinii, przypuszczeń, informowania o faktach, ale także – co szczególnie istotne – pozyskiwania i rozpowszechniania informacji, zapoznawania się z opiniami innych bez względu na ingerencję władz i granice państwowe.
W związku z szeregiem kryzysów politycznych, w tym wyborem Donalda Trumpa na prezydenta USA w 2016 r. oraz głosowaniem Brytyjczyków w sprawie opuszczenia UE, państwa tak zwanej „liberalnej demokracji” przyspieszyły działania zmierzające do tworzenia systemu globalnej cenzury.
Czyni się to pod pretekstem walki z tzw „mis-, mal- i disinformation”, czyli różnymi rodzajami tzw. „fake niusów”. W latach 2016-2022 przyjęto 91 aktów prawnych mających zapobiegać rozpowszechnianiu „fałszywych lub wprowadzających w błąd informacji w mediach społecznościowych”. Ich tresćć niejednokrotnie narusza wolność słowa i inne swobody obywatelskie, zakłóca swobodną debatę publiczną i znaczenie utrudniając pociągnięcie polityków do odpowiedzialności.
Nie istnieje prawna definicja informacji z kategorii „mis-, mal- i dez-„ ze względu między innymi na problemy z klarownym opisaniem tych zjawisk, co stawia pod znakiem zapytanie możliwość tworzenia regulacji w tym zakresie, w szczególności przewidujących sankcje karne (np. za tak zwaną mowę nienawiści). Istnieją wyłącznie definicje robocze, w tym definicje: Rady Europy, Komisji Europejskiej i unijnej Grupy ekspertów wysokiego szczebla ds. fałszywych wiadomości i dezinformacji (HLEG).
UE wiedzie światowy prym w zakresie rzekomej walki z tymi zjawiskami. Eurokraci ustanowili rozporządzenie Akt o usługach cyfrowych (DSA), które pod groźbą wysokich kar przerzuca obowiązek walki z „informacjami MDM” na platformy cyfrowe zobowiązane do „dokonania corocznej oceny zagrożeń systemowych” (ich katalog jest obszerny), reakcji na nie i moderacji treści.
Wytyczne europejskie, które KE przyjęła 26 marca br. dotyczą m.in. zwalczania „mowy nienawiści”, wciąż nieposiadającej prawnej definicji i „treści nielegalnych”. W myśl niedawno zaakceptowanych regulacji należy oznaczać konkretne materiały, po to, by można je było szybko usuwać z platform. Komisja zaleca „szturchanie” (nudging), czyli manipulowanie użytkownikami, którym będą podsuwane treści pożądane z punktu widzeniu eurokratów, zasięgi tych „niepoprawnych” mają być za to sztucznie obniżane.
Komisja domaga się również ciągłej ewaluacji działania systemów algorytmicznej rekomendacji i dostosowania ich w celu przeciwdziałania pojawiającym się zagrożeniom lub problemom z nimi związanymi dla procesów wyborczych. Platformy mają maksymalnie ułatwiać dostęp do danych dla specjalistów od moderacji/cenzurowania treści (eksperci i sieć organizacji fact-checkingowych finansowanych przez UE).
Według nowych wytycznych należy zmniejszać lub całkowicie pozbawiać finansowania „niebezpiecznych” przekazów, które mogłyby wpłynąć na „radykalizację” odbiorców. Pieniądze mają być wstrzymywane dla „treści nielegalne mogące w szczególności utrudniać lub wyciszać głosy w debacie demokratycznej, reprezentujących bezbronne grupy lub mniejszości. Na przykład formy rasizmu lub dezinformacja ze względu na gender i przemoc ze względu na gender w internecie, w tym w kontekście brutalnej ideologii ekstremistycznej lub terrorystycznej bądź FIMI (zagranicznego wpływu) wymierzonej w osoby LGBTIQ+, mogące podważyć otwarty, demokratyczny dialog i debatę(…), zwiększających podział i polaryzację społeczną”.
Z dotychczasowych przeglądów aktów prawnych i działań organów europejskich i krajowych wynika, że platformy cenzurowały przede wszystkim przekazy dotyczące „pandemii Covid-19”, wojny na Ukrainie i polityki klimatycznej oraz walczyły z „teoriami spiskowymi”.
Organizacje zajmujące się tak zwaną weryfikacją wiadomości (fact-checkingowe) wraz z podmiotami rządowymi – co wykazała komisja sądownicza w USA – dopuściły się bezprawnej cenzury przekazów organizacji prawicowych, siejąc dezinformację na temat zawartości laptopa syna prezydenta USA, Huntera Bidena, szczepionek przeciw Covid-19 i na temat wyborów w 2020 r. Wciąż trwa wielkie śledztwo w kongresie i toczą się kluczowe postępowania przed Sądem Najwyższym w sprawie nadmiernej ingerencji rządu i platform cyfrowych w wolność słowa obywateli: dochodzenia dot. „Przemysłowego Kompleksu Cenzury”.
Poważne oskarżenia padają pod adresem Obserwatorium Internetowego Uniwersytetu Stanforda, Uniwersytetu Waszyngtońskiego, Laboratorium badań kryminalistycznych Atlantic Council i Graphiki oraz sieci organizacji fact-checkingowych, nade wszystko pod adresem Krajowej Fundacji Nauki.
Komisja sądownicza Izby Reprezentantów napiętnowała działania wielu agencji rządowych, ośrodków uniwersyteckich i sieci organizacji fact-checkingowych opracowujących narzędzia oraz nowe technologie, które mogą cenzurować przekazy na dużą skalę. Amerykańska komisja ostrzegła, że – pod pozorem zajęcia się krytycznymi zagrożeniami dla systemów komunikacyjnych i „zwalczania fałszywych informacji/dezinformacji” – opracowywane są przez ośrodki uniwersyteckie zaawansowane narzędzia cenzury z użyciem „sztucznej inteligencji”.
Źródło: digital-strategy.ec.europa.eu
AS