30 października 2025

23 września Rada Ministrów przyjęła projekt ustawy o zmianie ustawy o świadczeniu usług drogą elektroniczną oraz niektórych innych ustaw. To odniesienie do groźnego unijnego rozporządzenia –Aktu o usługach cyfrowych (DSA). De facto celem jest usankcjonowanie „postępowej” cenzury w sieci i ułatwienie ingerencji władz unijnych w walkę polityczną o najwyższe państwowe urzędy.

Rządowy projekt wpłynął do Sejmu 29 września. Na 2 listopada zaplanowano przesłuchanie publiczne. Nowe regulacje – jak podkreśla ekipa Donalda Tuska – „mają zapewnić skuteczniejszą walkę z hejtem, dezinformacją, treściami pedofilskimi i innymi nielegalnymi materiałami w sieci”.

Minister Krzysztof Gawkowski przedstawia nowelizację jako „dającą użytkownikom poczucie bezpieczeństwa w sieci”. Mówi, że „to skuteczna walka z dezinformacją oraz ochrona użytkowników”. Nowa regulacja ma odpowiadać „na współczesne wyzwania, z którymi mierzą się państwa”. Szef resortu cyfryzacji dodał, iż rząd „podejmuje walkę z dezinformacją i nielegalnymi treściami, które są plagami nowoczesnych państw”. Regulacja ma być wyrazem „podniesienia naszego prawa do europejskich standardów”.

Wesprzyj nas już teraz!

Jeśli zmiana wejdzie w życie, rządzący będą mogli swobodnie blokować treści, umieszczać wybrane domeny na specjalnych listach ostrzeżeń, jednocześnie karać wysokimi grzywnami dostawców usług internetowych. Wszystko to w drodze niejasnych procedur i decyzji administracyjnych, zezwalających cenzorom na ogromną uznaniowość oraz brak odpowiedzialności. Regulacja wprowadza nowe kategorie urzędników, zaufanych podmiotów sygnalizujących domniemane nadużycia. Sankcjonuje selekcjonowanie treści na portalach, przekazując realną władzę w ręce „lewoskrętnych” organizacji fact-checkingowych.

W dodatku proponowana ustawa daje niezwykle mało czasu na obronę przed nieuzasadnionymi zgłoszeniami o sianiu dezinformacji, treści szkodliwych (szeroko rozumianych „treści nielegalnych”) itp.

Rząd chwali się na swojej stronie internetowej, że „regulacje (…) pozwolą na szybką reakcję i blokadę nielegalnych treści w ciągu zaledwie kilku minut lub godzin. Nowy system nadzoru z udziałem Prezesa UKE, Przewodniczącego KRRiT oraz Prezesa UOKiK wzmocni rolę państwa w kontroli nielegalnych treści”.

Oficjalnie władze chcą walczyć z „fałszywymi treściami” zagrażającymi bezpieczeństwu itp.

27 października prezydent Karol Nawrocki napisał na platformie X: „Dzisiaj upływa termin zgłoszeń na wysłuchanie publiczne rządowego projektu ustawy o zmianie ustawy o świadczeniu usług drogą elektroniczną oraz niektórych innych ustaw. Pod pozorem walki z nielegalnymi treściami i dezinformacją rząd chce ograniczyć wolność słowa, poprzez wprowadzenie mechanizmu blokowania wypowiedzi arbitralnymi decyzjami administracyjnymi urzędników. Nie tak to powinno wyglądać. Warto zabrać głos, zanim spróbują zabrać go Tobie”.

 

Nieudana próba kodyfikacji „mowy nienawiści”

Przypomnijmy, że rząd z ministrem Gawkowskim podjął kilka miesięcy temu nieudaną próbę rozszerzenia zakresu karalności tak zwanej mowy nienawiści.

Posłowie 6 marca br. przyjęli projekt ustawy nowelizujący kodeks karny, by skazywać na wieloletnie kary pozbawienia wolności osoby podejrzane o „nawoływanie do nienawiści” ze względu na „niepełnosprawność, wiek, płeć i orientację seksualną”. Sprawa miała głębszy kontekst, jeśli weźmiemy pod uwagę wszystkie działania prowadzone pod hasłami obrony „integralności informacji”, walki z „zagraniczną manipulacją informacjami i ingerencją” (FIMI) oraz „obrony demokracji”.

Nie przeszła propozycja partii Razem, by do katalogu chronionych cech zaliczyć „tożsamość płciową”, obejmującą dowolną liczbę „płci kulturowych”. Jednak proponowany projekt nowelizacji Kodeksu karnego zmieniał katalog przesłanek dotyczących przestępstw motywowanych nienawiścią. Dodawał do przynależności narodowej, etnicznej, rasowej, wyznaniowej i bezwyznaniowości także wiek, płeć, niepełnosprawność i „orientację seksualną”.

W przypadku stosowania przemocy lub bezprawnej groźby z takich motywów podejrzanemu mogło grozić do pięciu lat więzienia, za nawoływanie do nienawiści – do trzech lat, a za znieważenie – do dwóch lat pozbawienia wolności.

Rząd Donalda Tuska zintensyfikował działania zmierzające do zmiany prawa latem ubiegłego roku. Ówczesny prokurator generalny Adam Bodnar zapowiadał nowe wytyczne i powołał zespół doradców ds. przeciwdziałania „mowie nienawiści” oraz przestępstwom motywowanym uprzedzeniami.

Wynikały one nie tylko z osobistego zainteresowania ministra Bodnara tą kwestią, ale także z przynaglania Komisji Europejskiej, Rady Europy i ONZ, które wypowiedziały wojnę wolności słowa, pod pretekstami walki z polaryzacją społeczną, ochrony demokracji i zapewnienia tak zwanej integralności informacji oraz integralności wyborów.

W październiku 2024 r. podczas konferencji Warsaw Human Dimension 2024 ujawniono nowe zalecenia Rady Europy w sprawie zwalczania przestępstw z nienawiści. Erik Adell Hellström, szef Komitetu Sterującego ds. Przeciwdziałania Dyskryminacji, Różnorodności i Inkluzji (CDADI) tłumaczył, że wytyczne Rady Europy powstały w związku „z pilną potrzebą opracowania standardu prawa miękkiego”, ponieważ „przestępstwa z nienawiści naruszają podstawowe prawa człowieka i zagrażają bezpieczeństwu osób i grup docelowych, a także niszczą stabilność społeczną i pokój, tym samym zagrażając fundamentom demokratycznych społeczeństw”.

Stworzono definicję roboczą „przestępstw z nienawiści”, by „ułatwić ich ściganie i zwiększyć wskaźnik skazań”. Wytyczne mają pomóc w zwiększeniu liczby zgłoszeń „przestępstw” przez ofiary i „zmapować” „nienawistników” w Europie.

Zgodnie z definicją Rady Europy, „mowa nienawiści” to „wypowiedzi, które szerzą, propagują i usprawiedliwiają nienawiść rasową, ksenofobię, antysemityzm oraz inne formy nietolerancji, podważające bezpieczeństwo demokratyczne, spoistość kulturową i pluralizm”.

W żadnym z obowiązujących w Polsce przepisów nie ma legalnej definicji „mowy nienawiści”, ale sądy skazują pod tym pretekstem, odwołując się do artykułu 256 kodeksu karnego („Kto publicznie propaguje nazistowski, komunistyczny, faszystowski lub inny totalitarny ustrój państwa lub nawołuje do nienawiści na tle różnic narodowościowych, etnicznych, rasowych, wyznaniowych albo ze względu na bezwyznaniowość, podlega karze pozbawienia wolności do lat 3”.) oraz art. 257 k.k. („Kto publicznie znieważa grupę ludności albo poszczególną osobę z powodu jej przynależności narodowej, etnicznej, rasowej, wyznaniowej albo z powodu jej bezwyznaniowości lub z takich powodów narusza nietykalność cielesną innej osoby, podlega karze pozbawienia wolności do lat 3”).

Komitet Praw Człowieka ONZ już w rekomendacjach z rozpatrzenia „VII Sprawozdania okresowego Polski z realizacji postanowień Międzynarodowego Paktu Praw Obywatelskich i Politycznych” z 31 października 2016 roku ubolewał, że polski kodeks karny nie odnosi się do „niepełnosprawności, wieku, orientacji seksualnej i tożsamości płciowej jako podstaw przestępstw z nienawiści”.

Komitet Praw Dziecka w uwagach końcowych do połączonych piątego i szóstego sprawozdania okresowego Polski z 24 września 2021 r. zalecił uzupełnienie prawa w celu zapewnienia ochrony przed wszelkimi formami dyskryminacji m.in. ze względu na „orientację seksualną” i „tożsamość płciową”, niepełnosprawność i płeć. Organ ten domagał się, by ściganie za tego typu „przestępstwa” następowało z oskarżenia publicznego, a nie prywatnego.

Z tych i innych względów w styczniu 2024 r. w Ministerstwie Sprawiedliwości rozpoczęły się prace nad zmianą kodeksu karnego, by uwzględnić „mowę nienawiści” i „przestępstwa z nienawiści”.

Pierwotnie pracowano także nad katalogiem okoliczności obciążających uwzględnianych przy wymiarze kary z art. 53 par. 2a pkt 6 k.k.

Zgodnie z wytycznymi RE z 2024 r. „przestępstwa z nienawiści” uznano za „szczególnie poważny rodzaj przestępstw”, a „nienawiść może przejawiać się z różnym stopniem nasilenia, od codziennej stygmatyzacji i dyskryminacji, przez mikroagresję i przemoc słowną po przemoc, terroryzm, zbrodnie wojenne i ludobójstwo”.

Uznając, że prawo karne „nie może być interpretowane szeroko na niekorzyść oskarżonego”, przyznano, że „nie ma wiążącej międzynarodowej definicji przestępstw z nienawiści”.

Skoro nie ma legalnej definicji, to też nie można ścigać za domniemane „przestępstwa” i tym bardziej karać wieloletnim pozbawieniem wolności.

Niemniej, powołując się na szereg innych wytycznych, zaleceń i nieratyfikowaną „konwencję stambulską” wskazano, że walka przeciwko „przestępstwom z nienawiści” jest konieczna i wymaga skoordynowanych działań ułatwiających ściganie „winnych”.

Pod koniec września obecnego roku TK uznał, że proponowana ustawa dotycząca zwalczania tak zwanej mowy nienawiści jest niezgodna z Konstytucją. I chociaż z powodu ignorowania wyroków TK przez obecną władzę nie publikuje się orzeczeń, prezydent na szczęście nie zamierza podpisać tej ustawy.

Niemniej, z pewnością, gdyby tylko zmienił się układ sił politycznych, tego typu regulacja uderzająca w podstawowe prawa i wolności obywateli zostałaby szybko wdrożona w życie. Podobnie, jak proponowana najnowsza regulacja dotycząca zmiany ustawy o świadczeniu usług drogą elektroniczną i innych ustaw.

Chcesz wiedzieć więcej – zamów książkę:

Najnowszy projekt ustawy cenzorskiej

Projekt rządowy: 1) wdraża dyrektywy 2000/31/WE z dnia 8 czerwca 2000 r. w sprawie niektórych aspektów prawnych usług społeczeństwa informacyjnego, w szczególności handlu elektronicznego w ramach rynku wewnętrznego (dyrektywa o handlu elektronicznym) i 2) służy stosowaniu rozporządzenia Parlamentu Europejskiego i Rady (UE) 2022/2065 z dnia 19 października 2022 r. w sprawie jednolitego rynku usług cyfrowych oraz zmiany dyrektywy 2000/31/WE (Akt o usługach cyfrowych).

Zmienia też Kodeks postępowania cywilnego, ustawę o postępowaniu egzekucyjnym w administracji, ustawę o radiofonii i telewizji, ustawę o prawie autorskim i prawach pokrewnych, ustawę prawo własności przemysłowej, ustawę o ochronie konkurencji i konsumentów, ustawę o zwalczaniu nadużyć w komunikacji elektronicznej oraz ustawę Prawo komunikacji elektronicznej.

Rządowa regulacja ma przede wszystkim dostosować rodzime przepisy do unijnego rozporządzenia DSA, aby mogło ono być sprawnie egzekwowane. Ustanawia tryb postępowania różnych organów państwa przeciwko tak zwanym nielegalnym treściom. Rozszerza także krąg podmiotów uprawnionych do żądania bardzo szybkiego usunięcia treści w trybie administracyjnym. Mogą tego wymagać: prokurator, policja, organ Krajowej Administracji Skarbowej, usługobiorca, „zaufany podmiot sygnalizujący”, Straż Graniczna itd.

Projekt wskazuje przy tym m.in. na treści, których rozpowszechnianie może wyczerpywać znamiona czynu zabronionego określonego w różnych artykułach Kodeksu karnego, ustawy o prawie autorskim i prawach pokrewnych, ustawy o ochronie zdrowia przed następstwami używania tytoniu i wyrobów tytoniowych, ustawy Prawo własności przemysłowej, a także odnoszących się do nielegalnej sprzedaży towarów lub nielegalnego świadczenia usług, które mogą wyczerpywać znamiona czynu zabronionego określonego w ustawie Kodeks karny skarbowy, pochwalających lub nawołujących do popełnienia czynu zabronionego itd.

Należy podkreślić, że rządowy pomysł na nowelizację dotyczy przede wszystkim egzekwowania przepisów unijnego DSA. Te zaś są bardzo pojemne w zakresie wymuszania na bardzo dużych platformach i wyszukiwarkach wielu „obowiązków” związanych ze zwalczaniem „ryzyk systemowych”, o czym za chwilę.

Projekt zakłada, że nadzór nad stosowaniem przepisów DSA w Polsce sprawować będzie przede wszystkim prezes Urzędu Komunikacji Elektronicznej (UKE), a także Krajowa Rada Radiofonii i Telewizji (KRRiT) – w zakresie platform wideo oraz Prezes Urzędu Ochrony Konkurencji i Konsumentów (UOKiK) – w zakresie platform handlowych, jak również innych spraw dotyczących ochrony konsumentów.

Rząd określa katalog przestępstw internetowych (to przestępstwo popełnione z wykorzystaniem sieci). Osoba, którą oskarża się o propagowanie „nielegalnych treści” otrzyma od usługodawcy internetowego zawiadomienie o rozpoczęciu procedury (treść może zostać usunięta, a dopiero potem można dochodzić swoich praw). Będzie miała zaledwie dwa dni na przedstawienie swojego stanowiska. Nakaz usunięcia danej treści wydawać ma prezes UKE oraz przewodniczący KRRiT. Od decyzji nie przysługiwałoby odwołanie. Autor chcąc się bronić, będzie musiał wytoczyć powództwo w sądzie, ponosząc z tym związane opłaty i wszelkie niedogodności.

Urzędy będą miały zaledwie 2 dni na reakcję na zgłoszenie żądania dotyczące usunięcia treści, gdy robi to policjant lub prokurator i 7 dni, gdy zgłoszenia dokona usługobiorca, „zaufany podmiot sygnalizujący” lub 21 dni w przypadku spraw szczególnie skomplikowanych. W razie błędnego usunięcia treści przez platformę prezes UKE lub przewodniczący KRRiT będą mogli wydać nakaz ich przywrócenia.

Prezes UKE ma być koordynatorem ds. usług cyfrowych w sprawach związanych z DSA na poziomie krajowym i europejskim. Ponadto wraz z doradczą Krajowej Rady do Spraw Usług Cyfrowych ma m.in. rozpatrywać skargi składane na platformy oraz prowadzić postępowania administracyjne związane z unijnym rozporządzeniem.

Ustawa miałaby wejść w życie zaledwie w ciągu 30 dni od jej ogłoszenia.

Nie wchodząc w szczegóły uzasadnienia projektu rządowego ani już same technikalia dotyczące zgłaszania i usuwania nielegalnych treści, przywołajmy unijną regulację, która w tym wypadku jest najważniejsza. Chodzi oczywiście o DSA (Digital Services Act), do której rząd dostosowuje krajowe ustawy, a nawet rozszerza ich zakres działania pod pozorem dostosowania.

Szczegółowo tę kwestię analizuję w książce pt. „Misinformacja, dezinformacja, malinformacja. Jak powstaje system globalnej cenzury”, którą można bezpłatnie zamówić za pośrednictwem strony Instytutu Studiów Doktrynalnych działającego przy Stowarzyszeniu Kultury Chrześcijańskiej im. Ks. Piotra Skargi.

Na naszym portalu wielokrotnie pisaliśmy o unijnym Akcie o usługach cyfrowych (Digital Services Act), a także o konsekwencjach obowiązywania tego rozporządzenia, bataliach prowadzonych przez niektóre duże platformy z unijnymi urzędnikami, a także o śledztwach i kolejnych raportach potężnej komisji sądownictwa kongresu amerykańskiego prowadzącej dochodzenia w sprawie „Kompleksu Przemysłowego Cenzury”, jak również o globalnych inicjatywach i naszych regionalnych dotyczących ograniczenia wolności słowa.

 

Czym jest DSA?

Zaproponowane pod koniec 2020 roku przez Komisję Europejską unijne rozporządzenie Akt o usługach cyfrowych (DSA) odnosi się do regulacji usług platform cyfrowych. Z założenia miało zharmonizować przepisy państw członkowskich dotyczące dostawców usług hostingowych.

Jednak trudno nie odnieść wrażenia, że KE chciała niejako przerzucić odpowiedzialność za walkę z tak zwaną mis-, mal- i dezinformacją na platformy cyfrowe. To niepokojąca tendencja do przenoszenia zadań i kompetencji podmiotów publicznych na wielkie korporacje wyjęte spod jakiejkolwiek realnej kontroli demokratycznej.

W rozporządzeniu DSA sformułowano pojęcie „nielegalnych treści” (art.3), włączając wszelkie przypadki treści już sankcjonowanych, w tym dezinformacji zdefiniowanej w przepisach krajowych (dokument uwzględnia rozbieżne podejścia krajowe). Akt więc, zamiast harmonizować przepisy, uwypukla rozbieżne podejście do kwestii zwalczania „informacji MDM” w różnych państwach członkowskich.

Rozporządzenie zobowiązuje „bardzo duże platformy internetowe” oraz „bardzo duże wyszukiwarki internetowe” do dokonania corocznej „oceny ryzyk systemowych” (art. 34) wynikających z funkcjonowania ich usług i powiązanych systemów algorytmicznych.

Katalog ryzyk jest obszerny. Zaliczono do nich: rozpowszechnianie nielegalnych treści; ryzyko faktycznych lub przewidywalnych negatywnych skutków dla wykonywania praw podstawowych, takich jak prawo do godności ludzkiej, do poszanowania życia prywatnego i rodzinnego, do ochrony danych osobowych, wolności wypowiedzi i informacji, w tym wolności mediów, niedyskryminacji, ochrony dzieci, konsumentów; wystąpienie faktycznych lub przewidywalnych negatywnych skutków dla dyskursu obywatelskiego i procesów wyborczych oraz dla bezpieczeństwa publicznego; ryzyko faktycznych lub przewidywalnych negatywnych skutków w związku z przemocą ze względu na płeć, ochronę zdrowia publicznego i małoletnich oraz poważnych negatywnych skutków dla fizycznego i psychicznego dobrostanu osoby.

Duże platformy i wyszukiwarki internetowe muszą dostosować do powyższego schematu swoje systemy algorytmiczne moderowania treści i reklamy.

W art. 34 jest mowa także o „celowej manipulacji ich usługą, w tym w wyniku nieautentycznego korzystania z usługi lub zautomatyzowanego wykorzystywania usługi, a także akceptowanie i potencjalnie szybkie i szerokie rozpowszechnianie nielegalnych treści i informacji, które są niezgodne z ich warunkami korzystania z usług”. Między innymi ten zapis pozwolił niedawno urzędnikom unijnym i rumuńskim na ingerencję w wybory, uniemożliwiając wybór prawicowego kandydata na prezydenta.

W DSA wskazano ponadto na potrzebę uwzględniania specyfiki danego kraju, w tym regulacji uznających pewne treści za nielegalne (np. w jednych państwach UE obywatele mają większy zakres wolności słowa niż w innych; chodzi o to, że niektóre kraje przyjęły regulacje zakazujące szerzenia dezinformacji – na przykład Francja – a w innych zakazano „mowy nienawiści”). Ocena ryzyk podlega audytowi, dlatego też dokumentacja dotycząca tej oceny musi być przechowywana przez 3 lata. W każdej chwili w tym okresie KE albo koordynator ds. usług cyfrowych może się zwrócić o jej udostępnienie.

Wprowadzono także mechanizm reagowania kryzysowego (art. 36). Na wniosek KE bardzo duża platforma lub wyszukiwarka internetowa mogą zostać zobowiązane do podjęcia określonych działań, by zapobiec wystąpieniu poważnego kryzysu, który ma miejsce wtedy, gdy „nadzwyczajne okoliczności prowadzą do zagrożenia bezpieczeństwa publicznego lub zdrowia publicznego w Unii lub w jej znacznej części” (art.36.2). ​Komisja może też wydawać wytyczne i zalecenia oraz sugerować najlepsze praktyki.

Rozporządzenie reguluje kwestie reklam (art. 39) pod kątem zagrożeń związanych z technikami manipulacyjnymi itp.

W motywie 83. DSA, w związku z oceną ryzyka systemowego przez duże platformy i wyszukiwarki zwrócono uwagę na ryzyko systemowe obejmujące „skoordynowane kampanie dezinformacyjne dotyczące zdrowia publicznego”. Z kolei w motywie 84. podkreślono znaczenie ryzyka rozpowszechniania treści co prawda legalnych, ale „wprowadzających w błąd lub zwodniczych treści, w tym dezinformacji”. „Uczulono” platformy i wyszukiwarki na zautomatyzowane przesyłanie treści za pośrednictwem fałszywych kont, botów itp.

Akt o usługach cyfrowych zachęca do tworzenia dobrowolnych kodeksów postępowania, dzięki którym – jeśli dane platformy internetowe zobowiążą się ich przestrzegać – kodeksy stają się obowiązkowe.

To dzięki tym kodeksom – zawierającym pewne „standardy” – można egzekwować sankcje ograniczające wolność słowa obchodząc prawo publiczne.

Organy unijne kładą nacisk na samoregulację i skrupulatne egzekwowanie przyjętych „dobrowolnie” zobowiązań. Dzięki temu unikają oskarżeń o próby narzucenia cenzury czy też ograniczenia debaty publicznej.

Już na etapie projektowania rozporządzenia wprowadzono kilka przepisów mających kluczowe znaczenie dla zmiany unijnej polityki w sprawie tak zwanej dezinformacji.

Pierwszy dotyczy art. 9, który wymaga od platform internetowych podjęcia „bez zbędnej zwłoki”: działań przeciwko „nielegalnym treściom” na polecenie „odpowiednich krajowych organów sądowych lub administracyjnych”.

Stworzono tym samym mechanizm prawny, który pozwala przedstawicielom władzy żądać błyskawicznego usuwania treści uznanych autorytatywnie za „nielegalne”, a definicja „treści nielegalnych” jest szeroka.

Drugi przepis to art. 16 dotyczący mechanizmu zgłaszania przez indywidualne osoby treści, które uważają one za „nielegalne”. Po zgłoszeniu dostawca usług hostingowych może podjąć decyzję o zablokowaniu ich, działając „z należytą starannością” – bez konieczności przeprowadzenia „szczegółowej analizy prawnej”. Dostawca usług hostingowych nie tylko musi zarejestrować zgłoszenie i podjąć określone działania, ale także poinformować zgłaszającego o podjętych czynnościach.

Trzeci przepis to art. 22 dotyczący zaufanych podmiotów sygnalizujących, który wprowadza „priorytetowe traktowanie zgłoszeń dokonywanych przez zaufane podmioty sygnalizujące, działające w wyznaczonych dziedzinach, w których dysponują wiedzą ekspercką (…), a także rozpatrywania takich zgłoszeń oraz podejmowania decyzji w sprawie bez zbędnej zwłoki”. Ta norma prawna pozwala na priorytetowe traktowanie np. naukowców wybranych uczelni i dowolnie wybrane organizacje fact-checkingowe, które zajmują się sprawdzaniem wiarygodności informacji. Tego typu organizacje w USA uwikłane są w projekty tworzenia systemu globalnej cenzury (sprawy przed amerykańskim SN i dochodzenia komisji sądowniczej Izby Reprezentantów).

Wskutek przyjęcia DSA, która zaczęła obowiązywać w stosunku do dużych platform i wyszukiwarek od 25 sierpnia 2023 roku, a w stosunku do pozostałych dostawców usług pośrednich – od 17 lutego 2024 roku, KE uniknęła oskarżeń o próbę sankcjonowania dezinformacji w oparciu o niejasną i zbyt szeroką definicję. Jednak nie ulega wątpliwości, że celem organów unijnych (na co wskazują bezpośrednie odniesienia do dezinformacji w motywach DSA) była chęć uregulowania i zwalczania dezinformacji rozpowszechnianej w internecie (motyw nr 2).

Akt o usługach cyfrowych jest pierwszą na świecie regulacją, która nakłada na firmy cyfrowe w całej UE odpowiedzialność za treści zamieszczane na należących do nich platformach. Jednak walkę z „informacjami MDM” prowadzi się za pomocą wytycznych i kodeksów postępowania określających pewne standardy, jakie powinni spełniać dziennikarze, wydawcy, reklamodawcy i dostawcy usług internetowych.

Chcesz wiedzieć więcej – zamów książkę:

Unijna batalia przeciwko „dezinformacji”

UE w 2015 r. wszczęła walkę z tak zwaną dezinformacją pod pretekstem konieczności przeciwstawienia się rosyjskiej działalności propagandowej, głównie na terenie państw Europy Wschodniej. W marcu 2015 roku Rada Europejska podjęła decyzję o utworzeniu grupy zadaniowej East StratCom, która jest częścią Europejskiej Służby Działań Zewnętrznych – służby dyplomatycznej, na czele której stoi Wysoki Przedstawiciel UE. Jej sztandarowym projektem jest baza danych EUvsDisinfo.

W 2016 roku przyjęto Rezolucję w sprawie unijnej komunikacji strategicznej w celu przeciwdziałania wrogiej propagandzie stron trzecich. W 2017 roku Claire Wardle i Hossein Derakhshan przygotowali dla Rady Europy raport pt. Information Disorder: Toward an interdisciplinary framework for research and policy making. Opisali tam trzy kategorie informacji powodujących w ich ocenie „nieład informacyjny” (information disorder): misinformację, dezinformację i malinformację.

Misinformacje to „rozpowszechniane nieprawdziwe informacje, które nie zostały stworzone z zamiarem wyrządzenia szkody”. Dezinformacje to „fałszywe informacje tworzone i rozpowszechniane świadomie z zamiarem wyrządzenia krzywdy lub szkody”. Z kolei malinformacje to „rozpowszechniane informacje oparte na faktach, które powstały w celu wyrządzenia szkody lub krzywdy, co następuje często poprzez upublicznienie informacji prywatnych”.

Chcąc dokonać rozróżnienia między tymi kategoriami informacji podano przykłady. Misinformacja zawiera treści wprowadzające w błąd poprzez np. fałszywe powiązania. W przypadku dezinformacji może pojawić się fałszywy kontekst, podszywanie się, zmanipulowana, sfabrykowana treść. Malinformacja obejmuje „przecieki medialne”, ale także zaliczono do niej treści zawierające „nienawistną” retorykę.

Przy analizie „informacji MDM” trzeba brać pod uwagę: kto mówi i z jakim zamiarem, co mówi oraz jak to zostało zinterpretowane. Ponadto należy uwzględnić fazy tworzenia, produkowania (produkt medialny) i rozpowszechniania tego typu wiadomości.

W raporcie opisano zjawisko „bańki filtrującej”, inaczej określanej mianem „bańki informacyjnej” (filter bubble) i „komory echa” inaczej zwanej „komorą pogłosową” (echo chamber), które – zdaniem autorów raportu – przyczyniają się do globalnego „zanieczyszczenia informacyjnego” i generują podziały oraz pogłębiają polaryzację społeczną i polityczną. Ciągle udoskonalana technologia pomaga w tworzeniu i rozpowszechnianiu „informacji MDM”. W celu radzenia sobie z „zanieczyszczeniem informacyjnym” wydano 34 rekomendacje odnoszące się do działań rządów, firm technologicznych, organizacji medialnych i innych organizacji pozarządowych oraz ministerstw edukacji i instytucji finansowych. W raporcie zaznaczono, że szczególnie niebezpieczne dla demokracji jest „zanieczyszczenie informacyjne”, zwłaszcza w takich dziedzinach, jak zdrowie i klimat. Jednocześnie przyznano, że pretekstem do zajęcia się problemem „nieładu informacyjnego” stało się zwycięstwo Donalda Trumpa w wyborach prezydenckich w 2016 roku.

W 2018 r. pojawił się raport unijnej grupy wysokiego szczebla ds. fałszywych wiadomości i dezinformacji w internecie (HLEG, 2018 r.). Grupa miała za zadanie przygotować unijną strategię przeciwdziałania rozprzestrzenianiu się fałszywych wiadomości i dezinformacji, uwzględniając cztery zasady: przejrzystość dotyczącą źródła wiadomości i finansowania; różnorodność; wiarygodność i inkluzję (włączenie). Opracowana przez grupę strategia zakładała usuwanie nielegalnych kont; uwzględnianie rekomendacji alternatywnych treści w algorytmach rankingowych, aby zwiększyć „znajdowalność” wiarygodnych treści; demonetyzację fałszywych informacji; współpracę z platformami fact-checkingowymi, a także szereg zmian w zakresie zamieszczania reklam w mediach cyfrowych, nie mówiąc o tworzeniu sieci organizacji fact-checkingowych.

Chociaż w raporcie przyznano, że „informacje rzadko można precyzyjnie sklasyfikować jako po prostu prawdziwe lub fałszywe”, a walka z „informacjami MDM” musi być „bardzo precyzyjnie ukierunkowana i sformułowana”, aby nie umożliwiać – przy przypadek lub celowo – władzy publicznej lub prywatnym podmiotom ograniczenia wolności słowa, zalecono regulacje i przyjęcie przez szerokie gremium uczestników rynku medialnego kodeksów postępowania określających standardy zawodowe dziennikarzy, jak i zasady ustanawiające mechanizmy składania skarg w przypadku niedokładnych wiadomości.

Jeszcze w 2018 roku, na początku marca, Rada Europy wydała wytyczne dotyczące ról i obowiązków pośredników internetowych, wyszukiwarek i mediów społecznościowych, w oparciu o które przygotowano Rekomendacje.

W kwietniu 2018 roku KE opublikowała komunikat pt. „Zwalczanie dezinformacji w internecie: podejście europejskie”. Zaznaczono tam, że w celu ochrony obywateli przed dezinformacją, fałszywymi informacjami i informacjami wprowadzającymi w błąd konieczne jest podjęcie szeroko zakrojonych działań. Miały one przyczynić się do utrzymania wolności słowa i swobody mediów (wolnych od cenzury), zapewniając jednoczenie spójność społeczną i pluralistyczną debatę publiczną.

Komisja Europejska zdefiniowała dezinformację jako „możliwe do zweryfikowania nieprawdziwe lub wprowadzające w błąd informacje, tworzone, przedstawiane i rozpowszechniane w celu uzyskania korzyści gospodarczych lub wprowadzenia w błąd opinii publicznej, które mogą wyrządzić szkodę publiczną. Szkoda publiczna obejmuje zagrożenia dla demokratycznych procesów politycznych i kształtowania polityki oraz dla dóbr publicznych, takich jak ochrona zdrowia obywateli UE, środowisko naturalne lub bezpieczeństwo. Dezinformacja nie obejmuje błędów sprawozdawczych, satyry i parodii ani wyraźnie oznaczonych stronniczych wiadomości i komentarzy”.

Podkreślono, że dezinformacja szerzy się w internecie dzięki wykorzystaniu: algorytmów, reklamie cyfrowej opartej na podstawie clickbait i technologii internetowych (np. boty, sztuczne wzmacnianie przekazu, fałszywe konta itp.). Ale jest także rozpowszechniana przez użytkowników za pomocą mediów społecznościowych.

Zaproponowano więc zajęcie się problemem dezinformacji, przerzucając ciężar regulacji na platformy internetowe, które powinny opracować i przyjąć stosowny kodeks postępowania w sprawie dezinformacji online.

Pierwsza wersja kodeksu pojawiła się w 2018 roku, a następna w 2022 roku. Kodeks z 2018 roku przewidywał zwalczanie dezinformacji, które zdefiniował jako „możliwe do zweryfikowania fałszywe lub wprowadzające w błąd informacje”, które łącznie: (a) „Są tworzone, prezentowane i rozpowszechniane w celu osiągnięcia korzyści gospodarczych lub w celu oszukania opinii publicznej” i (b) „Może wyrządzić szkodę publiczną” w rozumieniu „zagrożenia dla demokratycznego kształtowania procesów politycznych, a także dóbr publicznych, takich jak ochrona zdrowia obywateli UE, środowisko lub bezpieczeństwo”.

Późniejsza wersja wzmocnionego kodeksu postępowania w sprawie dezinformacji z 2022 roku doprecyzowywała szereg kwestii, np. jak należy interpretować frazę: „powszechne rozumienie niedopuszczalnych działań manipulacyjnych”, kwestie ograniczenia dezinformacji w aplikacjach do przesyłania wiadomości, zgłaszania domniemanych szkód, czy jak weryfikować i efektywnie oznaczać reklamy polityczne. Opracowano standardy weryfikacji faktów.

Opracowano także kodeks dotyczący zwalczania tak zwanej mowy nienawiści. KE przymuszała platformy do przyjęcia kodeksów, aby móc egzekwować ich przestrzeganie, powołując się na przepisy DSA.

Komisja Europejska regularnie ocenia postępy we wdrażaniu kodeksów w oparciu o szczegółowe sprawozdania jakościowe i ilościowe dostarczane przez sygnatariuszy.

 

Inne inicjatywy cenzuralne

Unijne organy uruchomiły także szereg innych inicjatyw dotyczących „zwalczania dezinformacji” i „obrony demokracji”. Objęły one nie tylko Europejski Plan Działania na rzecz Demokracji (oryg. EDAP) czy Plan działania na rzecz odbudowy i transformacji unijnego sektora medialnego i audiowizualnego. Chodzi także o szereg strategii i planów działania, w tym na rzecz równouprawnienia płci, równości osób LGBTIQ, skuteczniejszego stosowania Karty Praw Podstawowych, działania przeciwko rasizmowi, w celu obrony praworządności itp.

KE zyskała instrumenty wywierania wpływu na platformy internetowe, by w większym stopniu moderowały treści, usuwały „treści nielegalne” i reagowały na zgłoszenia takich treści nie tylko ze strony sądów i władz, ale także zwykłych użytkowników.

W 2023 roku przeprowadzono pierwsze audyty dużych platform pod kątem zgodności z DSA. Jednocześnie 15 grudnia 2023 roku podano, że osiągnięto porozumienie między Parlamentem i Radą w sprawie nowej regulacji – Aktu o wolności mediów – zaproponowanej przez Komisję we wrześniu 2022 roku.

W związku z wymogami nakładanymi przez DSA a dotyczącymi uiszczania opłat na pokrycie nadzoru nad platformami, TikTok i Meta – spółki matki Facebooka i Instagrama – pozwały UE. Powodowie wskazali, że opłata jest niesprawiedliwa, nakłada na nich zbyt duże obciążenia, a niektóre firmy nie płacą nic. UE domaga się zapłaty 45 mln euro na kontrolę sposobu radzenia sobie z nielegalnymi i szkodliwymi treściami przez platformy, w tym Meta i TikTok. Wysokość opłat jest uzależniona od liczby użytkowników i rocznego zysku.

W 2023 r. przyjęto Rezolucję Parlamentu Europejskiego w sprawie obcych ingerencji we wszystkie procesy demokratyczne w UE, w tym dezinformacji (2023 r.)

Zaapelowano nie tylko o opracowanie przez KE skutecznego pakietu na rzecz obrony demokracji, uwzględniającego unikalne doświadczenie i propozycje końcowe Konferencji w sprawie przyszłości Europy (patrz również: raport Ordo Iuris), w tym „inicjatywy mające na celu wzmocnienie naszej demokracji od wewnątrz dzięki pielęgnowaniu kultury obywatelskiej demokratycznego zaangażowania i aktywnego uczestnictwa obywateli przez cały czas, nie tylko podczas wyborów” (pkt. 22). Zwrócono także uwagę, że „wszystkie szczeble administracji publicznej powinny odbyć specjalne szkolenie z rozpoznawania manipulacji informacjami i ingerencji w informacje oraz przeciwdziałania tym zjawiskom, a także podkreśla, że szkolenia te powinny uwzględniać aspekt płci kulturowej – gender” (pkt 23).

Ponadto w pkt. 38. podkreślono, że „nasilenie negowania zmian klimatu można powiązać z szerszym rozpowszechnieniem w dyskursie publicznym teorii spiskowych, które opierają się na celowym tworzeniu alternatywnej rzeczywistości i odrzucaniu nauki oraz obejmują fałszywe poglądy na każdy temat, od napastniczej wojny Rosji przeciwko Ukrainie po szczepionki przeciwko COVID-19; podkreśla rolę zagranicznych podmiotów w szerzeniu dezinformacji na temat zmiany klimatu i polityki klimatycznej UE, osłabiającą poparcie społeczeństwa i wykorzystywaną w narracjach podmiotów krajowych, które posługują się tą dezinformacją na temat klimatu do swoich własnych celów politycznych”.

Kwestia „zmian klimatu” i unijnej polityki klimatycznej w szczególności niepokoi prawodawców europejskich, ponieważ „dezinformacji” na ten temat poświęcono sporo miejsca.

Wyrażono ubolewanie (pkt 45), że platformy społecznościowe za wolno i nieadekwatnie reagują na szerzenie „informacji wprowadzających w błąd i dezinformacji na swoich platformach, a gdy to robią, to usuwają je w sposób bardzo powolny”. Ubolewano nad brakiem obowiązywania wiążących zasad w europejskich ramach regulacyjnych i wezwano do „większej moderacji treści”. Potępiono niektóre platformy za zwalnianie pracowników odpowiedzialnych za fact-checking i zautomatyzowaną obsługę weryfikacji treści.

Uderzono w „ekstremistów politycznych” i „religijnych fundamentalistów” oraz osoby, które mają szerzyć dezinformację w zakresie zdrowia.

Wezwano także (pkt. 53) do „szybkiego przyjęcia kodeksu postępowania jako kodeksu postępowania w ramach Aktu o usługach cyfrowych, w tym audytów oceniających zgodność na mocy art. 28” oraz wezwano KE do „rozważenia, jakie nowe wnioski ustawodawcze lub aktualizacje są niezbędne do wypełnienia luki w zakresie zgodności, a także do zapewnienia możliwości tymczasowego lub stałego zawieszenia platform, które systematycznie nie wywiązują się ze swoich zobowiązań wynikających z kodeksu postępowania”.

W pkt. 57 nie tylko przynaglono do „niezwłocznego przyjęcia kodeksu postępowania w zakresie dezinformacji jako kodeksu postępowania na mocy mechanizmu współregulacyjnego Aktu o usługach cyfrowych”. Zaznaczono także, iż konieczne jest skuteczne egzekwowanie sankcji w stosunku do sygnatariuszy kodeksu niewywiązujących się ze swoich zobowiązań dotyczących moderacji treści.

Poza przyjęciem nowych regulacji w zakresie cyberbezpieczeństwa zwrócono uwagę na konieczność objęcia szczególną ochroną – czyli de facto uprzywilejowania – mniejszości, grup uznawanych za szczególnie wrażliwe, gwarantując „prawa kobiet i społeczności LGBTIQ+”, ścigając tych, którzy podżegają do nienawiści wobec mniejszości, migrantów i osób najbardziej wrażliwych (pkt 84).

Zganiono Polskę, Słowację i Węgry oraz „organizacje skrajnie prawicowe” za dezinformację i „mowę nienawiści” wobec „społeczności LGBTIQ+” (pkt 86). Wezwano do opracowania programów budujących „odporność społeczeństwa na prawicowy ekstremizm”. Uznano, że należy „zbudować odporność na dezinformację” odnośnie do ukraińskich uchodźców i wojny na Ukrainie,

W punkcie 90. podkreślono konieczność zharmonizowanych działań – w oparciu o zharmonizowane ramy prawne UE – wymierzonych „w szerzenie dezinformacji i mowy nienawiści w kwestiach związanych z płcią kulturową, osobami LGBTIQ+, Romami, innymi mniejszościami, imigrantami i uchodźcami oraz osobami z niepełnosprawnościami, jak również wspólnotami religijnymi”. Ponowiono „apel do Komisji o opracowanie i wdrożenie strategii utrudniających finansowanie grup antygenderowych, ruchów i osób, które aktywnie rozpowszechniają dezinformację lub uczestniczą w manipulacjach informacyjnych ukierunkowanych na osoby LGBTIQ+, prawa kobiet, mniejszości, uchodźców i osoby z niepełnosprawnościami oraz kwestie ich dotyczące, w celu podzielenia społeczeństwa”.

Także „prawa kobiet” (pkt 91) mają być przedmiotem „dezinformacji” w zakresie zdrowia. Dlatego wezwano do zbadania źródeł finansowania szerzenia tych treści i stworzenia systemu wczesnego ostrzegania w tej kwestii

Unijne organy wypowiedziały wojnę szeroko rozumianej dezinformacji i informacjom prawdziwym, ale szkodliwym (MDM: dis- ,mis- i mal-information), chociaż nie ma legalnej definicji tego typu informacji.

Nie ma wątpliwości, jeśli uwzględni się szeroki kontekst globalny i podjęte inicjatywy zmierzające do wprowadzenia globalnej cenzury, iż właśnie do tego zmierzają wszelkie regulacje unijne i krajowe ograniczające przepływ informacji.

Przywoływane argumenty, jakoby chodziło o zabezpieczenie użytkowników przed niewłaściwymi treściami, nie mają znaczenia, tym bardziej, że istnieją przepisy Kodeksu karnego już pozwalające na ściganie za różne przestępstwa. Dlatego nie ma żadnego uzasadnienia dla potrzeby szerokiego blokowania treści, które nie podobają się rządzącym.

Nie można przyznawać tak dużych uprawnień urzędnikom, którzy w krótkim czasie mogą podjąć decyzje o blokadzie treści.

Przypomnijmy, że wolność słowa to jedna z podstawowych wolności konstytucyjnych chronionych także traktami i umowami międzynarodowymi. Obejmuje prawo do wyrażania swoich poglądów, ocen, opinii, przypuszczeń, informowania o faktach, a także pozyskiwania i rozpowszechniania informacji, zapoznawania się z opiniami innych, bez względu na ingerencję władz i granice państwowe.

Z powodu cenzurowania treści w sieci w USA toczą się kluczowe postępowania przed Sądem Najwyższym w sprawie nadmiernej ingerencji rządu i platform cyfrowych w wolność słowa obywateli. W komisjach kongresu prowadzone są dochodzenia w sprawie „Kompleksu Przemysłowego Cenzury”. Z zebranego materiału dowodowego wynika, iż organy władz państwowych zmierzają do wyrugowania z przestrzeni publicznej niektórych tematów mających zagrażać demokracji, „integralności wyborów”, „integralności informacji” i procesowi stanowienia polityki.

W ostatnich latach powstały cenzuralne inicjatywy globalne pod pretekstem ochrony „integralności wyborów”, „integralności informacji” i „obrony demokracji” np. Globalna Koalicja na rzecz Bezpieczeństwa Cyfrowego Światowego Forum Ekonomicznego i program ONZ w zakresie integralności informacji na platformach cyfrowych, by móc bez przeszkód realizować cele zrównoważonego rozwoju zapisane w Agendzie 2030 i cele porozumienia paryskiego w sprawie klimatu. Ta ostatnia inicjatywa Sekretarza Generalnego ONZ była omawiana we wrześniu 2024 roku podczas Szczytu Przyszłości.

Centra cyberbezpieczeństwa obecnie skupiają się na walce z „informacjami MDM”, a wzorem dla państw jest brytyjski program RESIST2. Z tego powodu tysiące osób w Wielkiej Brytanii ma sprawy i trafia do więzienia za emocjonalne posty, w których wyrazili swoją dezaprobatę np. dla mordercy (jego rodzice przybyli na Wyspy z Rwandy) kilku dziewczynek, które uczestniczyły w kursie tańca na wzór Taylor Swift.

Komisja sądownictwa w USA zarzuciła Obserwatorium Internetowemu Uniwersytetu Stanforda, Uniwersytetowi Waszyngtońskiemu, Laboratorium Badań Kryminalistycznych Atlantic Council i Graphice oraz sieci organizacji fact-checkingowych, że tworzą system cenzury nie tylko w USA, ale na całym świecie.

Raport komisji opublikowany w lutym 2024 roku piętnuje działania wielu agencji rządowych, ośrodków uniwersyteckich i sieci organizacji fact-checkingowych opracowujących narzędzia i nowe technologie, które mogą cenzurować przekazy na dużą skalę. Członkowie komisji ostrzegają, że – pod pozorem zajęcia się krytycznymi zagrożeniami dla systemów komunikacyjnych i „zwalczania fałszywych informacji/dezinformacji” – opracowywane są przez ośrodki uniwersyteckie zaawansowane narzędzia cenzury z użyciem „sztucznej inteligencji”. Przykładowo program MIT „efektywnych interwencji” celował w konserwatystów, mieszkańców wsi i weteranów wojennych oraz ich rodziny. Wszyscy oni mieli być „bardziej podatni na kampanie dezinformacyjne”. Tłumaczono to tym, że ci, którzy uważają, iż Konstytucja i Biblia są „święte”, mają odwagę dochodzić prawdy na własną rękę, analizując treści, odnosząc je do „pierwotnych źródeł”, zamiast ufać „profesjonalnemu konsensusowi”.

Podjęte działania zarówno na świecie, jak i w szczególności w Europie, a także Polsce służą przede wszystkim konsolidacji władzy i nie bez powodu w przestrzeni publicznej coraz częściej mówi się, iż zachodnie demokracje liberalne zmierzają w kierunku „miękkiego totalitaryzmu” (soft totalitarianism).

A tego nie można lekceważyć!

Agnieszka Stelmach

Chcesz wiedzieć więcej – zamów książkę:

 

 

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij
Komentarze(43)

Dodaj komentarz

Anuluj pisanie