27 października br. w Dzienniku Urzędowym Unii Europejskiej opublikowano ustawę o usługach cyfrowych (DSA), która otwiera drogę do usankcjonowania cenzury w krajach UE. Teoretycznie ma ona chronić prawa użytkowników w internecie. W praktyce przewiduje między innymi usuwanie wiadomości prawdziwych, które unijne i lokalne władze uznają za szkodliwe dla społeczeństwa.
Nowe prawo UE reguluje między innymi odpowiedzialność bardzo dużych platform internetowych za rozpowszechnianie treści zabronionych przez prawo w państwach członkowskich UE, takie jak „mowa nienawiści”, podżeganie do terroryzmu i wykorzystywania seksualnego dzieci. DSA przewiduje jednak usuwanie wiadomości prawdziwych, które potencjalnie mogłyby zaszkodzić instytucjom unijnym i prowadzonej przez nie polityce. Jak daleko sięgną te ograniczenia okaże się w praktyce wraz z przyjmowanymi definicjami roboczymi szkodliwych treści i kodeksów etycznych, które będą musiały przestrzegać bardzo duże platformy internetowe.
„Złoty standard” cenzury europejskiej
Wesprzyj nas już teraz!
Jednak już teraz można stwierdzić, że „złoty standard” – jak się określa reguły zapisane w DSA – cenzury europejskiej różni się od zasad wolności słowa chociażby w USA. Istnieje ryzyko nadmiernego ograniczania wolności słowa i rygorystycznego egzekwowania prawa w tym zakresie w UE. Regulacja unijna najprawdopodobniej spowoduje więcej sporów i konfliktów odnośnie globalnych standardów wolności słowa.
Warto zauważyć, że europejscy politycy zatwierdzili ustawę o usługach cyfrowych w tym samym czasie, gdy za oceanem sądy podjęły decyzje o ograniczeniu cenzury stosowanej przez gigantów internetowych. Ameryka idzie w odwrotnym kierunku niż Europa.
Pod koniec września br. amerykański federalny Sąd Apelacyjny podtrzymał prawo Teksasu, które uniemożliwia gigantom mediów społecznościowych usuwanie postów użytkowników w oparciu o punkt widzenia platformy. Sprawa najprawdopodobniej trafi do Sądu Najwyższego i z pewnością będzie jej towarzyszyła ogromna kampania na rzecz zachowania wolności słowa, co gwarantuje pierwsza poprawka do konstytucji. Zresztą dla Amerykanów ta poprawka zawsze była bardzo ważna.
Niedawno Sąd Najwyższy zgodził się rozpatrzyć sprawę dotyczącą sekcji 230 ustawy federalnej Communications Decency Act, chroniącej platformy mediów społecznościowych przed odpowiedzialnością za treści zamieszczane i rozpowszechniane przez użytkowników. Czy Amerykanom uda się obronić pierwszą poprawkę do konstytucji i uchronić przed cenzurą, czas pokaże.
Europejczycy nie wykazali się podobną determinacją, by bronić wolności słowa. W rezultacie eurokraci przyjęli ustawę DSA, która – jak podkreśliła Komisja Europejska – „ustanawia bezprecedensowy nowy standard odpowiedzialności platform za nielegalne i szkodliwe treści” i ma zapewnić użytkownikom sieci wzmożoną ochronę, a także ich prawa podstawowe.
Zdaniem czeskiego ministra przemysłu i handlu Jozefa Sikela, „Ustawa o usługach cyfrowych jest jedną z najbardziej przełomowych regulacji horyzontalnych UE”. Minister jest przekonany, że stanie się ona „złotym standardem” dla innych regulatorów na świecie, ustanawiając „nowe standardy bezpieczniejszego i bardziej odpowiedzialnego środowiska internetowego”.
DSA oznacza nowe relacje między platformami internetowymi a użytkownikami i organami regulacyjnymi w Unii Europejskiej oraz poza nią.
Jest to także najambitniejsza regulacja na świecie, jeśli chodzi o nadzór internetowy. Ustawa określa obowiązki i odpowiedzialność dostawców usług pośredniczących (media społecznościowe, internetowe platformy handlowe, bardzo duże platformy internetowe i bardzo duże wyszukiwarki internetowe). Im większa platforma tym bardziej rygorystyczne przepisy musi przestrzegać.
Zgodnie z założeniami DSA, bardzo duże platformy będą ponosić odpowiedzialność za rozpowszechnianie „nielegalnych i szkodliwych treści”. Platformy będą musiały wdrożyć mechanizmy oceniania i szybkiego usuwania „szkodliwych” treści, przy jednoczesnym poszanowaniu praw podstawowych.
Strażnicy prawomyślności, którym będą pomagać użytkownicy wysyłający powiadomienia z żądaniami usuwania pewnych informacji, będą analizować „zagrożenia systemowe” ze strony tychże wiadomości dla praw podstawowych, procesów wyborczych, bezpieczeństwa publicznego, spójności społecznej, różnorodności i inkluzywności. Na celowniku znajdą się wiadomości prawdziwe, które jednak mogłyby zaszkodzić unijnym władzom, polityce unijnej, mogłyby podkopywać zaufanie do instytucji, powodować dyskomfort psychiczny wybranych grup itp.
Kwestia ustalania co jest wiadomością szkodliwą budzi ogromne obawy, ponieważ nie ma definicji prawnej tego typu wiadomości. Ich określenie pozostaje w rękach rządzących eurokratów, którzy przygotowują kodeksy postępowania w tym zakresie. DSA przewiduje także respektowanie ograniczeń wolności wypowiedzi narzuconych przez krajowe organy.
Duże platformy internetowe będą musiały moderować treści, reklamy online i zapewnić przejrzystość dla przedsiębiorców. Większość firm będzie miała czas na dostosowanie swojej polityki do wymogów zawartych w DSA do 17 lutego 2024 r. Bardzo duże platformy są zobowiązane przestrzegać regulacji cztery miesiące po ich wyznaczeniu przez Komisję Europejską (KE) jako podmioty spełniające warunki bardzo dużych platform internetowych, co ma nastąpić już w pierwszej połowie 2023 r.
Unijna ustawa o usługach internetowych stanowi uzupełnienie ustawy o rynkach cyfrowych (DMA), która weszła w życie 1 listopada 2022 r.
Duże platformy muszą nie tylko moderować treści/powiadomienia i usuwać informacje nawet prawdziwe, które uznane zostaną za szkodliwe. DSA odnosi się także do innych regulacji m.in. o zwalczaniu terroryzmu w internecie. Zobowiązuje ona platformy do usuwania treści o charakterze terrorystycznym w ciągu godziny od otrzymania nakazu usunięcia od właściwego organu. Regulacja stosuje się także do reklam politycznych, materiałów związanych z wykorzystywaniem seksualnym dzieci, handlu elektronicznego.
DSA odnosi się do „usług pośredniczących” (dostawców kanałów, usług pamięci podręcznej i usług hostingowych, w tym platform internetowych i wyszukiwarek). Większe obowiązki nałożono na platformy mediów społecznościowych. Platformy będą musiały stosować się do nakazów przeciwko treściom o charakterze bezprawnym oraz nakazów udzielenia informacji, które będą wydawane przez krajowe organy sądowe lub administracyjne. Mogą one żądać usunięcia treści lub dostarczenia informacji o poszczególnych odbiorcach usług.
Mają obowiązywać lepsze warunki T&C, to znaczy platformy muszą podać wystarczająco szczegółowe informacje dotyczące moderacji treści, w tym algorytmicznego podejmowania decyzji, procedur składania skarg, odwoływania się od nich itd. Będą musiały mieć swoich przedstawicieli w krajach członkowskich, by ułatwić proces pozywania do sądu. Wszelkie istotne zmiany muszą być komunikowane użytkownikom, a usługi dla dzieci muszą być dostosowane do ich poziomu zrozumienia.
Platformy będą publikować roczne raporty dotyczące moderacji treści i je udostępniać opinii publicznej. Każda firma, która przechowuje lub udostępnia informacje musi umożliwić użytkownikom oznaczanie nielegalnych treści w internecie. Platformy będą musiały przestrzegać nowych wymogów reklamowych, będą mogły zawiesić konta użytkownika itp.
Usługi pośrednictwa będą regulowane przez krajowe organy regulacyjne, koordynowane przez jednego koordynatora usług cyfrowych w każdym państwie członkowskim. KE powoła do istnienia nową „Europejską Radę ds. Usług Cyfrowych”, która zajmie się egzekwowaniem przepisów DSA w całej UE. Kary za nieprzestrzeganie przepisów są wysokie i mogą wynieść maksymalnie sześć procent rocznych światowych obrotów firmy.
Co istotne, DSA wprowadza mechanizm reagowania kryzysowego, który pozwala władzom UE arbitralnie oceniać, jakie informacje muszą być natychmiast usuwane przez bardzo duże platformy internetowe (mechanizm uzasadniano szerzeniem rosyjskiej dezinformacji po agresji na Ukrainę, pandemią itp.).
Obowiązek usuwania wiadomości prawdziwych, ale „szkodliwych”
Unijne organy wypowiedziały wojnę szeroko rozumianej dezinformacji i informacjom prawdziwym, ale szkodliwym (MDM: dis- ,mis- i mal-information).
Jak na razie na świecie nie ma prawnej definicji tego typu informacji. Przyjmuje się definicje robocze. W 2018 r. Komisja Europejska (KE) stworzyła unijny kodeks postępowania w zakresie dezinformacji. Dwadzieścia jeden firm zgodziło się go przestrzegać np. Facebook, Google i Twitter, które opracowały biblioteki reklam do katalogowania reklamodawców politycznych. Twitter opublikował dane dotyczące usuwanych postów. Wiele firm rozszerzyło mechanizmy sprawdzania faktów i wykrywania dezinformacji.
Unijny kodeks spotkał się z krytyką za to, że platformy nie musiały raportować szczegółowo o usuwanych treściach. Dokonano więc przeglądu kodeksu z 2018 r. i 16 czerwca 2022 r. Komisja opublikowała znowelizowany Kodeks, zawierający 44 zobowiązania i 128 konkretnych środków w porównaniu z 21 zobowiązaniami pierwotnego Kodeksu etycznego przeznaczonego dla dostawców usług internetowych. Jego wdrożenie rozpocznie się na początku 2023 roku.
Kodeks z 2022 r. przewiduje „odszkodowanie za rozpowszechnianie dezinformacji”, nowe mechanizmy monitorowania reklam, weryfikację lokalizacji reklam i unikanie umieszczania obok dezinformacji, stworzenie bardziej rygorystycznych wymagań kwalifikacyjnych i mechanizmów oceny treści dla programów monetyzacji treści i dzielenia się przychodami z reklam, identyfikację treści i źródeł rozpowszechniających szkodliwą dezinformację, wypracowanie wspólnej definicji reklamy politycznej i „reklamy problemowej”, jasne etykiety reklam politycznych i tematycznych, które pozostaną, gdy użytkownicy udostępnią reklamy.
Kodeks nakłada również na firmy obowiązek identyfikacji sponsorów przed umieszczeniem reklamy oraz usuwania sponsorów, którzy nie spełniają wymogów dotyczących reklam politycznych i emisji. Firmy muszą utworzyć repozytorium reklam z zapisami w czasie zbliżonym do rzeczywistego wszystkich wyświetlanych reklam politycznych i emisji, archiwizować reklamy przez co najmniej pięć lat i tworzyć przeszukiwalne interfejsy API z tymi informacjami.
Platformy muszą również badać wykorzystanie dezinformacji w reklamach politycznych itp. Kodeks przewiduje większe zobowiązania dotyczące „zwalczania manipulacyjnych podmiotów i zachowań”. Grupa zadaniowa sporządzi listę taktyk, technik i procedur (TTP) wykorzystywanych przez złośliwych cyberprzestępców i co roku będzie ją aktualizować. Kodeks zaleca przykłady z AMITT Disinformation Tactics, Techniques and Procedures Framework, w tym operacje hack-and-leak, przejmowania kont i podszywania się pod daną tożsamość. Kodeks wymaga również, aby firmy zobowiązały się do działania przeciwko praktykom manipulacyjnym zabronionym na mocy projektu ustawy o sztucznej inteligencji Ponadto platformy mają koordynować wymianę informacji odnośnie dezinformacyjnych operacji zagranicznych.
Kodeks z 2022 r. utrzymuje zalecenia z 2018 r. dotyczące opracowania wskaźników wiarygodności platform, a także umieszczania znaków wskazujących na wiarygodność treści lub blokowanie pewnych treści. Wzywa także do sprawdzania faktów we wszystkich językach państw członkowskich.
W Kodeksie z 2022 r. każde zobowiązanie i środek mają wskaźniki poziomu usług (SLI) i elementy raportowania jakościowego (QRE),
„Kodeks odegra ważną rolę w ocenie, czy bardzo duże platformy spełniły swój prawny obowiązek ograniczenia ryzyka wynikającego z szerzenia dezinformacji w ich systemach” – oznajmili wiceprzewodnicząca Komisji Europejskiej Vera Jourová i komisarz europejski Thierry Breton.
Ponieważ Kodeks jest powiązany z DSA, platformy internetowe są zagrożone wysokimi karami i będą musiały poddać się obowiązkowym ocenom ryzyka i zewnętrznym audytom pod kątem zagrożenia szerzenia dezinformacji.
KE będzie musiała ocenić, czy firmy znacznie poprawiły mechanizmy walki z dezinformacją, czy też będą konieczne bardziej rygorystyczne ramy prawne w tym zakresie.
Władze UE określą katalog „legalnych, prawdziwych treści”, które platformy jednak nie będą mogły powielać. Katalog ten może objąć także tzw. teorie spiskowe.
Walka z „teoriami spiskowymi”
Komisja Europejska wraz z UNESO jeszcze w czasie tzw. pandemii COVID-19 opracowała infografiki, które miały pomóc w budowaniu „odporności społecznej” na szkodliwe informacje szerzone w internecie.
Teorie spiskowe zdefiniowano jako „przekonania, że pewnymi wydarzeniami lub sytuacjami manipulują potężne siły o wrogich zamiarach”. Wskazano na cechy teorii spiskowych, do których zaliczono: domniemany tajny spisek, grupę spiskowców, „dowody”, które wydają się potwierdzać teorię spiskową, sugerowanie, że nic nie dzieje się bez przyczyny, nic nie jest takie, na jakie wygląda i wszystko jest ze sobą związane. Dodano, że teoria spiskowa dzieli świat na dobrych i złych, a pewne osoby i grupy traktuje się jak „kozły ofiarne”.
KE wyjaśniła, że „teorie spiskowe często pojawiają się jako logiczne wyjaśnienia wydarzeń lub sytuacji, które trudno jest zrozumieć, i dają fałszywe poczucie kontroli oraz sprawczości. Ta potrzeba prostego wyjaśnienia wzmaga się w momentach niepewności, takich jak pandemia COVID-19”. Te teorie zakorzeniają się z powodu podsycania podejrzliwości. Powstają, gdy zadaje się pytanie: „kto odnosi korzyści z danego wydarzenia lub sytuacji i w ten sposób identyfikuje się spiskowców. Następnie na siłę dopasowuje się do teorii wszelkie dowody”.
Kiedy takie teorie się już zakorzenią, szerzą się bardzo szybko. „Trudno jest je podważyć, ponieważ każdą osobę, która próbuje to zrobić, postrzega się jako biorącą udział w spisku” – ostrzegła Bruksela. Eurokraci wraz z przedstawicielami UNESCO uznali, że ludzie rozpowszechniają teorie spiskowe, ponieważ wierzą, że są one prawdziwe albo chcą prowokować, manipulować i wpływać na innych z przyczyn politycznych lub finansowych. KE przestrzega, by nie ufać nawet członkom najbliższej rodziny i powstrzymać się od szerzenia tego typu teorii.
MDM: mis-, dis- i mal-information
Bruksela przywołuje także opracowania innych podmiotów, w tym amerykańskich agencji do zwalczania cyber-zagrożeń. Odwołano się do typologii fałszywych treści stworzonej przez amerykańską badaczkę Claire Wardle. Dzieli ona treści na dwa rodzaje dezinformacji: mis-information, gdy ktoś nieumyślnie udostępnia fałszywe informacje, oraz dis-information, kiedy ktoś celowo tworzy i udostępnia fake newsy. Ponadto wskazuje ona, że nie tylko fałszywe treści mogą być szkodliwe. Także wiadomości prawdziwe, oparte na faktach mogą być wykorzystane w celu szkodzenia osobom, grupom społecznym, organizacjom czy instytucjom krajowym. Są to tak zwane informacje złośliwe, czyli mal-information.
Według Wardle, żeby lepiej zrozumieć ekosystem informacji, trzeba go badać pod trzema względami: 1) typów treści, które są tworzone i rozpowszechniane, 2) motywacji twórców tych treści, oraz 3) sposobów ich rozpowszechniania.
Stąd mamy: misleading content – informacje wprowadzające w błąd, wykorzystane w celu zafałszowania danej kwestii; fabricated content (sfabrykowane treści) – nowe treści są w stu procentach fałszywe, ale stworzone, aby oszukiwać i powodować szkody; false context (fałszywy kontekst) – prawdziwe treści łączone z fałszywą kontekstowo informacją; manipulated content (zmanipulowane treści) – prawdziwa informacja jest zmanipulowana w celu oszukania odbiorcy.
Badaczka sugeruje, że szkodliwe informacje pojawiają się ze względów politycznych, z powodu niskiego poziomu dziennikarstwa, chęci prowokacji, braku obiektywizmu, celowych działań propagandowych.
Treści te mogą być rozpowszechniane nieświadomie, bez sprawdzania ich w social mediach przez zwykłych użytkowników. Niekiedy uwiarygadniają je dziennikarze pracujący pod presją przekazywania wiadomości w czasie rzeczywistym. Innym razem powiązane grupy propagują je, bo chcą wpłynąć na opinię publiczną (zaawansowane kampanie dezinformacyjne za pomocą sieci botów – automatyczne rozsiewanie treści – i tzw. fabryk trolli, czyli fałszywych kont). Boty i trolle wykonują podobne zadania, z tym, że boty są zaprogramowane.
Źródłem dezinformacji rządy i politycy
Nie tylko UE chce regulować przestrzeń internetu, pomijając oczywiście kraje takie, jak: Chiny, Iran czy Rosja.
Niektóre państwa zdecydowały się na karanie internautów za umieszczanie obraźliwych dla władzy wpisów np. w Salwadorze czy w Arabii Saudyjskiej, gdzie do karania za obraźliwe, prześmiewcze wpisy wykorzystuje się przepisy o cyberbezpieczeństwie.
W Indonezji zaproponowano nowelizację kodeksu karnego, którą władze zamierzają przyjąć jeszcze przed wyborami zaplanowanymi na 2024 r. Nowe regulacje pozwolą na skazywanie dziennikarzy za krytykę władzy. Znieważenie prezydenta i wiceprezydenta będzie przestępstwem zagrożonym karą do pięciu lat więzienia. Za obrazę rządu będzie grozić półtora roku więzienia.
W USA firma Fog Data Science z siedzibą w Wirginii już zbiera dane o potencjalnych osobach, które mogłyby być ścigane za obraźliwe posty albo podejmowały zakazaną aktywność. Dane te sprzedaje stanowym i lokalnym organom ścigania.
Najwięcej jednak dezinformacji pochodzi od partii politycznych i samych rządzących. Tak przynajmniej wynika z badania przeprowadzonego w Malezji. Przegląd komunikatów dotyczących kampanii publikowanych w mediach i przywoływanych w analizach wyborów w Malezji od 1999 roku ujawnia obecność pięciu powtarzających się wzorców dezinformacji popełnianych przez agencje rządowe i partie polityczne. Think tank Asia Center, instytut badawczy o specjalnym statusie konsultacyjnym przy Radzie Gospodarczej i Społecznej ONZ wskazał, że w ostatnich pięciu kampaniach wyborczych przekazy budowano wokół fałszów związanych z „orientacją seksualną” kandydata, promiskuityzmem, korupcją, uczciwością wyborów, atakami na polityczki i ingerencją z zagranicy.
James Gomez, dyrektor regionalny Asia Centre ostrzegał, że kampania dezinformacyjna nasili się podczas wyborów powszechnych (GE15) w Malezji, które muszą odbyć się do września 2023 roku.
Nauka, jej błędy i cenzura
Royal Society z kolei przestrzega przed cenzurą dezinformacji naukowej w internecie. W styczniu 2022 r. brytyjskie towarzystwo naukowe, jedno z najstarszych na świecie zasugerowało, że cenzura w sieci nawet szkodliwych wiadomości naukowych nie jest dobrym rozwiązaniem.
Towarzystwo wypowiedziało się przeciwko brytyjskiemu projektowi ustawy dotyczącej bezpieczeństwa w internecie, która koncentruje się na szkodach dezinformacji dla osób fizycznych, nie dostrzegając szerszych „szkód społecznych”. Dezinformacja na temat zagadnień naukowych, od bezpieczeństwa szczepionek po „zmiany klimatyczne”, może wyrządzić szkody jednostkom i społeczeństwu. Jednak – jak podkreślono – zmuszanie platform do usuwania pewnych treści może doprowadzić do jeszcze większego kryzysu zaufania do władzy i instytucji.
Profesor Frank Kelly, matematyk z Uniwersytetu Cambridge podkreślił, że „nauka balansuje na krawędzi błędu” i że „zawsze istnieje niepewność”. Jeśli zaś będzie twierdzić się, jak to miało miejsce we wczesnych dniach „pandemii”, iż „nauka” w danej kwestii jest „absolutna”, pewna, a potem, gdy pojawią się korekty wcześniejszych ustaleń, to ludzie przestaną wierzyć naukowcom. Tymczasem ciągłe dociekanie prawdy, sprawdzanie, testowanie jakiejś „mądrości” jest „integralną częścią postępu nauki i społeczeństwa”.
„Ważne jest, aby o tym pamiętać, gdy staramy się ograniczyć szkody wyrządzane społeczeństwu przez dezinformację naukową” – zaznaczył profesor. Jego zdaniem lepszym sposobem walki z dezinformacją naukową jest wspieranie pluralizmu mediów i niezależnego sprawdzania faktów. Solidne, zróżnicowane, niezależne media informacyjne przynoszą korzyści nauce i zrozumieniu opinii publicznej. Podobnie, należy inwestować w umiejętność korzystania z informacji przez całe życie: edukacja w zakresie umiejętności cyfrowych nie powinna ograniczać się do szkół i uczelni.
Demonetyzacja, algorytmy, etykietowanie, sprawdzanie faktów to tylko niektóre ze stosowanych narzędzi walki z dezinformacją.
Departament Bezpieczeństwa Wewnętrznego USA zamknął niedawno Radę Zarządzania Dezinformacją, ale udziela milionowych dotacji dla organizacji pozarządowych na zwalczanie MDM (mis-, dis- i mal-information). Wojnę wypowiada się „ekstremistom” w sieci, by tłumic wypowiedzi konserwatystów.
„Mowa nienawiści” nielegalna. Ale czym ona jest?
Europejska ustawa o usługach cyfrowych wprowadza wspólne zasady dotyczące zwalczania nielegalnych i szkodliwych treści, w tym nielegalnej „mowy nienawiści”. Jednak do tej pory nie ma prawnie wiążącej definicji „mowy nienawiści: ani w UE, ani na świecie. Mowa ta kojarzy się z wyrażeniami mogącymi wywoływać nienawiść wobec pewnych grup (w zależności jakie kryterium cech się przyjmie). Jednak nie ma akceptowanej międzynarodowej definicji takiej mowy. Co zostanie podciągnięte pod „mowę nienawiści” ustalają władze krajowe.
KE zaproponowała w grudniu 2021 r. rozszerzenie wykazu przestępstw UE, uwzględniających „mowę nienawiści i przestępstwa z nienawiści”.
Irlandzki projekt nowej ustawy o przestępstwach z nienawiści (HCB) uwzględnia te propozycje. Sugeruje się w nim, by uznać daną osobę winną wykroczenia, gdy komunikuje się z opinią publiczną lub sektorem opinii publicznej w jakikolwiek sposób, w celu świadomego lub lekkomyślnego podżegania do nienawiści przeciwko innej osobie lub grupie osób ze względu na ich rzeczywiste lub domniemane skojarzenie o chronionej charakterystyce.
„Nienawiść” zdefiniowano jako „złą wolę lub wrogość”, która prawdopodobnie może doprowadzić do szkody lub bezprawnej dyskryminacji przeciwko osobie lub grupie osób należących do grupy osób o chronionej charakterystyce albo o chronionej cesze np. rasa, kolor skóry, narodowość, religia, etniczność lub pochodzenie narodowe, „orientacja seksualna”, płeć, niepełnosprawność.
Lekkomyślne podżeganie do nienawiści miałoby być kryminalizowane. Co znaczy lekkomyślne? Gdy osoba jest świadoma, że istnieje znaczne ryzyko, iż dana komunikacja wzbudzi nienawiść. Osoba musi „przynajmniej zastanowić się, czy to, co robi wzbudzi nienawiść i stwierdzić, że jest to bardzo prawdopodobne, i mimo to będzie dalej działać w tym kierunku”.
Irlandzki projekt zabrania podżegania do nienawiści przeciwko osobom, które przez swoje cechy mogą być kojarzone z daną grupą. Dlatego też nawet informacje prawdziwe prezentujące statystyki przestępstw z uwzględnieniem podziału na grupy etniczne, mogą być uważane za naruszające prawo. Nie można byłoby „rozpowszechniać stereotypów”. Irlandzka regulacja wprowadza wiele niejasności i wyjątków np. dla artystów, literatów, ale nie dla księgarzy, mniejszych mediów itp.
Ustawa miałaby kryminalizować materiały, które nie są nienawistne, cenzurować materiały legalne, ale z jakiś względów szkodliwe dla władzy. Kryminalizowana może być nawet uzasadniona krytyka polityków, ponieważ może potencjalnie wywołać nienawiść przeciwko krytykowanym.
Jak widać, to, jak daleko posunie się cenzura zależy od tego, jakie treści zostaną uznane przez obecnych rządzących za szkodliwe. KE wykonała pierwsze kroki, zachęcając do stosowania szerokiego pojęcia szkodliwych treści. W najbliższych miesiącach na różnych warsztatach będzie określany katalog przestępstw z nienawiści i szkodliwych treści, które duże platformy będą miały obowiązek usuwać, a potencjalnych użytkowników łamiących przepisy będą musiały zgłaszać do odpowiednych urzędów.
Polska policja wskazuje, że stosuje definicję Rady Europy odnośnie ścigania „mowy nienawiści”. Definicja stanowi, że mowa nienawiści to „wypowiedzi, które szerzą, propagują i usprawiedliwiają nienawiść rasową, ksenofobię, antysemityzm oraz inne formy nietolerancji, podważające bezpieczeństwo demokratyczne, spoistość kulturową i pluralizm”. Najczęściej zaś hejtowanymi grupami mają być: „mniejszości nieheteronormatywne”, mniejszość romska, osoby czarnoskóre, mniejszość żydowska, muzułmanie i mniejszość ukraińska.
Policja wskazuje, że trudno jest jednoznacznie orzec, co stanowi „mowę nienawiści”. Może więc zdarzyć się – i to wcale nierzadko – nadgorliwe usuwanie przez platformy pewnych treści w obawie o wysokie kary.
Ustawa o usługach cyfrowych chce bowiem ograniczyć szerzenie się „mowy nienawiści” i „treści ekstremistycznych”, które mogą stwarzać „ryzyko społeczne”. A pod tę kategorię można podciągnąć wiele rzeczy. Dlatego można spodziewać się w przyszłości jedynie dalszej erozji zaufania obywateli do instytucji w państwie, większej polaryzacji społecznej i dalszego ucisku rządzących.
Agnieszka Stelmach
Zadłużanie może doprowadzić Polskę do bankructwa. U kogo „siedzimy” w kieszeni?