12 września 2025

KE przegrała z Meta i TikTokiem. Chodzi o cenzorski „Akt o usługach cyfrowych” (DSA)

(Fot. stock.adobe.com)

Komisja Europejska właśnie poniosła porażkę w sądzie. Pod pretekstem walki ze „szkodliwymi informacjami” ustanowiła „Akt o usługach cyfrowych” (DSA), nakładając na platformy internetowe i wyszukiwarki wiele obowiązków cenzorskich związanych z „łagodzeniem ryzyk” – i żądając z tego tytułu „opłaty nadzorczej”.

Meta i TikTok pozwały Komisję Europejską po tym, jak ta zażądała od nich „opłaty nadzorczej” w wysokości 0,05% ich rocznego globalnego dochodu netto. Pozyskane środki miały pokryć wydatki związane z monitorowaniem przestrzegania „Aktu o usługach cyfrowych” przez KE.

W sumie DSA przyznaje KE nadzór nad bardzo dużymi platformami internetowymi i wyszukiwarkami, z których korzysta ponad 45 milionów użytkowników w UE rocznie. By sprawdzać, czy platformy i wyszukiwarki wywiązują się ze swoich obowiązków cenzorskich, Komisja zapowiedziała, że ​​będzie pobierać od nich roczną opłatę, opartą na średniej miesięcznej liczbie użytkowników.

Wesprzyj nas już teraz!

Szczegółowe zasady określające sposób ustalania wysokości opłat Bruksela przedstawiła 2 marca 2023 r. Następnie 25 kwietnia tego samego roku zaklasyfikowała Facebooka, Instagram i TikToka jako bardzo duże platformy i w listopadzie ostatecznie ustaliła, ile każda z tych platform ma zapłacić.

10 września br. Trybunał Sprawiedliwości UE orzekł, że opłaty nadzorcze Komisji nałożone na Facebooka, Instagram i TikToka są nieważne z przyczyn proceduralnych.
Opłaty ustalone w 2023 r. opierały się na średniej miesięcznej liczbie użytkowników każdej platformy oszacowanej na podstawie danych stron trzecich dołączonych do każdej decyzji. To właśnie tę metodologię zakwestionował trybunał, który zaznaczył, że obliczenie wysokości opłat powinno zostać ustalone w drodze aktu delegowanego, to jest procesu, w którym uczestniczą Parlament Europejski i Rada.

Sędziowie podkreślili, że KE nie mogła ustalać opłat na podstawie decyzji wykonawczych, które opracowała wyłącznie z własnej inicjatywy. Dlatego też sędziowie uchylili decyzje z 2023 r., nakazując KE korektę metodologii i wydanie nowych decyzji, zgodnych z procedurą. Trybunał jednak nie zakwestionował obowiązku uiszczania przez platformy internetowe i wyszukiwarki „opłat nadzorczych”.

Przedstawiciele TikToka zapowiedzieli, że będą „uważnie śledzić rozwój sytuacji w sprawie aktu delegowanego”. Z kolei przedstawiciele KE zaznaczają, że „orzeczenie Sądu Pierwszej Instancji wymaga jedynie formalnej korekty procedury”. Dodano, że Komisja ma 12 miesięcy na przyjęcie aktu delegowanego w celu „sformalizowania sposobu obliczania opłat i dostosowania nowych decyzji wykonawczych” , a wybrane spółki będą musiały uiścić opłatę nadzorczą za 2023 rok.

Akt o usługach cyfrowych (DSA), czyli rozporządzenie zaproponowane pod koniec 2020 roku przez KE odnosi się do regulacji usług platform cyfrowych i miało z założenia zharmonizować przepisy państw członkowskich dotyczące dostawców usług hostingowych.

Jednak trudno nie odnieść wrażenia, że KE chciała niejako przerzucić odpowiedzialność za walkę z mis-, mal- i dezinformacją („informacje MDM”) na platformy cyfrowe. Jest to niepokojąca tendencja do przenoszenia zadań i kompetencji podmiotów publicznych na wielkie korporacje wyjęte spod jakiejkolwiek realnej kontroli demokratycznej.

W rozporządzeniu DSA sformułowano pojęcie „nielegalnych treści” (art.3), włączając wszelkie przypadki treści już karanych, w tym dezinformacji zdefiniowanej w przepisach krajowych (uwzględnia rozbieżne podejścia krajowe). Akt więc, zamiast harmonizować przepisy, uwypukla rozbieżne podejście do kwestii zwalczania „informacji MDM” w różnych państwach członkowskich.

Rozporządzenie zobowiązuje „bardzo duże platformy internetowe” i „bardzo duże wyszukiwarki internetowe” do dokonania corocznej „oceny ryzyk systemowych” (art. 34) wynikających z funkcjonowania ich usług i powiązanych systemów algorytmicznych.

Katalog ryzyk jest obszerny. Zaliczono do nich: rozpowszechnianie nielegalnych treści; ryzyko faktycznych lub przewidywalnych negatywnych skutków dla wykonywania praw podstawowych, takich jak prawo do godności ludzkiej, do poszanowania życia prywatnego i rodzinnego, do ochrony danych osobowych, wolności wypowiedzi i informacji, w tym wolności mediów, niedyskryminacji, ochrony dzieci, konsumentów; wystąpienie faktycznych lub przewidywalnych negatywnych skutków dla dyskursu obywatelskiego i procesów wyborczych oraz dla bezpieczeństwa publicznego; ryzyko faktycznych lub przewidywalnych negatywnych skutków w związku z przemocą ze względu na płeć, ochronę zdrowia publicznego i małoletnich oraz poważnych negatywnych skutków dla fizycznego i psychicznego dobrostanu osoby.

Duże platformy i wyszukiwarki internetowe muszą dostosować swoje systemy algorytmiczne moderowania treści i reklamy do tych ryzyk.

W art. 34 jest mowa także o „celowej manipulacji ich usługą, w tym w wyniku nieautentycznego korzystania z usługi lub zautomatyzowanego wykorzystywania usługi, a także akceptowanie i potencjalnie szybkie i szerokie rozpowszechnianie nielegalnych treści i informacji, które są niezgodne z ich warunkami korzystania z usług”.
Wskazano ponadto na potrzebę uwzględniania specyfiki danego kraju, w tym regulacji uznających pewne treści za nielegalne. Ocena ryzyk podlega audytowi, dlatego też dokumentacja dotycząca oceny ryzyk musi być przechowywana przez 3 lata. W każdej chwili w tym okresie KE albo koordynator ds. usług cyfrowych może się zwrócić o jej udostępnienie.

Wprowadzono także mechanizm reagowania kryzysowego (art. 36). Na wniosek KE bardzo duża platforma lub wyszukiwarka internetowa mogą zostać zobowiązane do podjęcia określonych działań, by zapobiec wystąpieniu poważnego kryzysu, który ma miejsce wtedy, gdy „nadzwyczajne okoliczności prowadzą do zagrożenia bezpieczeństwa publicznego lub zdrowia publicznego w Unii lub w jej znacznej części” (art.36.2). ​Komisja może też wydawać wytyczne, zalecenia i sugerować najlepsze praktyki.

Rozporządzenie reguluje kwestie reklam (art. 39) pod kątem zagrożeń związanych z technikami manipulacyjnymi itp.

W motywie 83 DSA w związku z oceną ryzyka systemowego przez duże platformy i wyszukiwarki zwrócono uwagę na ryzyko systemowe obejmujące „skoordynowane kampanie dezinformacyjne dotyczące zdrowia publicznego”, a w motywie 84 podkreślono znaczenie ryzyka rozpowszechniania, co prawda treści legalnych, ale „wprowadzających w błąd lub zwodniczych treści, w tym dezinformacji”. „Uczulono” platformy i wyszukiwarki na zautomatyzowane przesyłanie treści za pośrednictwem fałszywych kont, botów itp.

Akt o usługach cyfrowych zachęca do tworzenia dobrowolnych kodeksów postępowania, dzięki którym – jeśli dane platformy internetowe zobowiążą się ich przestrzegać – będzie można monitorować i domagać się respektowania zawartych w nich zobowiązań dotyczących podjęcia konkretnych „środków ograniczających ryzyko”.
To dzięki tym kodeksom – zawierającym pewne „standardy” – egzekwuje się sankcje ograniczające wolność wypowiedzi.

Organy unijne kładą nacisk na samoregulację i skrupulatne egzekwowanie przyjętych „dobrowolnie” zobowiązań. Dzięki temu unikają oskarżeń o próby narzucenia cenzury czy też ograniczenia debaty publicznej. W sytuacji przyjęcia kodeksu postępowania przez platformy, KE zyskuje instrument do egzekwowania bardziej rygorystycznych zasad.

Już na etapie projektowania rozporządzenia wprowadzono kilka przepisów mających kluczowe znaczenie dla zmiany unijnej polityki dezinformacyjnej.
Pierwszy dotyczy art. 9, który wymaga od platform internetowych podjęcia „bez zbędnej zwłoki”: działań przeciwko „nielegalnym treściom” na polecenie „odpowiednich krajowych organów sądowych lub administracyjnych”.

Stworzono tym samym mechanizm prawny, który pozwala przedstawicielom władzy żądać usuwania „bez zbędnej zwłoki” treści uznanych za „nielegalne”. Definicja „treści nielegalnych” jest szeroka.

Kliknij TUTAJ i sprawdź jak zamówić książkę.

Drugi przepis to art. 16 dotyczący mechanizmu zgłaszania przez indywidualne osoby treści, które uważają one za „nielegalne”. Po zgłoszeniu dostawca usług hostingowych może podjąć decyzję o zablokowaniu ich, działając „z należytą starannością” – bez konieczności przeprowadzenia „szczegółowej analizy prawnej”. Dostawca usług hostingowych nie tylko musi zarejestrować zgłoszenie, podjąć określone działania, ale także poinformować zgłaszającego o podjętych czynnościach.

Trzeci przepis to art. 22 dotyczący zaufanych podmiotów sygnalizujących, który wprowadza „priorytetowe traktowanie zgłoszeń dokonywanych przez zaufane podmioty sygnalizujące, działające w wyznaczonych dziedzinach, w których dysponują wiedzą ekspercką (…), a także rozpatrywania takich zgłoszeń oraz podejmowania decyzji w sprawie bez zbędnej zwłoki”. Ta norma prawna pozwala na priorytetowe traktowanie np. naukowców wybranych uczelni i wybrane organizacje fact-checkingowe, które zajmują się sprawdzaniem wiarygodności informacji. Tego typu organizacje w USA uwikłane są w projekty tworzenia systemu globalnej cenzury (sprawy przed amerykańskim SN i dochodzenia komisji sądowniczej Izby Reprezentantów).

Wskutek przyjęcia DSA, która zaczęła obowiązywać w stosunku do dużych platform i wyszukiwarek od 25 sierpnia 2023 roku, a w stosunku do pozostałych dostawców usług pośrednich – od 17 lutego 2024 roku, KE uniknęła oskarżeń o próbę sankcjonowania dezinformacji w oparciu o niejasną i zbyt szeroką definicję. Jednak nie ulega wątpliwości, że celem organów unijnych (na co wskazują bezpośrednie odniesienia do dezinformacji w motywach DSA) była chęć uregulowania i zwalczania dezinformacji rozpowszechnianej w internecie (motyw nr 2).

Akt o usługach cyfrowych jest też pierwszą na świecie regulacją cyfrową, która nakłada na firmy cyfrowe w całej UE odpowiedzialność za treści zamieszczane na platformach do nich należących. Jednak walkę z „informacjami MDM” prowadzi się za pomocą wytycznych i kodeksów postępowania określających pewne standardy, jakie powinni spełniać dziennikarze, wydawcy, reklamodawcy i dostawcy usług internetowych.

DSA była już kilkukrotnie wykorzystywana przez KE w czasie wyborów powszechnych w różnych krajach, w tym w Rumunii, aby unieważnić wyniki głosowania. Powoływano się na zewnętrzną ingerencję innych państw, w tym Rosji, w proces wyborczy. Niewątpliwie to unijne rozporządzenie z każdym rokiem obowiązywania staje się głównym narzędziem ingerencji Brukseli w wewnętrzne procesy wyborcze innych państw UE.

Szerzej na ten temat w książce pt. „Misinformacja, Dezinformacja, Malinformacja. Jak powstaje system globalnej cenzury” dostępnej na stronie:

studiadoktrynalne.pl

Kliknij TUTAJ i sprawdź jak zamówić książkę.

Źródło: brusselssignals.eu

AS

 

 

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2025 rok

Zatrzymaj ideologiczną rewolucję. Twoje wsparcie to głos za Polską chrześcijańską!

mamy: 237 015 zł cel: 500 000 zł
47%
wybierz kwotę:
Wspieram