Co należy rozumieć pod określeniem „cenzura w sieci”?
Dla mnie słowo to oznacza przede wszystkim działania, które zmierzają do nadmiarowego ograniczania rozpowszechniania informacji w internecie. Przy czym kluczowym słowem jest tutaj „nadmiarowe”. Nie chodzi o każde usunięcie jakiegoś materiału z sieci, ale tylko takie, gdy jest to działanie nieuzasadnione, nieproporcjonalne, zwłaszcza gdy stoi za tym intencja wyeliminowania z debaty publicznej jakiegoś niewygodnego głosu np. z przyczyn politycznych czy ideologicznych. Jednocześnie nie można mówić o cenzurze, gdy mamy do czynienia z blokowaniem nielegalnych, realnie niebezpiecznych treści, które w ogóle wykraczają poza ramy tego, co chroni wolność słowa, w szczególności skrajnych wypowiedzi, takich jak mowa nienawiści czy nawoływanie do przemocy.
CZYTAJ TEŻ: Rząd chce blokować treści w sieci. Eksperci widzą w tym zagrożenie
Kiedyś mówiono, że w dobie internetu nie da się blokować przepływu informacji, ale to nieprawda.
Zgadza się, całkowicie swobodny obie informacji w sieci to mit. Różne formy jego ograniczenia mogą nas spotkać za równo ze strony organów państwa (w Polsce już teraz, w zależności od okoliczności, różne organy mogą wydać nakaz zablokowania określonych treści w sieci czy całych stron internetowych), jak i prywatnych firm świadczących usługi w sieci (w postaci np. usunięcia postu czy całego konta w portalu społecznościowym). A im bardziej „zcentralizowany” internet, tym łatwiej kontrolować obieg treści. Jeśli dla kogoś podstawowym kanałem dostępu do odbiorców jest któraś z największych platform społecznościowych, które w dużym stopniu zmonopolizowały dziś komunikację internetową, to w praktyce dana firma internetowa ma olbrzymią władzę nad tym, co ta osoba może powiedzieć, ale też na to, kto i jak duża grupa odbiorców zobaczy jej przekaz. Niestety zdarza się czasem, że z platform z niejasnych przyczyn znikają różne legalne, wręcz pożyteczne materiały (albo są im obcinane zasięgi). Takie nadmiarowe usuwanie treści na podstawie wewnętrznych regulacji platform, często bez podania klarownego uzasadnienia i możliwości skutecznego zakwestionowania takiej decyzji nazywamy w Panoptykonie „prywatną cenzurą”, która – w mojej ocenie – stanowi dziś równie poważne wyzwanie dla wolności słowa, jak ryzyko nakładania nadmiarowych ograniczeń w tym zakresie przez państwo.
Inny przykład – nawet jeśli jakąś treść jest obecna w sieci, ale link do niej zostanie usunięty z wyników wyszukiwania najpopularniejszej na świecie wyszukiwarki, z której udział w rynku to ok. 90 proc., to w praktyce bardzo zmniejsza to szanse dotarcia do takiego materiału. Działa to trochę na takiej zasadzie, jakbyśmy usunęli jakieś miejsce z mapy – ono wciąż istnieje, ale w praktyce mało kto tam trafi. Realnie więc, kilka największych globalnych firmy internetowych ma na co dzień pewnie dużo większy wpływ na realizację swobody wypowiedzi w sieci, niż państwa, w każdym razie te o demokratycznym ustroju.
W pewnym sensie tej swobody ostatnio przybyło. X zrezygnował z factcheckingu, Meta znacznie poluzowała kryteria uznawania treści za niedozwolone. Tymczasem podnoszą się głosy ostrzegające, że to godzi w demokrację. Faktycznie?
Zarówno współpraca z niezależnymi fact-checkerami, jak i zapewnienie odpowiednich zasobów do moderacji treści to niewątpliwie środki, które sprzyjają ograniczaniu różnych ryzyk związanych funkcjonowaniem wielkich platform, wynikających z tego, że są one wykorzystywane także jako narzędzia rozpowszechniania szkodliwych treści. Tych nielegalnych, ale też dezinformacji, która nie zawsze jest wprost bezprawna, ale wciąż może mieć niekorzystny wpływ np. na procesy wyborcze, a także inne obszary – np. ochronę zdrowia publicznego. Tym bardziej, że mamy różne przesłanki, które wskazują, że niekiedy algorytmy platform dodatkowo wzmacniają zasięgi takich treści. Jeśli więc platformy pozbędą się tych rozwiązań, to czy będą w stanie zapewnić odpowiedni poziom ochrony przed atakami, manipulacją i jeszcze bardziej drastycznym obniżeniem jakości debaty publicznej prowadzonej w mediach społecznościowych?
Unia Europejska próbuje ograniczyć wszechwładzę wielkich – głównie amerykańskich – platform, poprzez przyjęcie Aktu o Usługach Cyfrowych (DSA). Jego zwolennicy mówią, że zbuduje on bezpieczniejszy i bardziej sprawiedliwy świat online. W jaki sposób chce to zapewnić?
DSA to prawo, którego kluczowym założeniem jest ograniczenie władzy cybergigantów – czyli największych platform internetowych. Intencja, która stała za jego przyjęciem, była taka, żeby uczynić internet bardziej przyjaznym miejscem dla ludzi i mniejszego biznesu, czyli podmiotów, które dziś są na różne sposoby eksploatowane przez największych graczy dla ich zysku. DSA narzuca m.in. jaśniejsze i bardziej spójne zasady moderacji treści, zakazuje wykorzystywania manipulacyjnych interfejsów, wprowadza ograniczenia dla śledzącej reklamy i wreszcie w pewnym stopniu reguluje też działanie algorytmów rekomendacyjnych, odpowiedzialnych za dobór treści wyświetlanych użytkownikom.
Jak można na prywatnych firmach wymusić zmianę algorytmów?
DSA przede wszystkim zwiększa przejrzystość działania algorytmów rekomendacyjnych. Przewiduje też, że jeśli platformy dają użytkownikom, jakieś opcje wpływania na parametry tych systemów, powinny być one łatwo dostępne w interfejsie i skuteczne (faktycznie działać). Wielkie platformy muszą zagwarantować ponadto swoim użytkownikom możliwość wyboru przynajmniej jednego systemu rekomendacyjnego, który nie będzie bazował na profilowaniu, czyli nie będzie wykorzystywał danych osobowych do rekomendowania spersonalizowanych treści na bazie np. śledzenia zachowania użytkowników w sieci. To tyle, jeśli chodzi o konkretne rozwiązania. Niestety, nie adresują one wprost np. problemów związanych z nadmiernym wykorzystaniem naszych danych do serwowania spersonalizowanych treści w ramach domyślnych systemów rekomendacyjnych platform, a wiemy, że niekiedy mogą one eksploatować nasze wrażliwe cechy, słabości czy skłonność do uzależnień. Nie zapewniają też użytkownikom bezpośrednio wystarczającej kontroli nad działaniem systemów rekomendacyjnych, która np. dałyby im szanse sprawnego wydostania się z tzw. toksycznej królicze nory (pętli monotematycznych treści, w którą zdarza się wpadać osobom korzystającym z mediów społecznościowych, co może np. negatywnie oddziaływać na ich zdrowie psychiczne).
ZOBACZ TAKŻE: Od bohatera do hejtera. Enfant terrible obozu władzy z licencją na obrażanie
Co jednak ważne, w DSA jest jeszcze mechanizm ocen ryzyka, który odnosi się także do funkcjonowania systemów rekomendacyjnych. Wydaje się, że na gruncie tego mechanizmu Komisja Europejska może wymagać od platform, aby wprowadziły takie rozwiązania, które spowodują, że np. ich algorytmy nie będzie podbijać niebezpiecznych treści albo będą przeciwdziałać wpadaniu we wspominane królicze nory, zapewniając rozwiązania wzmacniające dywersyfikację otrzymywanych treści. Droga do wyegzekwowania tego nie będzie pewnie prosta, ale jest to jakiś punkt zaczepienia.
Co to są „nielegalne treści” i kto ma rozstrzygać, które z treści zamieszczonych w internecie mają taki charakter?
DSA nie rozstrzyga tego w konkretny sposób, nie narzuca żadnej listy nielegalnych treści. Odwołuje się w tym zakresie do tego, co uznaje się za nielegalne się w poszczególnych państwach członkowskich i – w mniejszym zakresie – w prawie UE. Kluczowy wpływ na to, czym są „nielegalne treści” zgodnie z DSA mają więc nadal poszczególne kraje Unii. W Polsce określa to zawartość kodeksu cywilnego, karnego i innych ustaw. DSA nie wskazuje też, kto ma w danym państwie rozstrzygać, czy mamy do czynienia z nielegalną treścią. Rozporządzenie narzuca jedynie pewne kryteria, jakie mają spełniać nakazy podjęcia działań przeciwko nielegalnym treściom skierowane do dostawców usług pośrednich w sieci, ale to, jaki organ ma o tym decydować, w jaki sposób, w jakim zakresie i na jakich warunkach znów należy do kompetencji poszczególnych krajów. Dotychczas w Polsce decydowały o tym przede wszystkim sądy powszechne, choć mamy też różne „szczególne” procedury – np. procedurę walki z nielegalnym hazardem, w której decyzje o wpisaniu jakiejś strony do rejestru blokowanych witryn podejmuje Ministerstwo Finansów. Teraz Ministerstwo Cyfryzacji, chce przyznać nowe, w mojej ocenie – bardzo szerokie, kompetencje w tym zakresie prezesowi UKE.
Regulacjom sprzeciwiają się przede wszystkim środowiska kojarzone z prawicą, ale ostatnio przeciw niektórym zapisom w nowelizującym ustawę o e-usługach (w duchu DSA), protestowały też takie organizacje jak Panoptykon. Dlaczego?
Najpierw uporządkujmy informacje. Nasza krytyka w ostatnich tygodniach dotyczyła wspomnianej wyżej nowej procedury usuwania nielegalnych treści przez prezesa UKE, którą chce wprowadzić Ministerstwo Cyfryzacji. Chociaż została ona zaproponowana przez ministerstwo w ramach wdrażania DSA, to ten konkretny element projektu ustawy jest więc akurat w pewnym sensie „autorskim” pomysłem polskich (a nie unijnych) decydentów. Pomysłem, który krytykujemy, ponieważ w naszej ocenie generuje istotne ryzyko nadmiernej ingerencji w wolność słowa. Nawet jeśli założymy, że za jego wprowadzeniem stoją dobre intencje (bardziej efektywna walka z realnym problemem, jakim jest niewystarczająca reakcja m.in. platform internetowych na nielegalne treści), trudno bagatelizować to, że daje prezesowi UKE ogromną władzę nad rozpowszechnianiem informacji w internecie i może stać się narzędziem wykorzystywanym do nadmiarowego usuwania z niego np. krytycznych opinii na temat polityków czy firm świadczących różne usługi.
Uważamy, że, co do zasady, najwłaściwszymi organami do oceny spraw związanych z ochroną wolności słowa są przede wszystkim sądy powszechne, a nie organy administracji publicznej. Jeśli jednak pozostaniemy przy regulacji zakładającej wydawanie decyzji w pierwszej linii przez prezesa UKE, absolutnie kluczowe jest to, aby w projekcie znalazły się, po pierwsze: silne gwarancje pluralizmu i wiedzy eksperckiej w działaniu tego organu, a po drugie gwarancje zabezpieczające przed arbitralnym wykorzystywaniem przez niego nowych uprawnień, np. do „sprzątania” internetu na polityczne zamówienie. Naszym zdaniem, takich gwarancji w aktualnej propozycji Ministerstwa Cyfryzacji brakuje.
Niedawno w Rumunii unieważniono pierwszą turę wyborów prezydenckich po sukcesie kandydata „znikąd” promowanego przez liczne fejkowe konta. Czy nie powinniśmy obawiać się podobnych manipulacji w Polsce i jak im przeciwdziałać?
Oczywiście, musimy liczyć się z ryzykiem, że internet, w szczególności wielkie platformy internetowe, będą wykorzystywane jako narzędzia służące zakłóceniu uczciwości procesów wyborczych. Nie jest to zresztą nowe zjawisko, mówi się o nim od kilku dobrych lat, co najmniej od afery z Cambridge Analytica. Czy da się temu zapobiec? Trudno powiedzieć. Niby mamy nowe prawo – DSA, ale jak widać, wiele wskazuje, że nie uchroniło ono wyborów w Rumunii przed manipulacją. Chyba pozostaje nam liczyć na to, że Komisja Europejska, która jest najważniejszym organem czuwającym nad przestrzeganiem nowych regulacji przez cybergigantów i prowadzi obecnie postępowanie w rumuńskiej sprawie przeciwko TikTokowi, wyciągnie wnioski z tego kazusu i zacznie skuteczniej egzekwować od tej i innych wielkich platform zmiany, które zminimalizują ryzyko zrealizowania się podobnego scenariusza w przyszłości w innych krajach.
Czego bardziej się bać: cenzury czy nieskrępowanej wolności w sieci?
W tym cały problem, że oba zjawiska mogą być groźne i trudno jednoznacznie powiedzieć, które bardziej. Na każdy przypadek sytuacji, kiedy – jak sądzę w większości zgodzimy się, że jakiś materiał powinien szybko zniknąć z sieci (np. treści nawołujące do przemocy, które wzmacniają ryzyko realnego ataku na ofiarę), można podać kontrprzykład sytuacji, gdy pochopne wymazanie jakiejś informacji z debaty publicznej może również przynieść dalece szkodliwe konsekwencje. Np. gdy dojdzie do zablokowania informacji ujawniającej korupcję władzy lokalnej, która mogłaby wpłynąć na to, na kogo w nadchodzących wyborach zagłosuje społeczność lokalna. Prawdopodobnie nie da się stworzyć idealnych przepisów, które w 100 proc., z jednej strony, zagwarantują, że z sieci będą szybko znikać nielegalne treści, a z drugiej – zapewnią, że procedura ta nie będzie nadużywana do blokowania treści, które powinny być dostępne w debacie publicznej. To zawsze będzie jakiś kompromis, ale należy przynajmniej dążyć do znalezienia optymalnego punktu równowagi pomiędzy interesami, które uzasadniają sprawne usuwanie niebezpiecznych materiałów z sieci i interesami związanymi ze swobodą rozpowszechniania i pozyskiwania informacji. W zaproponowanej przez Ministerstwo Cyfryzacji procedurze usuwania treści takiej równowagi póki co brakuje.
Napisz komentarz
Komentarze