Między cenzurą a wolnością: DSA i dylemat moderacji w Internecie
Maciej Lesiak
- 18 minut czytania - 3790 słówSpis treści
Wstęp: rosnące koszty społeczne arbitralnej moderacji
Dzisiaj kilka słów o moderacji w Internecie, która jak najbardziej związana jest z dezinformacją i teoriami spiskowymi. Szczególnie podczas pandemii COVID-19 dotarło do wszystkich, jak wielkie zagrożenie może nieść ze sobą podejmowanie decyzji związanych ze zdrowiem na podstawie fałszywych przesłanek, wziętych ze zmanipulowanych informacji i teorii spiskowych. Powiedzieć, że fałszywe informacje mogą prowadzić do przemocy i aktów wandalizmu, to powiedzieć w dzisiejszych czasach banał. Palone maszty 5g, atak na Capitol w USA, czy ruchy antyszczepionkowe. Moderowanie treści nie było i nie jest łatwe na wielkich portalach społecznościowych z miliardami użytkowników, żyjących w krajach o różnym pojęciu tego, co wolno, a czego nie wolno powiedzieć.
Zgłaszanych jest miliardy treści do sprawdzenia, i większość tego sprawdzania realizuje Sztuczna Inteligencja. Czasami taka arbitralna moderacja daje opłakane rezultaty, o czym przekonało się Muzeum Auschwitz, którego 21 postów z informacjami edukacyjnymi upamiętniającymi ofiary obozu zostało oznaczonych (zapewne w ramach złośliwego aktu) jako “naruszające standardy społeczności”. W postach rzekomo dominowała “nagość dorosłych i czynności seksualne”, promowały “mowę nienawiści” oraz “podsycanie przemocy”. Pomimo protestu Muzeum Auschwitz, Meta przywróciła na Facebooku tylko część postów, a po aferze medialnej wszystkie.
Jak widać, jest to proces nieprzejrzysty, wzbudzający frustrację wśród zgłaszających treści, gdy nie są usuwane, wśród poszkodowanych przez złośliwe działania i błędy algorytmów, jak również wśród zwolenników całkowitej wolności słowa. Niestety, koszty moderacji rosną, i piszę tutaj o finansach, jak również o kosztach społecznych. Sprawa Elona Muska, który zamienił serwis X w wolnościowy strumień myśli i teorii spiskowych, praktycznie z zerową moderacją, jest doskonałym przykładem, w jakim kierunku może pójść deregulacja i brak kontroli.
UE szuka drogi do bezpieczniejszego Internetu - Akt o usługach cyfrowych (DSA)
Akt o usługach cyfrowych (DSA) to rozporządzenie UE, które ma na celu uporządkowanie przestrzeni online. Przede wszystkim chodzi o nielegalne treści i dezinformację, a także wprowadzenie jasnych zasad moderacji. DSA wymaga, aby platformy społecznościowe moderowały treści w sposób przejrzysty i odpowiedzialny, jednocześnie zakazując manipulacyjnych interfejsów i reklam śledzących użytkowników. Polska organizacja Panoptykon od początku aktywnie wspiera prace nad DSA oraz DMA, podkreślając znaczenie regulacji dla stworzenia bezpieczniejszego ekosystemu online i ochrony praw użytkowników.
Wielkie platformy w arbitralny sposób cenzurują treści (usuwając konkretne wpisy lub blokując konta) i decydują o tym, jakie materiały są przez algorytmy podbijane, a jakie przepływają niezauważone. Te decyzje, zwykle podejmowane przez algorytmy, nie mają przypadkowego charakteru, ale odzwierciedlają politykę i cele biznesowe platformy. W realnym świecie przekładają się nie tylko na to, jakie torebki są kupowane w danym sezonie, ale też na to, kto ma większe szanse wygrać wybory. czytaj więcej Panoptykon: DSA i DMA w pigułce – co warto wiedzieć o prawie, które ma poskromić cybergigantów
29 października Komisja Europejska ogłosiła “publiczne konsultacje dotyczące zasad dostępu do danych platform internetowych na mocy Aktu o Usługach Cyfrowych” UE 29-10-2024. Jest to dostęp dla zweryfikowanych badaczy, którzy będą mieli dostęp do danych ujawniających obszary ryzyka i rozwijania rozwiązań i zabezpieczaniu czegoś, co nazywa się ogólnie środowiskiem online. Obecnie mamy drugie etap konsultacji. Omówię to szerzej opisując kwestię moderacji w kontekście IAM (Independent Advisory Mechanism) - mają odgrywać kluczową rolę w procesie dostępu do danych platfom internetowych w ramach DSA, zapewniając niezależność i ekspertyzę przy rozpatrywaniu wniosków o dostęp do danych.
Rola IAM (Independent Advisory Mechanism) w procesie moderacji
Po krótce opiszę wam, nie wiem czy wszystko poprawnie rozumiem w narracji dookoła Aktu o Usługach Cyfrowych, rolę IAM (Independent Advisory Mechanism). Jest to mechanizm doradczy, który ma zapewnić niezależność oraz ekspertyzę przy podejmowaniu decyzji o dostępie do danych VLOPów (bardzo dużych platform internetowych). Tak więc to IAM będzie miał kluczowe znaczenie przy monitorowaniu ryzyka związanego z publikowanymi treściami, a także przy rozpatrywaniu wniosków o dostęp do danych przez badaczy i inne zainteresowane podmioty. Co za tym idzie w moderacji, bo na podstawie tych danych będą realizowane kolejne kroki.
Jeśli dobrze rozumiem, to IAM ma za zadanie wspierać zarówno proces moderacji treści (nie bezpośrednio moderować!), jak i dostarczać narzędzia do lepszego zrozumienia zagrożeń wynikających z dezinformacji oraz promowania przemocy. Niezależność IAM jest kluczowa, aby proces moderacji realizowany w dalszych krokach przez firmy nie był postrzegany jako arbitralny - ten wątek omówię szerzej przy migracji w kontekście usuwania. To właśnie arbitralne usuwanie w przeszłości były jednym z głównych zarzutów w stronę platform takich jak Facebook, Twitter czy YouTube. Powstaje na naszych oczach koncepcja zrównoważonej moderacji, która w zamyśle nie jest toksyczna i nie wywołuje swoim działaniem rykoszetów. Wymaga zatem, aby decyzje o usunięciu treści były podejmowane na podstawie analizy opartej na faktach, z uwzględnieniem kontekstu oraz opinii ekspertów, a IAM ma pełnić rolę nadzorcy tych decyzji. Brzmi to muszę powiedzieć trochę idealistycznie…
Analiza Demagoga na temat moderacji i usuwania treści
Zanim jednak przejdziemy do kluczowych kwestii związanych z moderacją, warto zwrócić uwagę na ostatnie wydarzenie. Serwis factcheckingowy Demagog opublikował ciekawą analizę dezinformacji na temat DSA (Demagog: DSA pozwoli organizacjom pozarządowym usuwać treści z internetu?). W Internecie zaczęły się pojawiać nieprawdziwe informacje, że prywatne firmy oraz NGOsy będą uprawnione do usuwania niepoprawnych politycznie wpisów. Jest to oczywista nieprawda. Nie będziemy szczegółowo omawiać tego problemu, odsyłam do tekstu źródłowego. Warto jednak zwrócić uwagę na korelację, czyli przystąpienie do procedur dostępu do danych VLOPów z pojawiającymi się dezinformacjami targetującymi moderację i DSA.
Widać, że jesteśmy w krytycznym etapie, który rozpoczął się ponad rok temu a jego finał miał miejsce w opublikowaniu przez Komisję Europejską dokumentu podsumowującego przeprowadzone konsultacje w sprawie Delegowanego Rozporządzenia w sprawie dostępu do danych w ramach Ustawy o Usługach Cyfrowych (DSA) Digital Services Act: Summary report on the call for evidence on the Delegated Regulation on data access. Najogólniej celem jest ułatwienie badań naukowych nad systemami ryzyka w UE w kontekście zakresu dostępu do danych, wnioskowania i procedur dostępu, formatu, dostępu do publicznych danych np. w zakresie dostępnym przez scraping. Nie wchodząc głębiej w detale techniczne… ogłoszony 29 października 2024 roku kolejny etap pokazuje, że prace postępują i wracając do Demagoga, czytając ich doskonałą analizę z ciekawości przejrzałem sobie listę VLOPów (są to bardzo duże platformy internetowe i wyszukiwarki) na stronie UE (patrz link w stopce) i wśród kilkunastu tam wymienionych znajduje się np. czeska firma utrzymująca m.in. serwis z pornografią XVIDEOS, który ma ruch na poziomie miesięcznym 160 mln aktywnych użytkowników.
Żeby pokazać skalę problemu wyróżnijmy ile tego typu serwisie możemy wyróżnić potencjalnych ryzyk i przestrzeni do moderacji:
- Przemoc seksualna o charakterze ekstremalnym i treści seksualne z udziałem osób małoletnich
- Treści przedstawiające przemoc fizyczną lub psychiczną
- Zoofilia i inne formy okrucieństwa wobec zwierząt
- Treści promujące nadużycia i eksploatację osób
- Deepfake AI i treści bez zgody (w tym Deepfake Pornografia, Non-Consensual Pornography, Cyber Eksploatacja, Obrazowe fikcje bez zgody) - użycie szeroko pojętego AI do modyfikowania obrazu
- Treści sugerujące zgodę bez faktycznej zgody
- Komentarze i interakcje zawierające mowę nienawiści
- Treści obraźliwe lub poniżające
- Treści normalizujące przemoc seksualną lub przymus
- Treści stymulujące toksyczne i negatywne interakcje między użytkownikami
- Treści o charakterze eksploatacyjnym
Dziwne zbiegi okoliczności? Kto stoi za deprocjonowaniem DSA?
Wielokrotnie w przeszłości mieliśmy dowody tego, że wielkie firmy wpływają na proces tworzenia prawa. Firma w której kiedyś pracowałem, wraz z kilkoma innymi z tego segmentu w całej Polsce, wynajęła agencję PR, aby walczyła w mediach z regulacjami i ograniczeniami wprowadzanymi w całym kraju oraz w ustawodawstwie. Słuchałem audycji w TOK FM, w której pojawiła się wynajęta przez nich specjalistka PR. Miażdżyła tam erystycznie aktywistów stosując najbardziej banalne metody manipulacji. Aktywiści siedzieli bezradni jak dzieci. Można zatem w ciemno założyć, że firma o miliardowej wartości ma większy potencjał i będzie robiła więcej w zakresie PR. Każda regulacja wymagająca wdrożenia procedur, czy komunikowania się z zewnętrznymi podmiotami to dla firm koszty, a także ryzyko odpowiedzialność i ujawnienia danych tajemnicy firmowej np. szczegóły algorytmu rekomendacyjnego. Obecnie odnoszę wrażenie, że istnienie fake newsów na temat DSA może być próbą manipulacji i podważania zaufania do regulacji wdrażanej przez UE w celu ochrony użytkowników, a w konsekwencji próbą wpłynięcia na opinię publiczną.
Jeśli zgodnie z tym co możemy przeczytać w cytowanym tutaj artykule Panoptykonu dotyczącym zasad moderacji treści i tego, że DSA przyniesie większą przejrzystość oraz:
Platformy mają regularnie publikować „raporty przejrzystości” ujawniające m.in. statystyki usuwanych treści. (Panoptykon, Ibidem)
Dla niektórych może być kłopotliwe zdawanie szczegółowych raportów z tego jak kontrowersyjne treści są moderowane. Może się także okazać w jakim stopniu VLOPy są przekaźnikiem dezinformacji. Warto także zwrócić uwagę na fakt, iż to co nielegalne w Turcji nie koniecznie może budzić kontrowersje w świeckiej Francji. Nie mówiąc już o skali globalnej.
Odpowiedzi na to pytanie “o źródło deprecjonowania” nie podam, bo nie znam wszystkich informacji, szczegółów z których można byłoby wydedukować potencjalną motywację i korzyści. Jest to zapewne praca dla sygnalisty w połączeniu z dziennikarzem śledczym. Natomiast jak wykazywały wielokrotnie analizy różnych narracji spiskowych i dezinformacji, to były one pompowane przez konkretne firmy np. oferujące prywatne nauczanie zainteresowane były zmniejszeniem zaufania do szkół publicznych (patrz analizy Gabriela Gatehouse’a).
Moderacja a usuwanie treści - pogłębienie refleksji
Wróćmy na chiwlę do IAM jako mechanizmu doradczego, który wg twórców DSA może wnieść wiele korzyści w procesie standaryzacji metod badawczych, które mają pomóc w ocenie skuteczności moderacji oraz jej wpływu na społeczność. Przykładowo, dostęp do danych umożliwiający weryfikację, jakie treści były moderowane i dlaczego, będzie możliwy tylko po przeprowadzeniu wnikliwej oceny przez IAM. Ma to zapewnić przejrzystość i próbuje się tutaj uniknąć sytuacji, w których moderacja byłaby nadużywana, co wcześniej mogło prowadzić do ograniczania wolności słowa. Idźmy tym tropem dalej.
Zgodnie z tym, co znalazłem w oficjalnej dokumentacji Komisji Europejskiej i dostępnych artykułach (patrz źródła), obecny stan nie zakłada zachowania treści w celu badań i nie uwzględnia problemu, że usuwanie materiałów w Internecie może być paliwem dla teorii spiskowych. W domyśle “zapewnienie przejrzystości” oraz “jasne zasady odpowiedzialności” mają przeciwdziałać takiemu zjawisku. Moim zdaniem jednak dokument podsumowujący z 2023 roku wraz z komentarzami, które wskazują na potrzebę pogłębienia badań nad ryzykiem, sugeruje, choć nie wprost, że zachowanie usuniętych treści z platform, przynajmniej w pewnym zakresie, mogłoby być korzystne dla celów badawczych. Jaki jest stan na dzień dzisiejszy, możemy przeczytać w artykułach Panoptykonu:
- Użytkownicy, których wpisy zostaną usunięte lub konta zablokowane, mają dostawać szczegółowe wyjaśnienie przyczyn takich restrykcji wraz z informacją o tym, jakie postanowienie regulaminu naruszyli. Będą oni mogli odwołać się od takiej decyzji, a decydujący głos w ich sprawie będzie należał do człowieka, a nie algorytmu.
- Wielkie platformy będą miały zatrudnić wystarczającą liczbę moderatorów, żeby zapewnić właściwą moderację treści we wszystkich językach UE, w tym obsługę zgłoszeń nielegalnych treści oraz odwołań od decyzji o usunięciu treści lub blokadzie konta.
- Specjalne organy przygotowane do rozpoznawania sporów o dopuszczalność treści w sieci oraz sądy będą nadzorować decyzje dotyczące usunięcia treści i blokowania kont. (Panoptykon, Ibidem)
Mnie jednak konkretnie interesuje moderacja przez usuwanie treści i profili. Jestem wielkim przeciwnikiem kasowania fake newsów oraz usuwania materiałów dezinformujących, przynajmniej z profili posiadających duże zasięgi, jak np. polityków. Dlaczego? Obecność fake newsów w Internecie pozwala na ich analizę i badanie wpływu na opinię publiczną, co jest trudne do realizacji po ich usunięciu. Uważam, że powinno się to przemyśleć i przebadać konsekwencje. Jakie są korzyści i szkody?
Przemawia do mnie stanowisko prezentowane poniżej przez Towarzystwo Brytyjskie. Mówi się tam o kosztach wymazywania bez śladu. Usuwanie postów i treści w Internecie może prowadzić do powstawania jeszcze większych teorii spiskowych i wzmacnia myślenie o “zacieraniu śladów”. Treści przemocowe i generowane przez AI w serwisach porno to jedno, a dezinformacja mająca na celu podważenie instytucji demokratycznych to inna sprawa. Usuwając te drugie treści, tworzymy samoutwierdzającą się maszynę spiskową: usuwają, bo zacierają ślady. Oni!
“But completely removing information can look a lot like censorship, especially for scientists whose careers are based on the understanding that facts can and should be disputed, and that evidence changes. […] In a new report, it advises against social media companies removing content that is ’legal but harmful’. Instead, the report authors believe, social media sites should adjust their algorithms to prevent it going viral - and stop people making money off false claims. […] Removing content may exacerbate feelings of distrust and be exploited by others to promote misinformation content.” Should bad science be censored on social media?
Propozycja rozwiązania moderacji
Moim zdaniem wpisy należy zachować, a powinny być zablokowane ewentualnie powiązania wewnętrzne wpływające na algorytm (reakcje, udostępnienia itp.). Dodatkowo instnieje koncepcja geograficznej moderacji, czyli wyciszania postów, które łamią regionalne prawo i są kontrowersyjne. Sam link powinien być aktywny, ale ukryty z feeda natomiast powinien być wyróżniony (np. specjalne tło warning/notice) i mieć kontekst informujący o dezinformacji, oznaczony jako noindex dla robotów, z krótką informacją opisującą stan faktyczny. Obniżyłbym zatem maksymalnie reputację tego wpisu w algorytmie/systemie oraz dodatkowo profile, które często publikują celowo treści budujące spiskowe myślenie powinny mieć deprocjonowaną reputację, może jakoś specjalnie oznaczone, a być możę docelowo tzw. shadow ban czasowy np. na 45 dni pozwoliłoby to ograniczenie dezinformacji podczas wyborów.
Wdrożenie jakiejś formy Web of trust w celu oznaczania profili, które cały czas publikują dezinformacje, tak aby deprecjonować je w algorytmie też jest dobrym pomysłem. Zauważyłem próby wdrożenia takiej koncepcji w NOSTR Web of Trust
Warto też dodać, że według niektórych autorów zachowanie manipulatywnych treści poprzez dodanie do nich kontekstu może spowodować wzrost rzetelnego dziennikarstwa, ponieważ manipulatywne treści i dezinformacja będą eksponowane i poddawane krytycznej, publicznej analizie. Wydaje mi się, że jest to istotny aspekt w kontekście tego co pisze Panoptykon:
Rzetelne analizy i wyważone opinie nie mają szans w konkurencji z clickbaitowymi nagłówkami i polaryzującymi postami. Ta dynamika przyczynia się do szerzenia dezinformacji i pogłębia erozję profesjonalnego dziennikarstwa. (Panoptykon, Ibidem)
Idąc tym tropem, jeśli clickbait i pompowanie dezinformacji będzie poddawany mechanizmom “cichej moderacji i dodawania kontekstu”, to jak niektórzy dowodzą będzie to miało walor edukacyjny i przypominało cały czas, że jest to nieprawda, manipulacja, wyolbrzymienie. Szczególnie jawne jest to obecnie w dobie generowania przy pomocy AI nieprawdziwych zdjęć historycznych albo architektury, jak ostatnio, gdy widziałem siedzibę apple z kuriozalnymi podziemiami jak z filmu science fiction. To są zdjęcia, które zyskują na popularności wśród słabo wyedukowanych ludzi podatnych na manipulację i powinny być automatycznie oznaczane. Tak samo profile korzystające z pompowania, czyli manipulowania algorytmem powinny być blokowane. Takie profile zbierające polubienia na podstawie generowanych treści przez AI są później wykorzystywane w wielkich akcjach dezinformacyjnych - szerzej o tym poniżej.
Są też poglądy, żeby usuwać, bo koszty społeczne zbyt wielkie
Warto również dodać, że są odwrotne poglądy od prezentowanego przez Towarzystwo Brytyjskie (naukowe). Mówią one, że istnieją treści viralowe, których zasięg rażenia i siła niszczenia tkanki społecznej jest tak wielka, iż należy je usuwać natychmiast. Specjaliści z Center for Countering Digital Hate (CCDH) twierdzą, że:
The team points to Plandemic - a video that went viral at the start of the pandemic, making dangerous and false claims designed to scare people away from effective ways of reducing harm from the virus, like vaccines and masks, and was eventually taken down. Should bad science be censored on social media?
Jak widać są różne podejścia i wiele dokumentów naukowych jakie analizowałem wskazuje na trudności metodologiczne w próbkach do analizy, materiale porównawczym między serwisami oraz wyciąganiu daleko idących wniosków co do trendów.
moderacja i marginalizacja powoduje radykalizację?
Chciałbym tutaj nawiązać do doskonałej analizy gdzie wykazuje się powiązanie moderacji, usuwania z migracja i przenoszeniem się na inne kanały. Twarda moderacja, banowanie profili i usuwanie treści wypycha w zakamarki internetu znajdujące się poza wszelką kontrolą. Nowe kanały dystrybucji zyskują reputację “wolnościowych” w kontraście do tych “cenzurowanych”. Jak możemy przeczytać w analizie Samanty Walther i Andrew McCoya:
Several alternative social media platforms have emerged in response to perceptions that mainstream platforms are censoring traditional conservative ideologies. However, many of these alternative social media platforms have evolved to be outlets for hate speech and violent extremism. […] QAnon and the COVID-19 pandemic were the most prominent sources of disinformation and conspiracy theories on Telegram. Perspectives on Terrorism. (Vol 15, Issue 2, April 2021).
Stwarza to niszę dla twórców alternatywnych sieci społecznościowych, która oddają głos marginalizowanym grupom. Takie kanały jak Telegram były często wiązane z ISIS, ale coraz częściej mówi się o amerykańskiej radykalizującej się altprawicy i skrajnej lewicy, które równie prężnie wykorzystują te kanały dystrybucji treści. Autorzy podają konkretne przykłady migracji polityków na Telegram, które miały miejsce po kasowaniu wpisów albo moderacji np. na Twitterze/X czy Facebooku. Analizowane są przykłady konserwatystów, którzy w obliczu moderacji realizowanej przez firmy big tech, które określane są przez nich jako liberalne i demokratyczne, po prostu migrują w miejsca, gdzie nie ma nad nimi kontroli.
conservative social media users have shifted away from mainstream platforms to sites that promote greater free speech policies and do not enforce extensive content removal guidelines.[
Powstaje zatem pytanie, co jest lepsze: moderacja i kasowanie wpisów, czy ograniczenie ich widoczności, o którym pisałem wraz z podaniem ostrzeżenia i kontekstu? Poprzez to, że te kanały są oddzielonymi bańkami następuje tam wzmożony efekt echo chamber czyli samopotwierdzenia się, gdzie rozmawiamy tylko z osobami, które potwierdzają nasze poglądy. Badania wykazały, że takie środowisko sprzyja radykalizacji, gdzie teorie spiskowe nie są poddawane krytyce, a jedynie wzmagane kolejnymi dezinformacjami.
Alternative social media platforms enable the building of strong and nearly impenetrable virtual communities that can produce echo chambers of hate speech and violent extremist dialogue that would otherwise be removed by mainstream platforms.
Nostr poza wszelką jurysdykcją?
Jednak warto zwrócić uwagę na to, że już od 2022 mamy intensywny rozwój sieci NOSTR, która powstała jako odpowiedź na problemy z centralizacją social mediów i moderacją. W założeniu twórcy, którzy głównie wyszli z ideologii wolnościowych blockchain i cyfrowej waluty bitcoin chcą uniezależnić profile użytkowników od jakiejkolwiek moderacji, przypisania do serwerów, czy możliwości blokowania użytkowników. Ich idea rozproszonej sieci opartej o protokół NOSTR i warstwy NIP zawarte w tym protokole pozwalają, przynajmniej w założeniu, na wyjście poza coś co nazywają cenzurą. Obecnie sieć jest zdominowana głównie przez altprawicę i środowiska zaangażowanego w kryptowaluty. Warto tylko dodać, że moderacja ma tutaj miejsce na poziomie RELAYS, czyli przekaźników i twórcy dobrze zdają sobie sprawę z problemów np. pedofilskich treści, które mogą nielegalnie znajdować się na serwerach.
Kwestia RODO, usuwania treści i farm botów
Przyznam, że nie będzie proste określenie zakresu i formy zachowania treści w celach badawczych a także blokady usuwania i ograniczania dostępu. Ponieważ prawo UE w kontekście GDPR / RODO zakłada, że użytkownik ma prawo dostępu do swoich danych i może zarządać zaprzestania przetwarzania, a to oznacza, że dane, które zostały zachowane w jakiejś postaci musiałby być poddane anonimizacji, żeby wykluczyć z procedury usunięcia na żądanie.
Kolejną sprawą są farmy botów. Omówmy to krótko per analogiam na przykładzie operacji Doppelgänger w której rosyjskie służby stworzyły sieć fałszywych stron imitujących serwisy prasowe i popularne portale w takim celu, aby przy ich pomocy pompować dezinformacje. Facebook odegrał tutaj istotną rolę, ponieważ pompowane profile, na których wyświetlane były ckliwe kotki i memy i posiadały czasami setki tysięcy obserwujących co jakiś czas wrzucały emocjonalne posty, które roznosiły się jak kula śniegowa… Dlaczego o tym piszę. Ponieważ pozostaje pytanie co z takimi profilami, które nazywane są jako botnets, sockpuppets, troll accounts, czy amplifiers. Meta ma na to nazwę CIB Coordinated Inauthentic Behavior. Pozostaje pytanie, czy kasować całościowo takie sieci fejkowych kont? To powoduje przeciążenie baz danych, zaśmieca środowisko internetowe. Jest też kwestia odróżnienia fejkowych kont od tych prawdziwych.
Nie będzie to proste zadanie. Warto także dodać, że wszystkie kraje realizują takie operacje psychologiczne w Internecie, a przykład jaki zaprezentowałem jest bardzo świeży i nośny medialnie. De facto na codzień politycy przy użyciu agencji PR wyspecjalizowanych w social media pompują treści, które w sposób zmanipulowany i przy użyciu np. na facebooku “hate algorithm” są w stanie zmienić poglądy społeczne np. na kwestię migracji. Kwestie manipulacji na takim poziomie i czy treści powinny być moderowane są tak subtelne i zahaczają o taki kontekst polityczny, że moim zdaniem będzie bardzo ciężko zrealizować na takim poziomie moderację. A dodajmy treści poddawane z fałszymy kontekstem właśnie na temat migracji, wojen i ocieplenia klimatycznego to jest większość “surówki”.
Konferencja DSA w Łodzi:
Akt o usługach cyfrowych okiem autorów komentarzy.
Zdjęcie ML dadalo.pl
Bat na cyberpanów, czy paliwo teorii spiskowych? Quo vadis moderacjo?
Po tym jak uczestniczyłem jako wolny słuchacz na konferencji „Akt o usługach cyfrowych okiem autorów komentarzy” w Łodzi, gdzie można było wysłuchać prawników tworzących komentarze do aktów prawnych, kancelarie osługujące VLOPy, czy nawet Prezesa UODO odnoszę wrażenie, że ten element (nieusuwania treści) w ogóle nie jest brany pod uwagę. Szkoda.
Mówiąc szczerze nie jestem optymistą. Od ponad 10 lat zgłaszam co jakiś czas na Facebooku, Twitter/X naruszenia prawa, akcje przemocowe, fałszywe profile, czy jawne oszustwa. Żadna z reklam Facebooka, które zgłosiłem, a były jawnym scamem z powodu braku naruszenia zasad społeczności i regulaminu nie zostały usunięte. Grożenie śmiercią, czy przemoc słowna nie były usuwane w X/Twitter ani na Facebooku. Na Instagramie prostytucja nieletnich ma się świetnie. Rzekoma weryfikacja wieku z dostępem do YT, Facebooka, Instagrama jest fikcją. Tak samo z moderacją. Zmiany wchodzące wraz z DSA mają zmienić tę sytuację na lepsze.
Odnoszę wrażenie, że regulacje idą w kierunku ograniczenia i kasowania, czyli zamiatania sprawy pod dywan, zamiast nadawania kontekstu i leczenia przyczyn problemów. Usuwanie spowoduje odpływ użytkowników w alternatywne rejony internetu, których nie da się nadzorować, a które zyskają na atrakcyjności. Chciałbym, aby osoby, które uczestniczą w tworzeniu prawa myślały nie tylko o samopoczuciu użytkownika i jego bezpieczeństwie w kontekście prawa, ale także o konsekwnecjach decyzji prawnych w usuwaniu treści. Ślepa maszyna to nie jest dobre rozwiązanie. Szczególnie obsługiwana przez AI. Big tech nie raz dowodził, że pięknie potrafi obchodzić regulacje i tworzyć nowe rozwiązania.
Mam tutaj małą nadzieję, jak ukryty idealista, że moderacja to jednak ciągły proces uczenia się i doskonalenia. Przyznam, że big techom ten proces zajmuje wyjątkowo długo, może bat to przyspieszy. Tak samo mechanizmy i modele AI są coraz lepsze, a to one są wykorzystywane do przetwarzania miliardów zgłoszeń. Platformy muszą znaleźć sposób na efektywne ograniczanie szkodliwych treści, bez radykalizacji ich autorów i współuczestników. Cóż, czas pokaże, czy DSA w połączeniu z IAM będzie w stanie sprostać tym wyzwaniom i zapewnić bardziej bezpieczny Internet, który nie jest toksycznym szlamem.
Na koniec warto zwrócić uwagę, że powstają już projekty analizujące zjawisko dezinformacji. Jeśli budowana byłaby baza wiedzy o dezinformacji oraz teoriach spiskowych, coś na zasadzie projektu Google Fact Check Explorer, to uważam, że realizacja powiązania z dodawaniem kontekstu do wpisów użytkowników zamieszczających dezinformacje byłaby jak najbardziej realna - przynajmniej z takiego formalno akademickiego punktu widzenia, bo jej sensowność muszą stwierdzić badacze.
Źródła:
META: coordinated inauthentic behavior
Correctiv: Facebook silent as pro-Kremlin disinformation campaign rages on
disinfo: doppelganger operation
„Doppelgänger” – schemat rosyjskiej operacji wpływu przeciwko Zachodowi
Panoptykon: DSA i DMA w pigułce – co warto wiedzieć o prawie, które ma poskromić cybergigantów
Demagog: DSA pozwoli organizacjom pozarządowym usuwać treści z internetu?
Prezes UODO na konferencji „Akt o usługach cyfrowych okiem autorów komentarzy”
Agenda: Akt o usługach cyfrowych okiem autorów komentarzy
Powiązane tematy
- aktywizm w cieniu błędów poznawczych i efektu potwierdzenia
- Between Censorship and Freedom: DSA and the Moderation Dilemma in the Internet
- SKRAWEK #2420 Haarp i teorie spiskowe o zorzy polarnej
- A Parade of Hypocrisy: Crocodile Tears Over the Media
- Festiwal Hipokryzji: krokodyle łzy w obronie mediów
- SKRAWEK #2426 Google odpowiada na protesty twórców: prezentacja argumentów
- SNIPPET #2426: Google Responds to Creators Protests: Presentation of Arguments
- Activism in the Shadow of Cognitive Biases and Confirmation Bias
- Szalone teorie spiskowe funkcjonujące w Wyborach do Sejmu i Senatu RP 2023
- Między innowacją a dezinformacją – analiza rynku książek generowanych przez sztuczną inteligencję