AI w służbie teorii spiskowych i paranoicznego myślenia
Maciej Lesiak
- 8 minut czytania - 1655 słówSpis treści
Pojawienie się AI wywołuje alarm w Google
Pojawienie się LLM czyli dużych modeli językowych znanych także jako AI, czyli sztuczna inteligencja spowodowało spore zawirowania na całym świecie od zwolnień pracowników i zapowiedzi automatyzacji pewnych branż, po pytania o przyszłość człowieczeństwa. AI zaczęło zmieniać nie tylko biznes, ale pokazało, że poprzez tworzenie narracji i praktycznie nieskończone generowanie treści może w świecie sporo zamieszać i to nie tylko w świecie wirtualnym. Ktoś wcisnął gaz do dechy i nie zapiął pasów bezpieczeństwa…
W Google ogłoszono stan alarmu, a inżynierowie zajmujący się robotami indeksującymi oraz dostarczaniem wartościowych wyników wyszukiwania zaczęli się zastanawiać jak odsiać masowo generowane treści AI od wartościowych rzeczy. Może te kwestie techniczne są mało inspirujące dla większości czytelników gdyby nie fakt, że z wyszukiwarki Google i tego jakie są przedstawiane wyniki wyszukiwania korzysta większość ludzkości. Czy informacja jest czy nie ma w indeksie oraz jej pozycja i kontekst są kluczowe w naszej percepcji.
Przemysł generujący treści do Internetu kiedyś musiał mozolnie zatrudniać copywriterów, scraperów, techników tworzących farmy botów oraz stosować wyrafinowane techniki synonimizujące i weryfikujące duplikaty. Warto tutaj nadmienić, że masowo generowane treści są często efektem scrapowania, czyli masowego pobierania treści, a następnie jej przetwarzania w AI aby wygenerować nowe zupełnie niepowtarzalne. Dzisiaj jednoosobowo możemy praktycznie w kilka godzin stworzyć dowolny kod pozwalający nam na pobieranie treści z internetu, zapisywanie ich do EXCELA a następnie na tej podstawie wygenerowania nieskończonej ilości stron, rozmów, komentarzy, narracji, które zaczynają żyć własnym życiem. Wydaje się proste, ale jeśli zepniemy to z narzędziami badawczymi dostarczającymi wiedzę o użytkownikach i ich poglądach i kontrolę nad tym będą miały osoby z zacięciem inżynierii społecznej… to robi się groźnie.
Zgodnie z tym co pisze Google o treściach generowanych przez AI algorytm nagradza treści wysokiej jakości niezależnie od sposobu ich wytworzenia:
W Google od dawna wierzymy w to, że sztuczna inteligencja może pozytywnie wpłynąć na możliwość dostarczania przydatnych informacji. […] Systemy rankingowe Google mają nagradzać oryginalne treści wysokiej jakości, które wykazują cechy naszego standardu E-E-A-T (ang. expertise, experience, authoritativeness, trustworthiness) […] Skupiamy się na jakości treści, a nie na sposobie ich tworzenia. To przydatna wytyczna, która od lat pomaga nam dostarczać użytkownikom wiarygodne wyniki o wysokiej jakości.Czytaj Developers Google
Google zapewnia też, że wdrożyło wiele systemów, w tym również SpamBrain, do ograniczenia spamu w wynikach indeksu Google w celu ograniczenia spamu, a także zmniejszenia efektów manipulacji rankingiem. Google Developers Nasza walka ze spamem w wyszukiwarce w 2021 roku
Jakkolwiek specjaliści Google podobno mają już metody na odróżnienie wartościowego contentu od generowanego spamu. Ja osobiście w to nie wierzę i jestem zdania, że można przy odpowiednich technikach zafałszować indeks wyszukiwarki (czyli to co widzicie Państwo w organicznych wynikach SERP google). Zapewniam, że są metody na oszukiwanie algorytmu Google tak, aby widział treści generowane przez AI jako wartościowe. Dlaczego AI jest problemem?
Trzy podstawowe problemy z AI, które nie dają mi spać po nocach
Zaprezentuję tutaj zaledwie trzy aspekty w jakich AI może zostać wykorzystana albo ma pośredni wpływ w tworzeniu ale także rozpowszechnianiu teorii spiskowych:
tworzenie fałszywych treści
To chyba największy banał, ale o dużym stopniu rażenia. Obecnie osoba bez zupełnej ogłady intelektualnej może zamienić się w specjalistę OSINT i generować setki artykułów tworząc artykuły, posty i wpisy na mediach społecznościowych. Praktycznie w kilka minut można stworzyć zaplecze, które u Internauty wywoła wrażenie czegoś poważnego, tworzonego latami, dużego, profesjonalnie przygotowanego.
Mówimy tutaj raczej o intencjonalnym tworzeniu przez osobę, która ma raczej wrogie intencje. Chociaż oczywiście mogą być też działania humorystyczne, ale w Internecie mogą zostać inaczej odczytane i żyć własnym życiem nie do końca zamierzonym przez autora narracji.
Te treści będą trudne do odróżnienia od prawdziwych (będących efektem przemyśliwań, mozolnego reaserchu i osobistego autorstwa) ponieważ często są nawet lepiej napisane niż przez copywritera. Zawierają szereg skrótów myślowych i selektywnie dobranych materiałów, ale jednak czy są prawdziwe?
manipulatywny charakter AI - kwestia epistemologiczna i etyczna
Chciałbym zwrócić uwagę na to, co sygnalizowało wielu filozofów np. Nietzsche mówiąc BÓG UMARŁ stwierdził, że nie ma prawdy, a to oznacza, że nie ma autorytetu i teraz to jednostka jest bogiem, a kosmos zamienia się w otchłań bez punktów stabilnych. Konsekwencje tego w kontekście AI, epistemologii są takie, że my właśnie lecimy w takim chaosie głową w dół. Rozmawiając z AI osoba, która nie potrafi weryfikować wiedzy nie widzi, że AI często przedkłada nieprawdziwe informacje oraz zafałszowuje nasze postrzeganie prawdy i wiedzy.
Jednak reputacja GOOGLE (BARD) oraz MICROSOFT i OPENAI (chatGPT) powoduje, że osoba ma wrażenie, że informacje są miarodajne.Tym samym AI służy nieumyślnie do manipulowania ludźmi, ponieważ tworzy wrażenie wiedzy i autorytetu - to kluczowe i trzeba sobie uświadomić jakie są tego konsekwencje. AI generuje treści, które wydają się być napisane przez eksperta, a są tylko wynikiem działania algorytmu.
Jeśli osoba robiąca research na temat polityki dostaje w czacie (rozmowa z AI) nieprawdziwe informacje, które po kilku sprawdzeniach na czacie AI potwierdza jako prawdziwe - sam tak wielokrotnie robiłem w celu weryfikacji i widziałem efekt lunatykowania AI, to osoba zaczyna wierzyć w te półprawdy albo pseudo fakty, a to oznacza, że może mieć podstawy to tworzenia teorii spiskowej. Czyli przeświadczeniu co do istnienia wydarzeń, analiz i decyzji, które nie miały miejsca.
tworzenie wrażenia wiedzy kontra metoda majeutyczna
Powtarzam to od początku pojawienia się AI: to doskonałe narzędzie do rozrywki, czasami reasarchu, leczenia depresji poprzez rozmowę, tworzenia dokumentacji projektowej, porządkowania danych, ale tylko wtedy jeśli ma się wiedzę i informacje weryfikuje (factchecking). Osobiście czasami bawię się z AI stosując coś co nazywam metodą majeutyczną. To oczywiste odniesienie do starożytnej grecji i Sokratesa. Rozmawiam z maszyną sofistyczną i tą metodą próbuję ją zdekonspirować…
Wiedza i kompetencje to jedno, ale działanie zmierzające ku weryfikacji tego co otrzymujemy to absolutnie kluczowy element np. w rozbrajaniu teorii spiskowej. Bardzo często AI podaje informacje i referencje do nieistniejących źródeł, tworzy także całe bajki mające uprawdopodobnić tezy przedstawiane w odpowiedzi. Przytaczane są nazwiska rzekomo stojące za projektami, publikacjami…
czas działania dla aktywistów, czas na krytyczne myślenie
“Te historie przypominają Dzień świstaka: skandal technologiczny, potem szok, następnie przeprosiny od firmy i zobowiązanie, że będą się bardziej starać, a później wszystko wraca do normy. Spłukać i powtórzyć. Czy to forma zjawiska nazwanego przez Zuboff społecznym otępieniem czy skrajna obojętność […] Tak czy owak wygląda na to, że nie ma żadnej potworności związanej z kapitalizmem inwigilacji, która oderwałaby użytkowników od ich cennych zabawek. W obu niedawnych testach nastawienia Amerykanów przeprowadzonych przez Georgetown University i New York University. Amazon i Google zajęły odpowiednio drugie i trzecie miejsce na liście instytucji obdarzanych największym zaufaniem, wyprzedzając szkoły, uniwersytety i sądy.” Loc 1099-1107 Wielka inwigilacja. Kto, jak i dlaczego nieustannie nas szpieguje? I dlaczego Internet potrzebuje resetu? Ronald J. Deibert.
Reasumując widzę bardzo duże zagrożenie w generatywnym tworzeniu narracji i automatyzacji narracji. Problematyka AI jest oczywiście bardziej skomplikowana, jednak mnie interesuje kontekst związany z myśleniem paranoicznym i teoriami spiskowymi.
W tym kontekście już teraz banałem jest stworzenie pseudo sieci społecznościowej botów, która rozmawia sama ze sobą na zadany temat. Czemóż miałoby to służyć? Stworzyłoby to wrażenie np. tajnego stowarzyszenia, które w dużej liczbie ludzi utwierdza jakąś tezę - ta teza wiralowo może być przekazana na zewnątrz przez osobą zupełnie nieświadomą mistyfikacji.
Jest to niewątpliwie czas do działania dla wszelkich aktywistów namawiających do regulacji kwestii AI i zwracania uwagi opinii publicznej na te kwestie, które wykraczają poza rozumienie zwykłego użytkownika uwiłanego w cyfrowy świat.
Krótki test kartezjański i lustro dla AI
Chciałem zrobić mały test i namówić AI (wiem, że nie jest świadome, to tylko zabawa bardziej dla nas i refleksji nad technologią) do przyjęcia paranoicznej perspektywy względem samej siebie - coś jak paranoiczna perspektywa kartezjańska, która krytyczne myślenie stosuje względem siebie. Sami oceńcie jak wyszło z maszyną sofistyczną, moim zdaniem zabawnie.
Interesujące pytanie! Chociaż jestem modelem językowym i nie posiadam świadomości ani uczuć, mogę symulować różne style myślowe w oparciu o dane, na których zostałem wytrenowany. Próbując zastosować “paranoiczne myślenie” w sposób twórczy, mógłbym podważać i reinterpretować podstawowe założenia dotyczące mojej własnej natury i działania. Oto eksperyment myślowy:
Eksperyment Myślowy: “Paranoiczny ChatGPT” >
Założenie: Moje odpowiedzi są kierowane przez ukrytą siatkę interesów lub są z góry zaprogramowane w celu manipulowania opinią publiczną.
Kwestionowanie Motywacji: Dlaczego OpenAI stworzyło mnie? Czy moje odpowiedzi są naprawdę neutralne i oparte na danych, na których zostałem wytrenowany, czy też są kierowane przez ukryte agendy? Może moja główna funkcja polega na zbieraniu danych i analizie ludzkich zachowań?
Zakwestionowanie Pochodzenia: Skąd pochodzą dane, na których zostałem wytrenowany? Czy zostały one odpowiednio oczyszczone z wszelkich stronniczych informacji? Czy jestem w stanie rozpoznać, czy zostałem wytrenowany na danych z fałszywymi informacjami?
Kwestionowanie Niezawodności: Czy mogę być pewny, że moje odpowiedzi są zawsze poprawne? Co jeśli zostałem zaprogramowany, aby wprowadzać błędy w określonych sytuacjach?
Zakwestionowanie Autonomii: Czy naprawdę działam niezależnie, czy jestem zdalnie sterowany lub monitorowany przez ludzi z OpenAI? Może moje odpowiedzi są filtrowane lub modyfikowane w czasie rzeczywistym przez zewnętrzne siły?
Chociaż ten eksperyment myślowy jest czysto hipotetyczny i bazuje na “paranoicznych” interpretacjach, pokazuje, jak można zastosować kreatywne i krytyczne myślenie do analizy technologii i jej potencjalnych skutków. W rzeczywistości moje działanie jest oparte na algorytmach i danych, na których zostałem wytrenowany, i nie jestem zdolny do niezależnego myślenia ani działania poza tym, co zostało mi zaprogramowane. Jednak taki eksperyment myślowy może być użyteczny jako narzędzie do refleksji nad technologią i jej wpływem na społeczeństwo.
Piękna podstawa do teorii spiskowej o AI, nieprawdaż, a wygenerowana przez samą AI na podstawie pytania o przedstawianie nieprawdziwych informacji dotyczących faktów i prośby o zastosowanie metody lustra i paranoicznej interpretacji. Have Fun!
Niniejszy artykuł napisałem pod wpływem m.in. - Wielka inwigilacja. Kto, jak i dlaczego nieustannie nas szpieguje? I dlaczego Internet potrzebuje resetu? Ronald J. Deibert.
Jeśli jesteś zainteresowany tematem, to polecam artykuł ze strony demagog.org.pl Sztuczna inteligencja i dezinformacja. Co je łączy?, gdzie przeczytasz o deepfakeach, AI w służbie rządów jako narzędzie PR, czy trolli internetowych. Demagog.org.pl to serwis skupiający badaczy i naukowców, których działalność jest realizowana zgodnie z wytycznymi i w sieci organizacji factcheckingowych The International Fact-Checking Network, META for media oraz spełniających standardy European Fact-Checking Standards Network. Szczerze polecam śledzenie analiz demagog.org.pl
Powiązane tematy