Informacja, dezinformacja – jak sobie radzić?
Informacja, dezinformacja – jak sobie radzić?

Artykuł powstał w ramach projektu  pt.: „Wydawnictwa dla Amazonek”,  który realizowany jest dzięki dofinansowaniu ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych

 

„Informacja, dezinformacja – jak sobie radzić?”

Autor: Bartosz Lewandowski 

Wstęp

W dzisiejszym świecie jesteśmy nieustannie zalewani ogromną ilością informacji. Media społecznościowe stały się głównym źródłem wiadomości, a dostęp do informacji ma praktycznie każdy. Niestety, w tym gąszczu danych łatwo natknąć się na dezinformację, czyli celowe rozpowszechnianie fałszywych lub zmanipulowanych informacji.  

Dezinformacja to nie tylko fake newsy. To również manipulowanie treścią, tworzenie fałszywych kont i person, a nawet wykorzystywanie zaawansowanych technologii, takich jak deep fake’i.  

Dezinformacja jest szczególnie niebezpieczna, ponieważ może wpływać na nasze decyzje, emocje, a nawet światopogląd. Rozpowszechnianie nieprawdziwych informacji może prowadzić do podziałów społecznych, konfliktów, a nawet stanowić zagrożenie dla zdrowia publicznego.  

W tym artykule dowiesz się, czym dokładnie jest dezinformacja, jakie są jej rodzaje i mechanizmy, dlaczego jest tak skuteczna i jak sobie z nią radzić. Poznasz praktyczne wskazówki i narzędzia, które pomogą Ci krytycznie analizować informacje, weryfikować fakty i chronić się przed negatywnymi skutkami dezinformacji.

Rodzaje i mechanizmy dezinformacji

Dezinformacja to fałszywe, zmanipulowane lub wyrwane z kontekstu informacje, rozpowszechniane w sposób świadomy przez osoby, które mają złe intencje i chcą w negatywny sposób wpłynąć na zachowanie lub decyzje odbiorców. Dezinformacja może być realizowana za pomocą różnych narzędzi. Najczęściej używane to:  

  • Fake newsy – klasyczne fałszywe informacje, zawierające nieprawdziwe fakty.  
  • Manipulacja treścią informacji, kontekstem, fotografią, sugerowanym czasem wydarzenia, emocjami (stosowanie języka manipulacji emocjonalnej, języka polaryzacyjnego), stosowanie błędów logicznych, wybiórcze prezentowanie danych.  
  • Podawanie prawdziwych faktów w fałszywym lub zmanipulowanym kontekście.
  • Tworzenie fałszywych stron internetowych, dokumentów, fałszywych „person” (nieistniejących osób, funkcjonujących wyłącznie w sieci) lub organizacji.  
  • Wykorzystywanie trolli, botów i cyborgów.  
  • Sztuczne generowanie reakcji w sieci, albo przez kupno tych reakcji na komercyjnych stronach internetowych, albo przez stworzenie siatki sterowanych kont.  
  • Podszywanie się pod prawdziwe osoby/podmioty.  
  • Stosowanie deep fake’ów (to materiał wideo z taką obróbką dźwięku i obrazu, której celem jest utworzenie fałszywych obrazów i/lub dźwięków, przy użyciu technik z zakresu sztucznej inteligencji).  
  • Tworzenie rozbudowanych, fałszywych teorii, nazywanych spiskowymi, w których prawdziwe informacje przeplatają się z fake newsami, manipulacjami i niepotwierdzonymi domysłami.  

Fake news

Fake news to fałszywa, nieprawdziwa lub sztucznie stworzona informacja, której celem jest wywołanie dezinformacji lub dokonanie oszustwa. Fake newsy rozpowszechniane są głównie przez serwisy informacyjne, media elektroniczne oraz media społecznościowe. Przy ich tworzeniu autorzy często stosują chwytliwe nagłówki, by zwrócić uwagę jak największej liczby odbiorców.  

Określenie „fake news” odnosi się do faktów, danych – ale nie do opinii. Opinia, nawet jeśli oceniamy ją jako chybioną czy nieadekwatną, to autorska interpretacja faktów, do której autor ma prawo. Z fake newsem mamy do czynienia, gdy fakty lub dane są nieprawdziwe.  

Fake newsy często pojawiają się na portalach informacyjnych, które podszywają się pod znane i wiarygodne media, lub na anonimowych portalach, na których nie ma żadnych informacji o tym, kto je tworzy, nie ma też nazwisk dziennikarzy ani adresu redakcji.  

Fake newsem może być również nieprawdziwe zdjęcie – przerobione w programie graficznym lub wyjęte z kontekstu (semantycznego, czasowego) i opublikowane z nieprawdziwą informacją.  

Jak rozpoznać fake newsa?
  1. Sprawdź źródło informacji.  
  2. Zapoznaj się z pełną treścią informacji, a nie tylko z samym jej nagłówkiem.  
  3. Sprawdź autorów informacji oraz ich wiarygodność.  
  4. Sprawdź, czy inne źródła podają identyczne treści.  
  5. Sprawdź datę publikacji.  
  6. Rozważ, czy nie jest to żart lub satyra.  
  7. Przeanalizuj własne przekonania i emocje (czy nie wpływają na nasz osąd).  
  8. Zapytaj ekspertów.  

Trolle internetowe

Choć narzędzi manipulacji w Internecie jest wiele, jednym z najczęściej wykorzystywanych jest aktywność internetowych trolli.  

Troll internetowy to ktoś, kto publikuje wiadomości podburzające, obraźliwe, będące atakiem personalnym, często niezwiązane z głównym tematem dyskusji. Z reguły działa anonimowo, jego konto nie zawiera więc prawdziwego imienia i nazwiska, brakuje również zdjęcia profilowego, które umożliwia identyfikację.  

Celem trolla jest najczęściej wywołanie negatywnych reakcji emocjonalnych lub zakłócenie dyskusji. Troll często zachowuje się agresywnie, ponieważ im większą kłótnię wywoła, im więcej osób w niej uczestniczy, tym większą satysfakcję odczuwa troll.  

Część trolli to zwyczajni internauci, którzy w takim aspołecznym zachowaniu znajdują przyjemność. Ich celem jest skłócanie, obrażanie, dzielenie ludzi i wprowadzanie chaosu. Aby to osiągnąć, potrafią oszukiwać, manipulować i kłamać.  

Trolle rosyjskie

Trolle internetowe często kojarzą się z polityczną aktywnością Rosji w sieci – rzeczywiście taka istnieje, choć nie każdy aspołecznie zachowujący się użytkownik internetu to prawdziwy rosyjski troll.  

Trolle rosyjskich agencji, działających w ramach tzw. wojny informacyjnej, pracują dla pieniędzy. Rozpowszechnianie fałszywych informacji w sieci jest ich pracą.  

Głównym zadaniem rosyjskich trolli było tworzenie fałszywych kont działających w mediach społecznościowych i na forach internetowych, zamieszczanie komentarzy, linkowanie propagandowych treści, rozpowszechnianie memów i grafik. Pracowali na zmiany, ich aktywność była skoordynowana ze strefami czasowymi konkretnych państw. Najbardziej interesowały ich strony i grupy dotyczące: imigracji, religii, ras, niektórych ruchów społecznych, czasem określonych regionów geograficznych.  

W Polsce rosyjskie trolle są aktywne, choć w inny sposób niż się powszechnie wydaje. Użytkownicy sieci chętnie dziś sięgają po frazę „ruski troll”, obdarzając nią każdego, kto ma odmienne poglądy czy popełnia proste błędy językowe. Tymczasem trolle zatrudniane przez prokremlowską propagandę są coraz bardziej profesjonalne i mają zazwyczaj niewiele problemów językowych.  

Dziś rosyjskie trolle nastawiają się na promowanie istniejących narracji, które pasują do ich celów. Częściej angażują się w komentowanie istniejących postów, włączają się do dyskusji, a nie prezentują własną propagandę (co wcześniej było normą). Pracują nad budowaniem szerokich grup oraz biorą udział w dyskusji publicznej na najbardziej emocjonujące społeczeństwo tematy, by narzucić własną interpretację. Chodzi o takie wpływanie na Polaków, by narrację realizującą rosyjskie cele uznali oni za własną i zidentyfikowali się z nią.

Rosyjskie agencje trolli wykorzystują tematy już istniejące w danym społeczeństwie. Dostarczają argumentów, które pogłębiają istniejące podziały i generują chaos – lecz najczęściej nie wymyślają zupełnie nowego przekazu, tylko wykorzystują tematy i emocje, które przynajmniej tlą się w danej wspólnocie.  

Jak się bronić przed trollami?
  1. Podstawowa zasada brzmi: „Nie karm trolla”. Czyli: jeśli zauważysz, że jakieś konto działa jak troll, nie dyskutuj z nim, nie podawaj dalej jego wpisów, ogranicz z nim kontakt, jeśli jest to możliwe – zablokuj takiego użytkownika. Nic nie tracisz, gdy zamykasz dostęp do swoich treści trollowi.  
  2. Jeśli troll atakuje Cię personalnie, a zarzuty uważasz za wymagające Twojej reakcji – zamieść wyjaśnienie na swoim koncie, lecz nie wchodź w dyskusję z trollem. Zainteresowani dotrą do informacji, natomiast Ty nie dasz trollowi pożywki do dalszej aktywności. Jeśli atak jest znieważający lub zawiera groźby – rozważ zgłoszenie sprawy na policję.

  3. Jeśli trolle szerzą jakiegoś fake newsa, warto w ramach ogólnej dyskusji opublikować link, dementujący fałszywą informację – ale na tym udział w debacie powinien się zakończyć. Pamiętaj, że nie masz do czynienia z osobami otwartymi na argumenty, lecz z użytkownikami nastawionymi na awanturę i wywoływanie w Tobie trudnych emocji. Najlepiej zrobisz, gdy dementi fake newsa zamieścisz na swoim profilu i rozpowszechnisz je wśród znajomych.  
  4. Trudniej obronić się przed trollami stosującymi bardziej wyrafinowaną manipulację, których celem jest rozpowszechnienie treści tak, by została uznana za wiarygodną. Tutaj zadziałają zasady ochrony przed fake newsami:  
  • sprawdzaj źródła,
  • nie ufaj każdej informacji, która pojawia się w sieci,
  • zanim podasz dalej czyjś kontrowersyjny wpis, sprawdź dokładnie, kto naprawdę jest jego autorem – zdarzają się przypadki podszywania się pod znaną osobę lub instytucję.  

Boty i cyborgi

Kolejnym narzędziem dezinformacji są tzw. boty – zautomatyzowane konta, naśladujące zachowania normalnych użytkowników mediów społecznościowych. Boty to także oprogramowanie automatyzujące określone czynności, używane na wielu stronach internetowych, m.in. do obsługi klienta online czy publikacji treści zgodnie z określoną procedurą.  

Jednak kiedy mówimy „boty” w odniesieniu do dezinformacji, mamy na myśli zautomatyzowane konta, które w mediach społecznościowych realizują zapisane w programie czynności, takie jak:

  • podawanie dalej określonych wpisów (np. opublikowanych na konkretnych kontach lub zawierających określony hashtag), aby szybko rozpowszechnić istotną z punktu widzenia programującego lub jego klienta – treść,  
  • generowanie komentarzy o zaprogramowanej treści pod wpisami innych użytkowników – by narzucić kierunek dyskusji,

  • tworzenie wrażenia dużej popularności osoby/konta, przez generowanie dużej liczby reakcji pod wpisami.  

Boty, wykorzystujące manipulację do celów politycznych lub komercyjnych, są szkodliwe. Tworzą fałszywy obraz sieciowej rzeczywistości. Patrząc na wpis „podbity” przez boty, użytkownicy mają wrażenie, iż jest on ważny, prawdziwy, popularny – ponieważ jest pod nim wiele reakcji. Zwracają na niego uwagę, często podają go dalej, dając treści dodatkowy zasięg.  

Reakcje botów fałszywie wpływają też na algorytmy platform społecznościowych, które reagują na wysokie (pod względem ilościowym) zainteresowanie wpisem i zaczynają wyświetlać go większej liczbie użytkowników. Mamy wtedy do czynienia ze zjawiskiem kuli śnieżnej – wpis staje się wiralem, ale wyłącznie dzięki manipulacji reakcjami.  

Istnieją również konta hybrydowe, które łączą w sobie cechy bota i aktywność prawdziwego, „ludzkiego” użytkownika. Automatyzacja działa na nich tylko przez określony czas i jest uzupełniana normalną aktywnością człowieka, albo automatycznie realizowane są tylko niektóre czynności, np. podawanie dalej wpisów. Takie hybrydowe konta nazywane są CYBORGAMI.  

Jak rozpoznać konto botowe?

Cechy charakterystyczne konta botowego:

  • Anonimowość – brak zdjęcia profilowego, na Twitterze nazwa użytkownika składająca się z przypadkowych liter i cyfr.  
  • Nienaturalnie wysoka aktywność konta – nie do osiągnięcia przez człowieka (np. kilkadziesiąt wpisów w ciągu minuty, kilkaset postów w ciągu doby).  
  • Brak oryginalnych wpisów – na koncie są same retweety/reposty wpisów innych autorów.  
  • Brak treści dotyczących życia prywatnego.  
  • Brak reakcji na pytania kierowane do tego konta przez innych użytkowników.  

Rysunek. 1. Jak rozpoznać konto botowe?
Źródło: Poradnik Fundacji Orange „Dezinformacja. Jak się przed nią chronić?

Deepfake

To nowe zagrożenie, które jeszcze nie jest powszechnie znane, ale niestety – prędzej czy później – zostanie rozpowszechnione i wtedy stanie się bardzo poważnym problemem.  

Określenie „deepfake” pochodzi od dwóch angielskich zwrotów: „deep learning” (głębokie uczenie) oraz „fake” (fałsz). Deepfake to taka obróbka dźwięku i obrazu, najczęściej w materiałach wideo, która ma na celu stworzenie fałszywej ścieżki dźwiękowej i dopasowanego do niej obrazu, za pomocą sztucznej inteligencji. Pozwala tworzyć zmanipulowane filmy, które są dziś prawie niemożliwe do odróżnienia od tych, które zostały zrealizowane w tradycyjny sposób i są autentyczne.  

Cechy deepfake’ów:

  • pojawiają się w materiałach, na których występują ludzie;
  • bazują na wcześniej nagranym, autentycznym materiale, który jest przerabiany.

W efekcie dostajemy film, na którym na przykład znany polityk mówi coś, czego w rzeczywistości nigdy nie powiedział – jednak patrząc na nagranie widzimy tego właśnie polityka, który mówi takie słowa!

Przed erą deepfake’ów materiały wideo były jednymi z najbardziej wiarygodnych – trudno było je zmanipulować tak, by podłożyć komuś fałszywą wypowiedź, dopasowaną do mimiki twarzy. W deepfake’ach to możliwe: sztuczna inteligencja dopasowuje ruchy twarzy osoby do nowej ścieżki dźwiękowej. Niestety, nie ma obecnie powszechnie dostępnych narzędzi, które umożliwiałyby wykrycie deepfake’a.  

Rysunek 2. Zrzut ekranu z filmu przedstawiającego technologię umożliwiającą tworzenie deepfake’ow, za pomocą której można podszywać się pod kogoś innego. W filmie posłużono się wizerunkiem Prezydenta RP, Andrzeja Dudy
Źródło: https://www.youtube.com/watch?v=zA0W8DadBW0&t=17s&ab_channel=emce%E2%96%A1 

Tworzenie fałszywych person

Tworzenie fałszywych person, czyli nieistniejących postaci, które w sieci mają rozpowszechniać określone treści, to zjawisko częstsze niż można przypuszczać. Chodzi tu nie o anonimowe konta, lecz o personę, która ma sprawiać wrażenie autentycznego człowieka, uznawanego za wiarygodne źródło informacji. W dezinformacji rosyjskiej ten sposób wykorzystywany jest często do tworzenia fałszywych dziennikarzy lub blogerów, czasami także ekspertów.  

Teorie spiskowe

Teoria spiskowa to specyficzny rodzaj narracji, który ma służyć wyjaśnieniu jakiegoś zdarzenia, sytuacji czy zjawiska, w opozycji do powszechnie uznawanej, oficjalnej wersji. Opiera się na przekonaniu (nie zawsze wprost artykułowanym), że najważniejsze informacje dotyczące tematów publicznych są ukryte, za sprawą niejawnych działań osób lub grup, współpracujących ze sobą w celu osiągnięcia własnej korzyści, kosztem interesu zbiorowości. Szerzone w ten sposób przekonania są niepotwierdzone wiarygodnymi dowodami, choć przekazywać je mogą osoby uważane za autorytety.  

W czasach kryzysowych (np. podczas pandemii czy w czasie wojny) rośnie popularność teorii spiskowych, ponieważ pozornie porządkują one świat według znanych odbiorcom zasad, a w efekcie niwelują poczucie niepewności, bardzo trudne do wytrzymania w dłuższym okresie. Choć bywają najbardziej nieprawdopodobne, przywracają (pozornie!) poczucie bezpieczeństwa – nawet wtedy, gdy dowodzą istnienia pedofilskiego spisku światowych przywódców przeciwko ludzkości czy przepowiadają wojnę z pozaziemską rasą reptilian. Bezpieczeństwo odbiorcom przynosi świadomość, że zasady, rządzące opisywanym w ten sposób światem, są znane – dzięki temu łatwo określić, kto jest dobry, a kto zły, wróg jest widoczny i nazwany, a przyczyny kryzysu łatwo „zrozumieć” (przypisując je do znanych reguł). Teoria spiskowa zazwyczaj wydaje się logiczna, w rzeczywistości jednak ma wiele słabych punktów, które pozwalają wykazać jej nieprawdziwość. Wyznawcy takiej teorii pomijają jednak jej słabości i nie chcą angażować się w weryfikację podanych informacji.  

Kupowanie sieciowych reakcji

Dziś każdy, kto chce manipulować odbiorcami za pomocą mediów społecznościowych i może na ten cel przeznaczyć pieniądze, bez problemu zdobędzie łatwe w obsłudze narzędzia do manipulacji ilościowej. Dzięki nim wygra sondę w sieci, wygeneruje korzystne dla siebie komentarze pod postami czy zaskoczy konkurencję liczbą wyświetleń swego filmu – bo po prostu kupi sobie reakcje.  

Manipulacja wynikami ilościowymi realizowana jest za pomocą kilku narzędzi:

  • reakcje pochodzą z fałszywych kont sterowanych automatycznie, czyli z kont – botów,  
  • reakcje pochodzą ze specjalnych platform online (powstają one głównie w krajach rozwijających się, często w Azji), których pracownicy ręcznie realizują zamówienia ilościowe. To usługa droższa, bo trudniejsza do wykrycia,  
  • istnieją również tzw. giełdy lajków – czasem nawet bezpośrednio na Facebooku, działają jako grupy, na których wstawia się posty po to, by uzyskać pod nimi reakcje w zamian za zostawienie swoich reakcji pod postem kogoś innego,  
  • reakcje generuje specjalne oprogramowanie, które wykorzystuje dostęp do konta bez wiedzy jego użytkownika.  

Koszt wykupienia kilkunastu tysięcy lajków na Facebooku to zaledwie kilkaset złotych, podobnie wyglądają ceny innych reakcji. Choć kupowanie reakcji, a więc generowanie fałszywego ruchu w sieci, to działanie nieetyczne, obecnie nie jest nielegalne.  

Cel dezinformacji

Celem akcji dezinformacyjnych zawsze jest wprowadzenie w błąd, spowodowanie powstania obrazu świata niezgodnego z rzeczywistością i wywołanie określonych efektów w postaci: podejmowania przez odbiorcę błędnych decyzji, wytworzenia konkretnego poglądu, podjęcia konkretnego działania lub przeciwnie – zaniechania działania.

Dlaczego dezinformacja działa?

Na to, czy dezinformacja odniesie skutek, wpływają czynniki wewnętrzne (psychologiczne) i zewnętrzne (związane z działaniem algorytmów platform społecznościowych).

I. Czynniki psychologiczne

  • Reakcje emocjonalne: Odbiorcy częściej zwracają uwagę na wiadomości negatywne lub budzące podziw niż na pozytywne lub neutralne. Artykuły czy wpisy dementujące fake newsy rozchodzą się słabiej i budzą niższe zainteresowanie niż sam fake news – zazwyczaj są neutralne i nie wzbudzają tak silnych emocji. Jeśli przeczytana treść wzbudza skrajne emocje, np. wściekłość lub niepohamowaną radość, stanowi to wyraźną wskazówkę, że należy sprawdzić inne źródła w celu potwierdzenia wiarygodności danej treści. W wielu przypadkach dezinformacja nie służy informowaniu, lecz raczej wzbudzeniu silnego gniewu lub strachu.  
  • Wpływ społeczny: Działają również zasady wpływu społecznego, a zwłaszcza:

    • Zasada społecznego dowodu słuszności: człowiek, który nie wie, jaka decyzja lub jaki pogląd jest słuszny/właściwy, opowiada się za decyzją/poglądem takim, jak większość grupy.  
    •  
    • Zasada autorytetu: polega ona na większej skłonności do posłuszeństwa wobec osób, które uważane są za autorytety. To tłumaczy, dlaczego na zachowania ludzi dziś ogromny wpływ mają celebryci, youtuberzy/youtuberki i inni sieciowi influencerzy/influencerki.  
    •  
  • Silne emocje i trudne sytuacje: Kiedy wierzymy w fałszywe informacje? Kiedy działają silne emocje – wówczas traci znaczenie prawda jako obiektywna wartość. Nowe, trudne, nieprzewidywalne sytuacje oraz silne emocje uruchamiają inne niż zazwyczaj potrzeby i inne mechanizmy reagowania ludzi. Destabilizacja i chaos wywołują potrzebę szybkiego uporządkowania rzeczywistości. Strach, frustracja, niepewność wywołują potrzebę poczucia bezpieczeństwa i stabilności. Powodują zamknięcie intelektualne, podejrzliwość, ale też rosnącą potrzebę przynależności do grupy. W trudnych emocjonalnie sytuacjach okazuje się, że dezinformacja (w różnych formach) może mieć zdolność zaspokajania emocjonalnych potrzeb. Fake newsy i teorie spiskowe potrafią szybko niwelować niepewność, porządkując świat według rozpoznawalnego schematu – za ich pomocą da się bowiem „poukładać” emocje i nowe wiadomości zgodnie ze znanym wcześniej porządkiem. I odzyskać wewnętrzny spokój, który staje się wtedy wartością nadrzędną.  
  • Niski poziom zaufania społecznego: Osoby z niskim poziomem zaufania społecznego częściej szukają informacji poza systemem, wierzą własnym autorytetom i własnym wynikom wyszukiwania w internetowych wyszukiwarkach, a nie zewnętrznym, uznanym przez system autorytetom czy instytucjom. Duże znaczenie ma też dla nich tzw. „marketing szeptany”, czyli informacje uzyskiwane od rodziny, przyjaciół, znajomych. Często ich opinie stają się ważniejsze niż dane prezentowane w oficjalnej debacie publicznej.  
  • Silna polaryzacja społeczna: Polaryzacja to rozłam systemu wartości w ważnych dla danego społeczeństwa obszarach życia. Podstawowe wartości nie są podzielane przez większość społeczeństwa, konflikty są utrwalane. Silna polaryzacja niszczy instytucje demokratyczne, niszczy wspólnotę, tworząc zamiast niej dwie przeciwstawne grupy: „my” i „oni”. Polaryzacja w Polsce oscyluje na bardzo wysokim poziomie, co wskazuje na poważne różnice poglądowe, dotyczące wszystkich kluczowych kwestii politycznych. Przy silnej polaryzacji społecznej często działają dwa znane błędy myślowe: efekt potwierdzenia i efekt grupy.  
    • Efekt potwierdzenia to poszukiwanie informacji, które potwierdzają to, co już myślimy na dany temat. Każda informacja, która potwierdza nasze poglądy, jest uznawana za prawdziwą. Odrzucane są natomiast te, które zmuszają do rewidowania poglądów. W takiej sytuacji newsy oceniane są nie pod kątem ich wiarygodności, lecz dopasowania do własnych opinii.  
    •  
    • Efekt grupy polega na faworyzowaniu własnej grupy i defaworyzowaniu grupy przeciwnej – grupy „innych”, „onych”. Wszystko, co robią „nasi”, jest dobre, kiedy nawet to samo zrobią „inni” – jest złe. „Inni” są też oskarżani o wszystkie negatywne działania, cechy etc.. W takim układzie społecznym ludzie łatwo wierzą w dezinformację, która pozwala im zachować pozytywny obraz swojej grupy oraz defaworyzować grupę przeciwną.  
    •  

II. Algorytmy mediów społecznościowych

Algorytm to swego rodzaju przepis postępowania, który prowadzi do rozwiązania ustalonego problemu, przez wykonanie określonego ciągu czynności. Współcześnie algorytmy wykorzystywane są w różnych dziedzinach życia. W Internecie najczęściej odpowiadają za porządkowanie czy ustalanie hierarchii informacji, pojawiających się w nieprzerwanym strumieniu wiadomości. Algorytmy używane przez platformy społecznościowe (a obecnie coraz częściej także przez portale informacyjne), sprawiają, że każdy użytkownik mediów społecznościowych widzi na swoim timeline’e inne wpisy – są one tak dobrane, by odpowiadały jego dotychczasowym reakcjom i zainteresowaniom, a więc – spersonalizowane. Algorytmy odpowiadają także za personalizację wyników w wyszukiwarkach internetowych.  

Personalizacja wyników wyszukiwania i widocznych w social mediach treści odbywa się za pomocą mierzenia wyników wcześniejszych wyszukań, polubionych treści, reakcji oraz wszelkich innych zgromadzonych danych, np. w trakcie użytkowania aplikacji, zainstalowanych na telefonie komórkowym użytkownika.  

Algorytmy platform społecznościowych wyświetlają nam to, co lubimy, ale także to, co lubią inni. Czyli pokazują nam na timeline`ach wpisy popularne, budzące największe zainteresowanie. Nie wiadomo dokładnie, jak definiowana jest popularność (np. jaka liczba reakcji o niej świadczy), ponieważ żadna platforma społecznościowa nie ujawniła dotychczas swego algorytmu. Jednak im więcej reakcji wywoła dany wpis w krótkim czasie od publikacji, tym częściej jest wyświetlany innym użytkownikom.  

A ponieważ najwięcej reakcji budzą treści skandalizujące, wywołujące silne, negatywne emocje lub podziw, powstaje prosty ciąg zależności: emocjonujący wpis wywołuje dużo reakcji, dlatego jest zauważany przez algorytmy, które wyświetlają go większej liczbie osób. To generuje kolejny wzrost reakcji i dalsze podbijanie treści przez algorytmy. Schemat ten powtarza się wielokrotnie. Rodzi się wiral – treść rozchodzi się „wirusowo”, udostępniana przez kolejnych, niezwiązanych ze sobą użytkowników. Właśnie ten mechanizm sprawia, że algorytmy mediów społecznościowych sprzyjają popularności fałszywych informacji w Internecie.

Jak walczyć z dezinformacją?

Walka z dezinformacją to proces ciągły i dynamiczny, który wymaga zaangażowania na wielu poziomach. Istnieje szereg działań, które mogą pomóc ograniczyć rozpowszechnianie dezinformacji i zminimalizować jej negatywne skutki.

Rysunek 3. Jak radzić sobie z dezinformacją? 12 zasad Stowarzyszenia Demagog
Źródło: Jak radzić sobie z dezinformacją? 12 zasad Stowarzyszenia Demagog

1. Fact-checking

Fact-checking, czyli weryfikacja faktów, jest podstawowym narzędziem w walce z dezinformacją. Polega na sprawdzaniu prawdziwości informacji i dementowaniu fałszywych doniesień.

  • Działania indywidualne: Każdy użytkownik internetu powinien stosować fact-checking na własną rękę, zanim udostępni jakąkolwiek informację. Należy zweryfikować źródło, sprawdzić autora i porównać daną informację z innymi źródłami. Warto korzystać z dostępnych narzędzi, takich jak wyszukiwanie obrazem, które pozwala na zweryfikowanie autentyczności zdjęć.  
  • Działania systemowe: Istnieją portale fact-checkingowe, które profesjonalnie zajmują się weryfikacją informacji i dementowaniem fake newsów. Należy wspierać ich działalność i regularnie korzystać z ich zasobów. Platformy społecznościowe również powinny współpracować z fact-checkerami, oznaczać i usuwać fałszywe treści oraz ograniczać zasięg kont rozpowszechniających dezinformację.  
    • Przykłady portali fact-checkingowych: Stowarzyszenie Demagog (demagog.org.pl), Agencja AFP, Konkret24, Wojownicy Klawiatury, Fake Hunter Polskiej Agencji Prasowej, OKO.press, Instytut Badawczy NASK, euvsdisinfo.eu.  
    •  

2. Edukacja i świadomość

Edukacja i podnoszenie świadomości na temat dezinformacji to kluczowe elementy budowania odporności społecznej.

  • Działania indywidualne: Każdy użytkownik internetu powinien rozwijać swoje umiejętności medialne, uczyć się krytycznego myślenia i analizy informacji. Świadomość mechanizmów dezinformacji i tego, jak działają algorytmy mediów społecznościowych, pozwala na bardziej świadome korzystanie z internetu.  
  • Działania systemowe: Niezwykle ważne jest wprowadzanie edukacji medialnej do szkół, organizowanie kampanii społecznych i promowanie inicjatyw edukacyjnych.  
    • Przykłady inicjatyw edukacyjnych: Megamisja, #SuperKoderzy, kurs Precobias, Dzień Bezpiecznego Internetu, Lekcja: Enter.  
    •  

3. Odpowiedzialność użytkowników

Każdy użytkownik internetu ponosi odpowiedzialność za swoje działania w sieci.

  • Działania indywidualne: Użytkownicy powinni być świadomi tego, jak rozpowszechniają się fałszywe treści i jakie mogą być tego konsekwencje. Należy zachować szczególną rozwagę przy udostępnianiu informacji, reagowaniu na nie i komentowaniu.  
  •  

4. Działania platform społecznościowych

Platformy społecznościowe odgrywają istotną rolę w walce z dezinformacją.

  • Przykłady działań: Platformy powinny współpracować z fact-checkerami, usuwać fałszywe treści, ograniczać zasięg kont rozpowszechniających dezinformację, promować różnorodność informacji, modyfikować algorytmy, zwiększać transparentność mechanizmów targetowania reklam, wprowadzać zabezpieczenia dla spersonalizowanych reklam.  
    • Community Notes: Niektóre platformy wprowadzają narzędzia takie jak „Community Notes”, które pozwalają użytkownikom na dodawanie kontekstu do wpisów i oznaczanie potencjalnych dezinformacji.

5. Inne działania

  • Wsparcie dla niezależnych fact-checkerów: Organizacje fact-checkingowe odgrywają kluczową rolę w weryfikacji informacji, dlatego ważne jest wspieranie ich pracy.
  • Promowanie odpowiedzialności mediów tradycyjnych: Media tradycyjne również powinny dbać o rzetelność informacji i dokładnie je weryfikować przed publikacją.  
  • Współpraca międzynarodowa: Dezinformacja często ma charakter międzynarodowy, dlatego współpraca między krajami i organizacjami jest kluczowa.  
  • Działania legislacyjne: Rządy powinny wprowadzać regulacje ograniczające dezinformację, ale z poszanowaniem wolności słowa.  
  • Odpowiedzialność reklamodawców: Firmy i reklamodawcy powinni dbać o to, aby ich reklamy nie pojawiały się przy treściach dezinformacyjnych.  
  • Rola społeczeństwa obywatelskiego: Organizacje pozarządowe i aktywiści mogą odgrywać ważną rolę w ujawnianiu dezinformacji i monitorowaniu działań platform.

Rysunek 4. Zgłaszanie strony na Facebooku
Źródło: Poradnik Fundacji Orange „Dezinformacja. Jak się przed nią chronić?”

Podsumowanie

Dezinformacja to zjawisko, które towarzyszy ludzkości od dawna, ale w dobie internetu i mediów społecznościowych stało się szczególnie niebezpieczne. Rozpowszechnianie fałszywych informacji może prowadzić do wielu negatywnych skutków, takich jak podważanie zaufania do mediów i instytucji, podziały społeczne, negatywny wpływ na zdrowie publiczne, manipulowanie wyborami i polityką, a nawet straty ekonomiczne.  

Walka z dezinformacją jest trudnym, ale nie niemożliwym zadaniem. Wymaga ona zaangażowania na wielu poziomach:

  • Indywidualnego: Rozwijanie umiejętności krytycznego myślenia, weryfikowanie informacji, ostrożność w mediach społecznościowych.  
  • Systemowego: Współpraca platform społecznościowych, wsparcie dla fact-checkerów, promowanie edukacji medialnej, odpowiedzialność mediów tradycyjnych, działania legislacyjne.  
  • Społecznego: Aktywność organizacji pozarządowych, inicjatywy edukacyjne, reagowanie na dezinformację.  

Ważne jest, aby pamiętać, że dezinformacja stale ewoluuje, a walka z nią to proces ciągłego uczenia się i adaptacji. Kluczem do sukcesu jest edukacja, świadomość, krytyczne myślenie i odpowiedzialne korzystanie z technologii.

 

Bibliografia

 

Autor: informatyk z blisko 30-letnim doświadczeniem w projektach badawczych, gdzie technologia spotyka się z realnymi potrzebami człowieka. Umiarkowany entuzjasta i osoba o interdyscyplinarnych zainteresowaniach, potrafiąca przedstawiać złożone zagadnienia technologiczne w sposób wyważony i przystępny.

slot demo
https://jdih.menlhk.go.id/slot-gacor-online/
https://www.oceanic-saunas.eu/rtp-live/
https://majorzeman.eu/slot-demo/
https://www.psychopsy.com/toto-sgp/
https://www.oceanic-saunas.eu/slot-demo/
https://www.rioquente.com.br/slot-demo/
https://www.parcoursmetiers.tv/uploads/slot-demo/
https://chavancentre.org/slot-demo/
https://drift82.com/togelsgp/