
Artykuł ukazał się w 21. numerze kwartalnika „Młodzi o Polityce”
Niebezpieczeństwa współczesnego świata rozwijają się dynamicznie, równolegle z nowościami technologicznymi. W ciągu ostatnich lat nasiliło się zjawisko dezinformacji. Coraz więcej krąży teorii spiskowych, nagrań propagandowych czy fałszywych danych wpływających na zachowanie licznych grup i jednostek. Sytuacja minionej dekady, zwłaszcza po pandemii COVID-19 cyfryzującej globalne funkcjonowanie, sprawiła, że nieprawdziwe informacje stały się poważnym zagrożeniem dla przeciętnego użytkownika Internetu. Tym samym, dla coraz większej liczby ludzi na Ziemi, to jedno z największych wyzwań współczesności, a umiejętność jej rozpoznawania urosła do rangi zdolności czytania czy pisania.
Dezinformacja stanowi zjawisko różniące się od zwykłych pomyłek czy plotek krążących w sieci. Wyróżnia się świadomym i celowym wprowadzaniem w błąd mającym na celu kształtowanie opinii, zachowań i decyzji odbiorców. Jej siła tkwi w skali oddziaływania – fałszywy przekaz, niczym wirus, potrafi błyskawicznie rozprzestrzenić się wśród milionów osób, siejąc zamęt i nieufność. Właśnie dlatego wielu badaczy i analityków nazywa dezinformację „bronią masowego rażenia”[1] – nie uderza w pojedynczego człowieka, lecz w całe społeczności i państwa.
Dzisiejszy świat nadaje tego rodzaju orężowi większe znaczenie niż kiedykolwiek. Media społecznościowe, początkowo stworzone dla łączenia internautów, sprzyjają sprawnemu rozprzestrzenianiu się fake newsów. Ponadto, algorytmy platform częściej podbijają treści budzące emocje i kontrowersje niż sprawdzone informacje. Do tego dochodzi rozwój sztucznej inteligencji, umożliwiającej tworzenie niezwykle realistycznych nagrań czy zdjęć, trudnych do odróżnienia od prawdziwych. Odbiorca bombardowany takimi treściami zwykle przyjmuje je bez refleksji, czasem nie mając nawet narzędzi do weryfikacji źródła danego artykułu czy postu.
Warto wyróżnić trzy pojęcia, które bezpośrednio wiążą się z rozprzestrzenianiem fałszywych informacji. Dezinformacja sama w sobie to świadome wprowadzenie w błąd w określonym celu, na przykład politycznym czy finansowym. Różni się od niej misinformacja, czyli powielanie prawdy bez złych intencji. Za przykład może posłużyć udostępnianie niesprawdzonych informacji, sądząc, że są zgodne z rzeczywistością. Istnieje jeszcze malinformacja — sytuacja, kiedy prawdziwe treści wykorzystuje się w szkodliwy sposób, poprzez udostępnianie prywatnych danych, wyrwane z kontekstu cytaty czy zmanipulowane fragmenty wypowiedzi[2]. Należy pamiętać, że problem nie zawsze tkwi w treści materiału, często budują go intencje postujących.
Nawet znając teorię i mając świadomość czyhających niebezpieczeństw, łatwo ulegamy fałszywym informacjom. Także najbardziej czujni czytelnicy w pierwszej chwili mogą uwierzyć w przeczytany w Internecie szokujący artykuł. Dopiero później pojawia się moment zastanowienia i sprawdzenie źródeł. Mamy naturalną tendencję do wiary w wiadomości zgodne z naszymi przekonaniami. Gdy przeczytamy lub zobaczymy coś, co łączy się z naszym światopoglądem, w pierwszej chwili się z tym zgadzamy. Sporą rolę procesie dezinformowania odbiorców odgrywają emocje. Gdy pojawi się nagłówek z wykrzyknikami, wielkimi literami i przyciągające uwagę zdjęcie, od razu bardziej angażujemy się w tekst i chętniej przekazujemy go dalej. Do tego warto dołożyć mechanizmy skrótowego myślenia. Większość z nas przeglądając newsy, na początku zerka na same nagłówki, zgłębiając się tylko w niektóre treści. Jednak bodźce przekazywane w tych krótkich stopkach w nas zostają i przyswajamy je, jako absolutną prawdę
Podobne do krótkich tytułów, płynne komunikaty przekazują użytkownicy mediów społecznościowych. Ich algorytmy nie rozpoznają prawdy od fałszu, a promują filmiki czy posty mające najwięcej polubień, reakcji i komentarzy. Wiadomo jednak, że chętnie dyskutuje się, czy wymienia poglądy pod treściami emocjonującymi, nie zawsze zweryfikowanymi. W efekcie szybko rozprzestrzeniają się przekazy oburzające czy szokujące, a rzetelne analizy pozostają tylko dla osób faktycznie zagłębiających się w temat. Serwisy społecznościowe stają się w rezultacie platformami dezinformacji, wzmacniając jej zasięg.
Równocześnie otwiera się nowy rozdział w tej historii — narzędzia sztucznej inteligencji oraz deep fake’i. Jeszcze kilka lat temu przygotowanie realistycznego, acz zafałszowanego nagrania wymagało profesjonalnego sprzętu i godzin pracy. Dziś wystarczy darmowy program lub strona i powstaje film dowolnej treści. Łatwo więc stworzyć fikcyjną wypowiedź polityka lub reklamę popieraną przez celebrytę nieświadomego nawet istnienia takiej kampanii. Granica między prawdą a fałszem stała się coraz trudniejsza do uchwycenia. Tym samym, mniej osób jest w stanie zweryfikować źródło informacji, z którymi się styka.
Wszystkie te mechanizmy zostają coraz częściej wykorzystywane w polityce. Kampanie wyborcze od lat obfitowały w manipulację i naciąganie faktów, lecz dopiero dostęp do Internetu kompletnie zmienił skalę opisywanego zjawiska. Szczególnie wyraźne było to w czasie kampanii prezydenckiej w Stanach Zjednoczonych w 2016 r. Według analiz prowadzonych przez Kongres[3] i niezależne organizacje[4], ówczesne wybory były pierwszymi, w których media społecznościowe zostały wykorzystane do siania dezinformacji na ogromną skalę. Zaowocowało to setkami stron i postów rozpowszechniających niezgodne z prawdą informacje na temat dwóch głównych kandydatów: Hillary Clinton i Donalda Trumpa. Dużą część tego ruchu generowały tzw. farmy trolli[5], powiązane m.in. z rosyjską Internet Research Agency[6]. Grupa ta skupiała się na polaryzacji społeczeństwa amerykańskiego, osłabieniu jego zaufania do instytucji demokratycznych i wpływaniu na decyzję odbiorców zgodnie z potrzebami jednostek.
Skali problemu trudno sobie wyobrazić — według danych Facebooka[7], treści powiązane z rosyjskimi źródłami dotarły do ponad 120 milionów użytkowników platformy. Nie chodziło tylko o bezpośrednie ataki na kandydatów. Znaczna część dotyczyła tematów społecznych i kulturowych, jak prawa mniejszości, imigracja czy prawo posiadania broni. Z tego powodu manipulacji nie traktowano jako elementu kampanii wyborczej, a raczej jako zwykłą dyskusję internetową.
Od czasu amerykańskiej kampanii prezydenckiej podobne schematy zaobserwowano także w innych krajach. Jeszcze w 2016 r. raporty dotyczące referendum w sprawie Brexitu[8] w Wielkiej Brytanii ujawniały masowe rozpowszechnianie fałszywych wyobrażeń o konsekwencjach wyjścia z Unii Europejskiej.
Także w krajach Europy Środkowo—Wschodniej, włącznie z Polską, odnotowano próby zmiany zdania opinii publicznej poprzez dezinformację. Podczas wyborów samorządowych w Polsce w 2018 r. w sieci zaczęły krążyć grafiki, memy, filmiki uderzające w poszczególnych kandydatów. Wiele z nich miało z pozoru żartobliwy, satyryczny charakter, co utrudniało zaklasyfikowanie ich typowo jako dezinformację. Mogły zawierać elementy misinformacji lub nawet malinformacji. Jednak badania nad komunikacją polityczną pokazują, że również treści podawane w formie humorystycznej skutecznie utrwalają negatywne skojarzenia[9]. Treść przekazana na pozór w lekki sposób, może wpłynąć na stosunek wyborców do określonych osób publicznych, co znacznie utrudnia przeprowadzenie obiektywnego głosowania.
W tamtym okresie nie brakowało przypadków bardziej wyrafinowanego fałszowania faktów. Organizacje zajmujące się fact—checkingiem zwracały uwagę na rozpowszechnianie fałszywych cytatów przypisywanych politykom, zmanipulowanych fotografii i nieprawdziwych informacji dotyczących rzekomych afer i skandali[10]. Skala ingerencji nie była tak ogromna jak w USA czy podczas Brexitu, lecz sam fakt pojawienia się podobnych zjawisk w Polsce pokazuje, że nie jesteśmy od nich zupełnie wolni. Proces szerzenia silnie spolaryzowanych treści podważa zaufanie do kandydatów, lecz także do samego procesu wyborczego. Skutkuje to mniejszą chęcią brania udziału w wyborach, niską frekwencją i tym samym, mniej adekwatnym doborem reprezentanta grupy.
Podobnie destrukcyjne skutki ujawniają się w chwilach kryzysów. W trakcie pandemii COVID-19 w roku 2020, Internet stał się istnym poligonem dla dezinformacji. Sieć zalały liczne teorie spiskowe, od „szczepionek z chipami” po twierdzenie, że „wirusa wymyślono w laboratorium, aby kontrolować ludzkość”[11]. Niektóre były niewinne, lecz te dotyczące leczenia czy noszenia „szkodliwych” maseczek ochronnych mogły realnie wpłynąć na bezpieczeństwo w miejscach publicznych.
W naszym kraju popularność zdobywały zamknięte grupy na Facebooku oraz kanały w komunikatorach, takich jak Telegram. Użytkownicy wymieniali się tam alternatywnymi wieściami, często kopiowanymi z zagranicznych źródeł konspiracyjnych. W bańkach informacyjnych tego rodzaju mechanizm wzmocnienia grupowego nadawał nawet najbardziej absurdalnym pomysłom status prawdy. Z czasem te treści wyszły poza sieć, skutkując niechęcią do szczepień, agresją wobec pracowników ochrony zdrowia czy masowymi protestami ulicznymi przeciwko obostrzeniom sanitarnym.
Według raportu NASK[12] z 2021 r., w polskim Internecie w szczycie pandemii pojawiały się dziesiątki tysięcy wpisów tygodniowo podważających m.in. skuteczność szczepień[13]. Globalnie sytuacja przedstawiała się podobnie — już w 2020 r. Światowa Organizacja Zdrowia (WHO) ukuła termin infodemia (ang. infodemic)[14], idealnie określający lawinę fałszywych informacji, równie groźnych, jak sam wirus.
Konsekwencje widać było nie tylko w statystykach szczepień[15], ale i podziale społeczeństwa. Zaufanie do instytucji publicznych i ekspertów znacznie zmalało, a ludność podzieliła się na zwolenników i przeciwników farmaceutycznego leczenia COVID-19. W ten sposób dezinformacja, wykorzystując lęk i niepewność, okazała się jednym z kluczowych czynników destabilizujących walkę z chorobą.
Kryzys to nie wyłącznie epidemia. Wieści rozprzestrzeniane na temat pełnoskalowego ataku Rosji na Ukrainę w 2022 r. także należą do tej kategorii. Już w pierwszych dniach konfliktu preparowano filmy ukazujące „kapitulację” ukraińskich żołnierzy czy rzekome zwycięstwa wojsk rosyjskich. Miało to na celu osłabić morale i siać panikę zarówno w oblężonym kraju, jak i poza jego granicami.
Rosyjska machina propagandowa wykorzystywała nie tylko klasyczne fake newsy, lecz również udoskonalone narzędzia deep fake. Niezwykle głośno zrobiło się na przykład o sfałszowanym nagraniu, na którym prezydent Wołodymyr Zełenski rzekomo nawoływał ukraińskich żołnierzy do złożenia broni[16]. Film szybko zweryfikowano i usunięto z mediów społecznościowych, jednak jego fragmenty jeszcze długo krążyły w sieci. W Internecie nic nie ginie, a nawet krótka obecność fałszywego materiału może go na zawsze utrwalić i pozwolić w przyszłości na ponowne wykorzystanie.
Wojna informacyjna prowadzona przez Rosję nie ograniczała się wyłącznie do Ukrainy. Raporty wskazują na szeroko zakrojone działania wymierzone w europejskich i amerykańskich odbiorców. Fałszywe narracje dotyczyły m.in. biolaboratoriów, rzekomo finansowanych przez USA na terytorium oblężonego kraju czy oskarżenia Zachodu o prowokację konfliktu[17]. Celem takiego działania było podważenie zaufania do sojuszników Ukrainy oraz rozbicie międzynarodowej jedności w zakresie sankcji wobec rosyjskiego agresora.
Często stosowaną techniką stał się także recykling starych materiałów. Nagrania z wojny w Syrii czy ćwiczeń wojskowych sprzed lat przedstawiano jako aktualne obrazy walk w Ukrainie. Doskonale działało to na emocje odbiorców, udostępniających smutne, szokujące treści, tym samym powodując chaos informacyjny i utrudniając dostęp do wiarygodnych wiadomości.
Równolegle rozwijał się ruch fact-checkingowy. Organizacje w rodzaju StopFake[18], EUvsDisinfo[19]czy polski Demagog[20] na bieżąco weryfikowały i obalały naciągnięte treści związane z wojną. Ich raporty pokazują, jak dezinformacja staje się nie tylko narzędziem propagandy, ale wręcz integralnym elementem prowadzenia wojny[21].
Szeroko pojęta dezinformacja jest jednak domeną nie tylko polityki i wojen. Coraz bardziej regularnie dotyka również sfery konsumenckiej, gdzie fałszywe wieści ewoluują w narzędzie walki o klienta. W Internecie roi się od nieprawdziwych recenzji i rekomendacji produktów, tworzonych przez boty i osoby podszywające się pod prawdziwych kupujących. Takie opinie bardzo trudno odróżnić od autentycznych — formułowane są potocznym językiem i opatrzone licznymi zdjęciami, co tworzy wrażenie wiarygodności. Kłopot wyraźnie zarysował się w 2020 r., gdy ujawniono istnienie tzw. farm klików[22]. Wielkie firmy i agencje marketingowe płaciły użytkownikom sieci za publikowanie pozytywnych recenzji swoich produktów i negatywnych ocen konkurencji, bez względu na rzeczywiste doświadczenia. Miało to ogromny wpływ na decyzje zakupowe konsumentów, równocześnie poważnie podważając zaufanie do całego systemu recenzji online.
Chociaż platformy takie jak Amazon[23], Allegro[24] czy Google[25] podjęły kroki w celu walki z tym procederem, problem wciąż nie zniknął. Wprowadzenie surowszych regulaminów i algorytmów wykrywających nieprawdziwe treści tylko zmieniło formy internetowej manipulacji. Obecnie spotyka się wiele sponsorowanych testów i artykułów udających niezależne porównania, mające za zadanie nie rzetelną ocenę, lecz subtelne nakłonienie odbiorcy do zakupu konkretnej marki.
Szczególnie niebezpiecznym obszarem jest branża suplementów diety i „cudownych” produktów uzdrawiających. W reklamach notorycznie obiecuje się niezwykłe rezultaty — od szybkiej utraty wagi, przez wyleczenie chorób przewlekłych, aż po natychmiastowe odmłodzenie. Wiele z tych stwierdzeń nie ma żadnego potwierdzenia naukowego, a mimo to produkty sprzedają się w ogromnych ilościach. To klasyczny przykład malinformacji: podaje się fakty tylko w ograniczonym stopniu (np. faktycznie występujący w produkcie składnik), aby wprowadzić w błąd, co do realnego działania danego produktu.
Konsekwencje są poważne, ponieważ konsument naraża na szwank nie tylko własny portfel, ale także zdrowie. Rośnie wówczas prawdopodobieństwo, że każdy kupujący, który został oszukany, straci zaufanie zarówno do producentów wybranych specyfików, ale i do lekarzy i farmaceutów. Podobnie jak w wypadku każdej dezinformacji, osłabienie zaufania potęguje chaos w danej branży, a w przeciwieństwie do kryzysów czy wydarzeń politycznych, dbanie o zdrowie dotyczy każdego i w każdej chwili.
Jak więc radzić sobie ze skuteczną filtracją informacji?
Współcześnie łatwo zostać nadawcą informacji, a o wiele trudniej jest być jej świadomym i krytycznym odbiorcą. By nie ulec dezinformacji, warto zastosować się do kilku pomocnych wskazówek. Po pierwsze, po przeczytaniu artykułu czy postu dobrze jest zadać sobie pytanie: kto jest autorem tych treści? Po przeczytaniu artykułu czy postu warto zadać sobie pytanie: kto to napisał? Czy informacje w nim zawarte są wiarygodne? Istnieją instytucje, które dbają o weryfikację źródeł przed publikacją materiału. Są nimi chociażby instytucje badawcze, uczelnie czy renomowane media. Warto jest się zastanowić nad anonimowymi profilami czy portalami bez podanych redaktorów lub danych kontaktowych. Dobrą praktyką jest również sprawdzenie, czy informacja, na którą się natknęliśmy, pojawia się również w innych źródłach. Jeśli nie, lepiej podejść do niej z dystansem.
Sprawdzanie wiarygodności wspierają również organizacje fact-checkingowe. W Polsce działają wyspecjalizowane portale, jak Demagog.org.pl czy Konkret24[26], zainicjowany przez TVN24. Dodatkowo, Polska Agencja Prasowa (PAP) oraz Naukowa i Akademicka Sieć Komputerowa (NASK) rozpoczęły #FakeHunter[27]. Internauci mogą znaleźć podejrzany news, okrasić go powyższym hasztagiem i liczyć na wsparcie doświadczonych analityków w jego weryfikacji. PAP stara się również, by w akcję weryfikacji internetowych wiadomości zaangażować młodzież. W tym celu agencja organizuje liczne konkursy z nagrodami, licząc, że takie działania zachęcą młodych do sprawdzania źródeł napotkanych wiadomości. Naprawdę warto zaprzyjaźnić się z różnymi portalami fact-checkingowymi, aby dowiedzieć się, jak samodzielnie oceniać treści.
Manipulacja dotyczy jednak nie tylko źródeł pisanych, ale także zdjęć i nagrań video. Łatwo je zweryfikować za pomocą analizy wstecznej obrazów (wyszukiwanie grafiką Google[28] czy Yandex[29]) lub sprawdzając metadane plików. Zdradzają one, kiedy i gdzie powstało zdjęcie. Może się okazać, że sensacyjna historyczna fotografia z XVIII w.w rzeczywistości powstała w tym miesiącu, tylko nałożono na nią odpowiednie filtry lub stworzyło ją AI.
Niemniej istotny jest język nagłówków i opisów. Nieprawdziwe treści najczęściej są nacechowane emocjonalnie, co ma za zadanie przykuć naszą uwagę. Nie warto na przykład sięgać do tekstów zatytułowanych: „Nie uwierzysz!”, „Szok!” czy „Rząd ci tego nie powie!” — te sformułowania mają wzbudzić ciekawość lub złość odbiorcy. To zazwyczaj tzw. clickbaity[30], bez wartościowej treści, a skłaniające Internautów do nabicia wyświetleń i udostępniania. Nie znaczy to, żeby unikać każdego podobnie zatytułowanego artykułu. Raczej nie brać go na poważnie bez uprzedniego dokładnego zbadania jego źródła i intencji autora.
Znając ich cechy charakterystyczne, możemy bronić się przed fake newsami. Na początku warto zacząć od siebie i swojego krytycznego myślenia. Zanim przekażemy post dalej, przeanalizujmy intencje autora, jego rzetelność, inne źródłą potwierdzające te dane. Możemy skorzystać nie tylko z Internetu — media tradycyjne, jak książki czy gazety, będą zawierać bardziej wyborową zawartość. Jeśli jednak brakuje nam czasu, aby zajść do lokalnej biblioteki, istnieją serwisy fact-checkingowe lub strony placówek naukowych czy rządowych. Gdy do tego zainstalujemy wtyczkę internetową ostrzegającą przed podejrzanymi treściami[31] i zaprzyjaźnimy się z wyszukiwaniem wstecznym, żadna dezinformacja nas nie przekona.
Ważnym filarem obrony jest także edukacja. Umiejętność odróżniania prawdy od fałszu należy rozwijać już w szkole, na lekcjach języka polskiego, historii czy wiedzy o społeczeństwie. Dzieci i młodzież od najmłodszych lat powinny poznawać mechanizmy działania dezinformacji, uczyć się krytycznej analizy treści i rozumieć, jak działają fake newsy[32]. W wielu krajach edukacja medialna staje się częścią programów nauczania, co wzmacnia odporność najmłodszych na manipulację nie tylko w sieci. Podobne rozwiązania planuje się wprowadzić również w Polsce, choć pomysł dopiero się kształtuje[33].
Na razie naszym kraju bez problemu można korzystać ze wsparcia systemowego, na przykład unijnegoRozporządzenia o usługach cyfrowych (Digital Services Act)[34]. Nakłada ono na duże platformy obowiązek skutecznego monitorowania i usuwania nieprawdziwych informacji. Żadne prawo nie zadziała w pełni bez zaangażowania samych użytkowników, stąd odpowiedzialność za weryfikację informacji spoczywa nie tylko na odpowiednich instytucjach, ale również na odbiorcach internetowych treści. W dzisiejszym świecie zdolność do rozpoznawania prawdy w Internecie to jedna z kluczowych kompetencji społecznych. To od niej zależy, czy damy się ponieść fali sensacyjnych wieści, czy też zdołamy świadomie filtrować bombardujące nas treści. Granica między realnością a fałszem zaciera się pod wpływem technologii, więc krytyczne myślenie zamienia się w tarczę chroniącą nie tylko jednostki, ale całe społeczeństwo przed upadkiem.
W tym procesie każdy z nas odgrywa kluczową rolę. Proste kroki, jak sprawdzenie źródła czy skorzystanie z odpowiednich narzędzi, mogą ograniczyć zasięg fałszu. Jednak nawet biorąc pod uwagę pozorną łatwość wykształcenia nawyków pozwalających na obronę przed fake newsami, w oczy rzuca się pewna dysproporcja. O ile łatwiej przecież jest stworzyć przysłowiowy clickbait niż na własną rękę upewniać się, czy mamy do czynienia z prawdziwą informacją? W końcu to na nas, internautach, spoczywa odpowiedzialność za jakość przestrzeni informacyjnej. Użytkownicy tworzą Internet poprzez podejmowane decyzje, przekazywanie treści, budowanie algorytmów. Warto więc zatrzymać się na chwilę i zastanowić się: czy analizuję informacje, które czytam i udostępniam, czy może pozwalam im bezkrytycznie wpłynąć na swój światopogląd? Nie ma na to jednoznacznej odpowiedzi, lecz samo uświadomienie sobie problemu stanowi pierwszy krok do rozpoczęcia z nim walki.
[1] R. Kupiecki, Dezinformacja w stosunkach międzypaństwowych. Geneza, cele, aktorzy, metody – zarys problemu, w: R. Kupiecki, T. Chłoń, F. Bryjka, K. Kozłowski, J. Misiuna, J. Podemska, P. Podemski (red.), Platforma Przeciwdziałania Dezinformacji – budowanie odporności społecznej: badania i edukacja, Dom Wydawniczy Elipsa, Warszawa 2021, s. 15–32.
[2] „Dezinformacja, misinformacja, malinformacja – kilka słów o trollach i fake news”, Idź Pod Prąd, https://idzpodprad.pl/aktualnosci/dezinformacja-misinformacja-malinformacja-kilka-slow-o-trollach-i-fake-news [dostęp: 5.09.2025].
[3] U.S. Senate, Open Hearing: Social Media Influence in the 2016 U.S. Election, S.Hrg. 115-232, 115th Congress, 1st Session, 2017, https://www.congress.gov/event/115th-congress/senate-event/LC55602/text [dostęp: 5.09.2025].
[4] P. Brunskill, “How Social Media Played a Role in the 2016 Presidential Election”, Teen Vogue, 7 listopada 2017.
[5] NATO Communications and Information Agency, Troll Factories, 2020.
[6] Współautorzy Wikipedii, Agencja Badań Internetowych, Wikipedia, Wolna Encyklopedia, edytowano 26 października 2022, https://pl.wikipedia.org/wiki/Agencja_Bada%C5%84_Internetowych [dostęp: 4.09.2025].
[7] BBC News, “Russia 'interfered in US election,’ says US intelligence”, BBC News, 6 listopada 2017.
[8] J. Węgrzyn, Referendum w sprawie wyjścia Wielkiej Brytanii z Unii Europejskiej, Uniwersytet Zielonogórski, Zielona Góra 2016.
[9] A. Mendiburo-Seguel, S. Vargas, A. Rubio, “Exposure to Political Disparagement Humor and Its Impact on Trust in Politicians: How Long Does It Last?”, Frontiers in Psychology, 2017.
[10] K. A. Rosińska, “Disinformation in Poland: Thematic Classification Based on Content Analysis of Fake News from 2019”, Cyberpsychology: Journal of Psychosocial Research on Cyberspace, t. 15, nr 4, artykuł 5, 2021.
[11] M. Kaczmarek, „Teorie spiskowe a pandemia COVID-19”, Więź, 3 marca 2021.
[12] Naukowa i Akademicka Sieć Komputerowa
[13] NASK, Wojna informacyjna 2022–2023. Przebieg i wnioski, październik 2024.
[14] Światowa Organizacja Zdrowia, “Infodemia”, https://www.who.int/health-topics/infodemic [dostęp: 4.09.2025].
[15] Ministerstwo Zdrowia, Statystyki zakażeń i zgonów z powodu COVID-19 z uwzględnieniem zaszczepienia przeciw COVID-19, https://basiw.mz.gov.pl/analizy/covid/statystyki-zakazen-i-zgonow-z-powodu-covid-19z-uwzglednieniem-zaszczepienia-przeciw-covid-19 [dostęp: 4.09.2025].
[16] J. Pearson, N. Zinets, “Deepfake footage purports to show the Ukrainian president capitulating”, Reuters, 16 marca 2022.
[17] Demagog, “Laboratoria broni biologicznej – sposób na obwinienie ofiary”, Demagog, 24 maja 2023, https://demagog.org.pl/fake_news/laboratoria-broni-biologicznej-sposob-na-obwinienie-ofiary [dostęp: 4.09.2025].
[18] StopFake, “O nas”, https://www.stopfake.org/pl/o-nas-pl [dostęp: 4.09.2025].
[19] EU vs Disinfo, https://euvsdisinfo.eu/pl [dostęp: 4.09.2025].
[20] Demagog, https://demagog.org.pl [dostęp: 4.09.2025].
[21] Rada Unii Europejskiej, “The fight against pro-Kremlin disinformation”, Consilium, 27 maja 2024, https://www.consilium.europa.eu/en/documents-publications/library/library-blog/posts/the-fight-against-pro-kremlin-disinformation [dostęp: 4.09.2025].
[22] Traffic Watchdog, “Farmy klików – czym są i jakie są konsekwencje ich działania?”, Traffic Watchdog, 6 sierpnia 2019.
[23] Amazon, “Warunki Użytkowania i Warunki Sprzedaży Amazon – 17.08.2025”, 17 sierpnia 2025, https://m.media-amazon.com/images/G/48/legal/Previous_versions_Legal_policies/Warunki_Uzytkowania_i_Warunki_Sprzedazy_Amazon_17.08.2025r.pdf [dostęp: 4.09.2025].
[24] Allegro, Regulamin Allegro, art. 2. “Warunki uczestnictwa w Allegro”, https://allegro.pl/regulamin?srsltid=AfmBOoqlUXOkNue_gS4bQCsmf7Jua98PG8eGk69hyhTVEMo1BQ4_Z79O#artykul-2-warunki-uczestnictwa-w-allegro [dostęp: 4.09.2025].
[25] Google, “Warunki korzystania z usług Google, 22 maja 2025”, https://policies.google.com/terms?hl=pl [dostęp: 4.09.2025].
[26] Konkret24, https://konkret24.tvn24.pl [dostęp: 4.09.2025].
[27] Polska Agencja Prasowa, Fact-checking, https://www.pap.pl/fact-checking [dostęp: 4.09.2025].
[28] Google Support, “Jak działa wyszukiwarka”, https://support.google.com/websearch/answer/1325808?hl=pl&co=GENIE.Platform%3DAndroid [dostęp: 4.09.2025].
[29] Yandex, https://yandex.com [dostęp: 4.09.2025].
[30] Obserwatorium Językowe Uniwersytetu Warszawskiego, “Clickbait”, Obserwatorium Językowe UW, 4 lipca 2022, https://obserwatoriumjezykowe.uw.edu.pl/hasla/clickbait [dostęp: 4.09.2025].
[31] D. Paschalides, A. Kornilakis, C. Christodoulou, R. Andreou, G. Pallis, M. D. Dikaiakos, E. Markatos, “Check-It: A plugin for detecting and reducing the spread of fake news and misinformation on the web”, 2019.
[32] Komisja Europejska, Digital Education Action Plan (2021–2027), https://education.ec.europa.eu/focus-topics/digital-education/plan [dostęp: 4.09.2025].
[33] Reforma edukacji 2026. “Edukacja obywatelska i edukacja medialna…”, Gazeta Prawna, 2025.
[34] Komisja Europejska, Digital Services Act, https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act_en [dostęp: 4.09.2025].
