
Era algorytmów
Każdego dnia wykonujemy tysiące ruchów kciukiem na ekranie smartfona, generując tym samym mnóstwo informacji w przestrzeni cyfrowej. Dane stały się zasobem o ogromnej wartości. Obecnie każda organizacja, która chce być efektywna, zbiera i kupuje informacje, aby następnie poddawać je analizom. Pozwala to przewidywać trendy i lepiej rozumieć konsumentów. Ten, kto ma dostęp do jakościowych danych, ma realny wpływ na rzeczywistość – szczególnie, gdy do gry wkraczają algorytmy. Są już wszechobecne – to one sortują treści, filtrują reklamy i decydują, co zobaczymy w mediach społecznościowych.
Czym właściwie jest algorytm? Według najprostszych definicji jest to zestaw szczegółowych instrukcji pozwalających na rozwiązanie konkretnego problemu lub wykonanie określonego zadania[1]. Do czego mogą być wykorzystywane? Na przykład do przewidywania, jak zachowamy się po pojawieniu się na ekranie konkretnego komunikatu dotyczącego sprzedaży produktu – czy klikniemy w podany link, zdecydujemy się na jego zakup, a może wyłączymy pojawianie się podobnych reklam?
Algorytmy tworzą predykcje na podstawie naszych wcześniejszych zachowań. Przewidywanie tego, na ile prawdopodobna jest określona reakcja, pozwala firmom lepiej dopasowywać produkty do potrzeb klienta. To, co wydaje się mało istotne – tak jak kliknięcie w link albo wybór kolejnego filmu na platformie streamingowej – w rzeczywistości jest ważnym elementem wykorzystywanym przez algorytmy. Dzięki każdej jednostkowej decyzji programy te uczą się dostosowywać treści do każdego użytkownika Internetu. Nic zatem dziwnego, że dane zaczęły być postrzegane jako towar. I to już nie tylko w biznesie.
Algorytmy a polityka – nowe narzędzia w walce o głosy?
Algorytmy są już szeroko wykorzystywane w marketingu politycznym. Dane dotyczące tego, jakich polityków obserwujemy i czy reagujemy na posty konkretnych partii są cenne z perspektywy analityków pracujących przy kampaniach wyborczych. Istotne są także informacje podstawowe: na przykład to, ile mamy lat, skąd pochodzimy, jakiej jesteśmy płci czy w jak dużym miejscu mieszkamy. Co więcej, tego typu dane nie zawsze muszą być przez nas podane wprost. Wykształcenie, grupa wiekowa, a także skłonność do uzależnień czy poziom szczęścia mogą być wydedukowane przez algorytmy na podstawie tonu naszych postów publikowanych na social mediach, playlist muzycznych oraz liczby znajomych i obserwatorów na portalach społecznościowych[2]. Nasze kontakty są cennym źródłem informacji – to, kim się otaczamy, może sugerować, jakie mamy poglądy, aspiracje i styl życia. Liczy się każdy, nawet najmniejszy detal. Wszystkie informacje tworzą dokładne profile jednostek i grup społecznych. A to idealna podstawa do mikrotargetowania – strategii polegającej na dostosowywaniu przekazu do konkretnych odbiorców. Czasem wystarczy kilka szczegółów, by algorytmy mogły określić, jakie treści najbardziej na nas oddziałują i jak wpłynąć na nasze decyzje.
Jednym z najbardziej kontrowersyjnych przykładów takiego wykorzystania danych była sprawa Cambridge Analytica. Firma nielegalnie pozyskała dane od milionów użytkowników Facebooka – od polubionych treści po historię wyszukiwania. Informacje zbierane były również przez oddzielną aplikację, w której znajdował się test osobowości. Miał on mapować główne cechy jednostki, a za jego wypełnienie wypłacane było nieduże honorarium[3]. Niewielu zastanawiało się zapewne, do czego później te informacje zostaną wykorzystane. A zostały one użyte, aby pomóc Donaldowi Trumpowi, ówczesnemu kandydatowi na urząd prezydenta Stanów Zjednoczonych, uzyskać przewagę w wyborach w 2016 roku.
Użytkownicy będący przekonani, że uczestniczą w badaniu, dzięki któremu dowiedzą się czegoś więcej o swoim typie osobowości, w rzeczywistości zostali wykorzystani do stworzenia modelu umożliwiającego profilowanie wyborców. Do aplikacji z testem logowano się poprzez konto Facebook, co dało twórcom dostęp nie tylko do wszystkich publikowanych przez użytkownika treści, ale też do dodatkowych danych o sieci znajomych. Poza tym wyniki testu były łączone z informacjami osobowymi z Facebooka, w celu wyciągnięcia kolejnych wniosków[4]. Dostęp do tak dokładnych charakterystyk umożliwił kierowanie do wyborców spersonalizowanych reklam, które miały wywołać określone emocje. W zależności od osoby, używano w spotach innych sformułowań, a nawet kolorów – wykorzystywano wszystko, co mogło zwiększyć siłę perswazji[5]. Sztab Trumpa w 2016 roku skupił się szczególnie na wyborcach w tzw. swing states (czyli w stanach, w których liczba wyborców demokratycznych i republikańskich jest podobna). W kampanii politycznej liczy się nie tylko to, kogo trzeba przekonać – czasem równie ważne jest także to, kogo skutecznie zniechęcić. Sztab kandydata Partii Republikańskiej doskonale o tym wiedział i postawił na kampanię negatywną, skierowaną wobec głównej rywalki o urząd prezydenta – Hilary Clinton. Przykładowo, zwolennikom innego kandydata w wyborach w 2016 roku, Berniego Sandersa, przypominano o słabości Clinton w kwestiach handlowych. Z kolei do pogłębiania podziałów wśród wyborców afroamerykańskich wykorzystane zostały jej kontrowersyjne słowa o superpredatorach z 1996 roku – tak określiła wtedy młodych, czarnoskórych przestępców[6].
Rok 2024 również obfitował w przykłady użycia algorytmów w amerykańskiej kampanii wyborczej. W przypadku Donalda Trumpa ważną rolę odegrali tzw. streaming persuadables. Była to różnorodna grupa niezdecydowanych, szczególnie młodych osób, wśród których korzystanie z portali streamingowych, takich jak Max czy Tubi, było bardzo popularne. Sztab obozu republikańskiego wykorzystał technologię, by stworzyć listę ponad 6 milionów wahających się wyborców. Umożliwiło to osiągnięcie zamierzonego celu poprzez skierowanie do nich spersonalizowanych reklam i postów. Co warto podkreślić, dokonano tego bez udziału jednego z największych serwisów, czyli YouTube, ponieważ portal ten nie pozwala na tak dokładne dopasowywanie reklam do poszczególnych użytkowników[7].
Sukces Donalda Trumpa w ostatnich wyborach nie oznaczał jednak, że sztab Kamali Harris nie korzystał z najnowszych technologii. Przykładem może być targetowanie wyborców pochodzenia arabskiego w Detroit i okolicach. W kierowanym do nich spocie kandydatka Partii Demokratycznej mówiła o braku przyzwolenia na milczenie wobec cierpienia w Strefie Gazy. Na reakcję ze strony republikańskiej nie trzeba było długo czekać. Sztab Trumpa odpowiedział na to swoją strategią – mikrotargetowaniem podobnej grupy wyborców, lecz po to, by kierować do nich materiały ukazujące fragmenty wypowiedzi Kamali Harris wyrażające wsparcie dla Izraela[8]. Walka o głosy była tu dwustronna, a algorytmy pozwoliły na pogrywanie emocjami i preferencjami odbiorców.
Różnice między kampaniami nie kończyły się na samych przekazach. Kandydatka Demokratów sporo funduszy przeznaczyła na klasyczne targetowanie geograficzne, co sprawiało, że jej przekazy często trafiały do osób, które już miały sprecyzowane poglądy. Donald Trump z kolei wykorzystał bardziej oszczędną taktykę – jeśli ktoś widział już dużą liczbę reklam w innych mediach, jego sztab ograniczał liczbę wyświetlanych mu spotów streamingowych. Takie zarządzanie budżetem pozwoliło mu skuteczniej docierać do osób niezdecydowanych i minimalizować zbędne wydatki[9].
W Polsce rola platform społecznościowych w kampaniach wyborczych jest również coraz większa. Politycy coraz chętniej sięgają po te narzędzia, żeby dotrzeć do potencjalnych wyborców. Aby lepiej zobrazować to zagadnienie, wystarczy spojrzeć na kampanie z ostatnich lat. W 2023 roku kampania Koalicji Obywatelskiej aktywnie stosowała targetowanie, aby ograniczać reklamy dla osób związanych z telewizją publiczną (TVP) oraz TV Trwam. Oprócz tego aktywnie wykorzystywała sygnały kontekstowe, takie jak frazy wyszukiwane przez użytkowników oraz treści oglądanych filmów, aby trafić np. do osób zainteresowanych biznesem. Do mieszkańców Śląska kierowano reklamy dotyczące m.in. uznania języka śląskiego za język regionalny, a reklamy atakujące Prawo i Sprawiedliwość były kierowane wyłącznie do osób poniżej 65. roku życia[10]. Jak widać, indywidualizacja przekazu jest już na porządku dziennym.
Kontrowersje i dylematy etyczne
Obawy dotyczące metod gromadzenia danych i ich wykorzystania pojawiają się od dawna. W 2003 roku klienci Netflixa zaczęli zauważać, że pomimo opłacania tego samego abonamentu nie wszyscy użytkownicy byli traktowani jednakowo (w tamtym czasie serwis działał jeszcze w modelu wypożyczania filmów na płytach DVD). Nie były to zarzuty bezpodstawne. Netflix bowiem zaczął stosować praktykę znaną jako throttling. Algorytm priorytetyzował klientów nowych i rzadziej wypożyczających filmy. Ci, którzy wypożyczali regularnie, zaczęli doświadczać opóźnień w obsłudze. Dlaczego? Wszystko miało związek z korzyściami biznesowymi. Najbardziej opłacalnym klientem jest ten, który płaci abonament, ale z usług korzysta rzadko – minimalizuje to koszty obsługi. W 2004 roku złożono pozew zbiorowy w tej sprawie – zakończył się ugodą. W ramach porozumienia Netflix zobowiązał się do zapewnienia klientom darmowego miesiąca wypożyczeń[11]. Throttling sam w sobie nielegalny nie jest, natomiast nieświadomi tych działań klienci mogli z pewnością poczuć się wprowadzeni w błąd odnośnie do warunków umowy. I jest to kolejne zagrożenie związane z brakiem transparentności podczas wprowadzania technologicznych innowacji.
Obecnie niektórzy badacze twierdzą, że mamy do czynienia z wyzwaniem systemowym. Shoshana Zuboff – naukowczyni z Harvardu – ostrzega przed konsekwencjami, jakie niesie stosowanie algorytmów oraz gromadzenie danych dla naszej wolności i prywatności. Obecny system nazywa kapitalizmem nadzoru,w którym zbieranie danych wytwarza wartość w gospodarce. Zuboff mówi także o pewnym zjawisku, które nazywa nadwyżką behawioralną. Mamy z nią do czynienia, gdy dane nie tyle są wykorzystywane bezpośrednio do poprawy produktów czy usług, co mają potencjał do tworzenia predykcji naszych zachowań. Chodzi zatem o sytuację, w której firmy zbierają o wiele więcej informacji, niż realnie potrzebują. Można powiedzieć, że taka nadwyżka daje organizacjom kontrolę nad teraźniejszością i przyszłością. Badaczka podaje przykład aplikacji związanej ze zdrowiem mającej pomagać diabetykom. Użytkownik otrzymuje program, który może ułatwić mu życie. Z kolei dostawca dostaje dostęp do mikrofonu i kontaktów osoby korzystającej z jego produktu[12]. Jeśli aplikacja umożliwia dodawanie notatek, to twórca aplikacji uzyskuje również wgląd do informacji o stylu naszej komunikacji. Wszystko to ma rozszerzać dostęp do dokładnych danych behawioralnych. I właśnie tu rodzi się pytanie – czy zbieranie tylu informacji o nas jest etyczne? Jak świadczy to o naszym prawie do prywatności?
Ponadto, musimy być świadomi również innych wyzwań – stosowanie algorytmów prowadzi do powstawania echo chambers, czyli baniek informacyjnych. Algorytm ogranicza nam dostęp do treści, których prawdopodobieństwo wywołania reakcji jest niskie. Utrwala to tym samym nasze przekonania. Jesteśmy generalnie eksponowani na treści o podobnym charakterze i w rezultacie mamy mniej okazji do poznawania nowych perspektyw. A to może prowadzić to do radykalizacji, co szczególnie w kontekście politycznym budzi uzasadniony niepokój.
Regulacje na straży etyki?
Czy istnieje regulacja prawna chroniąca nas w jakimkolwiek stopniu przed targetowaniem politycznym? Na gruncie europejskim mamy chociażby Digital Services Act, który nakłada na największe platformy internetowe, takie jak Google, Instagram, Facebook, TikTok i X, obowiązek oceny ryzyka systemowego wynikającego z ich usług. Chodzi tu m.in. o negatywny wpływ na procesy demokratyczne, wybory i bezpieczeństwo publiczne. Platformy muszą wdrożyć odpowiednie środki łagodzące w przypadku powstania określonych zagrożeń[13].
Ponadto w 2024 roku Parlament Europejski wydał rozporządzenie w sprawie przejrzystości i targetowania reklamy politycznej. W odniesieniu do segmentowania wyborców i wykorzystywania ich podatności na wpływy poprzez wyświetlanie materiałów reklamowych w odpowiednich momentach i miejscach, rozporządzenie stwierdza, że:
Takie przetwarzanie danych osobowych ma szczególne i szkodliwe skutki dla podstawowych praw i wolności osób fizycznych, takich jak prawo do sprawiedliwego i równego traktowania, niebycia manipulowanym, otrzymywania obiektywnych informacji (…). Ponadto, wpływa to negatywnie na proces demokratyczny, ponieważ prowadzi do fragmentacji debaty publicznej na tematy społecznie istotne, selektywnego zasięgu, a ostatecznie manipulowania elektoratem.[14]
Rozporządzenie jasno podkreśla, że zgoda na przetwarzanie danych osobowych do celów reklamy politycznej powinna być wyraźna, jednoznaczna i udzielana oddzielnie. W dokumencie zawarto również treść, że polityczne targetowanie nie może bazować na szczególnych kategoriach danych, takich jak przekonania religijne. Co więcej, do celów targetowania reklamy politycznej nie powinno się też wykorzystywać danych osobowych uzyskanych od osób trzecich[15].
Wspomniane przepisy mają na celu zminimalizowanie ryzyka wprowadzania wyborców w błąd i zwiększenie ochrony przed mikrotargetowaniem, które może być manipulacją. I choć definiują one dokładniejsze wytyczne, aby uczynić cały proces targetowania bardziej transparentnym, wciąż należy być świadomym, jak duża siła perswazji może płynąć ze strony kierowanych do nas komunikatów w social mediach.
Polityka przyszłości
Udział technologii w kampaniach politycznych jest coraz większy, a big data, algorytmy i sztuczna inteligencja coraz silniej kształtują obraz rzeczywistości ukazywanej w social mediach. I nie ma już od tego odwrotu – nowe technologie są niezwykle opłacalnym narzędziem. Kluczowe jest znalezienie równowagi między innowacjami technologicznymi a ochroną prywatności. Ostatecznie ich rozwój wymaga nie tylko odpowiednich regulacji prawnych, ale także większej odpowiedzialności społecznej. Mikrotargetowanie to tylko wycinek w kontekście użycia technologii w polityce, które wzbudza wątpliwości. Istnieją jeszcze treści generowane automatycznie przez boty, fake newsy czy deepfake’i. Każde kliknięcie jest skrupulatnie analizowane przez systemy badające nasze działania, wybory i preferencje. Warto o tym pamiętać, gdy po raz kolejny odruchowo wyrazimy zgodę na przetwarzanie wszelkich danych osobowych czy gdy widzimy konkretną reklamę skrojoną idealnie pod nasze potrzeby.
[1] Merriam-Webster Dictionary, Algorithm, https://www.merriam-webster.com/dictionary/algorithm, [dostęp: 03.03.2025].
[2] M. Kosinski, D. Stillwell, T. Graepel, Private Traits and Attributes Are Predictable from Digital Records of Human Behavior, Proceedings of the National Academy of Sciences (PNAS), vol. 110, nr 15, 2013, s. 5802, https://www.pnas.org/doi/epdf/10.1073/pnas.1218772110, [dostęp: 03.03.2025].
[3] A. Hern, Cambridge Analytica: How did it turn clicks into votes?, “The Guardian”, 2018, https://www.theguardian.com/news/2018/may/06/cambridge-analytica-how-turn-clicks-into-votes-christopher-wylie, [dostęp: 03.03.2025].
[4] A. Hern, Cambridge Analytica: How did it turn clicks into votes?, “The Guardian”, 2018, https://www.theguardian.com/news/2018/may/06/cambridge-analytica-how-turn-clicks-into-votes-christopher-wylie, [dostęp: 03.03.2025].
[5] A. V. Nosthoff, F. Maschewski, The platform economy’s infrastructural transformation of the public sphere: Facebook and Cambridge Analytica revisited, Philosophy and Social Criticism, SAGE Publications, 2023, s. 5.
[6] Y. Benkler, Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics, Oxford University Press, Oxford 2018, s. 270–271.
[7] S. Goldmacher, Trump’s Streaming Ads Strategy, “The New York Times”, 2024, https://www.nytimes.com/2024/12/05/us/politics/trump-streaming-ads-strategy.html, [dostęp: 03.03.2025].
[8] A. Arenge, B. Kamisar, Harris Targets Digital Ads Spotlighting Words Human Suffering Gaza, NBC News,https://www.nbcnews.com/politics/kamala-harris/harris-targets-digital-ads-spotlighting-words-human-suffering-gaza-rcna171545, [dostęp: 03.03.2025].
[9] S. Goldmacher, op. cit., [dostęp: 03.03.2025].
[10] M. Marszałek, Targetowanie reklam w kampanii wyborczej. Jak robi to Koalicja Obywatelska?, Demagog, 2023,
https://demagog.org.pl/analizy_i_raporty/targetowanie-reklam-w-kampanii-wyborczej-jak-robi-to-ko/, [dostęp: 03.03.2025].
[11] A. Ramasastry, The Class Action Against Netflix: Challenging the Practice of „Throttling”, Under Which Not All Customers Are Equal, FindLaw 2006, https://supreme.findlaw.com/legal-commentary/the-class-action-against-netflix-challenging-the-practice-of-throttling-under-which-not-all-customers-are-equal.html, [dostęp: 03.03.2025].
[12] N. Kulwin, Shoshana Zuboff on Surveillance Capitalism’s Threat to Democracy: The Harvard Business School Professor Discusses Her New Book, NYMag, 2019, https://nymag.com/intelligencer/2019/02/shoshana-zuboff-q-and-a-the-age-of-surveillance-capital.html, [dostęp: 03.03.2025].
[13] Political Advertising in the 2024 European Elections, Jasques Delors Centre, https://www.delorscentre.eu/en/publications/detail/publication/political-advertising-in-the-2024-european-elections, [dostęp: 03.03.2025].
[14] SIP Lex, Rozporządzenie 2024/900 w sprawie przejrzystości i targetowania reklamy, https://sip.lex.pl/akty-prawne/dzienniki-UE/rozporzadzenie-2024-900-w-sprawie-przejrzystosci-i-targetowania-reklamy-72286899, [dostęp: 03.03.2025].
[15] Ibidem.