Napisz mi artykuł o sztucznej inteligencji… o roli myślenia dobie Czatu GPT

Ilustracja: Polina Mokrytska
Artykuł ukazał się w 21. numerze kwartalnika „Młodzi o Polityce”

Sztuczna inteligencja coraz mocniej przenika naszą codzienność, stając się narzędziem, które upraszcza i przyspiesza wiele procesów. Jednak wraz z jej rosnącą obecnością pojawia się pytanie, jak wpływa ona na nasze nawyki, samodzielność oraz zdolność do krytycznego myślenia. Zbyt duże poleganie na AI może nie tylko zmienić nasze przyzwyczajenia, lecz także subtelnie kształtować sposób postrzegania świata.

W ostatnich latach sztuczna inteligencja dramatycznie szybko przeszła z wizji przyszłości rodem z science-fiction do naszej zwykłej codzienności. Czat GPT, Claude, Perplexity, albo Google Gemini – to jedynie kilka z najpopularniejszych „asystentów”, z którymi mamy już styczność właściwie codziennie. Kto w ciągu ostatniego miesiąca nie skorzystał z pomocy któregokolwiek z nich, niech pierwszy rzuci kamieniem. AI wyszukuje dla nas źródła, pisze maile zbyt nudne, byśmy samodzielnie się nimi zajęli, porządkuje dane, a nawet „czyta” teksty i dokonuje ich syntezy. Nie tylko wykonuje dla nas oraz za nas wszystkie powyższe czynności (i wiele więcej), ale także robi to po prostu dobrze, a przynajmniej coraz lepiej. Każdy, kto twierdzi inaczej, z pewnością od razu zauważył, że pierwszy akapit tego artykułu został napisany przez odpowiednio poinstruowanego bota – dokładniej, Perplexity AI. Ci natomiast, którzy są skłonni się zgodzić, będą czytać dalej.

Multitool idealny

         Szeroko pojęta sztuczna inteligencja w błyskawiczny sposób podbiła rynki i społeczeństwa na całym świecie. Zmieniła rzeczywistość wielu branż, takich jak marketing czy księgowość. Według danych Eurostatu co dziesiąte przedsiębiorstwo w Unii Europejskiej wykorzystuje technologie AI[1]. Nie są to jedynie mali przedsiębiorcy mogący widzieć w sztucznej inteligencji szansę na rozwój, czy uzupełnienie luki bez kosztownego zatrudniania pracownika – tę samą postawę reprezentuje niemal połowa, bo aż 41,17%, wielkich europejskich firm[2]. A to jedynie dane unijne. Obok suchych liczb dosyć łatwo można również trafić na namacalne przykłady tego, w jaki sposób AI ugruntowało swoją pozycję w biznesie. Na początku lipca wybuchł niemały skandal wokół giganta restauracyjnego McDonald’s, który, używając AI przy zautomatyzowanym procesie zatrudniania, naraził dane kandydatów na olbrzymi wyciek. Wykorzystując lukę w systemie bezpieczeństwa, nawet bez zaawansowanych umiejętności informatycznych, niemal każdy mógł uzyskać dostęp do ponad 64 milionów rozmów z czatbotem „Olivia”, używanym przez portal sieci fast-foodów. Pomijając fakt braków w bezpieczeństwie, „Olivia” często udzielał absurdalnych odpowiedzi i właściwie zdawał się utrudniać proces rekrutacji, zamiast go ułatwiać[3]. Ten przypadek jest o tyle ciekawy, ponieważ pokazuje jeszcze jedną prawidłowość. Obecnie w społeczeństwie zapanowała gwałtowna moda na sztuczną inteligencję, która zastępuje człowieka przy różnych zadaniach i pracach. Jej popularność rośnie do takich rozmiarów, że odbiera finansowanie innym, również istotnym obszarom – często z opłakanym skutkiem.

Wpływ nowej technologii na społeczeństwo w skali makro jest niezaprzeczalnie zauważalny. Istnieje olbrzymia ilość jej aspektów, które można poruszyć w pojedynczym tekście, a omówienie wszystkich zdaje się trudne, jeżeli nie niemożliwe do zrealizowania. Ten artykuł skoncentruje się zatem na konkretnym wycinku tematu, czyli w jaki sposób AI funkcjonuje w codziennym życiu człowieka i w jaki sposób może wpływać na jego psychikę.

Obok typowo biurowych zastosowań sztuczna inteligencja okazała się doskonale spełniać rolę asystenta także przy zupełnie innych aktywnościach. Wyśmienicie wyszukuje przepisy kulinarne. Pomaga znaleźć piosenkę jedynie po melodii czy kilku zapamiętanych wersetach refrenu. Wyjaśnia pojęcia i wyrażenia, na zgłębianie których zawsze brakuje czasu, pomaga z planowaniem kalendarza, wreszcie staje się źródłem informacji. Zastępuje człowieka w wielu żmudnych, drobiazgowych, acz potrzebnych zadaniach codzienności, teoretycznie pozwalając nam poświęcić więcej uwagi poważniejszym problemom i obowiązkom.

Szybko zawitała (chyba już na dobre) do świata edukacji. Zauważa się olbrzymi potencjał, jaki się z nią wiąże. Sztuczna inteligencja coraz sprawniej potrafi się adaptować do otaczających warunków, a przede wszystkim do swojego rozmówcy. Dzięki temu może służyć nauczycielom jako narzędzie spersonalizowane pod ucznia, mające za zadanie w jak najprzystępniejszy i zrozumiały dla niego sposób przekazać potrzebną wiedzę. Ponadto ułatwia ona dostęp do informacji, dzięki czemu możemy w prostszy, a przede wszystkim szybszy sposób wyszukać określony fakt, który nas interesuje – bez wertowania bibliotek. Nawet studenci przyznają, że wykorzystują sztuczną inteligencję na swojej ścieżce edukacji. Czaty bywają chwalone zwłaszcza przy nauce języków obcych, właśnie ze względu na powyższe zalety[4]. Wielu doceni ich wartość, gdy ucząc się języka obcego, zacznie pisać teksty i będzie szukało kogoś, kto mógłby je sprawdzić pod kątem poprawności.

A jednak to właśnie w obszarze edukacji pojawia się najwięcej sprzecznych opinii wobec zastosowań sztucznej inteligencji. Pomimo szans z nią związanych technologia ta dalej potrafi zawieść, szczególnie gdy zapytanie dotyczy bardziej naukowych tematów – takich, które mogą wymagać kompetencji w dziedzinie. Sztuczna inteligencja nie posiada eksperckiego doświadczenia w jakiejkolwiek nauce – jedynie przetwarza dostępne jej źródła, co może skutkować powstawaniem przeróżnych przeinaczeń, błędnych uproszczeń, a nawet konfabulacji z jej strony. Programy takie jak Czat GPT cieszą się sporą popularnością. Ankieta przeprowadzona na przełomie lutego i marca bieżącego roku przez Pew Research Center udowadnia, że co czwarty pytany Amerykanin choć raz użył go przy wykonywaniu pracy[5]. Jednocześnie inna ankieta, przeprowadzona przez portal Bestcolleges.com pokazuje, że ponad połowa studentów biorących udział w badaniu przyznała się do korzystania z AI. Niemal połowa tej grupy z kolei otwarcie przyznała się do wspomagania się nią przy wykonywaniu zadań czy pisaniu egzaminów[6].

Pomimo tak rozpowszechnionego użytku, zdania na jej temat wciąż są podzielone. To samo badanie pokazuje, w jaki sposób używanie sztucznej inteligencji na studiach jest postrzegane przez samych studentów. 51% przyznaje, że takie zachowanie może stanowić oszustwo czy nawet plagiat[7]. Na temat naruszania praw autorskich przez tę technologię powstała niezliczona masa tekstów i artykułów. Nie tylko tutaj utkwione są jednak liczne obawy i lęki związane ze sztuczną inteligencją. W przeciwnym razie Ulf Kristersson, urzędujący premier Królestwa Szwecji, nie spotkałby się z tak szeroko zakrojonym negatywnym odzewem, gdy przyznał się do konsultowania spraw państwowych z amerykańskim Czatem GPT czy francuskim botem „Le Chat”[8]. Brzmi szokująco, nieprawdaż? Należy od razu wyjaśnić, że według samego premiera ze sztuczną inteligencją bynajmniej nie dzielił się informacjami państwowymi, a jedynie niekiedy wykorzystywał ją jako drugorzędnego doradcę przy mniej newralgicznych decyzjach. Czemu więc Kristersson spotyka się z tak wielką krytyką? Czy poza być może wręcz podświadomą niechęcią do nowej technologii, ukutą przez społeczny dyskurs, istnieją konkretne argumenty przemawiające za tym, byśmy potępili postawę premiera?

 

 

Kognitywne rozładowanie

         Cognitive offloading, czyli w bardzo swobodnym tłumaczeniu (oficjalnie pojęcie nie zostało przetłumaczone w polskiej literaturze), rozładowanie poznawcze, według badaczy E. F. Riska i S. J. Gilberta polega na wykorzystywaniu zewnętrznych narzędzi w celu zmniejszenia obciążenia kognitywnego własnej pamięci roboczej. To zjawisko polega na celowym ułatwianiu sobie przyswajania informacji dla zmniejszenia potrzebnego do analizy nakładu pracy mózgu[9]. Wynika ono z naturalnej tendencji człowieka do upraszczania otaczającej go rzeczywistości.

         Choć powyższa definicja może nawet wzbudzać pewien dyskomfort, nie jest to śmiertelnie groźny fenomen. W rzeczywistości cognitive offloading praktykujemy od dawna, często poprzez drobiazgi, których nawet nie zauważamy. Teoretycznie możemy w ten sposób określić każdą fizyczną czynność, która ma na celu „ułatwić nam myślenie”. Będzie to używanie kalendarza w telefonie, aby przypominał nam o nadchodzących wydarzeniach, albo tłumaczenie strony z języka obcego na polski – nie dlatego, że go nie znamy, a ponieważ jesteśmy zmęczeni czytaniem w nim. Powyższe przykłady powinny pokazać, że cognitive offloading nie jest zjawiskiem ani nowym, ani rzadkim, a już na pewno nie zasadniczo negatywnym[10]. Wszystko jednak może być trucizną – zależy jedynie od dawki. Przesadne „odciążanie mózgu” w dłuższej perspektywie może doprowadzić do tego, że zmniejsza się jego kognitywna zdolność. Mniej używany „mięsień” się rozleniwia[11].

         Zjawisko zaczęto badać relatywnie niedawno. Trzeba przyznać, że uwagę naukowców przyciągało głównie z powodu rozwoju technologii, którego najnowszym stadium jest rozpowszechnienie się AI. Obecnie właśnie w jej kontekście najczęściej omawia się ten fenomen. Z dobrej przyczyny – najbardziej podstawową funkcją sztucznej inteligencji jest przecież analiza dostarczonych lub samodzielnie odnalezionych danych, czyli zapoznanie się z nimi, i samodzielne wyciągnięcie określonych wniosków. Do tego się ją obecnie najczęściej wykorzystuje.

         Prawdziwy problem zatem nie stanowi samo wspomaganie się AI we wspomnianych już celach, lecz raczej nadmierne poleganie na niej. Badania dowodzą, że takie zjawisko będzie prowadziło do pogarszania się zdolności krytycznego myślenia. Wyręczając się programem, uwalniamy nasz mózg od potrzeby skupienia się i formułowania wniosków. To zaś prowadzić może do wydłużenia procesu decyzyjnego i ogólnego spadku jego jakości.[12]. Wydłużony czas potrzebny na przemyślenie działania oraz mniejsze doświadczenie z samodzielnym dochodzeniem do wniosków powoduje, że podejmowanie wyborów może stać się trudniejsze. Stres związany z obawą przed podjęciem złej decyzji sprawiałby, że wskazówka lub „popchnięcie” w dobrym kierunku przez na przykład sztuczną inteligencję okazałyby się niezbędne. Niezdecydowanie w codziennym życiu, także w pracy, może z kolei nieść ze sobą doprawdy poważne skutki. Tym czarniejszy wydaje się ten scenariusz po uzmysłowieniu sobie, że według badań najlepsze pod tym względem wyniki, a zatem wskazujące na rozwinięte refleksyjne myślenie, reprezentowały grupy starszych i lepiej wykształconych badanych. Najgorsze wyniki zaś przypadały na… najmłodsze grupy wiekowe, czyli te najwięcej i najczęściej używające sztucznej inteligencji w codziennym życiu, m.in. w edukacji[13]. Osoby, które dopiero się uczą, rozwijają i kształcą, stają się najsilniej podatne na wpływ nowej technologii.

         Do tego dochodzi również kwestia subiektywizmu, na jaki możemy się wystawiać, bazując swoje poglądy na odpowiedziach czatbotów. Nie istnieje zbyt wiele badań zajmujących się problematyką ufności, jaką przeciętny użytkownik pokłada w sztucznej inteligencji. Niemniej jednak tendencja wydaje się wzrostowa. Badanie, które wskazało na wzrost coginitive offloading wywołany używaniem narzędzi AI, również zwróciło uwagę na zaufanie w odpowiedzi technologii, którą wykazywali badani. Im większe ono było, tym częściej przyjmowano odpowiedzi bez namysłu[14]. Tym łatwiejsze staje się zatem wpływanie na nas poprzez wypowiedzi AI, które przecież relatywnie łatwo można modyfikować. Sztuczna inteligencja, zanim może normalnie poprowadzić rozmowę, przechodzi szkolenie na dostarczonym jej materiale. W zależności od tego, co ów materiał zawiera, program w późniejszym czasie może podać różniące się odpowiedzi. Zatem obok ryzyka, że przekazane nam informacje mogą być po prostu błędne, dochodzi też pewien rodzaj podprogowego przekazu, który przy braku krytycznego myślenia możemy bezrefleksyjnie przyjąć. Pojawia się ryzyko nie tylko osłabienia zdolności samodzielnego podejmowania decyzji – także sam sposób decydowania może stać się narzucony przez kogoś innego. W gruncie rzeczy sama sztuczna inteligencja nie myśli samodzielnie, a to, co wypisuje na naszych ekranach, jest efektem poglądów i zamierzeń jej twórców.

Warto ponadto mieć na względzie fakt, że każda rozmowa z czatbotem stanowi pewien kanał wymieniający informację w obie strony. Analizy bazy danych Wildchat, zawierającej milion rzeczywistych interakcji z Czatem GPT (zebranych oczywiście za zgodą użytkowników) ujawniają, że nawet 70% zawierało osobiste informacje – takie, które umożliwiały zidentyfikowanie jakiegoś elementu promptu, np. osobę kryjącą się pod podanym nazwiskiem[15]. Czy wskazuje to na rosnące zaufanie do sztucznej inteligencji? Być może, choć istnieje również inne wytłumaczenie. Odpowiedzialny za te wyniki jest fundamentalny brak świadomości, w jaki sposób AI działa i do czego potem nasze konwersacje mogą zostać wykorzystane.

Strach przed ogłupieniem

         Powróćmy na moment do kazusu szwedzkiego premiera. Niektórzy naśmiewają się z oburzenia, jakie wybuchło w Szwecji, zwracając uwagę na powszechność używania sztucznej inteligencji. Kristersson przecież bronił się, że nie udziela żadnych niejawnych informacji, wspominał ponadto, że również inni jego współpracownicy tak czynią. Czy jest to jednak rzeczywiście tylko niewinne wsparcie, usprawniające całą pracę kancelarii premiera?

         Mając na uwadze wspomniane już niebezpieczeństwa, na usta ciśnie się tylko jedno wyrażenie: zachować umiar. Oczywiście cognitive offloading nie oznacza, że po paru miesiącach takiej praktyki Ulf Kristersson straci zdolność samodzielnego myślenia i nie będzie w stanie funkcjonować bez Czatu GPT. Taka wizja wydaje się po prostu absurdalna. Niemniej jednak nie oznacza to też, że sztuczna inteligencja nie może wywrzeć jakiegokolwiek wpływu na sposób sprawowania urzędu, czy po latach jej użytkowania faktycznie pogorszyć zdolność krytycznej analizy sytuacji. Przecież według premiera właśnie w tym celu AI była wykorzystywana: do zaproponowania rozwiązań rzeczywistych problemów, to jest, jak należałoby postąpić w danych okolicznościach. Istnieje również ryzyko nieumyślnego wypłynięcia informacji nieprzeznaczonych dla społeczeństwa. Jak długo może to potrwać, zanim ktoś, sam premier lub jedynie pracownik jego administracji, poda czatowi wrażliwe lub zupełnie poufne informacje, robiąc to czysto przez brak zastanowienia? Taki scenariusz wcale nie wydaje się mało prawdopodobny.

         W obliczu wielu zagrożeń związanych ze sztuczną inteligencję trzeba pamiętać także o jej pozytywnych aspektach – choćby jedynie po to, by nie utonąć w pesymizmie. Mimo wszystko ułatwia ona nasze codzienne życie, przejmując niektóre obowiązki i zadania, które często jedynie irytowały lub nudziły. A robi to coraz lepiej. Choć wielu z pewnością by tego pragnęło, ludzkość nie cofnie się kilka kroków wstecz i nie odrzuci swojego wynalazku. Podobnie jak wielokrotnie miało to już miejsce w przeszłości, AI to po prostu nowa technologia, która zrewolucjonizuje zarówno rynek pracy, jak i nasz sposób patrzenia na świat, naukę, społeczeństwo. Zbyt późno na zadawanie sobie pytania, czy sztuczna inteligencja jest potrzebna. Zapewne nietrudno byłoby podać jej zalety. Koniecznym jest, aby przy tym mieć na względzie zagrożenia, jakie się z nią wiążą. Warto w konsekwencji zastanowić się, w jaki sposób można się przed jej szkodliwym wpływem bronić. Szczególnie w obszarach, gdzie samodzielne, krytyczne myślenie ma nieocenioną wartość.

 

[1] Dane Eurostatu dotyczące korzystania ze sztucznej inteligencji przez przedsiębiorstwa, 01.2025, https://ec.europa.eu/eurostat/statistics-explained/index.php?title=Use_of_artificial_intelligence_in_enterprises [dostęp 30.08.2025].

[2] Ibidem.

[3] T. Bradley, McDonald’s AI Breach Reveals The Dark Side Of Automated Recruitment, “Forbes”, https://www.forbes.com/sites/tonybradley/2025/07/15/mcdonalds-ai-breach-reveals-the-dark-side-of-automated-recruitment/ [dostęp 30.08.2025].

[4] Anissa M. Bettayeb i in., Exploring the impact of ChatGPT: conversational AI in education, “Frontiers in Education”, nr 9/2024, https://www.frontiersin.org/journals/education/articles/10.3389/feduc.2024.1379796/full [dostęp 30.08.2025].

[5] O. Sidoti, C. McClain, 34% of U.S. adults have used ChatGPT, about double the share in 2023, “Pew Research Center”, 25.06.2025, https://www.pewresearch.org/short-reads/2025/06/25/34-of-us-adults-have-used-chatgpt-about-double-the-share-in-2023/#how-aware-are-americans-of-chatgpt [dostęp 30.08.2025].

[6] L. Welding, Half of College Students Say Using AI on Schoolwork Is Cheating or Plagiarism, “BestColleges”, 17.03.2025, https://www.bestcolleges.com/research/college-students-ai-tools-survey/ [dostęp 30.08.2025].

[7] O. Sidoti, C. McClain, op.cit.

[8] M. Bryant, ‘We didn’t vote for ChatGPT’: Swedish PM under fire for using AI in role, “The Guardian”, https://www.theguardian.com/technology/2025/aug/05/chat-gpt-swedish-pm-ulf-kristersson-under-fire-for-using-ai-in-role [dostęp 30.08.2025].

[9] E. F. Risko, S. J. Gilbert, Cognitive Offloading, “Trends in Cognitive Sciences”, 20(9)/2016, str. 676-688.

[10] Ibidem.

[11] Ibidem.

[12] M. Gerlich, AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking, “Societies”, 15(1)/2025.

[13] Ibidem.

[14] Ibidem.

[15] N. Mireshghallah, M. Antoniak, Y. More, Y. Choi, G.Farnadi, Trust No Bot: Discovering Personal Disclosures in Human-LLM Conversations in the Wild, 20.07.2024, https://arxiv.org/pdf/2407.11438 [dostęp 30.08.2025].