Robot kontra reporter

Ilustracja: Mateusz Szostek
Artykuł ukazał się w 13. numerze kwartalnika „Młodzi o Polityce”

W cieniu szybkiego postępu technologicznego i nieustannych innowacji siedzi figura – kiedyś rozpoznawalna i pełna pasji – dziennikarz z notesem w ręku, gotowy podążać za prawdą gdziekolwiek by ona prowadziła. Jednak w dzisiejszym świecie ten tradycyjny poszukiwacz prawdy stopniowo zanika, zastępowany przez chłodne, niewzruszone maszyny.

Dla wielu z nas idea, że maszyna może tworzyć wiadomości, brzmi niemal science-fiction. A jednak jest to rzeczywistość, w której żyjemy. Sztuczna inteligencja potrafi przetwarzać ogromne ilości danych w ułamkach sekundy, tworząc raporty, analizy i artykuły. W rezultacie, wiadomości generowane przez AI są szybsze, często bardziej precyzyjne i pozbawione ludzkich błędów. Jednak co dzieje się, gdy poświęcamy duszę i serce dziennikarstwa na rzecz efektywności? Czy możemy naprawdę powiedzieć, że wiadomość pozbawiona ludzkiego dotyku, empatii i intuicji jest w pełni autentyczna?

Za każdym artykułem, który kiedyś czytaliśmy, stała osoba – dziennikarz, który poświęcił czas, aby przeprowadzić wywiady, zrozumieć kontekst i oddać esencję historii. Za każdym słowem była pasja, za każdym zdaniem – dążenie do prawdy. Dziennikarstwo nie było tylko zawodem, ale powołaniem. Nie ma wątpliwości, że AI przynosi wiele korzyści w kontekście efektywności i precyzji. Jednak kosztem czego? Czy jesteśmy gotowi poświęcić głębię, pasję i ludzkość dziennikarstwa w zamian za szybkość i wydajność?

W świecie, w którym coraz trudniej rozróżnić prawdę od fałszu, potrzebujemy więcej niż kiedykolwiek ludzkich głosów, które prowadzą nas przez zawiłości informacji. Może nadszedł czas, aby zadać sobie pytanie: Czy chcemy, aby nasze historie były opowiadane przez maszyny, czy przez ludzi z sercem i duszą?

Efektywność vs. autentyczność

W dobie sztucznej inteligencji, dziennikarstwo przechodzi fascynującą metamorfozę. Wcześniej, gdzie ręczne zbieranie informacji i jej selekcja stanowiły serce zawodu, teraz algorytmy często przejmują te zadania, przyspieszając proces tworzenia wiadomości. Niektórzy obawiają się, że te nowości zastąpią ludzi w branży. Możliwość generowania prostych artykułów za pomocą sztucznej inteligencji to jedno z najbardziej kontrowersyjnych zastosowań AI w dziennikarstwie. Platformy takie jak Quill czy Wordsmith już teraz są wykorzystywane do tworzenia raportów giełdowych, wyników sportowych czy prognoz pogody. Te krótkie i schematyczne wiadomości są często nieodróżnialne od tych napisanych przez ludzi. Ale jak dokładnie generowane przez AI treści oddziałują na świat mediów i dziennikarstwa?

Dzięki możliwościom AI, proces tworzenia treści stał się znacznie szybszy, co pozwala mediom na niemal natychmiastowe publikowanie informacji, zwłaszcza tych o charakterze rutynowym. Jednocześnie, algorytmy umożliwiają personalizację wiadomości, dostosowując je do indywidualnych preferencji czytelników, co może zwiększać ich zaangażowanie. Wpływa to również na modele biznesowe mediów, które mogą przemyśleć swoje strategie monetarne, zwłaszcza w kontekście treści premium.

Jednakże, obok korzyści, pojawiają się też wyzwania. Kwestie etyczne w zakresie jakości i wiarygodności treści generowanych przez maszyny stają się coraz bardziej istotne. Jednym z głównych zagrożeń jest potencjał dla masowej produkcji dezinformacji. Zaawansowane modele AI mogą generować teksty czy obrazy, które na pierwszy rzut oka są niemożliwe do odróżnienia od rzeczywistych. Deepfakes, czyli manipulowane wideo stworzone za pomocą AI, mogą przedstawiać osoby publiczne mówiące lub robiące rzeczy, których nigdy nie zrobiły.

W 2017 roku pojawiły się filmiki dla dorosłych, w których twarze znanych aktorek były zamieniane za pomocą technologii deepfake, tworząc iluzję, że to one występują w tych filmach. Jednym z najbardziej kontrowersyjnych i szeroko dyskutowanych przykładów była aktorka Gal Gadot, znana z roli Wonder Woman. Jej twarz została umieszczona w scenie dla dorosłych bez jej zgody. To wydarzenie wywołało publiczne oburzenie i spowodowało szeroką debatę na temat etyki i potencjalnych konsekwencji technologii deepfake. Pokazało to także, jak łatwo prawa jednostki mogą zostać naruszone za pomocą technologii, zwłaszcza w kontekście naruszenia prywatności i godności ludzkiej. Ten przykład ilustruje potencjalnie szkodliwe zastosowania deepfakes w życiu codziennym, gdzie osoby publiczne, ale również zwykli ludzie, mogą stać się ofiarami manipulacji i dezinformacji.

Emocje? Błąd 404!

Maszyny kreujące poezję, artykuły, a nawet opowiadania – kto by pomyślał? Ale jak to zazwyczaj bywa z cudami, rzeczywistość jest nieco bardziej skomplikowana. Za błyszczącą fasadą autonomicznego pisarstwa kryją się niedoskonałości, które są kluczowe do zrozumienia pełnego obrazu zdolności AI. Zanim więc zaczniemy organizować ceremonię wręczenia Nagrody Nobla dla naszego algorytmu, zastanówmy się chwilę.

Choć cyfrowi twórcy potrafią skomponować zdania szybciej niż Ty możesz napisać sztuczna inteligencja, często brakuje im… duszy. Owszem, mogą bezbłędnie tworzyć gramatycznie poprawne teksty, ale spróbuj dać im napisać sonet o złamanym sercu lub piosenkę o niespełnionej miłości. W rezultacie dostaniesz coś, co może przypominać słowa z kartki urodzinowej zakupionej w ostatniej chwili w pobliskim sklepie. Nie potrafią zrozumieć głębi ludzkiego doświadczenia. Brak im empatii, pasji i, co najważniejsze, ludzkich emocji. Czujesz radość, smutek, zdziwienie? Dla AI to tylko słowa, bez echa prawdziwego uczucia.

Gdybyśmy mieli się zastanowić nad zdolnościami humorystycznymi AI, warto by było przywołać klasykę: Dlaczego komputerowi nigdy nie jest zimno? Bo zawsze ma Windows. Brawo, AI! Kto by pomyślał, że zaawansowane algorytmy mogą być równie zabawne, co… no cóż, nudny stryjek opowiadający kawały na rodzinnej imprezie? Może w przyszłości będzie w stanie napisać pełnometrażową komedię, która zdobędzie Oscara, ale na razie wydaje się, że nasze klasyczne, ludzkie dowcipy nie zostaną zastąpione. Więc kiedy następnym razem komputer opowie ci śmieszny dowcip, uśmiechnij się grzecznie i przypomnij sobie, że choć AI może być mistrzem w matematyce, w dziedzinie humoru to wciąż tylko amator.

Przepis na błąd?

Gdy sztuczna inteligencja opiera się wyłącznie na jednym zestawie danych do nauki, jej perspektywa jest ograniczona do konkretnych informacji. Zbytnie poleganie na danych treningowych w świecie sztucznej inteligencji to jak korzystanie z jednej, starej książki kucharskiej do nauczenia się kulinarnych umiejętności. Możesz nauczyć się kilku smacznych przepisów, ale nie wiesz o wielu innych kuchniach świata, technikach gotowania i nowoczesnych trendach kulinarnych.

Wyobraź sobie, że AI jest szkolona na podstawie wiadomości z lat 90. i nagle ma dostarczyć aktualne informacje o technologii, modzie czy polityce. Efekt? Otrzymasz obraz świata, który jest przestarzały i nie do końca dokładny.

Jeszcze bardziej niepokojące jest to, że jeśli dane treningowe zawierają błędy, uprzedzenia czy nieścisłości, AI będzie je naśladować. To trochę jak ucząc się gotować z tej jednej książki kucharskiej, która przypadkiem ma błąd w każdym przepisie. Może to prowadzić do nieoczekiwanych, a czasem nawet szkodliwych wyników.

A co jeśli ta jedna książka kucharska jest stronnicza? Może promować jedną kuchnię kosztem innych, prowadząc do wypaczonego postrzegania kulinarnej różnorodności. Podobnie, jeśli AI jest szkolona na podstawie danych, które są stronnicze lub nieobiektywne, jej odpowiedzi i analizy będą przesiąknięte tymi samymi uprzedzeniami.

Ostatecznie, zaawansowana technologia, jaką jest sztuczna inteligencja, jest tylko tak dobra, jak dane, na których się uczy. Jeśli chcemy, aby była rzetelna, dokładna i obiektywna, musimy dostarczyć jej różnorodne, aktualne i dokładne dane do nauki. W przeciwnym razie ryzykujemy, że nasz cyfrowy szef kuchni będzie podawał przestarzałe dania z przeszłości zamiast nowoczesnych przysmaków przyszłości.

Poza kodem

Powyższą historię opowiedziała maszyna, a dokładniej to wygenerował ją ChatGPT. Zaskoczeni? Możliwe, że ci, którzy znają specyfikę tworzenia tekstów przez to urządzenie, rozpoznali w tym kunszt technologiczny. Jeżeli nie, to w tym momencie dodam, że cała pierwsza część tekstu została wygenerowana automatycznie, włącznie z tytułem oraz śródtytułami. Moją rolą w tym była moderacja odpowiedzi, by jak najwierniej oddały charakter ludzki, czy – jak to określił on sam – wyglądały na opowiedziane przez ludzi z sercem i duszą. I, wbrew pozorom, przy tekście skupionym na jednym, dość wąsko sprecyzowanym temacie, było to zajęcie pracochłonne.

Podchodziłam jednak do niego wyjątkowo optymistycznie. Znałam przecież ten chat, wiedziałam, że w ciągu paru sekund mogę mieć odpowiedzi, czy gotowe fragmenty tekstu, nadające się do użycia. Bo przecież z chatu korzysta wiele osób: studenci, zarywający noc przez oddaniem tekstu na zaliczenie, uczniowie, którym chat może napisać gotową pracę na jutrzejsze zajęcia, czy ci, poszukujący inspiracji do wykonania zadań prostszych. Dlatego towarzyszyło mi pewnego rodzaju uczucie zaskoczenia – może nawet lekkiego rozczarowania – kiedy to okazało się, że podobną ilość czasu spędziłabym sama pisząc powyższe fragmenty. I wtedy też zaczęłam się zastanawiać – o co tyle szumu? Czy coś takiego rzeczywiście jest w stanie wydrzeć z rąk pracę dziennikarzom? Może wcale nie ma czego się obawiać, a tekst ten jest zupełnie niepotrzebny? Problem wydaje się jednak bardziej złożony, bo towarzyszą mu kwestie niezwiązane bezpośrednio z samym dziennikarstwem, ale jego współczesnymi właściwościami. Jednak do tego jeszcze przejdziemy.

By praca z chatem miała sens, musiałam wpierw wyodrębnić aspekty, które chciałabym w tekście zgłębić. Był to konieczny krok, by zwyczajnie w świecie ułatwić sobie pracę: chat przy prośbie o ogólne ujęcie jakiegoś tematu, dzieli go na drobne zagadnienia i opisuje każde z nich w 2-3 zdaniach. W moim przypadku, gdy prosiłam o napisanie o wadach generowanych tekstów, wysyłał mi całą listę punktów. Coś takiego sprawdziłoby się genialnie przy szykowaniu notatki bądź zbieraniu informacji/robieniu researchu. Jednak nie da się tego traktować jako samodzielnego, pełnoprawnego artykułu. Brakuje mu bowiem słownej zaprawy – czegoś, co połączyłoby te cegiełki.

Mając parę punktów, zapisanych w pustym jeszcze pliku, przystąpiłam do pracy. Podawałam mu zagadnienia, prosząc o opisanie ich. W większości prośba o opisanie wymagała dodatkowego sprecyzowania – warto było podać formę tekstu i wypisywać swoje oczekiwania, np. nadaj wypowiedzi charakter sarkastyczny. Chat dostosowywał się do tych próśb, choć przeważnie wypowiedzi należało przyciąć.

Wygenerowany tekst nie nadawał się w większości w całości do skopiowania – jego forma była zbyt toporna. Również pojawiały się w nim błędy, które jednak postanowiłam zostawić, by nie zatracił się doszczętnie styl chatu. Bo AI ma swoją mechanikę pisania tekstów: dominują w niej powtórzenia (chat niechętnie korzysta z zaimków bądź domyślnej formy czasownika), używa dużo zdań pytających, a każda prośba o napisanie czegoś skutkuje otrzymaniem tekstu ze wstępem, rozwinięciem i zakończeniem, co nie zawsze jest pożądane. Czasem również chat ma problem z poprawną odmianą końcówek gramatycznych. Co ciekawe: nie najgorzej radzi on sobie z pisaniem w sposób bardziej nacechowany emocjonalnie. Trochę, w moim odczuciu, obala to mit, że teksty AI są drętwe. Owszem, te domyślne są, ale wystarczy poprosić, by chat się uśmiechnął, zasmucił albo przyjął wzniosły ton.

Otrzymane treści modyfikowałam tak, by złączone razem mogły przypominać artykuł, nad którym pracowałby jakiś publicysta. Czasem wymagało to brania zaledwie paru zdań – a nawet wybieraniu jednego – z całej wypowiedzi! Sam proces napisania tego nie był trudny – w parę sekund miałam jakiś tam tekst. Całą trudnością jest jednak dostosowanie go do właściwości prasowych. Trzeba kombinować, skracać, zadawać pytania pomocnicze i poprawiać. Na razie złożoność tego procesu odstrasza. Ale to może być jedynie tymczasowe.

Przyszłość jest teraz

Muszę oddać chatowi to, co chatowe. Przy bardziej złożonych tematach, wymagających poruszenia wielu wątków, radzi sobie miernie. Nadal potrzebuje osoby, która jego wypowiedzi zredaguje. Jednak na dziennikarstwo nie składa się tylko pisanie długich, wymagających tekstów. Często – a może nawet najczęściej – skupione jest wokół newsów. Krótkie wiadomości zasypują każdego dnia ekrany telefonów, laptopów i przemawiają głosem spikerów oraz prezenterów przez odbiorniki radiowe oraz telewizory. Spróbowałam więc napisać taką krótka notę za pomocą chatu. Podałam mu wszystkie najważniejsze informacje: miejsce i czas wypadku, informacje o poszkodowanym (imię, status oraz miejsce zamieszkania) i jego wypowiedź:

Warszawa, 28 sierpnia 2000 – Młody licealista doznał wypadku na Marszałkowskiej

Dzisiaj na Marszałkowskiej 13 doszło do nieszczęśliwego wypadku. Młody uczeń liceum o imieniu Paweł, który zamieszkuje małą wieś pod Warszawą, upadł z roweru. Przyczyny wypadku nie są jeszcze dokładnie znane. Na miejsce wezwano pogotowie, ale chłopak, chociaż podrażniony, nie wydawał się być poważnie ranny. Na pytanie, jak się czuje, Paweł odpowiedział: „Au, rzeczywiście”. Świadkowie zdarzenia udzielali mu pierwszej pomocy do przyjazdu służb medycznych. Policja prowadzi dochodzenie w sprawie przyczyn upadku.

Notatka nie jest długa, ale zawiera to, co przekazałam generatorowi. Co ciekawe: chat wiele z informacji dodał sam od siebie, prawdopodobnie by wydłużyć tekst, ale też uzupełnić całe zdarzenie większą liczbą danych. W krótkich formach, gdzie istotna jest precyzja, zwięzłość, brak osobistych wycieczek, ten radzi sobie zaskakująco dobrze. Przy dokładniejszym skonkretyzowaniu tego, co chcielibyśmy uzyskać, odpowiedź byłaby jeszcze lepsza. Zadowolona z wyniku, poszłam za ciosem i poprosiłam o stworzenie artykułu o serii upadków z roweru. Z racji, że objętość tekstu powinna być większa, podałam szerszy temat i zakres informacji:

Uwaga na upadki! Miejscowość pod Warszawą boryka się z problemem wypadków rowerowych

Coraz częstsze doniesienia o upadkach rowerzystów zaniepokoiły mieszkańców małej miejscowości pod Warszawą. Liczba wypadków znacznie wzrosła w ciągu ostatniego miesiąca, zanotowano aż 37 takich przypadków.

Miejsca, w których najczęściej dochodzi do upadków, to: ulica Marszałkowska, Park Kościuszki, blokowisko kotlińskie oraz pas przyrzeczny. Mieszkańcy zastanawiają się, czy są to jedynie niefortunne zbiegi okoliczności, czy też może występują tam jakieś specyficzne zagrożenia dla rowerzystów.

Analizując grupę osób, które upadły z roweru, zauważono pewne tendencje. W większości byli to ludzie młodzi – licealiści i studenci. Zdarzały się także osoby w średnim wieku, natomiast nie odnotowano wypadków wśród seniorów.

Jedną z głównych przyczyn upadków, jaką wskazują badania, jest upojenie alkoholowe. Szczególnie wśród młodszej populacji często zdarza się, że rower jest wybierany jako środek transportu po spożyciu alkoholu, co znacznie zwiększa ryzyko wypadku.

Rower jest ekologicznym i zdrowym środkiem transportu, ale bezpieczeństwo musi być zawsze na pierwszym miejscu. Warto przypomnieć, że jazda pod wpływem alkoholu jest nie tylko nieodpowiedzialna, ale też niebezpieczna zarówno dla rowerzysty, jak i innych uczestników ruchu.

Mieszkańcy apelują o wzmożone patrole policyjne w miejscach, gdzie najczęściej dochodzi do wypadków oraz prowadzenie kampanii informacyjnych na temat zagrożeń związanych z jazdą rowerem pod wpływem alkoholu.

Każdy rowerzysta powinien pamiętać o podstawowych zasadach bezpieczeństwa oraz zastanowić się dwa razy przed wsiadaniem na rower po spożyciu alkoholu. Szkoda by było, aby ten ekologiczny środek transportu stał się przyczyną tragedii.

Uważam, że ten tekst mógłby przemknąć niepostrzeżenie wśród innych materiałów prasowych, bez większych ingerencji w nim. I albo świadczy to wyśmienicie o generatorach, albo marnie o współczesnych mediach. Bo jakie media są obecnie?

Czas to pieniądz

Z pewnych przyczyn uważam, że automatyczne generatory tekstu mają swoją przyszłość w świecie mediów. Być może nawet nie tak odległą i wejdą do gry szybciej, niż można byłoby się spodziewać. To, co piszą, może nie być głęboko przemyślane, sprawdzone, rzetelne, ale jest szybkie. I ta szybkość to cecha ogromnie pożądana. Kiedy świat przyspiesza, przyspieszyć muszą ci, którzy ten świat nam opisują. Dziennikarze wrzucają piąty bieg, by pozostać na bieżąco oraz wyprzedzić innych z dowiezieniem tematu.

Bo trzeba być pierwszym. Samo bycie na podium nie jest już wystarczające, bo kogo mogłoby to zadowolić? Trzeba się spieszyć, ciągle pozostawać w ruchu, co doprowadza do przeważenia się szali na rzecz szybkości, a nie jakości. Oczywiście, można łączyć jedno z drugim, ale sprawdzenie informacji, potwierdzenie ich, przemyślenie czegoś dogłębnie wymaga czasu. I tu się tworzy błędne koło: skoro budżet czasowy jest ograniczony, to na czymś trzeba przyoszczędzić.

Często pada na jakość bądź rzetelność tekstu. Co prawda, chaty mogłyby służyć wszystkim. Pozytywną alternatywną byłoby używanie generatorów, odpowiednio zaprogramowanych, do odciążenia dziennikarzy. Ci mieliby więcej czasu na zbieranie informacji, wychodzenie w teren i realizowanie bardziej kreatywnych materiałów, a teksty mniej skomplikowane byłyby zostawiane chatowi. W tej wizji jednak zbyt wiele osób byłoby zadowolonych, więc nie jest ona prawdopodobna. Bardziej realny scenariusz zakłada, że pracodawcy widząc, że podobne efekty mogliby osiągnąć bez zatrudniania dodatkowych pracowników, a za pomocą programów, zwolniliby ich. Bo sztuczna inteligencja nie męczy się, nie musi spać, nie składa wniosków o urlop, nie wyskoczy jej żadne niespodziewane zajęcie… Jest znacznie mniej problemowa. Ciągle jest dyspozycyjna, chętna, zwarta i gotowa do pracy. Jest wymarzonym pracownikiem.

Na razie jest to jednak nadal zbyt odległa przyszłość, by rozpatrywać ją w detalach i tworzyć złowróżbne scenariusze. Bo, pomimo wielu zalet tych przyrządów, nadal musiałyby być one nieco lepiej dostosowane pod specyfikę materiałów prasowych. Ale może nadejść moment, gdy tylko komputer będzie w stanie dotrzymać kroku szybko zmieniającemu się światu. Wszystkim innym zabraknie tchu.