Za banałem rewolucji sztucznej inteligencji (AI) kryją się obietnice, lęki i marzenia o nirwanie końca ułomności dziennikarstwa i bogactwie możliwości. Entuzjazm i jednocześnie niepokój, jakie wywołuje, można porównać do podobnej gorączki, która towarzyszyła rozwojowi Internetu pod koniec lat 90.
Dziennikarstwo algorytmiczne, dziennikarstwo danych, burzy fundamenty modeli biznesowych i zarządzania mediami, tożsamości i ról zawodowych oraz dziennikarskiej ideologii. Obiecuje wiele, destabilizuje wszystko. Zapowiada egalitaryzm, oferuje niespotykaną historycznie dominację.
To opowieść o tym, co nauka ma do powiedzenia o maszynach „płynnych bzdur” i chatbotach nie tylko w roli „służalczych kretynów”. O schyłku hegemonii dziennikarstwa, o kreatywności i wiarygodności sztucznej inteligencji w dziennikarstwie, stereotypach na temat dezinformacji i powszechnym zastępowaniu i uzupełnianiu dziennikarza w jego zadaniach. O autorytecie algorytmicznym oraz szkoleniu sztucznej inteligencji i treściach nie do odróżnienia od dzieł dziennikarzy. O inwazji „obcych” na jedną z najbardziej pasjonujących profesji, pożytkach teorii ludowych i teorii spiskowych.
Także o tym, czym jest prawda sztucznej inteligencji. Wreszcie o przyszłości, oporze algorytmicznym i sensie wykonywania zawodu dziennikarza na świecie i w Polsce.
• Książka prof. Jana Krefta „DZIENNIK(AI)RSTWO. Jak sztuczna inteligencja zmienia najciekawszą profesję na świecie” jest niewątpliwie skazana na sukces, podejmując problematykę tzw. sztucznej inteligencji, która stała się obecnie tematem o pierwszoplanowym charakterze i jest rozpatrywana w różnych kontekstach: prawnym, ekonomicznym, społecznym. Entuzjazm i jednocześnie niepokój, jakie wywołuje, można porównać do podobnej gorączki, która towarzyszyła rozwojowi Internetu pod koniec lat 90. Książka, która podejmuje ten temat, wpisuje się natychmiast w gorącą atmosferę oczekiwań i lęków, co z pewnością przełoży się na jej popularność, a także […] będzie wyznaczać przyszłe tory refleksji, definiować podstawowe pole analizy czy podsuwać główne pojęcia z tą refleksją związane.
– fragment recenzji prof. Rafała Maciąga, Uniwersytet Jagielloński
Prof. dr hab. Jan Kreft – wieloletni dziennikarz i korespondent zagraniczny, menedżer zarządzający firmami mediów i nowych technologii. Szef Zakładu Zarządzania Algorytmicznego (Politechnika Gdańska). Autor kilkunastu książek, między innymi: „Władza algorytmów”, „Władza platform”, „Za fasadą społeczności”, „Koniec dziennikarstwa, jakie znamy” oraz „Władza misjonarzy. Zmierzch i świt świeckiej religii w Dolinie Krzemowej”.
DZIENNIK(AI)RSTWO
Jak sztuczna inteligencja zmieniła najciekawszą profesję na świecie
Wydawnictwo Universitas
Premiera: 8 kwietnia 2025
Perspektyw poznawczych tej opowieści jest wiele: od technologii, która często wymyka się zrozumieniu nawet tych, którzy ją wymyślili, po erozję zaufania do jej domniemanych intencji. Niepokój jej towarzyszący nie powinien być zbywany wzruszeniem ramion. Jak pisze Brian Christian (2021) w fascynującej analizie wszystkiego, co „idzie nie tak”, gdy są budowane systemy sztucznej inteligencji – oto bowiem kolejny raz nowa technologia pojawiła się w roli ucznia czarnoksiężnika – tworzymy autonomiczną siłę, wierzymy, że jest całkowicie uległa, wydajemy jej zestaw instrukcji, a następnie jak szaleni staramy się ją zatrzymać, kiedy zdamy sobie sprawę, że nasze instrukcje są nieprecyzyjne lub niekompletne, aby w jakiś sprytny sposób dostać dokładnie to, czego nie chcieliśmy.
W badaniach naukowych prowadzonych jeszcze w pierwszej dekadzie XXI wieku jednym z głównych obszarów zainteresowania biznesu medialnego było wdrażanie sztucznej inteligencji w celu usprawnienia podejmowania decyzji przez wykorzystanie obfitości mocy obliczeniowej i danych o odbiorcach czy konsumentach. Metody uczenia maszynowego, maszyny „predykcyjne”, zaczęły obsługiwać niezliczoną liczbę aplikacji, w tym media społecznościowe, systemy rekomendacji, filtry spamu i reklamy online. Dziś, po kilkunastu latach, nurt ten jest nadal intensywnie rozwijany, ale punkt ciężkości przesunął się w stronę generatywnej sztucznej inteligencji (GenAI) – termin ten dotyczy zastosowań nowych modeli, które stosują logikę predykcji (zob. na przykład: Kanbach i in. 2024) i w dziennikarstwie mają cztery kluczowe wymiary: generowanie treści, analizę danych, automatyzację redakcji i zaangażowanie odbiorców (Gondwe 2023).
Niełatwa do precyzyjnego zdefiniowania jest także sama sztuczna inteligencja (problem ten będzie wielokrotnie powracał, na przykład w rozdziale drugim), która obejmuje rozmaite technologie, w tym uczenie maszynowe, tak zwane głębokie uczenie, przetwarzanie języka naturalnego, rozpoznawanie obrazów, i – ogólnie ujmując – jest określana albo jako dowolna maszyna zdolna do imitowania ludzkiej inteligencji w celu wykonywania określonych funkcji (zob. na przykład: Hengstler i in. 2016), albo, w bardziej szczegółowej wersji definicyjnej, jest łączona z wykorzystaniem algorytmów do interpretowania i uczenia się na podstawie danych w celu wykonania określonego zadania (zob. na przykład: Ågerfalk 2020), a w jeszcze innej interpretacji jest rozumiana jako połączenie tych funkcji (na przykład: Mikalef, Gupta 2021). W badaniach nad komunikacją sztuczna inteligencja jest rzeczywistą zdolnością nie-ludzkich bytów do wykonywania i rozwiązywania zadań, komunikowania się, interakcji i logicznego działania, tak jak się to dzieje u biologicznych ludzi (de Zúñiga i in. 2024).
Konsekwencje obecności tak nieprecyzyjnie rozpoznanej sztucznej inteligencji w dziennikarstwie i mediach są trudno poznawalne między innymi dlatego, że według Roya Amary mamy tendencję do przeceniania wpływu technologii w krótkim okresie i niedoceniania w dłuższej perspektywie. Rzecz w tym, że widzimy skutki krótkotrwałe, a długotrwałych jeszcze nie możemy dostrzec. Trudno jednak, żeby było inaczej, skoro nowe technologie tak zwanego ogólnego przeznaczenia, a więc nie tylko stosowane do specyficznych zadań, czyli znana generatywna sztuczna inteligencja ChatGPT, są dostępne dopiero od niedawna, a choć stały się obiektem wyjątkowo szybko podejmowanych badań, to nadal ich społeczne i ekonomiczne konsekwencje są mało znane i często mają spekulatywny charakter.
Z jak dużym galimatiasem mamy do czynienia, można sobie tylko wyobrazić, patrząc na przykład na błędne utożsamianie narzędzi (maszyny) z człowiekiem (jej wytwórcą i użytkownikiem). Poza tym sztuczna inteligencja to w istocie „oksymoron”, który powstał w ramach współczesnej materialistycznej wizji rzeczywistości, i nie brakuje głosów sceptycznych, szyderczych i krotochwilnych na ten temat. Jak puentuje je Robert Epstein, postęp badań skłania do niewesołego wniosku, że „im bardziej Puchatek zaglądał do chatki Prosiaczka, tym bardziej go tam nie było. Podobnie jest z badaniami nad mózgiem: im bardziej naukowcy zaglądają w jego strukturę, tym bardziej nie ma w nim komputera. Bez względu na te ich starania nigdy nie znajdą w mózgu kopii V Symfonii Beethovena ani kopii słów, reguł gramatycznych i żadnego innego rodzaju bodźców środowiskowych” (Jastrzębski 2020, s. 4).
Mierząc się z tą prowokacją intelektualną z pogranicza nauki i żonglowania zgrabnymi puentami, przychodzi jednak stwierdzić, że mamy do czynienia w najlepszym razie z terminem wieloznacznym, choć także rozumianym literalnie i ewoluującym wraz z postępem technologicznym (Kreft, Cyrek 2024). Na przykład wielokrotnie dalej wspominany ChatGPT, czyli model języka oparty na głębokiej sieci neuronowej trenowanej na dużym korpusie danych, jest owocem ewolucji poprzednich rozwiązań, na przykład wydanego dwa lata wcześniej GPT-3, który już wówczas okazał się narzędziem zdolnym do wykonywania takich zadań, jak tłumaczenie (sukces wyjaśniano jego użytecznością, zwłaszcza sposobem interakcji z użytkownikami, inicjowanej przez krótki tekst początkowy zwany promptem).
Chatboty, czyli służalczy kretyni (z pozoru)
Jak złożone są kwestie wdrażania narzędzi sztucznej inteligencji, można się było przekonać, gdy stojące za chatbotami organizacje, które są powszechnie znane z bogactwa, wpływów i innowacyjności, pokazały swoją awersję do… ryzyka. W konsekwencji dostaliśmy bowiem, jak malowniczo puentuje Kevin Rose (2024), ChatGPT, Claude, Barda czy Gemini, które zachowują się jak „służalczy kretyni”. Są po prostu nudne, ich odpowiedzi są nijakie i bezosobowe, prawie nie można nakłonić tych narzędzi do rozważenia drażliwych lub polaryzujących kwestii. Wykonują ciężką pracę „umysłową”, ale w tym mozolnym znoju trudno doszukać się „rewolucji sztucznej inteligencji”. Nie są ani zabawne, ani nie wydają się przesadnie kreatywne, a tym bardziej charyzmatyczne. Nie tworzą, poza wyjątkami, olśniewających dzieł, nie dokonują przełomowych odkryć naukowych, choć – co może pocieszające – nie uwodzą także na masową skalę użytkowników zwodniczymi deepfake’ami ani nie konstruują broni masowego rażenia (Rose 2024).
Produkują jednak treści na masową skalę. Każdy wirusowy post w mediach społecznościowych prawie na pewno wywołał reakcje generowane przez sztuczną inteligencję, od streszczeń oryginalnego posta po reakcje napisane slopem (o czym poniżej). Instagram jest pełen treści wytworzonych przez sztuczną inteligencję, a Spotify – pełne takich utworów muzycznych, podobnie jak najlepsze wyniki wyszukiwania Google to często obrazy i artykuły generowane przez sztuczną inteligencję.
Dziś dziennikarz walczy o uwagę odbiorcy z zalewem treści określanych terminem „slop” – w nawiązaniu do „sterty nieapetycznego jedzenia wrzucanego łopatą do koryt dla bydła” (Adami 2024). W mediach slop (niechlujność) to bezwartościowe teksty, obrazy i wideo oraz niekiedy całe strony internetowe wprowadzające w błąd, jak w wypadku wygenerowanej przez sztuczną inteligencję i zawierającej materiały promocyjne witryny fałszywej „parady Halloween”, na którą w centrum Dublina przyszły zdezorientowane tysiące osób (Davis 2024). Terminowi temu towarzyszy inny – „różowy szlam” (pink-slim), czyli politycznie motywowane treści niskiej jakości imitujące wiadomości lokalnych serwisów informacyjnych.
Popularność obu określeń wskazuje, że znajdujemy się w okresie niedopracowanej sztucznej inteligencji powszechnego użytku oraz że może być ona wykorzystywana w niecnych zamiarach. Występowanie slopu można także interpretować jako wyraz tolerancji ze strony platform dla masowej „paszy” tworzonej pod kątem optymalizacji pod wyszukiwarki (search engine optimization, SEO) tak tanio, jak to tylko jest możliwe. Niewiele jednak mówi o realnych możliwościach Google’a, Microsoftu, Anthropicu, Mety i OpenAI, które zgodnie oskarża się o różne niegodziwości, choćby o pogłębianie „kapitałocenu” (to znacznie lepszy termin niż „antropocen”) oraz mediocenu (Goban-Klas 2020), ale które w istocie nie chcą na przykład ryzykować wypuszczenia chatbotów o silnych, kontrowersyjnych „osobowościach” w obawie przed ingerencją organów regulacyjnych oraz, co prawdopodobnie ważniejsze w wypadku klientów korporacyjnych – w obawie przed zbyt dużym ryzykiem. Nie może być jednak inaczej, skoro wszystkie te organizacje stały się zakładnikami swojego sukcesu i pozycjonują chatboty jako zaufanych kreatywnych pracowników.
Gdy do tych refleksji dołączy się jeszcze wnioski z badań, przekonujące, że dwie trzecie ze stu firm, które stoją za narzędziami sztucznej inteligencji najczęściej używanymi i polecanymi przez dziennikarzy, nie są wystarczająco przejrzyste pod względem własności, finansów i innych ważnych danych (Oliver 2024), wówczas można uzyskać pierwszy szkic krajobrazu początków flirtu sztucznej inteligencji z dziennikarstwem i mediami. Ten wymuszony związek może mieć różne konsekwencje. Choćby takie, że skoro jedynie trzy z dziewiętnastu europejskich firm dostarczających narzędzia sztucznej inteligencji na potrzeby dziennikarstwa są transparentne, to można zadawać pytania, czy kontrola tak kluczowych algorytmicznych narzędzi oznacza także wpływ na postrzeganie rzeczywistości i kontrolowanie prawdy. Pytania te czekają na pilne odpowiedzi, zwłaszcza że część z czołowej setki (Dataminr, Notion, Grammarly, AI21Labs, a zwłaszcza Claude) zyskała dużą przewagę nad innymi w pozyskiwania finansowania i będzie wpływała na dziennikarstwo na całym świecie.
Stary, wspaniały świat dziennikarstwa i nowy (także wspaniały)
Tymczasem wielkie modele językowe (large language models, LLM), których rozwój tak znakomicie przyczynił się do postępu sztucznej inteligencji i popularności dyskusji na jej temat (szerzej na przykład: Zhao i in. 2023), już charakteryzują się tym, co czyni je tak zwanymi wschodzącymi technologiami, czyli radykalną nowością, spójnością, znacznym wpływem oraz istotną niepewnością i niejednoznacznością (Rotolo i in. 2015).
Organizacjom medialnym nowe technologie sztucznej inteligencji oferują zwiększenie wydajności, pracownikom mediów – przekształcenie miejsc pracy i zmianę interakcji człowieka z maszyną oraz destabilizacyjny potencjał zmieniania status quo. Dlatego trudno oprzeć się wrażeniu, że w dziennikarstwie i – szerzej – w mediach zmienia się wszystko: od poczucia stabilności po źródła satysfakcji i frustracji, a każdy dzień przynosi nowe wieści utwierdzające w przekonaniu, że zjawisko jest nietuzinkowe.
Trudno bowiem przejść do porządku dziennego, gdy na przykład RadioGPT tworzy pierwsze na świecie programy radiowe z głosem generowanym przez sztuczną inteligencję, czerpiąc z ponad 250 tysięcy źródeł informacji, zwłaszcza na Facebooku, Twitterze (X) i Instagramie (Savage 2023). To prawda, że takie radio wydaje się „nie mieć duszy”, ale jest słuchane i intrygujące, ponieważ zapewnia bardzo lokalne i atrakcyjne wiadomości dla małych społeczności poszczególnych ulic, kwartałów czy osad. Tu cel obecności sztucznej inteligencji jest prosty i skuteczny rynkowo – usprawnić procesy produkcji treści zarówno w dużych rozgłośniach (jak Rogers Sports & Media), jak i w małych stacjach (Savage 2023).
Oparte na GPT-3 RadioGPT tworzy krótkie newsy, podcasty, blogi czy filmiki wideo i należy do wzbierającej fali tak zwanych syntetycznych mediów, które produkują lub kreują (do wyboru) treści bez interwencji dziennikarzy (Ufarte-Ruiz i in. 2023). Są to na przykład: JX Press Corp (Japonia), cybernetyczny newsroom Reuters News Tracer (Wielka Brytania), News Republic (Francja), Videre AI (Hiszpania) czy zautomatyzowana agencja informacyjna Reporters And Data And Robots
(RADAR), stworzona w Wielkiej Brytanii wspólnie przez Press Association i zajmujący się dziennikarstwem danych start-up Urbs Media.
Media te nie dostarczają jednoznacznej odpowiedzi na sakramentalne pytanie o to, czy sztuczna inteligencja zastąpi dziennikarzy, ale pogłębiają konkurencję o uwagę użytkowników, w której dziennikarze nie muszą wygrywać i coraz częściej nie wygrywają. Mało tego, pojawia się coraz więcej badań potwierdzających, że maszynowo generowane informacje są nie do odróżnienia od treści tworzonych przez dziennikarzy i nie są już oceniane jako mniej wiarygodne (zob. na przykład: Henestrosa i in. 2023; Moravec 2024; Wang, Huang 2024). Kwestie te są szerzej omówione w rozdziale drugim.
Może to zaskakiwać, ponieważ jeszcze niedawno wydawało się, że sztuczna inteligencja pozwoli jedynie na automatyzację bardzo rutynowych prac, tymczasem szybko stało się jasne, że dostarcza bardziej złożonych i wyrafinowanych treści, o różnych poziomach abstrakcji (zob. na przykład: Kelly i in. 2023). Gdy w 2022 roku sformułowano listę możliwych zastosowań ChatGPT na podstawie analizy klastrowej danych z Twittera (X), znalazły się na niej między innymi rozrywka, ćwiczenia kreatywności, przetwarzanie języka naturalnego, edukacja, inteligencja chatbotów, wpływ na biznes i wyszukiwarki oraz przyszłe kariery. W gronie typowych użytkowników znaleźli się zaś: „praktyk software’u”, akademik (naukowiec), student, badacz danych, inwestor, analityk biznesowy, artysta i dziennikarz (Hague i in. 2022). Dwa lata później, gdy zastanawiano się nad zakresem zastosowań ChatGPT 4, okazało się, że jest on nader szeroki – od wsparcia programistycznego po generowanie treści w kilku głównych obszarach: tak zwane zasoby ludzkie, media społecznościowe, wyszukiwarki, automatyzacja biurowa, edukacja i programowanie (Filippo i in. 2024).
Jak pokaźny jest teraz potencjał zastosowań generatywnej sztucznej inteligencji, ilustrują badania spodziewanej transformacji miejsc pracy. Pod koniec 2024 roku ChatGPT wykonywał około czterystu zadań i wpływał na sto osiemdziesiąt pięć różnych umiejętności, a wśród dwudziestu najważniejszych z nich znalazły się bardziej bądź luźniej związane z mediami: tworzenie treści cyfrowej, dostarczanie informacji, tworzenie treści informacyjnych online, tworzenie obrazów cyfrowych, tworzenie scenariuszy, napisanie fabuły, komponowanie piosenek, streszczenie tekstu, udział w debatach (Giordano i in. 2024). ChatGPT identyfikował błędy gramatyczne i proponował poprawki, korygował zdania, żeby były bardziej angażujące i zwięzłe, wzbogacał słownictwo (Kasneci i in. 2023). Pojawiła się także nowa funkcja wyszukiwania, co sugeruje dążenie do uniwersalności technologii sztucznej inteligencji. Jeśli do tego dodać działanie innych systemów, takich jak Dall-E lub MidJourney, to staje się oczywiste, że świat mediów i dziennikarzy stanął przed nie lada wyzwania.
W istocie sztuczna inteligencja może mieć przemożny wpływ na dziennikarstwo, choć warto na przykład pamiętać, że na obecnym etapie jej rozwoju jest on zróżnicowany na różnych stanowiskach, ponadto ChatGPT to jedynie jedno z różnych rozwiązań, co nie znaczy, że już nie wzbudza silnych emocji, na przykład gdy tworzy wiersze (szerzej na ten temat na przykład: Yenduri i in. 2024).
„Na kolanach”, czyli niewygodna pozycja wydawców tradycyjnych mediów
Jeszcze kilkanaście lat temu najpopularniejsze programy telewizyjne gromadziły w Polsce przed ekranami telewizorów pokaźne audytoria. W 2011 roku aż dwieście osiemdziesiąt osiem programów miało ponad 5 milionów widzów (dwa lata wcześniej było ich czterysta trzydzieści sześć). Dziesięć lat później nie udało się to ani razu (Wavemaker IV na podstawie Nielsen Audience Measurement). Dziś rytualne cztery godzinny dziennie – taki bowiem od lat jest średni czas oglądania telewizji – spędzają przed ekranem telewizora trzy grupy widzów: wykluczeni cyfrowo, mieszkańcy wsi i małych miast oraz osoby spauperyzowane. Po latach „starań” jej twórców telewizja stała się najtańszą i najmniej wymagającą rozrywką. I oglądaną przez coraz mniejsze grono widzów.
Można naturalnie dowodzić, że to skutki zmian demograficznych, politycznych, wojen kulturowych i pauperyzacji dziennikarzy (o których to kwestiach będzie jeszcze mowa). To wszystko prawda. Pomijając jednak fakt, że tradycyjne media, w tym publiczne, nie proponują w Polsce atrakcyjnej agory, rozumianej jako środowisko wymiany idei, i nie oferują prezentacji własnego „ja” przez tak zwanych zwykłych odbiorców, trzeba zauważyć, że mamy do czynienia z nową logiką mediów (szerzej o tym w rozdziale drugim), zdominowaną przez ideologię informatyczną i nowe technologie.
To zła i dobra wiadomość, w zależności od przyjętej perspektywy. Dla zwolenników status quo mediów nadawczych to mały „koniec świata”. Dla tych, którzy widzą w algorytmizacji mediów przełomowy nurt ich sanacji, to wiadomość znakomita. W optymistycznej wersji rozwój sztucznej inteligencji w dziennikarstwie to zmierzch prymitywnego dziennikarstwa, koniec hejterów banowanych przez sztuczną inteligencję, bezkarnych kłamstw weryfikowanych przez sztuczną inteligencję i zmierzch cenzorów przebranych w cyfrowych mediach za moderatorów (także zastępowanych przez sztuczną inteligencję).
Jest jednak również druga strona medalu, mianowicie schyłek hegemonii (szerzej o tym w rozdziale trzecim) dziennikarstwa informacyjnego i malejące zasoby „stabilnej pracy” w dziennikarstwie. A także pojawienie się nowych zawodów (na razie nielicznych) w mediach i prekariatu tradycyjnych dziennikarzy. Sztuczna inteligencja w dziennikarstwie pogłębia proces popadania w niebyt braku zainteresowania ich ofertą i spycha przeciętne dziennikarskie „białe kołnierzyki” w dół po równi pochyłej prestiżu i pozycji społecznej. W Polsce i wielu innych krajach coraz więcej dziennikarzy trafia w sfery liminalne (szerzej o tym w rozdziale szóstym).
Nowa logika mediów informatycznych to logika informatycznej etyki algorytmicznej, fascynacji i zwykłego życzliwego zainteresowania nową technologią informatyczną, nowych zasad „gotowania prawdy” w dziennikarstwie (szerzej o tym w rozdziale szóstym) oraz płynnych tożsamości wypierających ideologię dziennikarstwa (będzie o tym mowa w rozdziale siódmym). Tradycyjne media są z tej perspektywy jałowe pod względem innowacji, są niekonkurencyjne, wtórne programowo, sztywno sformatowane i zastygłe w wersji, która była atrakcyjna i efektywna kosztowo może dwie, trzy dekady temu. To media tęskniące za wiarygodnością i, jak wspomniano, uwikłane w stronniczość, wojny ideologiczne i tożsamościowe (czyli wszystko to, co zarzucają mediom społecznościowym). To media coraz mniej istotne, biorąc pod ich długoterminowe finansowe szanse na przeżycie, ponieważ już ponad dwie dekady temu straciły samodzielność w wyborze własnych strategii rozwoju. Ich szans nie zwiększą na dłuższą metę audytoria (bo maleją), reklamodawcy (bo podążają za migrującymi na platformy użytkownikami) ani dziennikarski opór kulturowy czy zawodowy (szerzej o tym w rozdziale ósmym) przed sztuczną inteligencją, uświęcony dawnymi sukcesami oraz poczuciem wyższości „strażników prawdy” i „prawdziwego dziennikarstwa” (Kreft i in. 2024).
Tradycyjne media nadawcze to ekosystem kurczących się zasobów konkurencyjności. Problem nie leży jedynie w finansach i – ewentualnie – zasobach wiedzy, które można przecież kupić bądź wynająć w ramach na przykład wspólnoty ideologicznej. Chodzi o brak zasobów uwagi w dobie nadmiaru masowo „produkowanej” (także algorytmicznie) medialnej treści (Kreft 2009). Problem polega na tym, że miliardy użytkowników mają już dostęp do innowacyjności i kreatywności (na przykład gier), do uwodzącego i uzależniającego powabu aplikacji na platformach (szerzej o tym w rozdziale piątym). W najbliższych latach tradycyjnym mediom pozostanie zatem bratobójcza walka o uwagę czytelnika, widza i słuchacza w coraz uboższym ekosystemie medialnym oraz (nierzadko) starania o łaskę politycznego patrona.
Oznacza to, że tradycyjne media będą nieustannie musiały legitymizować swoje istnienie, licząc na spowolnienie procesów podważających ich byt. W wypadku mediów publicznych – przez zasiadanie przy politycznym stole i zabiegi, aby otaczano je ochroną w imię odgrywania (zresztą w ograniczonym stopniu) roli prodemokratycznej czwartej władzy. Taka jest funkcja petentów, którzy znaleźli się w kiepskiej pozycji przetargowej w wyścigu technologicznym i którzy coraz częściej rozumieją, że nie muszą być obsługiwani, ponieważ nie są już niezbędni w dotarciu do obywateli i wyborców. Wiedział o tym dekadę temu prezydent Donald Trump, gdy przestał organizować konferencje prasowe i omijał dziennikarzy w komunikacji z wyborcami, wiedzą o tym jego naśladowcy, unikający ryzyka konfrontacji z dziennikarzami i rezygnujący z rzeczników prasowych. Kompleks Boga ma bowiem różne oblicza.
W ciągu dwóch dekad to platformy wspierane sztuczną inteligencją, takie jak Twitter (X), Facebook i YouTube oraz TikTok (do którego „przesiadł się” także na przykład kanclerz Niemiec), czy ostatnio Bluesky i coraz popularniejszy DeepSeek, stają się także w Polsce pierwszym kanałem kontaktu z obywatelami, a nie TVP, TVN i Polsat albo RMF FM czy Polskie Radio. Nie są już one niezbędne, by wypełniać szczytne misje poinformowania społeczności i oferowania agory dyskusji obywateli (Kreft 2022).
Na widowni wspieranych sztuczną inteligencją platform, która stała się jednocześnie sceną, rozsiadły się pokolenia, które nigdy nie doświadczały kontaktu z tradycyjną telewizją nadawczą czy drukowaną prasą. To pokolenia obojętne na ich ofertę offline, niespecjalnie zainteresowane nimi online i nieznające żadnego powodu, dla którego miałyby ją poznać, pokolenia, którym do głowy nie przychodzi czekać na informacje nadawaną przez główne wydania wiadomości telewizyjnych. Podstawowym medium dostarczającym informacje i wiedzę o świecie są dla nich TikTok i Instagram oraz YouTube i inne zwinne serwisy. Starania o ich uwagę to także konkurowanie z tysiącami liderów opinii z sieciowymi regułami, manipulacyjnymi wzorcami i potęgą wpływu społecznego wspieraną przez uzależniające technologie. To przegrana z góry walka malejącego grona bywalców mediów nadawczych z coraz liczniejszymi tubylcami mediów zarządzanych ze wsparciem sztucznej inteligencji.
Co więcej, przyszłość polskiego ekosystemu medialnego nie wykuwa się w lokalnym środowisku samowystarczalnych w swojej walce plemion ani w dyskusji wokół budżetu TVP i Polskiego Radia czy w tabloidyzacji niegdyś opiniotwórczych mediów, tylko przede wszystkim w Dolinie Krzemowej i wśród konkurujących z nią chińskich platform (od TikToka i DeepSeek po innowacyjne, znane głównie w Chinach i chińskich diasporach, Youku, iQIYI, Tencent Video, Sina Weibo, Douban i WeChat). Co więcej, nie wykuwa się, niestety, w Europie.
To nie tylko polski problem. Rośnie kolejne samowystarczalne medialnie pokolenie, sceptyczne wobec wszelkich tradycyjnych mediów informacyjnych, pokolenie wspólnot budowanych na platformach mediów społecznościowych i wokół poszczególnych narzędzi nowych technologii informacyjnych. Pokolenie kultu wirtualnych tożsamości użytkowników i nowych gwiazd mediów społecznościowych, a nie gwiazd znanych z telewizji. Przykłady? Dylan Page, młody twórca wiadomości online z Wielkiej Brytanii, ma więcej obserwujących i regularnych wyświetleń filmów niż BBC czy „New York Times” razem wzięte (nawet w wypadku ważnych tematów, takich jak wojna na Bliskim Wschodzie) (Reuters Report 2023). On i wielu innych gromadzi wspólnoty adhokratyczne, stosunkowo łatwe do mobilizacji, ale trudne w utrzymaniu, wrażliwe na fałsz i zaangażowane w tworzenie własnego „ja” w wersjach wiarygodnych i niewiarygodnych, ale zawsze nastawionych na popularność (Cyrek 2020). To media skupione na „ja”, które nie istnieje bez „my”, bez innych użytkowników, followersów czy po prostu biernych, ale zainteresowanych statystów. Media przejściowego etapu rozwoju, w którym niemal wszyscy prowadzą wojnę o uwagę i niemal wszyscy ją przegrywają .Także media triumfu erystyki nad retoryką.
Jeśli popularność łączyć z wpływem społecznym, a nie jest to oczywiste (można przecież być offline i zachować wpływ społeczny), to są to media zdominowane przez influencerów, którzy swoją popularność zawdzięczają przede wszystkim wykorzystaniu nowej logiki mediów. W Polsce było ich w kwietniu 2024 roku ponad 700 tysięcy, z tego 434 tysiące na TikToku, 244 tysiące na Instagramie i 26 tysięcy na YouTubie. Aż 625 tysięcy z nich to nanoinfluencerzy
(do 10 tysięcy obserwujących) i mikroinfluencerzy (do 50 tysięcy obserwujących). Najpopularniejsi na YouTubie – Blowek i Friz – mieli około 5,2 miliona subskrybentów (Dudek 2024). Dla porządku warto zauważyć, że Szymon Hołownia miał ich około 100 tysięcy, gdy obejmował funkcję marszałka sejmu i chwilowo grał pierwsze skrzypce w „sejmfliksie”.
Żaden z zarysowanych powyżej trendów nie oznacza ani nie przesądza o tym, że sztuczna inteligencja w najbliższym czasie w pełni dorówna ludzkiemu (dziennikarskiemu) mózgowi. Należy się spodziewać, że nadal będzie dominować tak zwana wąska sztuczna inteligencja (Diakopoulos 2015), choć nie brakuje głosów, że może się to rychło zmienić, na przykład już za trzy lata, gdy pojawi się tak zwana ogólna sztuczna inteligencja (Friedman 2024), która będzie wyzwaniem dla wszystkich niebędących jej bezpośrednimi i pośrednimi beneficjentami.
Każdy z tych trendów oznacza jednak, że rośnie dystans między potencjałem atrakcyjności i uwodzenia odbiorców unikatowymi doświadczeniami oferowanymi przy jej wsparciu a nadawczymi mediami publicznymi i komercyjnymi, które jej nie stosują. Gdy jedni zatem staną się bogatsi o nowych użytkowników, drudzy będą ignorowani (ogólna sztuczna inteligencja prawdopodobnie radykalnie pogłębi ten nierówności). Co więcej, każdy z tych procesów pozostaje ogólnie poza gestią polskich aktorów politycznych i medialnych, poza ich sprawczością będą także wytyczane nowe trendy ekspansji sztucznej inteligencji w dziennikarstwie.
Najbliższa przyszłość sztucznej inteligencji w dziennikarstwie
Kilka miesięcy po opublikowaniu w czerwcu 2022 roku przez magazyn „Cosmopolitan” pierwszej okładki wygenerowanej przez sztuczną inteligencję (Pavlik 2023) miliony użytkowników sięgnęło po raz pierwszy po narzędzia z modelami generatywnej sztucznej inteligencji ogólnego przeznaczenia. W najbliższych miesiącach i latach należy się spodziewać tworzenia przez sztuczną inteligencję (a raczej firmy dostarczające jej narzędzia) kolejnych rodzajów mediów i naśladowania ludzkiego rozumowania na nowy sposób. Generatory obrazów oparte na sztucznej inteligencji, takie jak Midjourney, będą natychmiast dostarczały filmy i zdjęcia i stopniowo będą łączyć się z chatbotami, a to oznacza, że będą wykraczały poza tekst cyfrowy i obsługiwały zdjęcia i filmy. W mediach dojdzie więc do kolejnej rewolucji, ponieważ miliony „reżyserów” i „scenarzystów” wspieranych przez sztuczną inteligencję będą zacierały granice między tak zwanymi profesjonalistami (w tym reżyserami i scenarzystami) a amatorami „uzbrojonymi” w jeszcze łatwiej dostępne i bardziej „inteligentne” rozwiązania. Wykształcą się nowi liderzy popularności i opinii, wytyczający trendy w branży filmowej, muzycznej czy gier. Do tej pory aplikacje wykorzystujące sztuczną inteligencję generowały głównie tekst i obraz w odpowiedzi na monity, teraz środowisko mediów zaleją błyskawicznie generowane filmy powstające na bazie krótkich podpowiedzi tekstowych
i głosowych.
Równolegle sztuczna inteligencja będzie mogła obsługiwać wiele rodzajów mediów, a chatboty i generatory obrazów, pierwotnie opracowane jako osobne narzędzia, połączą się i powstaną systemy „multimodalne”. Ponieważ systemy uczą się również relacji między różnymi typami mediów, będą w stanie „zrozumieć” jeden typ i odpowiedzieć za pomocą innego. Innymi słowy, po wprowadzeniu obrazu, na przykład fotografii, dostaniemy na przykład film. Same chatboty staną się autonomicznymi systemami (agentami) sztucznej inteligencji i będą korzystały z aplikacji, stron internetowych i innych narzędzi online, będą także wyszukiwarkami, a może i innego rodzaju narzędziami. W praktyce zastąpią zadania wykonywane przez zatrudnione w mediach „białe kołnierzyki”, zadanie po zadaniu, coraz lepiej i szybciej. Na przykład będą znajdowały najświeższe i najważniejsze informacje dopasowane do indywidualnego i środowiskowego profilu użytkownika. Dobrym przykładem jest Perplexity.ai – rozszerzenie witryny internetowej i przeglądarki, które umożliwia zadanie pytania lub podsumowanie dowolnego artykułu i rozmowę na każdy temat.
Wszystko to oznacza, że „świat” nie jest przygotowany na „cyfrowych pracowników”, choć ci wydają się stawać u bram redakcji – świątyń dziennikarstwa, które żądają nie tylko wysokiej jakości, ale także większej wydajności, tak przynajmniej można wnosić, czytając ogłoszenia o… zatrudnieniu robotów, od których oczekuje się produkcji „od dwustu do dwustu pięćdziesięciu artykułów tygodniowo” (Vincent 2023).
Naturalnie nie wszystkie rozwiązania są udane, o czym przypomina przykład z branży zasobów ludzkich. Gdy w połowie 2024 roku Lattice, platforma do zarządzania zasobami ludzkimi, zaoferowała coaching efektywnościowy, przeglądy talentów, automatyzację wdrażania, zarządzanie wynagrodzeniami i wiele innych narzędzi dla ponad 5 tysięcy organizacji na całym świecie – wszystko wspierane przez sztuczną inteligencję – zapowiadała, że nowe narzędzia mogą być wdrożone na wzór narzędzi wprowadzanych przez takich potentatów, jak Salesforce (na przykład Einstein może pomóc specjalistom do spraw sprzedaży i marketingu w przewidywaniu przychodów, nawiązywaniu kontaktu z potencjalnymi klientami, a Devin może planować i wykonywać złożone zadania inżynieryjne wymagające tysięcy decyzji), została zalana falą krytyki. Lattice natychmiast zawiesiła plany, uznając, że sztuczna inteligencja jest w tym wypadku w powijakach i po prostu przesadnie reklamowano to niegotowe rozwiązanie, by zyskać przewagę konkurencyjną (Marks 2024).
Jedna z najważniejszych reakcji na tę porażkę wskazywała to, co kluczowe z zarządzaniu:
Traktowanie agentów sztucznej inteligencji jak pracowników nie szanuje człowieczeństwa prawdziwych pracowników. Co gorsza, sugeruje to, że postrzegasz ludzi po prostu jako „zasoby”, które należy zoptymalizować i porównać z maszynami. To dokładne przeciwieństwo środowiska pracy zaprojektowanego tak, aby podnosić poziom osób, które się do niego przyczyniają (Marks 2024).
Tymczasem świat mediów jest pełen coraz bardziej frapujących prób zastępowania ludzi przez sztuczną inteligencję, niekoniecznie w zgodzie z tym, co przyjęło się określać zarządzaniem humanistycznym.
Przyglądając się dotychczasowym trendom, można sądzić, że pojawią się nowi nie-ludzcy liderzy opinii – i już aspirują do tej roli, gdy pośredniczą w dostępie do dziennikarstwa dobrej jakości. Jeśli zapragniemy poznać opinie we Włoszech, chatbot podsumuje wiadomości z „Corriere della Sera”, a jeśli coś nas zaciekawi w kwestii zagrożenia wojennego – dostarczy przetłumaczone treści na przykład z „Helsingin Sanomat” i „Die Welt”.
Kolejnym krokiem rozwoju będzie coraz bardziej złożona personalizacja oferty medialnej, choć ten proces może być zróżnicowany, choćby dlatego, że sztuczna inteligencja w wypadku niewielkiego grona najlepszych dziennikarzy i redakcji będzie musiała być trenowana na stosunkowo niewielkiej bazie danych. Z pewnością jednak z powodzeniem będzie wypełniała zadania tych, którzy w dziennikarstwie dostrzegają jedynie okazję do kopiowania i wklejania z domieszką „podkręcania” nagłówków i tytułów.
Będzie także rosła jej zdolność do odczytywania ludzkich reakcji. Algorytm opracowany przez Facebooka dobrze dostosowuje newsfeedy do reakcji użytkowników, na podstawie których można obliczyć osobiste preferencje, a niebawem, za pomocą biometrii, będzie można analizować reakcje fizjologiczne na określone wyrażenia semantyczne i idiomatyczne, epitety, struktury składniowe i obrazy. Słowem, ludzie będą służyli jako receptory, które przekształcają odczucia w obliczalne sygnały. Okulary Oculusa i innych firm to wczesne przykłady.
Dylematem wymagającym głębszej refleksji pozostaną intencje projektowania sztucznej inteligencji i skutki społeczne jej funkcjonowania. Problem w tym, że narzędzia sztucznej inteligencji nie powstają ogólnie z myślą o potrzebach mediów i dziennikarzy ani z zachowaniem troski o wpływ kulturowy lub odpowiedzialność w odniesieniu do demokracji (Diakopoulos 2019). Może to oznaczać, że na przykład hybrydowe dziennikarstwo nie będzie się już kierowało własnymi zasadami i normami w dążeniu do prawdy przy tworzeniu i ocenie informacji, ale będzie musiało uwzględniać relacje z zewnętrznymi podmiotami, takimi jak firmy big tech (szerzej o tym w rozdziale szóstym). A to oznacza wpływ na konceptualizację ich niezależności. Konieczne będą zatem ponowne przemyślenie idei „czwartej władzy” oraz ewentualna rewizja dziennikarskiej roli normatywnej i kognitywnej.
Inny dylemat polega na tym, że współcześni liderzy w wykorzystaniu sztucznej inteligencji w mediach – platformy big tech – są jednocześnie głównymi beneficjentami przewagi konkurencyjnej, jaką ona daje. Nie żałujmy zatem złego dziennikarstwa i spieszmy się doceniać dobre dziennikarstwo, ale przyglądajmy się także propozycjom i logice działania „dziennikarskich obcych” (o czym będzie mowa w rozdziale siódmym).
Co i dlaczego zastąpi dziennikarzy?
Gdy ponad cztery dekady temu Wassily Leontief, ekonomista i laureat Nagrody Nobla, zapowiedział, że maszyny zastąpią ludzką pracę w taki sam sposób, jak traktor zastąpił konia, perspektywa pracy w dziennikarstwie jako przywileju nielicznych wydawała się kolejną mroczną wersją dystopii. Na pocieszanie przypominano później, że nowe technologie są z ludźmi od stuleci i bezrobocie utrzymuje się – uogólniając – na stabilnym poziomie. Ponadto dostrzegano, że ludzka optyka bywa skrzywiona i ludzie potrafią sobie wyobrazić, w jakich dziedzinach sztuczna inteligencja będzie wypierała pracowników, ale nie mają pojęcia, jakie stworzy miejsca pracy, może więc pojawią jakieś wysoko albo przyzwoicie płatne zawody, których dziś nie sposób sobie wyobrazić. Tak przecież było w latach osiemdziesiątych XX wieku, gdy mało kto mógł prognozować, że powstanie Dolina Krzemowa z jej blisko półmilionową rzeszą wysoko opłacanych specjalistów i kapitalizacją spółek nowych technologii na poziomie 14 bilionów dolarów oraz medianą dochodu gospodarstwa domowego w wysokości 150 tysięcy dolarów, czyli około dwukrotnie więcej niż mediana dochodu gospodarstwa domowego w Stanach Zjednoczonych (Sumagaysay 2014).
Dziś, po niemal półwieczu, nie brakuje raportów wieszczących apokalipsę lub nirwanę (do wyboru) na dziennikarskim rynku pracy (o czym szerzej w rozdziale piątym). Różnią się one oceną podatności zawodów na zmiany, ale porzucono w nich już zapowiedzi, że znikną całe zawody, pojawiły się zaś prognozy wykonywania przez inteligentne maszyny wielu konkretnych zadań. Transformacja sztucznej inteligencji ma dotyczyć około 90 procent wszystkich stanowisk pracy, a w mediach szczególne obawy – lub radość – powinni odczuwać twórcy treści i analitycy danych (zob. Davenport, Westerman 2024). Na przykład generowanie treści (takich jak tworzenie kopii marketingowych i obrazów) ma zwiększyć produktywność o 42 procent, co oznacza różnicę między pracą przez sześć a pracą przez dziesięć godzin dziennie, to zaś oznacza – jak (zgryźliwie?) zauważają autorzy – że będzie okazja na dłuższy lunch (2024 State of AI 2024).
Mimo tak wyraźnych oznak następowania istotnych zmian jeszcze niedawno wydawało się, że dziennikarstwo jako kreatywny zawód będzie mało podatne na automatyzacje (Bakhshi i in. 2015) i nie dojdzie do żadnej „hurtowej wymiany człowieka dziennikarza na robota” (Beckett 2019). Owszem, dostrzegano potencjał sztucznej inteligencji, ale nawet ekspertom trudno było autorytatywnie wypowiadać się na temat wpływu sztucznej inteligencji na dziennikarstwo. Stąd szum informacyjny i opinie tonujące nastroje, jak w nieco już zmurszałym raporcie News Automation: The rewards, risks and realities of ‘machine journalism’ (Tuulonen i in. 2019), uspokajającym, że zautomatyzowana produkcja treści jest przede wszystkim narzędziem wspomagającym i że dotychczas automatyzacja mediów nie zastąpiła ludzi, wygląda zatem na to, że tak będzie nadal.
Ten spokój wydaje się dziś przeszłością. Nie brakuje również nieco cynicznych wniosków, że przecież dziennikarze są przygotowani na niepewność i w dużej mierze… akceptują prekariat jako naturalną część zawodu, ponieważ jest on zgodny z ich najważniejszymi normami zawodowymi, czyli normą przedsiębiorczości i merytokracji. Poza tym dziennikarski rynek pracy od dawna charakteryzuje się nadpodażą pracowników chętnych do podjęcia zawodu, mamy więc raczej do czynienia z nową-starą normalnością, a nie żadną rewolucją (Örnebring 2018).
Jak zatem widać, mamy do czynienia z polaryzacją debaty: z jednej strony sztuczna inteligencja to „przekleństwo” dla tych, którzy mają zostać zastąpieni przez maszyny, z drugiej strony to „błogosławieństwo” dla pozostałych. Między tymi donośnymi głosami panuje krzątanina powolnego wzajemnego dostosowywania się. Nadal są podnoszone argumenty na rzecz unikatowości dziennikarzy, którzy wciąż ponoć mają przewagę nad sztuczną inteligencją w takich kluczowych obszarach, jak słuchanie, odpowiadanie i negowanie (szerzej o tym w rozdziale siódmym). Jednak presja logiki rynkowej jest przemożna i właściciele oraz menedżerowie mediów ochoczo sięgają po nowe technologie sztucznej inteligencji w przekonaniu, że racjonalizują one kosztowo działalność, nawet jeśli dziennikarze mogą mieć poczucie pracy przy linii montażowej – w coraz większym tempie za coraz gorsze pieniądze w coraz bardziej płynnym środowisku. A jeśli nie są gotowi na podjęcie wyzwania, to mogą spotkać się z argumentem, że może u progu redakcji nie czeka wielu kandydatów na ich miejsce, ale są oni instalowani w komputerze.
Tymczasem mamy do czynienia z dwoma paradoksami. Po pierwsze, im dłużej, lepiej i bardziej wydajnie dziennikarz będzie pracował, tym szybciej wyszkoli maszynę, która go kiedyś zastąpi w rozlicznych zadaniach. Po drugie – ten wniosek jest rozwinięty poniżej – to ludzie, a nie algorytmy będą przyspieszali proces wdrażania sztucznej inteligencji, bo to redaktorzy i właściciele mediów zatrudnią maszyny do tworzenia treści, moderowania komentarzy, wybierania tematów. Zatem to nie jakaś wyimaginowania sztuczna inteligencja wpływa na zawód dziennikarza, tylko redaktorzy i ich szefowie oraz inwestorzy. Poza tym, nawet jeśli tymczasowo w maszynach widzi się jedynie pomocników, rodzaj stażystów, to ostatecznym urzeczywistnieniem tej idei są media zdominowane przez wydajniejsze roboty, a nie przez ludzi. I – to kolejny paradoks – może to być bardzo dobra wiadomość dla wielu odbiorców, nie będą bowiem „skazani” na artykuły pełne usterek zapisu, błędów gramatycznych, leksykalnych, stylistycznych czy kompozycji i być może zostaną uwolnieni od indoktrynacji oraz dezinformacji, a wówczas dojdą do wspólnotowego wniosku, że „ludzkie” autorstwo oznacza… gorszą jakość.
Póki co pytanie o zdolność sztucznej inteligencji do zastąpienia dziennikarzy sprowadza się zwykle do uwagi, czy algorytmy są w stanie pisać lepiej niż ludzie? Rzecz w tym, że aby być dziennikarzami, ludzie nie muszą pisać lepiej niż inni ludzie, muszą tylko pisać wystarczająco dobrze (Miroshnichenko 2018). Podobnie ma się rzecz z algorytmami sztucznej inteligencji. Aby algorytmy „znalazły zatrudnienie” w mediach, nie muszą pisać lepiej niż ludzie, wystarczy, że będą pisały wystarczającą dobrze, zważywszy na oczekiwania użytkowników. Tak się już zresztą dzieje, przynajmniej z perspektywy odbiorców (ten wątek przewija się szeroko w dalszych rozważaniach). W tym miejscu należy dopowiedzieć, że już badania podjęte przed pojawieniem się ChatGPT 4 i DeepSeek potwierdzały, że automatycznie generowane teksty nie różnią się od tekstów pisanych przez ludzi pod względem postrzeganej wiarygodności (zob. na przykład: Graefe, Bohlken 2020; Jang i in. 2021; Tandoc i in. 2020; Wölker, Powell 2021). Wówczas – przed zwiększeniem mocy obliczeniowej i skokowym postępem w głębokim uczeniu oraz wprowadzeniem nowej architektury, która doprowadziła do przyspieszenia rozwoju generowania języka naturalnego i dużych modeli językowych – wiarygodność automatycznie generowanych krótkich tekstów była podobna do tworzonych przez dziennikarzy. Wnioski z nowszych badań nad reakcją odbiorców są bardziej zniuansowane. Na przykład Sai Wang i Guanxiong Huang (2024) znaleźli niewielkie różnice, z kolei inni (zob. Böhm i in. 2023) wykazali postrzeganie niższych kompetencji i niższej jakości treści przypisywanych sztucznej inteligencji. Co ciekawe, nie znaleziono różnic w wiarygodności treści tworzonych wyłącznie przez ludzi i wyłącznie przez sztuczną inteligencję, gdy badania rozszerzono na komunikację naukową (Henestrosa i in. 2023). Uczestnicy tego badania rozróżniali jednak domniemanych autorów pod względem postrzeganego antropomorfizmu i inteligencji: autor człowiek był oceniany znacznie wyżej niż „autor sztuczna inteligencja”. W najnowszych badaniach dotyczących złożonych tekstów nie znaleziono różnic w ocenie ich wiarygodności i ocen autorów (Henestrosa, Kimmerle 2024).
Nie rozwijając tego wątku, trzeba wspomnieć o tym, że przez dekady wybitne dziennikarstwo było rzadkim dobrem. Sytuacja zmienia się jednak radykalnie, ponieważ nigdy redakcje i dziennikarze nie mieli tak nikłej kontroli nad tworzeniem wartości w dziennikarstwie, jak w dobie algorytmizacji dziennikarstwa, i nigdy owoce ich pracy nie były tak obojętne dla tak wielu odbiorców. Dziś to platformy serwisów społecznościowych (Dey, Dey 2024) i mediów popularnych – spreadable soft news (Stein i in. 2014), napędzające tak zwane spreadable spectacle (Mihailidis, Viotty 2017), organizują mainstreamowe przepływy informacji, a nie tradycyjne media. Tak zwane jakościowe dziennikarstwo staje się coraz bardziej elitarne i staje w szranki o uwagę wspierane przez organizacje medialne, które utraciły kontrolę nad własną przyszłością.
Z perspektywy wykonywania dziennikarskiej profesji i codziennych doświadczeń milionów użytkowników mamy schyłek rywalizacji człowieka dziennikarza i maszyny. Sztuczna inteligencja przewyższa obecnie „ludzkich” dziennikarzy we wszystkich elementach dotyczących przetwarzania danych i może konkurować z ludźmi w tej części ich pracy, która wiąże się z pisaniem, tworzeniem muzyki i filmu oraz ze stylem. A jesteśmy dopiero na początkowym etapie jej rozwoju. Gdy kilka lat temu jeden z badaczy formułował te wnioski, zastanawiał się nad następującym dylematem: wyobraźmy sobie dobry artykuł, który przyciąga tysiąc czytelników (Miroshnichenko 2018). Ale co się wydarzy, gdy tysiąc wiadomości wygenerowanych za pomocą sztucznej inteligencji powstanie w tym samym czasie i każda z tych wiadomości będzie mogła przyciągnąć uwagę stu czytelników? Gdy ruch w mediach, a nie jedynie treść i jakość, jest „królem”, gdy skupia uwaga innych, wówczas redaktorzy nie poszukują „najlepszych” dziennikarzy, tylko szybkich i sprawnych oraz efektywnych kosztowo. Kogo zatem wybierze redaktor, menedżer i właściciel mediów? Kapryśnego i utalentowanego dziennikarskiego artystę o dużych wymaganiach płacowych, który tworzy dwa, trzy materiały dziennikarskie tygodniowo, czy niemal bezbłędnego agenta sztucznej inteligencji o niewielkich kosztach utrzymania, który może wygenerować trzy „wystarczająco dobre” artykuły na minutę? Nawet jeśli redaktor nie zna odpowiedzi na to pytanie, to „rynek mediów” ześle go w otchłań prekariatu.
O tym, że dziennikarze będą zastępowani w swoich zadaniach, nie zdecyduje więc bezpośrednio jakość ich pracy. Współczesne media sięgają po sztuczną inteligencję nie dlatego, że algorytm pisze (pracuje) lepiej niż ludzie, choć pisze już przyzwoicie. Powodem jest to, że pisze (pracuje) zarówno więcej, jak i szybciej. Rachunek jest prosty: gdy mediami rządzi wyścig o uwagę odbiorcy, maksymalizacja zysku i wzrost bogactwa właścicieli, to sztuczna inteligencja jest oczywistym wyborem, ponieważ zapewnia dostarczanie bieżących informacji „natychmiast i wszędzie”, a o dopasowaniu treści do oczekiwań odbiorców nie będzie decydował „dziennikarskich nos”, tylko wynik analizy danych. Algorytmizacja mediów jest po prostu racjonalnym wyborem, gdy redakcje w zawrotnym wyścigu wytwarzają jak najwięcej spersonalizowanej treści, aby zwiększyć ruch i poprawić współczynniki klikalności współdecydujące o przychodach reklamowych. Po wielkiej konwergencji, po przejściu prasy, radia i telewizji z produkcji limitowanej na produkcję „streamingową”, media muszą nadawać coraz więcej materiału, a online oznacza non stop (Miroshnichenko 2018).
Ograniczanie roli dziennikarzy stanie się także racjonalnym wyborem, gdy redakcje będą starały się dostarczać treści wysokiej jakości. „Jakościowe dziennikarstwo” już masowo korzysta z narzędzi sztucznej inteligencji (Opdahl i in. 2023) i przestaje być bezpieczną ostoją najlepszych dziennikarzy, ponieważ jest polem konfrontacji i jednoczesnej współpracy z coraz lepszymi produktami sztucznej inteligencji. Zatem to sztuczna inteligencja, ściślej zaś – jej główni dysponenci, będą największymi „zwycięzcami” w tych relacjach. A to oznacza odbieranie „resztek tlenu” tradycyjnym mediom.
Tymczasowo, na etapie przejściowym, można przyjąć, że te same mechanizmy, które wywierają presję na dziennikarzy i redakcje, sprawiają, że dziennikarstwo wysokiej jakości jest ważniejsze niż kiedykolwiek (Milosavljević, Vobič 2019). Gdy rośnie grono polegających na alternatywnych i bezpłatnych źródłach informacji, gdy całe segmenty odbiorców unikają tak zwanych głównych mediów ze względu na (postrzegane) uprzedzenia polityczne i brak zaufania do władz, gdy mnożą się kampanie dezinformacyjne, a wielu odbiorców jest znużonych nadmiarem informacji, unika wiadomości i zawodzą dotychczasowe modele biznesowe, wówczas te same mechanizmy, które napędzają wszystkie te negatywne trendy, stwarzają jednocześnie okazję dla organizacji informacyjnych wysokiej jakości. I w tych jednak okolicznościach trudno o realizację wizji wielkiej sanacji mediów i łatwiej o przewidywanie, że najlepsze media trafią do nisz rynkowych, choćby dlatego, że ekspansja sztucznej inteligencji w sektorach kreatywnych raczej nie „podnosi wszystkich łodzi”.
Na razie zatem sztuczna inteligencja może na przykład wspierać dziennikarską wiarygodność na każdym etapie łańcucha dziennikarskich wartości, wymaga to jednak zachowania delikatnej równowagi między zadaniami ludzkimi wspomaganymi przez maszynę a wykonywanymi przez nią zadaniami rutynowymi. Jeśli taka równowaga nie zostanie osiągnięta i nie stanie się normą, to dziennikarze zachowają swoje miejsca pracy z powodów społecznych, a nie ekonomicznych. Dlatego zachowanie miejsc pracy i dyktowane polityką społeczną zahamowanie skracania tygodnia pracy stanie się ważniejsze niż zwiększanie wydajności.
W sukurs dziennikarzom spychanym po równi pochyłej prestiżu i bezpieczeństwa zatrudnienia może przyjść powołanie funduszy tak zwanego gwarantowanego dochodu podstawowego (zwolennikiem takiego podejścia jest Sam Altman, szef Open AI). Dochód taki, zapewniany ewentualnie przez liderów sztucznej inteligencji, mógłby działać do czasu, gdy doskonalenie (trenowanie) poszczególnych narzędzi sztucznej inteligencji będzie osiągało swój kres, czyli będzie ona oferowała powszechnie dostępne produkty o porównywalnej albo wyższej jakości od owoców ludzkiej twórczości, i to na wielu rynkach. Innymi słowy, do czasu, gdy narzędzia sztucznej inteligencji osiągną status kreatywnych dostawców w mediach „wszystkiego, czego potrzebujesz” (Zhang 2023).
Paradoks tej nieodległej sytuacji będzie polegać na tym, że rzadki ludzki głos będzie atrakcyjny i poszukiwany wśród chóru robotów. W tym sensie, choć wydaje się to dziwaczne, publicystyka ludzka będzie szczególnie ceniona jako wyrafinowana i ekskluzywna (Miroshnichenko 2018). Zadania dziennikarzy zostaną ograniczone do funkcji interpersonalnych i wymagających empatii, a dziennikarstwo w wykonaniu człowieka stanie się marką premium i będzie atrakcją tak długo, jak długo ludzkie błędy dziennikarskie będą szczególnie cenione i na tyle atrakcyjne, że tworzone przez człowieka media będą czerpać zyski z tych błędów – wszystko to do czasu, aż roboty nauczą się również symulować ludzkie pomyłki.
Reasumując, sztuczna inteligencja może być nie tylko modną efemerydą, ale także długoterminowym czynnikiem destrukcyjnym tradycyjnie rozumianego dziennikarstwa (szerzej o tym w rozdziale ósmym).
Gdy maszyny komunikują
Przyjęta tutaj teoretyczna perspektywa może zaskakiwać, ponieważ przez dekady nauka o komunikowaniu skupiała się na przekazach wytworzonych przez ludzi oraz na ludziach jako ich źródle. Tymczasem w dalszych rozważaniach sztuczna inteligencja i jej maszyny nie są traktowane jako mediatorzy i kanały przekazu, ale jako komunikatorzy.
To nieprzypadkowy, a wręcz oczywisty wybór. Przyjęta perspektywa teorii komunikacji człowiek – maszyna (human-machine communication, HMC) to wyłaniający się obszar badań nad komunikacją skupiony na tworzeniu znaczenia między ludźmi i maszynami (Guzman 2018). Pozwala dostrzec w nowych technologiach, interpretowanych przede wszystkim z humanistycznej perspektywy, źródła treści, a nie jedynie kanały jej dystrybucji, i ułatwia poznanie ich kulturowych i społecznych odniesień. Ale oznacza także zmianę paradygmatu i reinterpretację rozumienia mediów.
Zanim zostaną przedstawione jej zręby, warto dodać, że może ją wspierać teoria aktora-sieci (actor network theory, ANT). Jest ona pomocna, choć ma istotne ograniczenia, ponieważ nie tłumaczy procesów komunikacji, nie wyjaśnia, co to znaczy być nadawcą, pośrednikiem i odbiorcą w sensie społecznym, oraz „spłaszcza” przestrzeń ontologiczną, zaciera różnice między ludźmi i maszynami, zamiast ukazać, jak, dlaczego i w jakim znaczeniu maszyny przekraczają granice ludzkich ról (Lewis i in. 2019). Tymczasem, gdy oprogramowanie maszyny zajmuje się pisaniem wiadomości czy tworzeniem obrazów i filmów, czyli gdy przejmuje najważniejsze dziennikarskie role zawodowe oraz funkcje pełnione przez członków innych profesji związanych z mediami, niezbędna staje się odpowiedź na pytanie o to, co się stanie, gdy maszyna wkroczy w inne ludzkie role.
Schyłek paradygmatu człowieka jako jedynego twórcy treści w mediach
Przez wiele lat niekwestionowanym teoretycznym założeniem większości badań nad komunikacją było w istocie to, że ludzie są komunikatorami, a maszyny – mediatorami. Telewizja, radio, prasa były kanałami łączącymi producentów mediów z ich odbiorcami. Konceptualizacja maszyny – narzędzia była przyjmowana jako normatywna, a założenia teoretyczne były sztywne: dziennikarstwo to proces z udziałem ludzi i między ludźmi. Tymczasem technologia występująca po części w roli człowieka stawia pod znakiem zapytania wszystkie aspekty teorii, choć i takie narracje o historycznych przełomach, jak znany „koniec dziennikarstwa” w wykonaniu człowieka (Latar 2015), mogą wydawać się nieuzasadnionymi hiperbolami. Problem w tym, że ludzie nadal pozostają w centrum procesów komunikacyjnych, ale nowe koncepcje powinny uwzględniać nowe podmioty i ich wielowymiarowy wpływ. Ułomności dotychczasowego paradygmatu nie powinny zatem oznaczać jego radykalnego odrzucenia, ale otwierać pole nowych założeń teoretycznych. Po prostu antropocentryzm stał się nieaktualny i komunikacja nie jest już zawężona do międzyludzkiej, dlatego komunikacja człowiek – maszyna jest dogodną ramą pojęciową.
Nie jest ona naturalnie wolna od błędnych, choć popularnych przedstawień. W tyleż dowcipnym, co słynnym rysunku z „New Yorkera” z 1993 roku dwa psy siedzą przed komputerem podłączonym do internetu. Ten, który obsługuję maszynę, mówi do towarzysza: „W internecie nikt nie wie, że jesteś psem”. Obraz jest sugestywny i dotyczy przede wszystkim kwestii anonimowości i tożsamości w komunikacji zapośredniczonej komputerowo, może jednak podkreślać znaczenie w sieci różnorodności rasowej, płciowej czy etnicznej.
Problem w tym, że – jak wówczas uważano – „ten po drugiej stronie” nigdy nie mógł być… psem. Żart skłaniał do refleksji, ale zawężał ją jednocześnie do standardowych teoretycznych założeń: owszem, tożsamość w internecie jest zwodnicza, ale i tak wszyscy wiedzą, że jesteś człowiekiem, nawet jeśli oznajmisz, że jesteś na przykład psem. Taki pogląd nadal dominuje, choć w 2023 roku połowa ruchu w internecie nie odbywała się między ludźmi, lecz między tak zwanymi inteligentnymi artefaktami (botami)1 (Imperva 2024), choć koncepcja „martwego internetu”, pełnego spamu i treści tworzonych przez boty, pozostaje dystopią. Podobnie ma się rzecz z innymi założeniami: od testu Turinga, który jest w istocie grą w naśladowanie człowieka, po postępowy, ale zwodniczy nurt badań „komunikacji zapośredniczonej komputerowo” (computer mediated communication, CMC), który nie uwzględnia tego, że maszyna może nie „zachowywać się” nieparadygmatycznie i podważać ugruntowane założenia dotyczące roli i funkcji technologii w komunikacji. Owszem, wiedziano, że tak jest, ale uznawano, że termin „anomalia” (czyli coś, co nie pasuje w obrębie dominującego paradygmatu) dostarcza wystarczających wyjaśnień i nie dochodzi do kwestionowania podstawowych założeń medialnego ekosystemu (Gunkel 2012). Tymczasem paradygmat, zrodzony jeszcze w środowisku dominacji mediów masowych, stawał się nieaktualny, ponieważ odzwierciedlał przemijające ontologie tego, co znaczy komunikować się i kto jest konceptualizowany jako podmiot mający zdolność komunikowania się (Peters 1999).
Oznaki „kruszenia” paradygmatu pojawiły się, gdy powstały media, które skłaniały do nowych interpretacji miejsca technologii w teorii. To wówczas badano rolę komputerów w pośredniczeniu komunikacji między ludźmi (zob. na przykład: Pavlik 2000), i to wtedy pojawiły się idee, że maszyna może być podmiotem interakcji z człowiekiem. Gdy analizowano reakcje ludzi na wiadomości z komputerów, okazało się, że traktują je jako „aktorów społecznych” (Mou, Xu, 2017), a przede wszystkim jako aktorów wykonujących podstawową funkcje dziennikarza – pisanie wiadomości na podstawie dostarczonych danych. Jasne stawało się także, że odbiorcy postrzegają siebie jako osoby utrzymujące bezpośrednią komunikację z technologią, a nie wyłącznie z innymi ludźmi.
Obecny etap ewolucji paradygmatu dotyczy szczególnie wrażliwej kwestii, a mianowicie tego, że dziennikarstwo to proces zachodzący wśród ludzi i maszyn. Maszyny są w nim nie tylko sprawcze, ale istnieją jako byty społeczne w relacjach z ludźmi i dają początek „syntetycznemu społeczeństwu”, w którym ludzie mieszają się z humanoidami (Zhao 2006).
W nowym stanie rzeczy maszyna stała się nie tylko dystrybutorem treści medialnych, ale także ich autorem – i na tym polega fundamentalna zmiana. Inne warunki nie zmieniają się tak bardzo: podobna jak w wypadku części mediów masowych jest anonimowość nadawcy, analogiczne są również cele, czyli nawiązanie bezpośredniego kontaktu. Jeszcze do niedawana uwaga skupiona była w związku z tym na chatbotach i botach społecznościowych, które można było zaprogramować tak, aby były interaktywne, nastawione na kontakty z odbiorcami, a nie były twórcami treści medialnych. Gdy formułowano podstawy teorii komunikacji człowiek – maszyna, a była to połowa ubiegłej dekady, technologia jeszcze nie zapewniała dogodnych rozwiązań, choć na horyzoncie było można dostrzec wyraźne zwiastuny zmiany.
Dekadę później maszyny komunikowały się już z pracownikami newsroomów i dochodziło do intrygujących paradoksów, ponieważ to sami dziennikarze inicjowali „wspierające” technologie, choćby dlatego, by utrzymywać obecność w mediach społecznościowych. „Nieme technologie” zabrały głos i dziennikarze zaczęli dostrzegać, że znaleźli się w nowych, zaskakujących i nie zawsze pożądanych rolach, na przykład dostarczycieli unikatowych danych oraz trenerów sztucznej inteligencji (Kreft i in. 2023). Tracili grunt pod nogami w niestabilnym środowisku. Miało to odzwierciedlenie w teorii komunikacji i teorię komunikacji człowiek – maszyna zaczęto traktować jako nadrzędną dla badań podejmowanych w ramach interakcji człowieka z komputerem (human computer interaction, HCI) oraz badań dotyczących interakcji na interaktywnych platformach za pośrednictwem mediów cyfrowych (human agent-interaction, HAI).
1) Łącznie 49,6 procent ruchu w internecie w 2023 roku nie generowali ludzie. Wzrost ruchu botów jest częściowo napędzany rosnącą popularnością sztucznej inteligencja i dużych modeli uczenia się. Stworzyło to wyraźny podział na wyrafinowanych aktorów dysponujących środkami i zasobami oraz na podmioty polegające na podstawowych narzędziach, takich jak wysyłanie zapytań do sztucznej inteligencji. W konsekwencji obserwujemy wzrost liczby tak zwanych prostych złych botów, które stanowiły w 2023 roku 39,6 procent ruchu w internecie (26,3 procent pięć lat wcześniej). Złośliwe boty korzystają z interfejsów API, które często działają jako bezpośrednie ścieżki dostępu do wrażliwych danych.







