Max Fisher w ramach kilkuletniego dziennikarskiego śledztwa badał aktualności wyświetlane na naszych tablicach oraz to, jak w sieci pogłębiają się podziały i jak zadomawiają się w niej nienawiść i dezinformacja. W swojej książce razem z „uciekinierami” z Doliny Krzemowej szuka źródeł tych zjawisk.


„Stworzyliśmy machinę do wywoływania oburzenia, zachęcającą do propagowania bulwersujących treści. […] Zwyczajni ludzie zaczęli się czuć jak żołnierze cyfrowej armii walczący o wspólną sprawę” – zauważyła Renée DiResta, research manager w Stanford Internet Observatory. Przejście od słów do czynów było tylko kwestią czasu.

Mjanma – wzrost ekstremistycznych nastrojów prowadzący do jednego z największych ludobójstw od czasów drugiej wojny światowej i rzezi ludności Rohingja. Sri Lanka – rozruchy na tle religijnym. USA – chaos informacyjny zakończony najbardziej kontrowersyjnymi wyborami prezydenckimi w historii Stanów Zjednoczonych. Genezy wszystkich tych wydarzeń możemy szukać w feedzie mediów społecznościowych.

Max Fisher w ramach kilkuletniego dziennikarskiego śledztwa badał aktualności wyświetlane na naszych tablicach oraz to, jak w sieci pogłębiają się podziały i jak zadomawiają się w niej nienawiść i dezinformacja. W swojej książce razem z „uciekinierami” z Doliny Krzemowej szuka źródeł tych zjawisk. Analizuje również społeczne i psychologiczne aspekty naszego funkcjonowania w internecie, krytycznie przyglądając się sterującym nimi algorytmom nastawionym na pochłanianie naszego czasu.

Patrzy na ręce gigantów Big Techu: Marka Zuckerberga, Andrew Boswortha, Yishana Wonga, Erica Schmidta, Susan Wojcicki czy Jacka Dorseya, którzy pod przykrywką szerzenia wolności słowa zwiększają polaryzację, a z powstałej dezinformacji czerpią wielomilionowe zyski.

Media społecznościowe, które miały służyć integracji i utrzymywaniu kontaktu, na naszych oczach stają się narzędziami szerzenia rasizmu, mizoginizmu czy hejtu. Chaos obecny w przestrzeni wirtualnej rozprzestrzenia się na ulice. Kto ponosi za niego odpowiedzialność? I co ważniejsze: kto tak naprawdę poniesie jego konsekwencje?

***

Media społecznościowe stały się elementem infrastruktury codzienności, traktujemy je niemal jak powietrze, niezbędny składnik potrzebny do życia. Max Fisher ujawnia koszty tego uzależnienia. Przenika do kryjących swoje tajemnice korporacji i pokazuje, że za fasadą niewinnie wyglądających interfejsów Facebooka, YouTube’a i innych platform kryje się machina chaosu. Jej pracą zarządzają pozbawieni wyobraźni społecznej menadżerowie i algorytmy tworzone na podstawie najnowszej wiedzy o ludzkich zachowaniach. Zamieniają one użytkowników w surowiec do generowania zysku. Niszczą przy tym jakość relacji społecznych i prowadzą do destrukcji sfery publicznej. Czy zechcemy wykorzystać tę wiedzę, by odzyskać kontrolę nad mediami i nad sobą? Odpowiedź na to pytanie Fisher zostawia czytelnikom.
Edwin Bendyk, dziennikarz „Polityki”, pisarz, publicysta

To opowieść o tym, jak biali aspołeczni faceci narzucili każdemu z nas własne, bezduszne zasady. Max Fisher zrywa maski Big Techu i raczy ich w policzek otwartą dłonią.
Jakub Wątor, dziennikarz, redaktor prowadzący „Magazynu Spider’s Web+”

Witajcie w przyszłości, w której internet stał się jednym z najważniejszych narzędzi ludzi na całym świecie. Książka Fishera to nie tylko pochłaniająca lektura, ale także ważny głos ostrzegający przed niebezpieczeństwami, jakie są następstwem naszej obecności w sieci. W przyszłości, kiedy internet będzie odgrywał jeszcze większą rolę, ten tekst będzie niezwykle ważnym narzędziem pomagającym zrozumieć zmiany zachodzące w naszym świecie i podejmować właściwe decyzje, aby zapobiec negatywnym skutkom naszej działalności w sieci.
Aleksandra Przegalińska-Skierkowska, naukowiec, futurolog

Fisher śledzi coraz aktywniejsze i rozleglejsze działania ruchów politycznych w mediach społecznościowych i opisuje, w jaki sposób algorytmy zaprojektowane w celu „maksymalizacji czasu spędzanego na portalu” systematycznie promują ekstremalne treści, które wywołują moralne oburzenie i budują wspólnoty na poczuciu zagrożenia.
„New Yorker”

Ta książka to poważne ostrzeżenie o tym, jak bardzo Facebook i inne portale społecznościowe zniekształcają nasze postrzeganie rzeczywistości.
„Guardian”

Max Fisher – reporter śledczy i publicysta w dziale zagranicznym „New York Timesa”. W swojej stałej rubryce The Interpreter komentuje globalne trendy i ukazuje konteksty najważniejszych wydarzeń. Interesują go przede wszystkim konflikty na świecie, przeobrażenia społeczne i stosunki międzynarodowe. Wraz z kolegami z redakcji za cykl artykułów o mediach społecznościowych i ich wpływie na zmiany społeczne został w 2019 roku nominowany do Nagrody Pulitzera.

Max Fisher
W trybach chaosu
Jak media społecznościowe przeprogramowały nasze umysły i nasz świat
Przekład: Mateusz Borowski
Wydawnictwo Szczeliny/Otwarte
Premiera: 31 maja 2023
 
 


Od autora
Książkę tę napisałem na podstawie wywiadów z setkami osób, które badały media społecznościowe, walczyły z nimi, żerowały na nich albo uległy ich wpływowi, a także z szeregowymi pracownikami i kadrą kierowniczą z Doliny Krzemowej. W niektórych przypadkach w imię czytelności tekstu umieszczam ich nazwiska i tytuły materiałów źródłowych w przypisach, a nie w tekście głównym. Nagrywałem wszystkie rozmowy poza tą z niezależnym moderatorem, który występuje tu pod pseudonimem. Przejrzane przeze mnie listy płac i akta firm potwierdzają prawdziwość jego relacji.
Korzystam też z licznych badań naukowych, akt sądowych i innych źródeł wymienionych w przypisach na poparcie przytaczanych przeze mnie danych liczbowych i stwierdzeń, a także cytatów z wypowiedzi innych niż te, które usłyszałem na własne uszy. W niektórych miejscach nawiązuję do badań naukowych, których wyniki jeszcze nie zostały opublikowane. W takich wypadkach zamieszczam w przypisach krótkie omówienie tych ustaleń, opis metodologii i nazwiska badaczy.

Prolog
Konsekwencje

Przekraczając próg siedziby głównej Facebooka, można poczuć się tak, jakby wchodziło się do Watykanu: to spowite tajemnicą centrum władzy, od którego bije przepych, jakiego nie powstydziłby się rosyjski oligarcha. Firma wydała trzysta milionów dolarów na przestronny budynek numer 21, zbudowany ze stali i szkła, pełen ogrodów, tarasów i restauracji wydających darmowe posiłki1. Odwiedziłem to miejsce pod koniec 2018 roku. W przerwie między wywiadami obejrzałem mural, pokrywający dwie kondygnacje na tylnej ścianie gmachu. Skojarzył mi się z pracami słynnego chińskiego artysty, którego dorobek pokazywano właśnie w Muzeum Guggenheima. Zapytałem opiekującą się mną przedstawicielkę public relations, czy malowidło to celowo wykonano w jego stylu. Roześmiała się dobrodusznie. Mural nie był podróbką. Artystę tego sprowadzono samolotem, by wykonał oryginalne dzieła na ścianach siedziby Facebooka. Zresztą zaproszono tam dziesiątki jego kolegów i koleżanek po fachu. Wokół mnie sowicie opłacani programiści przechadzali się korytarzami, których ściany zdobiły bezcenne murale2.
W torbie między notesami trzymałem bilet wstępu do tego miejsca: ponad tysiąc czterysta stron dokumentów wewnętrznych z całego świata, świadczących o tym, że Facebook niepostrzeżenie ustanowił granice dopuszczalnych zachowań w polityce i sferze publicznej, narzucając swoje reguły dwóm miliardom użytkowników. Informator, który przekazał mi te dokumenty, uważał je za dowód na niedbalstwo firmy, która naprędce próbowała stłumić narastające na całym świecie niepokoje społeczne, pogłębiane czy wręcz spowodowane przez produkty tego przedsiębiorstwa. Dla mnie materiały te były czymś więcej. Na ich podstawie mogłem stwierdzić, jak kadra kierownicza Facebooka postrzega konsekwencje pojawienia się mediów społecznościowych.
Tak jak wielu przede mną początkowo uważałem, że stają się one groźne w rękach złych aktorów – propagandzistów, agentów zagranicznych i osoby rozpowszechniające fake newsy – w najgorszym zaś razie nagłaśniają istniejące wcześniej problemy społeczne. Jednak podczas swoich podróży, gdy jako reporter przygotowywałem doniesienia na temat despotycznych rządów, wojen i przewrotów w dalekich krajach, na każdym kroku natykałem się na powiązania między dziwnymi i niepokojącymi wydarzeniami a mediami społecznościowymi. Niespodziewany wybuch zamieszek, pojawienie się nowego radykalnego ugrupowania, powszechna wiara w absurdalną teorię spiskową – wszystko to miało wspólny mianownik. Podobieństwa do wydarzeń, jakie rozgrywały się w moim rodzinnym kraju, były niezaprzeczalne, nawet jeśli w Ameryce jeszcze nie doszło do eskalacji przemocy. Co tydzień donoszono o tym, że na Twitterze szykuje się spisek, który ma na celu przejęcie władzy w kraju, jakaś subkultura na Reddicie dryfuje w stronę neonazizmu, a ktoś uzależniony od YouTube’a popełnił masowy mord.
Zarazem nieoczekiwany triumf wyborczy Donalda Trumpa w 2016 roku tłumaczono wpływem mediów społecznościowych. Wprawdzie wciąż niewiele wiemy o roli tych platform, ale dowiedziono, że Trump zawdzięczał swój sukces między innymi nowym oddolnym organizacjom oraz skrajnie stronniczym, ale popularnym serwisom internetowym, a także rosyjskim agentom, którzy przybierając fałszywe tożsamości, wykorzystywali media społecznościowe, by zniekształcać rzeczywistość. Ów globalny trend świadczył o jakiejś fundamentalnej cesze tej technologii. Nikt jednak nie potrafił określić istoty problemu, jego przyczyn ani znaczenia.
Na drugim końcu świata podobnych podejrzeń nabierał młody człowiek – nazwijmy go Jacob – pracownik jednej z ogromnych firm outsourcingowych, której Dolina Krzemowa zleca czarną robotę. Przy każdej okazji wszczynał alarm. Szefowie słuchali go z zaniepokojeniem, a nawet współczuciem. Podzielali jego obawy. Produkt, nad którego wdrażaniem czuwali, stawał się niebezpieczny.
Jacob, niepozorny mól książkowy, w okresie dorastania pokochał internet i od lat majstrował przy komputerach. Technologię tę uważał za dumę Stanów Zjednoczonych. Szczególnym szacunkiem darzył potentatów internetowych, takich jak Mark Zuckerberg, twórca i dyrektor naczelny Facebooka, który twierdził, że świat połączony siecią stanie się lepszy. Gdy Jacob dostał pracę w agencji outsourcingowej, która jako jedna z wielu z całego świata oceniała zawartość postów na Facebooku i Instagramie, wydawało mu się, że stał się częścią historii.
Codziennie jego zespół przeglądał tysiące postów z całego świata, eliminując wszystkie niezgodne z zasadami albo przekraczające dopuszczalne granice. Praca była wyczerpująca, ale wydawała mu się konieczna. Jednak w ciągu kilku miesięcy na przełomie 2017 i 2018 roku pracownicy jego firmy zauważyli, że posty stają się coraz bardziej nienawistne, konspiratorskie i radykalne w wymowie. Odnosili wrażenie, że co bardziej bulwersujące treści były najszerzej rozpowszechniane przez platformę. Wyglądało na to, że ten sam schemat powtarzał się w dziesiątkach obserwowanych przez nich społeczeństw władających rozmaitymi językami.
Co więcej, okazało się, że to, co miało ułatwiać im pracę, utrudniało powstrzymanie wzbierającej fali nienawiści i prowokacji. Jacob i jego koledzy musieli bowiem trzymać się licznych tajnych regulaminów dyktujących, co można umieszczać na platformach, a co należy usunąć. Ponad dwa miliardy użytkowników Facebooka nie wiedzą o tych regułach. Mają one gwarantować bezpieczeństwo i odpowiednie zachowanie. Wyznaczają granicę między wolnością słowa i mową nienawiści, a działalności ugrupowań politycznych narzucają określone ramy. Jednak żaden regulamin nie zażegnał niebezpieczeństw, często potęgowanych przez samą platformę, zaś zarządy firm patrzyły przez palce na tę najbardziej przyziemną część swojego biznesu. Tymczasem na całym świecie zbiory zasad rozrosły się do kilkuset stron pełnych niejasności i sprzeczności. W najważniejszych fragmentach, instruujących choćby, jak rozpoznać werbunek terrorystów albo obserwować podejrzane kampanie wyborcze, roiło się od literówek, błędów merytorycznych i oczywistych luk prawnych. Bałagan w niedbale zredagowanych przepisach świadczył o niebezpiecznym lekceważeniu pracy, do której Jacob przywiązywał ogromną wagę, szczególnie w czasach, gdy radykalne poglądy z platform internetowych powoli przenikały do rzeczywistości. Ledwie kilka miesięcy wcześniej Organizacja Narodów Zjednoczonych oficjalnie oskarżyła Facebook o to, że za jego sprawą w Mjanmie doszło do jednego z największych ludobójstw od drugiej wojny światowej.
Jacob przygotował raport na temat odkryć poczynionych przez jego zespół i przekazał go przełożonym. Mijały miesiące. Internet coraz bardziej się radykalizował. Jacob codziennie logował się na swoim terminalu, na próżno czekając na odpowiedź z siedziby głównej. Wpadł na pomysł. Postanowił złamać zabezpieczenia firmowej sieci, przesłać tajne pliki za granicę i przekonać media, by zamiast niego wydały ostrzeżenie, które – jak liczył – dotrze do jednej osoby: Marka Zuckerberga, założyciela i dyrektora naczelnego Facebooka. Był przekonany, że to hierarchia zawodowa i biurokracja uniemożliwiają mu kontakt z kierownictwem. Gdyby tylko przekazał przełożonym stosowne informacje, natychmiast wszystko by naprawili.
Jacob odezwał się do mnie na początku 2018 roku. Serię moich artykułów – w których pokazałem, jak media społecznościowe doprowadziły do eskalacji przemocy w takich miejscach jak Sri Lanka – potraktował jako dowód na to, że problemy obserwowane przez niego na ekranie są prawdziwe i coraz częściej pociągają za sobą śmiertelne niebezpieczeństwo. Wiedział jednak, że nikt nie uwierzy mu na słowo. Musiał ściągnąć wewnętrzne regulaminy i dokumenty szkoleniowe Facebooka z komputerów w swoim biurze. Zadanie było niełatwe – maszyny były doskonale zabezpieczone, a pomieszczenia objęte monitoringiem – ale możliwe do wykonania: rok wcześniej komuś udało się przekazać kilka plików do „Guardiana”, a nieco więcej informacji wyciekło później do „Vice News”. Jacob stworzył program do ekstrakcji plików, a następnie zaszyfrował je i oczyścił z cyfrowych odcisków palców, które umożliwiłyby namierzenie jego albo kraju, w którym mieściło się jego biuro. Część danych przekazał mi za pośrednictwem bezpiecznego serwera. Kilka tygodni później poleciałem do niego po resztę materiałów.
Facebook, dowiedziawszy się, co wpadło w moje ręce, zaprosił mnie do swojej luksusowej siedziby głównej i zaproponował rozmowę z kilkunastoma decydentami. Wszyscy byli bezkompromisowymi zawodowcami. Niektórzy zdobyli nieskazitelną reputację w Waszyngtonie, w takich dziedzinach jak antyterroryzm i cyberbezpieczeństwo, zanim ogarnęła ich gorączka złota szerząca się w Dolinie Krzemowej. Inni legitymowali się osiąg­nięciami w dziedzinie praw człowieka i w życiu politycznym. Niewiele mieli wspólnego z domorosłymi hakerami i marzycielami, którzy rzucili studia, by zarządzać platformą społecznościową, choć później stało się oczywiste, że ideologie i uprzedzenia zrodzone w akademikach w pierwszych latach istnienia Doliny Krzemowej i podtrzymywane na tamtejszych kampusach niemal jak religia przenikają na wskroś technologię, która rozpowszechnia je na całym świecie.
Z moich rozmów w siedzibie głównej Facebooka wyłoniła się osobliwa prawidłowość. Każdy dyrektor opowiadał mi o wyzwaniu, któremu stara się sprostać każdego dnia: uniemożliwianie werbunku terrorystów na platformie, wyprowadzanie w pole hakerów z wrogich państw, ustalanie, jaka kombinacja słów stanowi niedopuszczalne podżeganie do przemocy. Na każde, nawet najbardziej drażliwe pytanie otrzymywałem klarowną, wyczerpującą odpowiedź. Jeżeli jakiś problem pozostawał nierozwiązany, mówiono mi o tym wprost. Nikt nie musiał zaglądać do notatek, by wyjaśnić na przykład, jaką politykę prowadzi Facebook w stosunku do kurdyjskich organizacji niepodległościowych albo jak rozpowszechnia zasady mowy wolnej od nienawiści w języku tagalskim.
Zdziwiło mnie to, że choć stanowiska kierownicze zajmują tak skrupulatni fachowcy, wciąż narastają problemy, o których opowiadają z takim znawstwem. Dlaczego Facebook często nie podejmuje żadnych działań, gdy organizacje walczące o prawa człowieka informują go o zagrożeniach stwarzanych przez ten portal? Dlaczego dziennikarze tacy jak ja, posiadający znikomy budżet i niewielki wgląd w wewnętrzne funkcjonowanie platform, wspierani przez o wiele mniejsze grono współpracowników, wciąż odkrywają potworności popełnione przez sekty i zbrodnie zrodzone przez Facebook, których podobno nikt nie przewidział? Kiedy jednak podczas każdego wywiadu pytałem o zagrożenia, które nie wynikają z działań dokonywanych w złej wierze tylko z samej technologii, wydawało mi się, że uderzam w niewidzialną ścianę.
„Ten rodzaj nadużyć nie jest czymś nowym”3, odparła szefowa od globalnej polityki publicznej, zapytana o konsekwencje działania platformy. „Po prostu media społecznościowe wzmacniają każdy przekaz”, dodała. „Jako społeczeństwo wciąż za mało wiemy o konsekwencjach ich działania”4, stwierdził decydent odpowiedzialny za cyberbezpieczeństwo Facebooka. Stwierdził też, że zmiana wprowadzona przez tę technologię polegała przede wszystkim na redukcji „tarć” w komunikacji, dzięki czemu informacje krążą szybciej i na większą skalę.
Zdziwił mnie ten dalece niekompletny obraz Facebooka. Wielu pracowników firmy zdawało się nieświadomych tego, że algorytmy wykorzystywane przez platformę i jej struktura kształtują doświadczenie i motywacje użytkowników, a zatem również ich samych. Elementy te stanowią sam zrąb produktu i powód, dla którego podczas moich rozmów wokół roiło się od programistów. Czułem się tak, jakby kierownictwo fabryki papierosów twierdziło, że nie wie, czemu ludzie uskarżają się na problemy zdrowotne wywoływane przez sprzedawane przez ich firmę kartonowe pudełeczka.
W pewnym momencie podczas rozmowy z dwójką pracowników nadzorujących zarządzanie sytuacjami kryzysowymi na moment wyszedłem z roli reportera, by zwrócić ich uwagę na coś, co mnie zaniepokoiło. W wielu krajach na całym świecie rzekomo znikąd pojawiła się na Facebooku makabryczna pogłoska, że tajemniczy przybysze porywają dzieci, by zmuszać je do prostytucji i handlować ich narządami. Wspólnoty, w których krążyły te informacje, reagowały coraz gwałtowniej. Na przykład plotka ta rozpowszechniana za pośrednictwem Facebooka i WhatsAppa na indonezyjskiej prowincji spowodowała, że niezależnie od siebie w dziewięciu wioskach hordy mieszkańców zaatakowały niewinnych przechodniów. Informacja ta niczym tajemniczy wirus, który zdawał się produktem platformy, zamieniła normalne wspólnoty w kohorty żądne krwi. Para pracowników Facebooka słuchała, kiwając głowami. Nie zadawali żadnych pytań. Jedno z nich wyraziło tylko nadzieję, że pewnego dnia sprawą tą zajmie się jakiś niezależny badacz. Następnie przeszliśmy do kolejnego tematu.
Tymczasem rozmaite wersje pogłoski o porywaniu dzieci pojawiały się na Facebooku. Jedna z nich wypłynęła na amerykańskim forum 4chan z podpisem „QAnon”, a potem podziałała na Facebook jak zapałka na rozlaną benzynę. Gdy ruch QAnon przyciągnął dziesiątki tysięcy osób, wewnętrzny raport FBI ocenił go jako krajowe zagrożenie terrorystyczne. Od samego początku algorytmy Facebooka promowały ugrupowania pod auspicjami QAnon jak zwyczajne grupy hobbistyczne. W konsekwencji mały krąg zwolenników teorii spiskowej rozrósł się do rozmiarów niewielkiej partii politycznej tylko po to, by treści generowane przez QAnon cieszyły się większą klikalnością.
Jednak w ozdobionej muralami siedzibie Facebooka nic nie zachwiało wiary w to, że produkty firmy działają w interesie dobra publicznego. Fundamentalne dla Doliny Krzemowej przekonanie, że im więcej czasu ludzie spędzają w sieci, tym więcej się uczą, a świat staje się przez to lepszy, zakorzeniło się szczególnie mocno wśród programistów tworzących i kształtujących platformy społecznościowe. „Im szerszy mamy zasięg i im więcej ludzi angażujemy, tym wyższa staje się stawka”5 – wyjaśniła starsza programistka odpowiedzialna niegdyś za Aktualności na Facebooku. „Zarazem jednak uważam, że więcej osób ma szansę dowiedzieć się czegoś nowego”. Zapewniła mnie też, że zostaną wprowadzone rozwiązania techniczne ograniczające wszelkie ryzyko, które towarzyszy misji platformy, by zwiększyć zaangażowanie użytkowników.
Jak się później dowiedziałem, w reakcji na narastające podejrzenia, że Facebook pogłębia polityczne podziały w Ameryce, tuż przed moją wizytą firma zleciła swoim pracownikom zbadanie efektów działania własnej technologii. Niektórzy z nich w wewnętrznych raportach stwierdzili, że platforma robi dokładnie to, co kadra kierownicza bagatelizowała podczas moich rozmów. „Nasze algorytmy wykorzystują fakt, że ludzki aparat poznawczy lubi klarowne przeciwstawienia”6 – ostrzegali analitycy w 2018 roku w raporcie, który wyciekł do „Wall Street Journal”. Padło w nim wręcz stwierdzenie, że Facebook zaprogramowano tak, by dostarczał użytkownikom „coraz więcej polaryzujących treści, żeby przyciągnąć ich uwagę i wydłużyć czas korzystania z platformy”. Kadra kierownicza odesłała wyniki tych badań do archiwum i zlekceważyła dołączone do nich zalecenie, by tak skalibrować systemy podsuwające użytkownikom określone treści, by zredukować czas spędzany w sieci. Najwyraźniej pytanie, które zadałem na korytarzu siedziby Facebooka – „Jakie konsekwencje ma przeniesienie dużej części życia politycznego, obiegu informacji i relacji międzyludzkich na platformy internetowe, jawnie zaprojektowane po to, by manipulować uwagą użytkowników?” – pozostało bez odpowiedzi.
W kilka miesięcy po mojej wizycie doszło do największego w historii publicznego ataku na Dolinę Krzemową. Przed potentatami mediów społecznościowych piętrzyły się przeszkody: przesłuchania w Kongresie, przepisy prawa międzynarodowego, grzywny rzędu kilku miliardów dolarów i widmo przymusowej parcelacji firmy. Na porządku dziennym osoby publiczne przedstawiały owe korporacje jako największe zagrożenie naszych czasów. W reakcji szefowie firm obiecali skonfrontować się z negatywnymi skutkami świadczonych przez nie usług. Pokazali szerokiemu gronu, jak funkcjonują „centra dowodzenia”, gdzie czuwa się nad właściwym przebiegiem kampanii wyborczych, i zaktualizowali regulamin oceny publikowanych treści. Nie zmienił się jednak ani model biznesowy – oparty na dążeniu, by użytkownicy każdego dnia tkwili na platformach tak długo, jak to tylko możliwe – ani stosowana technologia, pozwalająca osiągać takie cele. Choć stale pogłębiały się problemy, które obiecali rozwiązać szefowie, portale społecznościowe zarabiały coraz więcej.
Nowa dekada przyniosła falę kryzysów: pandemię COVID-19, obrachunki i niepokoje na tle rasowym w Stanach Zjednoczonych, gwałtowne narastanie tendencji prawicowych i zamach na amerykańską demokrację. Każdy z nich obnażał wpływ platform internetowych na życie społeczne albo odsłaniał nawarstwiające się od lat konsekwencje ich funkcjonowania.
Latem 2020 roku w trakcie niezależnego audytu Facebooka, zleconego przez firmę pod naciskiem grup stojących na straży praw obywatelskich, stwierdzono, że na platformie dzieje się dokładnie to, co przepytywani przeze mnie szefowie firmy próbowali zamieść pod dywan. Regulamin Facebooka pozwalał dezinformacji szerzyć się w najlepsze i wpływać na wyniki wyborów. Algorytmy i systemy rekomendacji „kierowały użytkowników na obszary, gdzie ekstremistyczny przekaz ulegał wzmocnieniu”7 i gdzie szerzyła się nienawiść. Najbardziej zaś autorzy raportu potępili to, że firma nie rozumie, w jaki sposób jej produkty wpływają na miliardy użytkowników.
Wiedziała o tym jednak garstka osób, które ostrzegały nas dawno temu, choć wtedy jeszcze nie chcieliśmy ich wysłuchać. Większość z nich zaczynała jako pasjonaci wierzący w moc technologii, a ponieważ od dawna mieszkali i pracowali w Dolinie Krzemowej, jako pierwsi zauważyli problem, zdiagnozowali go i zobrazowali jego konsekwencje. Ale firmy, które twierdziły, że właśnie tego chciały się dowiedzieć, tłumiły ich zapał, stawiały ich reputację pod znakiem zapytania i kwestionowały ich odkrycia. Mimo to wiele przedsiębiorstw musiało przyznać rację tym, którzy wszczęli alarm. Początkowo działali oni niezależnie od siebie, a każdy na swój sposób próbował odpowiedzieć na to samo pytanie: jakie konsekwencje pociąga za sobą użycie owej technologii? Moja książka też je stawia, dopuszczając do głosu ludzi, którzy realizowali tę misję.
Od początku istnienia mediów społecznościowych powszechnie uważano, że karmią się one tanią sensacją i oburzeniem. Ocena ta, choć trafna, nie oddawała powagi problemu. Rosnąca stale sterta dowodów, gromadzonych przez dziesiątki badaczy uniwersyteckich, dziennikarzy, sygnalistów i zatroskanych obywateli, świadczyła o tym, że technologia ta oddziałuje na znacznie większą skalę. Wywarła tak przemożny wpływ na naszą psychikę i tożsamość i przeniknęła tak głęboko do naszego życia, że zaczęła zmieniać nasz sposób myślenia, zachowanie i relacje. Oddziałując na miliardy użytkowników, wywołała efekty społeczne na ogromną skalę.
Trudno winić Dolinę Krzemową za psychologiczne słabostki, przez które wyrządzamy innym krzywdę albo działamy na swoją szkodę. Nie odpowiada też ona za kulturową polaryzację w Ameryce i innych krajach, przez którą użytkownicy zamieniają te nowe cyfrowe obszary w strefy ostrych konfliktów politycznych, podkopujących wiarę we wspólne dobro albo poczucie rzeczywistości. Trudno też mieć za złe nawet największym koncernom technologicznym, że powstały zgodnie z modelem biznesowym, za sprawą którego w ręce dwudziestokilkuletnich outsiderów trafiały miliardy dolarów. Inwestorzy, nie bacząc na podejrzane motywacje swoich podopiecznych, oczekiwali od nich natychmiastowych kolosalnych zysków. Przedsiębiorstwa te zgromadziły największe fortuny w historii. Wykorzystując ludzkie skłonności i słabości, zainicjowały nową erę w życiu społecznym. Konsekwencje – które, jak się wydaje z perspektywy czasu, uważny obserwator przewidziałby dużo wcześniej – przysłoniła ideologia, w myśl której spędzanie czasu w sieci daje szczęście i wolność duchową. Niebagatelną rolę odegrał też ten rodzaj kapitalizmu, który zrodził się w Dolinie Krzemowej. To przez niego na czele przedsiębiorstw zawiadujących naszymi umysłami stanęła subkultura cynicznych dwudziestolatków o milenarystycznych poglądach.
Firmy technologiczne stały się zatem instytucjami władzy. Kiedy wreszcie wymuszono na nich, by działały bardziej odpowiedzialnie, znalazły się w centrum politycznego i kulturowego kryzysu, za który częściowo ponosiły winę. Zarządzanie demokracją zmierzającą ku autodestrukcji można by uznać za niewdzięczne zadanie, gdyby przedsiębiorstwa te nie zdobyły tak ogromnych wpływów, nie wykręcały się od odpowiedzialności, póki nie zmusiły ich do tego nowe przepisy, i gdyby niemal na każdym kroku nie narażały swoich użytkowników, by zagwarantować sobie wielomiliardowe miesięczne przychody. Wcześniej nic nie skłaniało potentatów mediów społecznościowych do konfrontacji z generowanymi przez ich imperia kosztami społecznymi – które ponosimy wszyscy, tak jak mieszkańcy miasta czerpiącego wodę ze zbiornika, do którego spływają toksyczne odpady z pobliskiej fabryki – dlatego wyręczyły ich dziesiątki zaniepokojonych aktywistów i zbiegów z Doliny Krzemowej.

Rozdział 1
Uwięzieni w kasynie

To się źle skończy

Renée DiResta trzymała na kolanach swojego kilkumiesięcznego synka, gdy uświadomiła sobie, że media społecznościowe wyzwalają w ludziach coś niebezpiecznego, co niepostrzeżenie zakradło się do jej życia. W jej najbliższym otoczeniu nikt nie miał dzieci, dlatego dołączyła do internetowych grup rodziców, szukając porad dotyczących ząbkowania i układania do snu. Jednak, jak stwierdziła, pozostali użytkownicy, choć w większości przyjaźnie nastawieni, czasem wdawali się we „flejmy” liczące tysiące postów na temat szczepień – sprawy, której Renée rzadko poświęcała uwagę poza siecią.
Był 2014 rok, a ona dopiero co przyjechała do Doliny Krzemowej, gdzie szukała start-upów dla firmy inwestycyjnej. W głębi serca wciąż była analityczką, wcześniej bowiem pracowała przez wiele lat na Wall Street i w agencji wywiadowczej (jak dała do zrozumienia, było to CIA). By nie wyjść z wprawy, w czasie wolnym od pracy, który inni poświęcają na rozwiązywanie krzyżówek, realizowała skomplikowany projekt badawczy.
Gniew przeciwników szczepionek tak ją zaintrygował, że postanowiła sprawdzić, czy stanowi on odzwierciedlenie jakiegoś bardziej ogólnego zjawiska. W archiwum kalifornijskiego Departamentu Zdrowia Publicznego natrafiła na statystyki szczepień uczniów niemal wszystkich placówek edukacyjnych w stanie, w tym przedszkola, które wybrała dla swojego synka. To, co odkryła, wprawiło ją w osłupienie. W niektórych szkołach odsetek zaszczepionych wynosił jedynie trzydzieści procent. DiResta nie wierzyła własnym oczom. Ściągnęła elektroniczne akta z poprzedniej dekady. Jak mi później powiedziała, w tym okresie wyraźnie wzrosła liczba osób rezygnujących ze szczepień. „Cholera – pomyślała. – Nie wygląda to dobrze”.
Przy tak niskim odsetku zaszczepionych wzrastało prawdopodobieństwo zachorowania na odrę albo koklusz, na które narażone były wszystkie dzieci w przedszkolu. DiResta zadzwoniła do biura senatora stanowego z pytaniem, czy da się jakoś zwiększyć liczbę szczepień. Powiedziano jej, że nie ma na to najmniejszych szans. Zapytała więc, czy szczepionki naprawdę cieszą się aż tak złą sławą. „Nie”, odparł pracownik biura. Z przeprowadzonego przez nich sondażu wynikało, że osiemdziesiąt pięć procent respondentów popiera wprowadzenie wymogu szczepień w placówkach oświatowych. Jednak prawodawcy obawiali się reakcji niezwykle prężnych grup antyszczepionkowców – głównie młodych rodziców z Kalifornii ogarniętych paranoją i wściekłością – zrzeszających się na Twitterze, YouTubie i Facebooku.
„Właśnie z tego powodu wskoczyłam do króliczej nory”, przyznała DiResta. „Zajmowałam się tym, słowo daję, przez sześć miesięcy od dwudziestej do drugiej w nocy”. Z czasem królicza nora doprowadziła ją nie do sekretnej instancji kierującej ruchem antyszczepionkowym, tylko do mediów społecznościowych. Licząc na to, że uda jej się skrzyknąć przynajmniej część z osiemdziesięciu pięciu procent Kalifornijczyków opowiadających się za wprowadzeniem obowiązkowych szczepień, założyła grupę nie gdzie indziej jak na Facebooku. Gdy zamieściła płatne ogłoszenie, by przyciągnąć nowych członków, zauważyła coś dziwnego. Kiedy wpisywała słowo „szczepionka” lub frazę luźno wiążącą się z tym tematem do oferowanego przez platformę narzędzia do targetowania grup odbiorców, proponowało jej ono w głównej mierze grupy dyskusyjne sprzeciwiające się szczepieniom. Natomiast gdy skierowała swoje ogłoszenie do mam w Kalifornii, w odpowiedzi antyszczepionkowcy obrzucili ją stekiem wyzwisk. Świat cyfrowy wydał jej się przeciwieństwem jej środowiska w realu, gdzie większość opowiadała się za szczepieniami.
Z ciekawości przyłączyła się do kilku facebookowych grup antyszczepionkowców. Zrzeszone w nich osoby żyły głównie w mediach społecznościowych, dzieląc się filmikami z ­YouTube’a i koordynując kampanie hasztagowe na Twitterze. Większość wyrażała szczere ubolewanie nad tym, że w wyniku spisku na wielką skalę ich dzieci zostaną naszprycowane niebezpiecznymi substancjami. Jeśli jednak ludzie ci stanowili zaledwie piętnaście procent Kalifornijczyków, dlaczego zdominowali sferę cyfrową? Niedługo potem DiResta zauważyła, że Facebook robi coś dziwnego: zarzuca ją propozycjami obserwowania innych stron dla antyszczepionkowców. „Przyłączenie się do jednej z tych grup może wszystko zmienić”, stwierdziła. Niemal każdy polecany jej profil poświęcony szczepieniom był prowadzony przez ich przeciwników. „Silnik rekomendacyjny raz po raz mnie do nich wysyłał”.
Niedługo potem system zaczął ją zachęcać, by rozważyła dołączenie do grup wyznawców teorii spiskowych, wierzących w smugi chemiczne i płaską Ziemię. Wtedy zaobserwowała, w jaki sposób system ułatwia szerzenie dezinformacji na temat szczepionek. Wyszukiwarka Facebooka, podobnie jak narzędzie do targetowania odbiorców, na hasło „szczepionki” w pierwszej kolejności rekomendowała krytykujące je posty i grupy1. Dużo niżej na liście znajdowały się linki do oficjalnych stron poświęconych zdrowiu i rodzicielstwu, skupiających znacznie większe grono odbiorców.
DiResta zaczęła podejrzewać, co się dzieje. Od dzieciństwa fascynowała się komputerami, bowiem jej ojciec, inżynier biomedyczny prowadzący badania nad nowotworami, nauczył ją programować, gdy miała dziewięć lat. Na komputerze Timex z początku lat osiemdziesiątych grywała w nieskomplikowane gry. W nowojorskim liceum informatyka pozwoliła jej połączyć zamiłowanie do rozwiązywania problemów i fascynację klarownością równań matematycznych. Podczas stażów w pracowniach rezonansu magnetycznego pomagała programować komputery przetwarzające cyfrowe obrazy mózgu.
„Podobało mi się stopniowe dochodzenie do rozwiązania”, wyznała. „Podobał mi się rygor. I logika”. Cieszyła ją praca z komputerami. W otwartych dla wszystkich chatroomach w serwisie America Online, działającym na bazie połączeń wdzwanianych, nawiązywała nowe, ekscytujące znajomości. Na niszowych forach, na przykład dla fanów swojego ulubionego zespołu Nine Inch Nails, zyskała poczucie przynależności do wspólnoty. Zdobyła tytuł licencjata informatyki, ale zamiast pójść na studia magisterskie, wolała zacząć pracę w wywiadzie i finansach. Kiedy jednak opadł kurz po kryzysie finansowym, skontaktowała się z przyjaciółmi w Google. „Przyjedź na Zachód”, namawiali ją.
Choć w Dolinie Krzemowej zajmowała się głównie inwestycjami w rozwój technologii komputerowej, w trakcie poszukiwań na Facebooku zdążyła sporo dowiedzieć się o mediach społecznościowych. Uświadomiła sobie, że to zaangażowanie odszczepieńców wszelkiej maści sprawiało, że system promował ich teorie spiskowe. Na platformach społecznościowych największą widoczność zyskiwały treści, które w ocenie zautomatyzowanych algorytmów zachęcały użytkowników do większej aktywności, dzięki czemu firma mogła sprzedać więcej reklam. Matka przekonana o bezpieczeństwie szczepionek nie ma powodu poświęcać czasu na dyskutowanie na ten temat w sieci. Grupy podobnie myślących rodziców, do których się przyłączy, nawet jeśli są liczne, nie prowadzą zażartych dyskusji. Natomiast, jak przekonała się DiResta, matka, która podejrzewa, że jej dzieciom zagraża spisek medyczny na wielką skalę, potrafi całymi godzinami zgłębiać ten temat w sieci. Często też szuka sprzymierzeńców, dzieli się informacjami i koordynuje działania zaradcze. Sztuczna inteligencja zawiadująca platformą społecznościową dochodzi do oczywistego wniosku: matki zainteresowane kwestią zdrowia spędzają o wiele więcej czasu w sieci, jeśli przyłączą się do grup antyszczepionkowców. Dlatego stara się wzbudzić ich zainteresowanie, wszelkimi dostępnymi metodami walcząc o ich uwagę. DiResta uzmysłowiła sobie, że jeśli ma rację, to Facebook robi coś więcej, niż tylko ułatwia skrajnym ruchom antyszczepionkowym zrzeszanie się. On je tworzy.
„Czułam się jak Kasandra wieszcząca wielką katastrofę”, wyznała. „A wszyscy patrzyli na mnie, jakby chcieli powiedzieć: »To tylko post w mediach społecznościowych«”. A przecież DiResta zauważyła zagrożenie płynące z samej struktury tych platform. Przyjaciele z Doliny Krzemowej zawiadamiali ją, że zaobserwowali podobne, równie niepokojące zakłócenia we wszelkiego typu wspólnotach internetowych. DiResta podejrzewała, że zjawiskami tymi rządzi taki sam mechanizm, a może nawet wypływają one z jednego źródła, skrytego głęboko w trzewiach sieci społecznej. Jeżeli działał on w przypadku wąskich zagadnień, takich jak organizacja szczepień w szkołach albo dyskusje o grach wideo, co mogło się stać, gdyby zagarnął szerzej pojęte życie polityczne albo społeczne?
„Patrząc na to, powiedziałam: »To się źle skończy«”, wspomina DiResta.
Wyruszyła drogą, która doprowadziła ją do Państwa Islamskiego i rosyjskiego wywiadu wojskowego, sal konferencyjnych w Departamencie Stanu i stanowiska dla świadków podczas przesłuchań w Kongresie. Dokonała przy tym szokujących odkryć dotyczących wpływu, jaki wywierają na nas media społecznościowe. Wszystko zaczęło się jednak w Kalifornii, gdzie walcząc z marginalnymi zjawiskami w sieci, nie uświadamiała sobie jeszcze, że stanowią one symptom czegoś znacznie głębiej zakorzenionego i trudniejszego do uchwycenia.
Nie sądzę, by pracownicy Facebooka i YouTube’a z premedytacją promowali ruch antyszczepionkowy. Grupy stanowiące tak drobną cząstkę ich imperium przynoszą niewielkie zyski z reklam. Zuckerberg, odnosząc się nie wprost do tego problemu, w 2015 roku napisał, że „ustalenia naukowe są jednoznaczne: szczepionki działają i są ważne dla zdrowia całej naszej społeczności”. Jednak technologię umożliwiającą konsolidację tego marginalnego ruchu napędzała siła, której nie mogli powstrzymać nawet szefowie firmy: kulturowe obyczaje i finansowe wymogi leżące u podstaw całej branży.

Amerykańskie Galapagos

Niecałe sto lat temu dolina Santa Clara w środkowej Kalifornii była sielską krainą pełną sadów owocowych i wytwórni konserw. Gdzieniegdzie wznosiły się wieże wiertnicze. Miejsce to zaczęło się zmieniać w 1941 roku, gdy atak japońskiej marynarki na Pearl Harbor zapoczątkował ciąg wydarzeń, które przeobraziły ten pogrążony w stagnacji obszar w jedno z największych w historii skupisk kapitału.
Historia owej transformacji – w niewielkim stopniu korespondująca ze sfabrykowaną głównie przez samą Dolinę Krzemową opowieścią o jej genezie, złożoną z legend hakerów i mitów o działalności w akademikach – pokazuje, że wartości kulturowe i ekonomiczne kultywowane w tym miejscu przeniknęły do produktów, które stopniowo podbiły świat. Wszystko zapoczątkowała zaś fala pionierów, którzy budując kompleks militarno-przemysłowy, odegrali równie ważną rolę jak późniejsi przybysze: informatycy i dyrektorzy wielkich firm.
Pentagon, po ataku na Pearl Harbor przygotowujący się do inwazji na Pacyfiku, ale obawiający się kolejnego ataku z zaskoczenia, rozproszył fabryki broni i jednostki badawcze po całym Zachodnim Wybrzeżu, które wciąż uchodziło za Dziki Zachód. Jednym z takich miejsc była w większości wyłączona z użytku baza lotnicza Moffett Field, mieszcząca się w zabezpieczonej zatoce, osłoniętej przez góry Santa Cruz. Po wojnie pozostawioną tam infrastrukturę zaadaptowano tak, by przydała się w dobie narastającego konfliktu ze Związkiem Radzieckim. Pentagon, szykując się do wojny jądrowej, zachęcał przedsiębiorców do realizowania kluczowych projektów z dala od dużych skupisk ludności. Zgodnie z tymi wytycznymi koncern zbrojeniowy Lock­heed przeniósł dział projektów kosmicznych i wszystkie głowice do spokojnej doliny Santa Clara, za hangar numer trzy na Moffett Field. To na tamtejszym poligonie prowadzono wyścig zbrojeń podczas zimnej wojny. Steve Wozniak, współzałożyciel Apple, jak wielu jego rówieśników w dzieciństwie widział co rano, jak rodzice zmierzają do Lockheed.
Równie ważne okazało się nowe i niezwykłe centrum badawcze, oddalone ledwie o kilka kilometrów. Frederick Terman, syn profesora psychologii na ówcześnie przeciętnym Uniwersytecie Stanforda, spędził drugą wojnę światową w laboratoriach na Harvardzie, nadzorując projekty badawczo-wojskowe. Wrócił do domu z pomysłem: ten model współpracy naukowców z prywatnymi firmami mógłby sprawdzić się również w czasie pokoju. Terman założył Stanford Research Park, by zainicjować kooperację przedsiębiorstw z badaczami akademickimi.
Wielu skorzystało z sąsiedztwa firm, prosperujących dzięki zimnej wojnie. Ze wschodu kraju zaczęły ściągać rzesze utalentowanych naukowców i absolwentów, którzy zyskali szansę na lukratywne patenty i zatrudnienie w nowo powstałych firmach. Teoretycznie uniwersytety powinny działać wyłącznie dla dobra publicznego. Tymczasem w Stanford zatarły się granice między działalnością badawczą i komercyjną. Na tym gruncie zrodziła się ideologia Doliny Krzemowej, przejmowana i modyfikowana przez niezliczone przedsiębiorstwa, które przetoczyły się przez Research Park. Jak powszechnie uważano, sukces w branży technologicznej i powszechny dobrobyt nie tylko mogły iść ze sobą w parze, ale wręcz stanowiły dwie strony tej samej monety.
Te okoliczności sprawiły, że w latach pięćdziesiątych XX wieku dolina Santa Clara stała się – jak ujęła to Margaret O’Mara, wybitna historyczka dokumentująca dzieje Doliny Krzemowej – silikonowym Galapagos2. Na tym archipelagu ze względu na specyfikę uwarunkowań geologicznych oraz dużą odległość od stałego lądu rozwinęły się charakterystyczne wyłącznie dla tego obszaru gatunki ptaków i gadów. Na podobnej zasadzie w wyjątkowych warunkach panujących w dolinie Santa Clara powstały modele biznesowe i sposoby patrzenia na świat, które nigdzie indziej nie mogłyby zaistnieć, tu zaś doprowadziły do pojawienia się Facebooka, YouTube’a i Twittera.
Tak się złożyło, że jeden przybysz, choleryczny inżynier William Shockley, wzbogacił technologiczne DNA Doliny niczym iguana przywiedziona przez prądy morskie do wybrzeży Galapagos. W 1956 roku wraz z kolegami z Bell Labs, bodaj najbardziej prestiżowej komercyjnej placówki badawczej na Wschodnim Wybrzeżu, otrzymał Nagrodę Nobla za wynalezienie tranzystora. To malutkie urządzenie przewodzące lub modyfikujące sygnał elektryczny do dziś stanowi podstawowy element konstrukcyjny urządzeń elektronicznych. Shockley był przekonany, że opracuje skuteczniejsze metody niż te, które stosowano w Bell Labs. Gdy jego matka podupadła na zdrowiu, postanowił się nią zaopiekować, dlatego wrócił do domu w tym samym roku, w którym zdobył Nagrodę Nobla, i założył własną firmę produkującą tranzystory. Jego dom rodzinny mieścił się w Palo Alto, oddalonym o dziesięć kilometrów od Moffett Field. W swoim tranzystorze zamiast powszechnie stosowanego germanu użył silikonu.
Shockley próbował skusić inżynierów z Bell Labs, by przenieśli się razem z nim, ale rzadko mu się to udawało, uchodził bowiem za człowieka trudnego i aroganckiego. Poza tym pomimo wysokich dotacji płynących z Pentagonu niewielu wybitnych naukowców miało ochotę na przeprowadzkę do prowincjonalnego San Jose. Dlatego Shockley zatrudnił utalentowanych inżynierów, którzy z różnych powodów mieli niewielkie szanse na karierę zawodową w Bostonie. Byli wśród nich imigranci, Żydzi i osoby, które nie skończyły studiów. Wielu z nich tak jak Shockley miało ogromne kompetencje i trudny charakter. Od tamtej pory utarło się, że firmy w Dolinie Krzemowej zakładają przedsiębiorczy outsiderzy, niemający nic prócz wybitnych zdolności. Tradycja ta nakazywała kolejnym pokoleniom hołubić mizantropów wyrzuconych z uczelni i usprawiedliwiać odziedziczoną po Shockleyu toksyczną kulturę korporacyjną, rzekomo sprzyjającą temu modelowi biznesowemu. Tymczasem wszyscy zatrudnieni przez Shockleya geniusze w ciągu roku złożyli wymówienie. Nie dało się tolerować „skłonności szefa do poniżania podwładnych”, odruchowego odrzucania cudzych pomysłów oraz skrajnych poglądów. Wszak nieco później popierał eugenikę, zaś czarnych uważał za upośledzonych genetycznie3.
Można by się spodziewać, że uciekinierzy wybiorą najprostsze rozwiązanie i wraz ze swoimi wynalazkami wrócą na wschód, gdzie wciąż prężnie rozwijała się ich branża. Być może jednak kalifornijska pogoda sprawiła, że nie przenieśli się z powrotem na Wschodnie Wybrzeże, choć stamtąd pozyskali fundusze. Tak się złożyło, że osiedlili się w dolinie Santa Clara, dlatego właśnie tam zaczęto inwestować w rozwój półprzewodników i ściągać uzdolnionych pracowników. Ta niewielka gałąź przemysłu doskonale prosperowała dzięki zastępom inżynierów, przybywającym do pracy w Lockheed, przez co każda obiecująca nowa firma mogła liczyć na stały dopływ wysoko wykwalifikowanej kadry. Zaś dzięki Stanford Research Park wyniki najnowszych badań były w zasięgu ręki.
O tym, że do Doliny, coraz bardziej odgradzającej się od reszty świata, udało się sprowadzić trzy kluczowe elementy – doskonale wyszkolony personel, pieniądze i technologię – zadecydowała jedna nieszablonowa strategia finansowa: inwestycje wysokiego ryzyka4. Wall Street nie chciało sponsorować enigmatycznych produktów z Doliny, a zewnętrzni inwestorzy nie rozumieli tamtejszego rynku. Inżynierowie musieli sami finansować pączkujące firmy, bowiem najwyraźniej tylko oni dostrzegali potencjał własnych pomysłów. Ktoś, kto zarobił co nieco na swoim projekcie, usłyszawszy o nowym widgecie projektowanym na drugim końcu miasta, chętnie na tę inwestycję wykładał pieniądze – tak zwany kapitał podwyższonego ryzyka – licząc na udział w zyskach.
Zawierane umowy dotyczyły nie tylko wsparcia finansowego. Przezorny inwestor, dostarczający kapitału podwyższonego ryzyka, by zagwarantować sobie zysk, często zasiadał w zarządzie firmy, pomagał wybierać kadrę kierowniczą, a nawet osobiście udzielał porad założycielowi. Zazwyczaj w ten sposób wspierano zaufane osoby z kręgu znajomych lub takie, których wygląd i zachowanie odpowiadało obyczajom panującym w tamtym środowisku5. Oznaczało to, że każda święcąca triumfy grupa inżynierów dziedziczyła po poprzednikach zarówno ich mocne strony, jak i uprzedzenia i wady, tak jak przedstawiciele każdego gatunku bytującego w izolacji, którego cechy charakterystyczne coraz bardziej uwidaczniają się z każdym kolejnym pokoleniem.
Gdy po półprzewodnikach wynaleziono płytkę obwodu drukowanego, a potem komputer, internet i media społecznościowe, każda z tych technologii wyłoniła nowy poczet gwiazd, które finansowały i wspierały radą swoich następców. Przez cały ten czas wspólnota pozostawała komercyjno-kulturowym Galapagos, bez ograniczeń rozwijając własne niezwykle specyficzne praktyki prowadzenia interesów, na własną rękę definiując sukces i zakres odpowiedzialności firmy wobec klientów i całego świata.
Konsekwencje wdrożenia w życie tego modelu z wszystkimi jego osobliwościami uwidoczniły się dopiero wtedy, gdy następcy Shockleya, potentaci mediów społecznościowych, przejęli nad nami niebezpośrednią kontrolę. Pierwsze tego symptomy dały o sobie znać już w połowie pierwszej dekady XXI wieku, gdy w Dolinie Krzemowej zaczęto majstrować przy sprzęcie znacznie bardziej skomplikowanym niż półprzewodnik i komputer: ludzkim mózgu.

Precz z Aktualnościami

Początek ery mediów społecznościowych wypada wyznaczyć na wrzesień 2006 roku, gdy administratorzy założonej w akademiku witryny internetowej Facebook.com, próbując rozwiązać problem biznesowy, dokonali niespodziewanego odkrycia. Od kiedy dwa i pół roku wcześniej założyli ten portal, z umiarkowanym sukcesem uprawiali swoje poletko w średnio popularnych mediach społecznościowych, których użytkowanie sprowadzało się w zasadzie do prowadzenia spersonalizowanych profili. Facebook miał ówcześnie osiem milionów użytkowników, co robiło wrażenie bodaj tylko na grupce dzieciaków, które od niedawna mogły pić alkohol, ale nie gwarantowało przetrwania na rynku6. Nawet Friendster, już wtedy uznawany za katastrofalną porażkę, zgromadził dziesięć milionów osób. Podobnym wynikiem legitymował się LiveJournal. Orkut miał piętnaście milionów klientów, a Myspace prawie sto milionów.
Dwie cechy Facebooka, które powinny gwarantować mu przewagę nad konkurencją, zdawały się działać na jego niekorzyść. Przejrzyście zakomponowana strona, choć atrakcyjna wizualnie, przynosiła znacznie mniejsze zyski niż przeładowane reklamami serwisy LiveJournal i Myspace. Facebook, popularny jedynie na kampusach uniwersyteckich, zyskał znaczny udział w rynku dość ograniczonym i ubogim. Firma próbowała wejść do miejsc pracy, ale zdobyła tam niewielu nowych użytkowników. Czy szanujący się dorosły człowiek opowiadałby o swoim życiu zawodowym na stronie internetowej dla studentów?
Grono użytkowników nie powiększało się, ale w tamte wakacje nagle pojawiła się tratwa ratunkowa: Yahoo zaproponowało, że kupi Facebook za miliard dolarów. Ten gigant internetowy zarabiał taką kwotę co kwartał. Jednak jego portal internetowy czasy świetności miał już za sobą, a firma rozglądała się za nowymi rozwijającymi się rynkami. Media społecznościowe wyglądały obiecująco. Jednak ku zaskoczeniu całej branży Zuckerberg odrzucił propozycję. Nie chciał wysiąść z karuzeli start-upów i jako dwudziestodwulatek stać się trybikiem w kostniejącym i tracącym popularność Yahoo7. Tym samym jednak uniemożliwił swoim pracownikom, nierzadko zarywającym noce, przejście na wygodną emeryturę w wieku dwudziestu lat. Dlatego odczuwał ogromną presję, by nie tylko wyprowadzić Facebook na prostą, ale osiągnąć sukces tak zawrotny, że miliard oferowany przez Yahoo wydałby się przy nim wart śmiechu.
Druga część planu Zuckerberga przewidywała otwarcie Facebooka dla wszystkich grup społecznych. Jednak nieudana ekspansja do miejsc pracy zasiała zwątpienie w sukces tego przedsięwzięcia, a nawet mogłoby ono przynieść opłakane skutki, gdyby doprowadziło do wycofania się studentów. Dlatego tak wiele zależało od części pierwszej planu. Zuckerberg zamierzał przeorganizować stronę główną Facebooka, by znalazła się na niej spersonalizowana tablica pokazująca, czym zajmują się znajomi. Wcześniej trzeba było zaglądać na każdy profil albo ręcznie odsiewać wybrane posty. Teraz, jeśli znajomy zmienił status związku, inny opublikował informację o niesmacznej pizzy w stołówce albo zadeklarował udział w jakiejś imprezie, wszystko to wyświetlało się na stronie głównej.
Ten strumień zdarzeń miał swoją nazwę: Aktualności. Wyglądał jak niekończąca się impreza z udziałem wszystkich znajomych. Mimo to niektórzy użytkownicy czuli się tak, jakby siłą zamknięto ich w panoptykonie, gdzie każdy miał całkowity i bezustanny wgląd w cyfrowe życie innych. Pojawiły się grupy o takich nazwach jak Studenci przeciwko Aktualnościom na Facebooku. Właściwie nie prowadziły one żadnej działalności. Przyłączenie się oznaczało poparcie. Tyle wystarczyło. Jednak z powodu nowej struktury strony za każdym razem, gdy ktoś wszedł do grupy, wszyscy jego znajomi dostawali powiadomienie w Aktualnościach. Wystarczyło jedno kliknięcie, by pójść w jego ślady, a informacja o tym lądowała na kolejnych profilach. Po kilku godzinach wieść o nowej inicjatywie docierała do wszystkich. Jednej grupie wystarczył dzień na zgromadzenie stu tysięcy członków, a po tygodniu było ich prawie milion. W rzeczywistości przyłączyło się do niej niewiele osób, ale fala powiadomień świadczyła o tym, że wspólnota jest ogromna. Wystarczyło od niechcenia kliknąć w ikonkę „Dołącz”, by w Aktualnościach wyświetliło się żarliwe hasło „Precz z Aktualnościami” albo „NIENAWIDZĘ FACEBOOKA”. Powszechny gniew był zatem złudzeniem, jednak skłonność do konformizmu jest głęboko zakorzeniona w ludzkiej naturze. Jak ustalili psychologowie, gdy ludzie uważają coś za kwestię konsensusu, z reguły nie tylko popierają przekonania większości, ale także je uwewnętrzniają8.
Wkrótce gniew popchnął ludzi do działania. Dziesiątki tysięcy osób słało maile do działu obsługi klientów. Następnego ranka siedzibę Facebooka w Palo Alto otoczyły furgonetki z nadajnikami satelitarnymi oraz tylu protestujących, że policja poprosiła firmę, by wycofała usługę wywołującą takie kontrowersje. Niektórzy pracownicy przychylili się do tej prośby. Zuckerberg, składając publicznie nieco protekcjonalne przeprosiny – „Uspokójcie się. Oddychajcie. Słyszymy was”9 – zażegnał kryzys, zaś firma zdała sobie sprawę, że oburzenie użytkowników wzmógł sam oprotestowany produkt Facebooka.
Przez cyfrowe wzmocnienie przekazu zarówno internauci, jak i szefowie firmy błędnie uznali, że najdonośniejsze głosy na platformie reprezentują wszystkich, podczas gdy one rozdmuchały tylko iskierkę niezadowolenia, wzniecając pożar. Pociągnęło to za sobą inną istotną konsekwencję: wzmogło się zaangażowanie. I to znacznie. W branży, w której sukces mierzy się aktywnością użytkowników, a szczególnie w firmie zdeterminowanej, by udowodnić, że odrzucenie miliardowej oferty Yahoo było czymś więcej niż przejawem arogancji, zamiast zaledwie tolerować anomalie w Aktualnościach, należało je wykorzystać. Wkrótce Facebook pozwolił wszystkim na rejestrację. Liczba użytkowników, która po pierwszej próbie ekspansji właściwie się nie zmieniła, teraz podskoczyła o sześćset, a może nawet siedemset procent. Wzrósł też średni czas spędzany przez każdego w sieci. Po trzynastu miesiącach, jesienią 2007 roku, wartość firmy oszacowano na piętnaście miliardów dolarów10.
Ten moment w historii Doliny Krzemowej kojarzy mi się ze sceną otwierającą 2001: Odyseję kosmiczną Stanleya Kubricka, w której stado szympansów pod wpływem czarnego monolitu, który pojawił się znikąd, w jednej chwili uczy się posługiwać narzędziami. Dzięki temu przełomowi Facebook wyprzedził konkurencję, za którą wcześniej nie nadążał. Wiele firm odeszło w niebyt, ich miejsce zaś zajęło nowe pokolenie.
W 2006 roku, kiedy wprowadzono Aktualności, jedenaście procent Amerykanów korzystało z mediów społecznościowych11. Od dwóch do czterech procent używało Facebooka. Niecałą dekadę później, w 2014 roku, prawie dwie trzecie obywateli udzielało się w mediach społecznościowych, zaś w grupie tej prawie wszyscy mieli dostęp do Facebooka, YouTube’a i Twittera. Wtedy również, w połowie drugiej kadencji Baracka Obamy, w życiu społecznym doszło do przekroczenia ważnego progu. Po raz pierwszy dwieście milionów Amerykanów z aktywnym profilem na Facebooku poświęcało średnio więcej czasu na interakcje na platformie (czterdzieści minut dziennie) niż na bezpośrednie kontakty międzyludzkie (trzydzieści osiem minut). Już dwa lata później, latem 2016 roku, prawie siedemdziesiąt procent Amerykanów przez średnio pięćdziesiąt minut dziennie korzystało z platform należących do Facebooka12.
Wtedy już tak skutecznie uzależniły one od siebie rzesze użytkowników, że Facebook, darmowy serwis internetowy, nieoferujący konkretnych produktów ani usług, miał większą wartość rynkową niż Wells Fargo, jeden z największych na świecie banków. W tym samym roku firma Zuckerberga wyprzedziła pod tym względem General Electric i JPMorgan Chase, a pod koniec 2017 roku znalazła się wyżej na liście niż ExxonMobil. Od tamtej pory dwiema największymi firmami na świecie są ­Facebook i Google, kolejny darmowy serwis internetowy, zarabiający głównie na reklamach, szczególnie dzięki jednej ze swoich filii: YouTube’owi.
Nawet wtedy, gdy nie ulegało wątpliwości, że technologia ta może być niebezpieczna, posługujące się nią firmy uparcie twierdziły, że nie kształtują potrzeb swoich użytkowników i nie zawiadują nimi, lecz jedynie je zaspokajają. Tymczasem manipulacja od samego początku była wpisana w produkty oferowane przez te przedsiębiorstwa.

Efekt kasyna

„Gdy rozkręcaliśmy Facebooka, co chwilę ktoś do mnie podchodził, żeby oznajmić: »Nie korzystam z mediów społecznościowych«”13 – wspominał po latach Sean Parker, który jako dwudziestoczterolatek został pierwszym prezesem Facebooka. „Odpowiadałem: »Okej, ale jeszcze zaczniesz«. Wtedy słyszałem: „»Nie, nie. Wolę kontakty w realu. Tu i teraz. Cenię sobie obecność i bliskość». A ja na to: »W końcu cię dopadniemy«”.
Parker, tak jak większość jego rówieśników dorastających w Dolinie Krzemowej w latach dziewięćdziesiątych, szczycił się, że jest hakerem. Wtedy jeszcze określano tak outsiderów otaczanych podziwem, choć większość z nich tworzyła oprogramowanie dla korporacji. Jednak Parker współzakładał Napstera, aplikację umożliwiającą dzielenie się plikami, za pomocą której rozpowszechniano tyle pirackich kopii muzyki, że gdy po dwóch latach wycofano ją pod naporem pozwów sądowych, zdążyła już poczynić nieodwracalne szkody w branży muzycznej. Parker uparcie twierdził, że zmusił show-biznes do ewolucji, wykorzystując jego opieszałość w czerpaniu z dobrodziejstw internetu. Jednak wielu artystów i szefów firm fonograficznych uważało go za pasożyta.
W podobny sposób jak działalność Napstera opisał strategię Facebooka. Tym razem nie chodziło o wykorzystanie słabości branży muzycznej, tylko ludzkiego umysłu. „Projektując tę aplikację, postawiliśmy sobie jedno pytanie: »Jak zagarnąć tyle waszego czasu i uwagi, ile tylko się da?«”, tłumaczył podczas konferencji prasowej. W tym celu, dodał, „dostaniecie od czasu do czasu mały zastrzyk dopaminy, gdy ktoś polajkuje albo skomentuje wasze zdjęcie lub post. Wtedy ochoczo zaczniecie zamieszczać jeszcze więcej, licząc na kolejne lajki i komentarze”. Proces ten określił mianem „sprzężenia zwrotnego walidacji społecznej” i uznał, że taki haker jak on ma prawo w ten sposób wykorzystać słabość ludzkiej psychiki. Jak twierdził, wraz z Zuckerbergiem dobrze o tym wiedzieli od samego początku i postanowili „zrobić swoje”.
Nikt w Dolinie Krzemowej nie uważał, że należy ukrywać takie praktyki eksploatacyjne, a wręcz otwarcie traktowano je jako doskonałe narzędzie rozwijania biznesu. Szczególnego znaczenia nabrało słowo „perswazja”. Oznaczało takie tresowanie konsumentów, by dzięki zmianom w ich zachowaniu zgadzał się bilans. Na Uniwersytecie Stanforda od 1997 roku działało Laboratorium Technik Perswazji (Persuasive Tech Lab). W 2007 roku projekty zrealizowane przez studentów podczas jednego semestru przyniosły dochody z reklam wysokości miliona dolarów14.
„W jaki sposób firmy produkujące zaledwie fragment kodu wyświetlanego na ekranie przejmują kontrolę nad umysłami użytkowników ich serwisów?” To pytanie stawia Nir Eyal, jeden z głównych specjalistów do spraw produkcji w Dolinie Krzemowej, w książce Skuszeni. Jak tworzyć produkty kształtujące nawyki konsumenckie. „Nasze działania zostały (…) opracowane”, wyjaśnia. Serwisy takie jak Twitter i YouTube „mają wpływ na nasze codzienne zachowania – właśnie tak, jak to sobie zaplanowali ich projektanci”15.
Jednym z ulubionych modeli Eyala jest maszyna hazardowa znana jako jednoręki bandyta. Zaprojektowano ją tak, by w reakcji na każde działanie dostarczała bodźców wzrokowych, słuchowych i dotykowych. Podczas wrzucania monety rozlega się brzęk. Pociągnięciu za dźwignię towarzyszy terkot, a gdy się ją puści, rozbłyskają kolorowe światełka. Wszystko to obliczone jest na tak zwany efekt Pawłowa, nazwany na cześć rosyjskiego fizjologa. Iwan Pawłow, karmiąc psa, uderzał w dzwoneczek, a po jakimś czasie sam odgłos wystarczył, by psu burczało w brzuchu, a jego ślinianki zaczynały pracować, jakby zwierzę przestało odróżniać bodziec dźwiękowy od doznań wywoływanych przez jedzenie. Jednoręki bandyta oddziałuje w ten sam sposób, ćwiczy bowiem umysł, by ten powiązał w jedno podekscytowanie wygraną z mechanicznym brzękiem i terkotem. Pociąganie za dźwignię, czynność początkowo zupełnie zwyczajna, staje się źródłem przyjemności.
Zjawisko to wywołuje dopamina – neuroprzekaźnik wspomniany przez Parkera podczas konferencji prasowej. Mózg uwalnia niewielkie ilości tej substancji, gdy zostanie zaspokojona jakaś podstawowa potrzeba biologiczna (głód, seks) albo społeczna (więź emocjonalna, uznanie). Dopamina odpowiada za pozytywne kojarzenie jej wydzielania z zachowaniem, które do tego doprowadziło, wywołując potrzebę powtarzania go. Kiedy jednak układ nagrody działa niewłaściwie, może pobudzać do działań autodestrukcyjnych: obstawienia kolejnego zakładu, nadużywania alkoholu albo poświęcania wielu godzin aplikacjom, które nie przynoszą nic prócz negatywnych emocji.
Dopamina to działająca w mózgu wspólniczka mediów społecznościowych16. To ona sprawia, że kolorowe powiadomienia w smartfonie, miłe dla ucha dźwięki i delikatne wibracje wywołują przyjemne wrażenia, jak jednoręki bandyta. Z neurologicznego punktu widzenia bodźce te są neutralne, ale mózg użytkownika telefonu kojarzy je z czynnościami przynoszącymi zadowolenie, takimi jak pisanie wiadomości do przyjaciół albo oglądanie zdjęć.
Aplikacje społecznościowe wywołują kompulsywną potrzebę kontaktu z innymi, niekiedy silniejszą niż głód albo chciwość. Eyal ilustruje to zjawisko fikcyjną historyjką o niejakiej Barbarze, która loguje się na Facebooku, by obejrzeć zdjęcie zamieszczone przez bliską osobę. Gdy przegląda kolejne fotografie i widoczne pod nimi komentarze, jej mózg wiąże emocje wywoływane przez ukochane osoby z piknięciami i migającymi ikonkami na interfejsie. „Z czasem Barbara wytworzy skojarzenie pomiędzy Facebookiem a odczuwaną potrzebą kontaktów społecznych”17. Uczy się reagować na tę potrzebę, zachowując się w odpowiedni sposób – korzystając z Facebooka – choć rzadko przynosi jej to satysfakcję.
Niedługo po przełomie, jaki nastąpił w wyniku wprowadzenia Aktualności na Facebooku, największe platformy społecznościowe wprowadziły strategię nieregularnego wzmocnienia, którą Eyal nazwał największym sekretem kasyn. Pod tą naukowo brzmiącą nazwą kryje się diabelnie prosty mechanizm. Psycholog B.F. Skinner odkrył, że badani posłusznie wykonują powtarzalne zadanie – na przykład rozwiązywanie prostej łamigłówki – jeśli nagradza się ich za każdym razem, gdy je zrealizują18. Porzucają je natomiast, gdy tylko zabraknie gratyfikacji. Kiedy jednak nagrodę dostają tylko czasami, a jej wielkość zmienia się w sposób przypadkowy, wykonują zadanie znacznie bardziej systematycznie, a wręcz z uporem. Ponadto realizują je jeszcze długo po całkowitym wycofaniu gratyfikacji, jakby motywowała ich sama możliwość jej otrzymania.
Jednoręki bandyta niezwykle skutecznie wykorzystuje ową słabość psychologiczną. Nieprzewidywalność zysku sprawia, że trudniej przerwać grę. Media społecznościowe działają na tej samej zasadzie. Post na Twitterze może przynieść społeczną gratyfikację w postaci lajków, retweetów i komentarzy. Można się jej jednak nie doczekać. Gdy nie znamy wyniku, nie potrafimy przestać pociągać za dźwignię. Nieregularne wzmocnienie to definicyjna cecha nie tylko hazardu i nałogu, ale także, co znamienne, toksycznych relacji. Nigdy nie wiadomo, kiedy toksyczny partner lub partnerka potraktuje drugą osobę życzliwie bądź okrutnie albo ukarze ją za zachowanie wcześniej nagradzane czułością. Prowadzi to do tak zwanej więzi traumatycznej. Ofiara kompulsywnie zabiega o pozytywną reakcję, jak hazardzista wrzucający monety do maszyny albo ktoś, komu uzależnienie od Facebooka nie pozwala się wylogować, nawet jeśli w wielu przypadkach aplikacja tylko pogłębia poczucie osamotnienia.
Co więcej, zamieszczanie postów w mediach społecznościowych można traktować jako prawdziwą interakcję z odbiorcami, ale te dwa rodzaje kontaktu różnią się od siebie pod kluczowym względem. Platformy niezauważalnie zapośredniczają nasze relacje. Decydują o tym, kto i w jakim kontekście zobaczy nasze komentarze. Każdy post może wzbudzić podziw i aplauz albo sprowokować nienawiść i krytykę, zależnie od tego, komu zostanie pokazany. Nie sposób tego przewidzieć, bowiem nie wiemy, jakie decyzje podejmuje algorytm. Docierają do nas jedynie pochwały lub obelgi, a czasem odpowiada nam tylko pełna napięcia cisza.
W przeciwieństwie do jednorękich bandytów, z których rzadko korzystamy w codziennym życiu, aplikacje społecznościowe należą do najbardziej rozpowszechnionych produktów na świecie. To kieszonkowe kasyna, za których sprawą powoli wyrabiamy sobie nawyk pociągania za dźwignię tego najpopularniejszego automatu do gier losowych w historii, by poprawić sobie samopoczucie. Przeciętny Amerykanin zerka na smartfon sto pięćdziesiąt razy dziennie19, głównie po to, by zajrzeć do mediów społecznościowych20. Robi tak nie dlatego, że kompulsywne korzystanie z tych aplikacji daje mu radość. W 2018 roku zespół ekonomistów oferował użytkownikom mediów społecznościowych różne kwoty w zamian za dezaktywowanie profili na cztery tygodnie21. Analitycy chcieli ustalić progową cenę, którą zaakceptuje co najmniej połowa badanych. Okazała się ona dość wysoka, wynosiła bowiem sto osiemdziesiąt dolarów. Jednak ci, którzy dezaktywowali profile, częściej odczuwali radość i satysfakcję z życia, a rzadziej lęk. Po zakończeniu eksperymentu nie korzystali już tak często z aplikacji.
Dlaczego jego uczestnicy nie chcieli rozstać się z produktem, który ich unieszczęśliwiał? Ich zachowanie – jak tłumaczyli ekonomiści – „było spójne ze standardowym modelem wyrabiania nawyków” – innymi słowy, uzależniania się – prowadzących do „suboptymalnych wyborów konsumenckich”. Prościej rzecz ujmując, badani nauczyli się działać na swoją niekorzyść.

Socjometr

Rok po wprowadzeniu Aktualności grupa programistów z Face­booka stworzyła projekt zwany „przyciskiem zajefajności”, dzięki któremu wystarczyło jedno kliknięcie, by wyrazić aprobatę dla czyjegoś posta. Zuckerberg kilkakrotnie odrzucał to rozwiązanie przekonany, że zniechęci ono użytkowników do większego zaangażowania i na przykład zamieszczania komentarzy. „Uznano, że nad projektem tym ciąży klątwa, skoro Zuck tyle razy go skrytykował”22 – pisał Andrew Bosworth, jeden z twórców Aktualności, a później wicedyrektor Facebooka. Projekt, na półtora roku odstawiony na półkę, trafił w ręce nowego zespołu, który opracował projekt przycisku „Lubię to”. Jak wspominał Bosworth w poście, podczas testów z użytkownikami okazało się, że funkcja ta zwiększyła liczbę komentarzy. Dopiero wtedy Zuckerberg dał się przekonać.
Na początku 2009 roku menedżerka produktu Leah Pearlman, która pracowała nad tym przyciskiem, od kiedy jako dwudziestojednolatka zatrudniła się w Facebooku, zamieściła post wyjaśniający, że obmyśliła „prosty sposób, jak jednym kliknięciem zakomunikować, że podoba nam się to, co publikują nasi znajomi”. Ruch na portalu wzmógł się w stopniu przekraczającym wszelkie oczekiwania. Zmieniło się też zachowanie użytkowników. Choć Nir Eyal, Sean Paker i im podobni tyle rozprawiali o uzależnianiu użytkowników, po raz kolejny, tak jak w przypadku Aktualności i wielu innych przyszłych rozwiązań, właściciele portalu społecznościowego zastosowali skuteczną sztuczkę psychologiczną, nie zdając sobie nawet sprawy z jej istoty.
Atrakcyjność tego małego przycisku, a także duża część mocy mediów społecznościowych to efekty wykorzystania mechanizmu zwanego socjometrem. Opisał go psycholog Mark Leary, wychodząc od prostego pytania: jaką funkcję pełni poczucie własnej wartości? Gdy doświadczamy jego spadku, zaczynamy zadręczać samych siebie. Leary doszedł do wniosku, że nie rozwinęłaby się w nas ta dziwna skłonność do zadawania sobie bólu, gdyby ogromnych kosztów psychicznych nie rekompensowała nam jakaś korzyść. W myśl jego powszechnie dziś akceptowanej teorii poczucie własnej wartości to tak naprawdę „psychologiczny miernik stopnia poczucia, że jest się cenionym w relacjach z innymi i akceptowanym przez grupę”23.
Ludzie to zwierzęta społeczne, które tworzą najbardziej złożone wspólnoty. Na drodze ewolucji nauczyliśmy się żyć w pozbawionych przywódcy kolektywach, liczących do stu pięćdziesięciu członków, a zatem znacznie większych niż w przypadku spokrewnionych z nami naczelnych24. Sukces każdej jednostki zależał od tego, jak dobrze poruszała się w gąszczu relacji ze stu czterdziestoma dziewięcioma towarzyszami, uwzględniając także relacje nawiązywane przez nich wszystkich. Wysoka pozycja w grupie gwarantowała wsparcie, dostęp do zasobów i duże prawdopodobieństwo godów. Nie mogli na te przywileje liczyć ci, którzy nie cieszyli się uznaniem. Od niego zależało przetrwanie fizyczne i genetyczne.
Przez miliony lat uwarunkowania te dawały przewagę ewolucyjną osobnikom, którym zależało na wysokiej pozycji w grupie i potrafili o nią zawalczyć. Dlatego, jak twierdzi antropolog Brian Hare, „przetrwali najżyczliwsi”25. W konsekwencji wykształcił się socjometr: skłonność do podświadomego monitorowania tego, jak jesteśmy postrzegani przez wspólnotę. Efektem przetwarzania tych informacji jest poczucie własnej wartości i powiązane z nim emocje, takie jak duma, wstyd czy brak pewności siebie26. Pod ich wpływem zabiegamy o wysoką ocenę grupy i unikamy zachowań nieakceptowanych. Co istotne, uczucia te każą nam wierzyć, że sami się motywujemy. Gdybyśmy uświadamiali sobie, w jak dużym stopniu reagujemy na presję społeczną, prawdopodobnie nie wywieralibyśmy pożądanego wrażenia, widać byłoby bowiem po nas, że działamy wbrew sobie z cynicznych pobudek.
Przycisk „Lubię to”, który ma swoje odpowiedniki na niemal każdej platformie społecznościowej, można porównać do akumulatora podłączonego do socjometru. Ten, kto kontroluje w nim przepływ impulsów elektrycznych, w dużej mierze decyduje o naszym zachowaniu. Lajki błyskawicznie i na bezprecedensową skalę zapewniają nam uznanie społeczne, o które tak usilnie zabiegamy. W rzeczywistym świecie nasze otoczenie niezbyt często wyraża je wprost. Jeszcze rzadziej słyszymy publiczne pochwały, będące niepodważalnym dowodem powszechnej aprobaty, bowiem zaświadczają o naszej wartości na forum wspólnoty. Kiedy po raz ostatni pięćdziesiąt, sześćdziesiąt albo siedemdziesiąt osób zgotowało ci aplauz w realu? Może przytrafia ci się to raz na kilka lat. A może nigdy cię to nie spotkało. Tymczasem w mediach społecznościowych to codzienne doświadczenie.
Platformy społecznościowe sprytnie wzmocniły ten mechanizm, pod każdym postem podając liczbę lajków, retweetów albo upvote’ów. W ten sposób mierzono społeczną aprobatę dla zamieszczanych treści. Dzięki takiemu rozwiązaniu LinkedIn, internetowa tablica ogłoszeń z życiorysami zawodowymi, przeobraził się w serwis społecznościowy, który Microsoft kupił za 26,2 miliarda dolarów. Wystarczyło każdy profil opatrzyć plakietką informującą o liczbie kontaktów. „Początkowo LinkedIn nie umożliwiał żadnych pożytecznych działań, ale dodanie jednej ikonki pozwoliło na eksploatowanie ludzkiej potrzeby, by nie wyjść na frajera”27, tłumaczył B.J. Fogg, kierujący Laboratorium Technik Perswazji na Uniwersytecie Stanforda. Jednak w 2020 roku nawet współzałożyciel i ówczesny dyrektor generalny Twittera Jack Dorsey przyznał, że ma wątpliwości co do pobudek, z jakich stworzono przycisk „Lubię to” i zaczęto „podawać, ile osób z niego skorzystało”28. Wprawdzie nie zobowiązał się do usunięcia tej ikonki, ale stwierdził, że może ona „stanowić źródło potencjalnie niebezpiecznej zachęty”.
Zachęta ta jest tak potężna, że widać ją na zdjęciach mózgu wykonanych za pomocą rezonansu magnetycznego. Gdy ktoś daje nam lajka, wzbudza się obszar mózgu zwany jądrem półleżącym, odpowiedzialny za wydzielanie dopaminy29. Badani, u których struktura ta ma względnie niewielki rozmiar – co świadczy o skłonności do nałogów – korzystają z Facebooka przez dłuższe okresy30. A kiedy dostają lajka, substancja szara wykazuje większą aktywność niż u okazjonalnych użytkowników. Ci pierwsi podobni są zatem do nałogowych hazardzistów, uwarunkowanych tak, że ekscytuje ich każde pociągnięcie za dźwignię.
Pearlman, programistka, która pomogła wypromować przycisk „Lubię to”, odkryła tę prawidłowość już po tym, jak w 2011 roku opuściła Dolinę Krzemową, by zająć się rysowaniem komiksów. Oczywiście rozpowszechniała swoje publikacje na Face­booku. Początkowo jej komiksy zyskiwały dużą popularność. Podnosiły czytelników na duchu, opowiadały bowiem o wdzięczności i współczuciu, a właśnie takie treści były propagowane przez Facebook na początku drugiej dekady XXI wieku. Jednak w 2015 roku algorytm przeprogramowano tak, by nie rozpowszechniał clickbaitów, czyli postów, których jedynym celem było przyciągnięcie uwagi odbiorców. Wywołało to efekt uboczny: platforma przestała sztucznie promować treści wywołujące przyjemne uczucia.
„Gdy Facebook zmienił algorytm, dostawałam mniej lajków i czułam się, jakby brakowało mi tlenu”31 – wyznała Pearlman w rozmowie z „Vice News”. „Wprawdzie mogłam zrzucić winę za to na algorytm, ale jakiś głos mówił mi: »Nie lubią mnie, bo nie jestem dostatecznie dobra«”. Były pracodawca sprawił, że jej jądro półleżące zwróciło się przeciwko niej, przez co wbrew zdrowemu rozsądkowi doświadczyła przemożnej wewnętrznej potrzeby gromadzenia lajków. Następnie, tak jak uczestnicy eksperymentu wystawiani przez Skinnera na próbę, przestała otrzymywać gratyfikację. „Nagle zaczęłam inwestować w reklamy, byle tylko jak dawniej zyskać poklask”, przyznała.
U większości z nas proces ten przebiega subtelniej. Zamiast korzystać z płatnej promocji, modyfikujemy codzienne posty i komentarze, by utrzymać wydzielanie dopaminy na stałym poziomie, i zazwyczaj robimy to zupełnie bezwiednie. Oto istota „sprzężenia zwrotnego walidacji społecznej”, o którym pisał Sean Parker: nieświadomie zabiegamy o aprobatę zautomatyzowanego systemu, zaprojektowanego tak, by nasze potrzeby wykorzystać przeciwko nam.
„Ludzie wbrew najlepszym intencjom często tworzą rzeczy, które pociągają za sobą nieprzewidziane, negatywne konsekwencje”32, powiedział w rozmowie z „Guardianem” Justin Rosenstein, były programista Facebooka i współtwórca przycisku „Lubię to”. „Jeżeli zależy nam wyłącznie na maksymalizacji dochodów, błyskawicznie nastaje dystopia”, ostrzegł. „Moim zdaniem właśnie teraz powinniśmy o tym rozmawiać, bo wszystko wskazuje na to, że jesteśmy ostatnim pokoleniem, które pamięta czasy sprzed mediów społecznościowych”.

Proca

Choć osoby, którym tak jak Pearlman zależy na uwadze i aprobacie, odczuwają ogromną presję, a odznaki na profilach uzależniają jak hazard, to i tak największą siłą w mediach społecznościowych jest tożsamość. Stanowi ona najskuteczniej oddziałujący bodziec na platformach, zaprogramowanych tak, by ją aktywizować i ustanawiać, wyrażać ją, dookreślać, a także by postrzegać i definiować świat przez jej pryzmat. Funkcjonowanie mediów społecznościowych uległo głębokiej modyfikacji, od kiedy ich zarządcy za pomocą zautomatyzowanych systemów próbują skłonić nas do skupienia się wyłącznie na takiej tożsamości, która najlepiej służy ich celom.
Aby zrozumieć jej moc, zadaj sobie pytanie: „Jak najlepiej opisać moją tożsamość?”. Pewnie przychodzi ci do głowy narodowość, rasa albo religia, a może miasto, w którym mieszkasz, zawód albo płeć. O tym, jak definiujemy samych siebie, decyduje głównie przynależność do rozmaitych grup. Jednak zarówno źródło tej skłonności, jak i jej wpływ na nasze umysły i działania „pozostaje głęboką tajemnicą dla psychologii społecznej”33, jak napisał Henri Tajfel w 1979 roku, gdy postanowił rozwiązać tę zagadkę.
Na własnej skórze poznał siłę identyfikacji z grupą. W 1939 roku, gdy studiował w Paryżu, Niemcy rozpoczęły okupację Polski, jego rodzinnego kraju. Był Żydem, dlatego w obawie o los swojej rodziny, podając się za Francuza, zaciągnął się do francuskiej armii. Grał tę rolę nawet wtedy, kiedy dostał się do niewoli niemieckiej. Po wojnie, gdy okazało się, że zamordowano całą jego rodzinę, zmienił obywatelstwo na francuskie, a potem angielskie. Tożsamości te były zaledwie konstruktami społecznymi. Czy w przeciwnym razie mógłby zmieniać je, jakby wyciągał kolejne garnitury z szafy? A jednak miały taką moc, że budziły u otaczających go ludzi współczucie albo mordercze instynkty, przez które cały kontynent zmierzał ku samozniszczeniu.
Pytania zrodzone przez to zjawisko fascynowały Tajfela i nie dawały mu spokoju. Wraz z kilkoma kolegami po fachu próbował na nie odpowiedzieć, kładąc podwaliny pod teorię tożsamości społecznej34. Jak ustalili, potrzeba identyfikacji z grupą pojawiła się w odpowiedzi na wyzwania wczesnego etapu rozwoju gatunku ludzkiego. Wiele naczelnych żyje w stadach. Natomiast ludzie tworzą znacznie większe kolektywy, których nie mogłyby spoić wyłącznie więzy rodzinne, bowiem w skład tych zbiorowości wchodzą niespokrewnione grupy. Sęk w tym, że wspólnota nie przetrwałaby, gdyby każdy członek czegoś do niej nie wnosił, a żadna jednostka nie przeżyłaby bez wsparcia pozostałych.
Jak dowiódł Tajfel, tożsamość społeczna wiąże nas z grupą35. To ona każe nam wywiesić flagę przed domem, włożyć T-shirt z emblematem naszego uniwersytetu i umieścić naklejkę na zderzaku. W ten sposób komunikujemy grupie, że doceniamy ją i traktujemy jako przedłużenie siebie, zaś wspólne dobro leży nam na sercu, dlatego można nam zaufać.
Tak usilnie dążymy do podtrzymania tożsamości zbiorowej, że czasem stwarzamy ją pod byle pretekstem. W trakcie pewnego eksperymentu naukowcy losowo przydzielili uczestnikom dwa rodzaje plakietek i zaproponowali im grę36. Każdy zdawał sobie sprawę z arbitralności podziału, ale okazywał więcej życzliwości osobom z tą samą przypinką. Takie samo zachowanie zaobserwowano w dziesiątkach eksperymentów i w rzeczywistym świecie: ludzie konsekwentnie odgraniczają się od arbitralnie definiowanych „obcych”, okazując brak zaufania, a nawet wrogość osobom spoza swojej grupy37. Na przykład na planie filmu Planeta małp z 1968 roku podczas lunchu statyści spontanicznie podzielili się na dwie grupy: ci, którzy grali szympansy, zajmowali inne stoliki niż ci, którzy udawali goryle38. Wiele lat później grający główną rolę Charlton Heston wspominał, że „było coś niepokojącego w tej instynktownej segregacji”. Podczas pracy nad drugą częścią filmu grupa innych statystów zachowywała się tak samo.
Instynkt ten zawsze karmił się uprzedzeniami i wrogością. Plemiona łowiecko-zbierackie niekiedy walczyły o zasoby albo terytorium. Jedna grupa mogła czasem przetrwać tylko, jeśli pokonała drugą. Z tego powodu instynkt społeczny podpowiada nam, byśmy nie ufali osobom spoza wspólnoty i jednoczyli się przeciwko nim, jeśli zajdzie taka potrzeba39. Umysł dyktuje nam takie zachowania głównie za sprawą dwóch emocji: lęku i nienawiści. Wbrew pozorom obie mają w dużej mierze charakter społeczny. Z obawy przed zewnętrznym zagrożeniem zacieśniamy więzy ze wspólnotą, jakby nasze plemię zapewniało nam bezpieczeństwo. Zarazem nie ufamy ludziom, których uważamy za odmiennych, i mamy mniejsze opory przed wyrządzaniem im krzywdy40. Dość przypomnieć sobie reakcje po atakach na World Trade Center w 2011 roku: fala zagorzałego patriotyzmu i solidarności społecznej przyniosła również gwałtowny wzrost liczby przestępstw z nienawiści do muzułmanów.
Platforma internetowa, która każdemu kliknięciu i przesunięciu palcem po ekranie nadaje znamiona aktu społecznego, niezawodnie dopuszcza te instynkty do głosu. Często ujawniają się tam w ekstremalnych formach, gdyż media społecznościowe propagują przede wszystkim opinie przyciągające uwagę odbiorców. W rezultacie powstaje sztuczna rzeczywistość, w której praworządnej, lecz oblężonej wspólnocie zagrażają obcy, a konflikt „my kontra oni” rzuca cień na każde wydarzenie.
Oczywiście kult tożsamości w mediach społecznościowych początkowo nie przynosił wielkich szkód. Zawsze jednak zdawano sobie sprawę z jego potencjału. W 2012 roku lewicowy aktywista za pieniądze pozyskane od współzałożycieli Facebooka i Reddita stworzył Upworthy – stronę internetową produkującą treści skrojone tak, by mogły je rozpowszechniać media społecznościowe. Zgromadziwszy dane na temat tego, co cieszy się największym powodzeniem w sieci, w Upworthy opracowano receptę na wiralność. Okazało się, że duże wzięcie mają listy numerowane. Równie popularne są wzbudzające ciekawość nagłówki, które aż się proszą, by w nie kliknąć: „Nie zgadniesz, w jaki sposób ten trener podniósł na duchu swoich podopiecznych”. Najlepiej jednak sprawdzały się te dające do zrozumienia, że frakcja, do której należy adresat (najczęściej liberałowie), poniżyła znienawidzonych oponentów (kreacjonistów, szefów korporacji, rasistów): „Błyskotliwa odpowiedź na bigoteryjne pytanie zyskuje ogromny aplauz”.
W tym samym czasie dziesiątki periodyków redukowały personel albo plajtowały, bowiem przez internet stały się nierentowne. Upworthy przy niemal zerowym budżecie zgromadziło kilka razy więcej odbiorców niż przeciętna gazeta. Reszta branży z desperacji poszła w ślady tego serwisu. Całe organizacje powstawały wokół idei wiralności, a wiele istniejących przekształcono pod jej dyktat. BuzzFeed stał się internetowym gigantem, oferując czytelnikom artykuły w formie rankingów, by zaspokoić potrzebę stałego potwierdzania tożsamości społecznej: „28 oznak, że wychowywali cię Irlandczycy” albo „31 problemów, które zrozumie tylko mieszkaniec małego miasta”.
W 2014 roku znalazłem się w gronie reporterów z „Washington Post”, którzy założyli serwis z wiadomościami Vox, licząc na duży oddźwięk w internecie. Nie po to uprawialiśmy dziennikarstwo, by zadowolić algorytmy mediów społecznościowych, ale z myślą o nich układaliśmy nasze nagłówki. Najskuteczniejsza metoda – której, jak sądzę z dystansu czasowego, nie należało nadużywać – polegała na wykorzystywaniu konfliktu tożsamości. Liberałowie kontra konserwatyści. Bezdyskusyjna słuszność antyrasizmu. Skandalicznie pobłażliwe przepisy regulujące dostęp do broni. „Tożsamość była jak proca”41 – napisał Ezra Klein, założyciel Voxu, w książce poświęconej polaryzacji w mediach cyfrowych. „Początkowo niewiele osób zdawało sobie sprawę, że walkę o uwagę wygrywał ten, kto nauczył się wykorzystywać siłę wspólnoty, by ustanawiać tożsamość. Zwycięzcy wyłonili się szybko, często za sprawą mechanizmów, których funkcjonowania nie w pełni rozumieli”.
W tym celu pozwalano działać skrajnie stronniczym prowokatorom, nastawionym na zysk farmom kliknięć i najzwyczajniejszym oszustom. Za nic mając sprawiedliwość, zgodność z faktami i wyższe dobro, przyciągnęli oni rzesze odbiorców, eksploatując konflikty tożsamości albo je prowokując. Początkowo wydawało się, że konsekwencje ich działań ograniczają się do internetu. Ostrzeżenia w przerażającej formie i – jak się z czasem okazało – niezwykle jaskrawe nadchodziły od lat z części świata, gdzie gra toczyła się o najwyższą stawkę, lecz wzbudzała niewielkie zainteresowanie.

 
Wesprzyj nas