Książka “Nabici w Facebooka” ukazuje historię biznesu związanego z nowymi technologiami oraz ludzi, którzy je tworzyli, a teraz zabrakło im odwagi, by stanąć oko w oko z demonami, które sami powołali do życia.


Nabici w FacebookaTo fascynująca osobista opowieść, ale też bardzo wnikliwa analiza sił, które mogą zniszczyć nasz świat.

Autor, Roger McNamee, doradca Zuckerberga w pierwszych latach działania Facebooka, potrzebował trochę czasu, by zrozumieć, co tak naprawdę się stało i co z tym zrobić.

W rezultacie otrzymaliśmy książkę, która jasno i precyzyjnie wyjaśnia, dlaczego nowe technologie mogą zagrażać demokracji.

***

„Sztuczna inteligencja może być jednym z największych społecznych zagrożeń. W takich firmach jak Facebook czy Google ma ona olbrzymią przewagę: nieprzebrane źródła informacji i skalowalność systemu, niezwykle dokładne profile ponad dwóch miliardów użytkowników (co w przypadku Facebooka oznacza również głębokie zrozumienie tego, co porusza ich emocje), dokładny obraz lokalizacji wszystkich użytkowników, ich związków i aktywności, a także finansowe przesłanki do tego, żeby manipulować uwagą użytkowników bez względu na konsekwencje. Można powiedzieć, że ta sztuczna inteligencja jest bezpośrednio podpięta do mózgów ponad dwóch miliardów ludzi, którzy nie zdają sobie z niczego sprawy.”
– fragment książki

Roger McNamee
Nabici w Facebooka
Przestroga przed katastrofą
Przekład: Krzysztof Puławski
Wydawnictwo Media Rodzina
Premiera: 15 kwietnia 2020
 
 

Nabici w Facebooka

PROLOG

Technologia to użyteczny służący, ale niebezpieczny pan.
CHRISTIAN LOUS LANGE

9 listopada 2016 roku
Rosjanie wykorzystali Facebook, by wpłynąć na wynik wyborów!
Tak właśnie zacząłem rozmowę z Danem Rose’em, szefem do spraw współpracy z mediami w firmie Facebook dzień po wyborach prezydenckich w USA. Jeśli nawet zaskoczyła go moja wściekłość, nie dał tego po sobie poznać.
Może parę wyjaśnień. Przez całe życie zajmowałem się inwestowaniem w nowe technologie i głoszeniem dobrej nowiny na ich temat. Technologia to mój zawód i pasja, ale od 2016 roku zacząłem się wycofywać z pełnowymiarowego inwestowania i zacząłem myśleć o emeryturze. Kiedy powstał Facebook, doradzałem jego założycielowi, Markowi Zuckerbergowi – czyli Zuckowi, jak go nazywają współpracownicy i przyjaciele – i sam w niego inwestowałem. Przez całe dziesięciolecie wierzyłem w potencjał Facebooka. Nawet kiedy piszę te słowa, wciąż mam akcje tej firmy. Gdy chodzi o moje własne interesy, nie mam najmniejszych powodów, by atakować Facebook. Nigdy nie przyszłoby mi do głowy, by zacząć go zwalczać. Przypominałem bardziej Jimmy’ego Stewarta z filmu Okno na podwórze Hitchcocka, który zajmuje się własnymi sprawami, spogląda przez okno w salonie i dopiero wtedy dostrzega coś, co wygląda na zbrodnię, i wówczas musi zapytać sam siebie: co dalej? Przez całe życie starałem się podejmować mądre decyzje na podstawie niekompletnych informacji i pewnego dnia na początku 2016 roku zauważyłem niepokojące zmiany na Facebooku. Zacząłem się im bliżej przyglądać i stwierdziłem, że zwiastują katastrofę. Na początku założyłem, że to Facebook jest ofiarą i chciałem tylko ostrzec przyjaciół. Jednak to, czego dowiedziałem się w następnych miesiącach, rozczarowało mnie, a nawet zaszokowało. Zrozumiałem, że zaufałem Facebookowi na wyrost.
Ta książka opowiada o tym, dlaczego wbrew sobie nabrałem przekonania, że chociaż Facebook może dostarczać wspaniałych osobistych wrażeń, to stanowi poważne zagrożenie i musi albo sam się zmienić, albo też trzeba to będzie wymusić. A także o moich związanych z tym działaniach. Mam nadzieję, że opowieść o tym, jak sam się zmieniłem, pomoże innym dostrzec zagrożenie. Ja natomiast postaram się wyjaśnić, co wiem o możliwościach manipulowania informacjami przez platformy internetowe w rodzaju Facebooka. A także, jak to się dzieje, że źli aktorzy mogą wykorzystywać tego rodzaju platformy, by krzywdzić czy nawet zabijać niewinnych ludzi. Jak te platformy poprzez swoje projekty i wybory biznesowe podważają zasady demokracji, unikając jednocześnie odpowiedzialności za to, co robią. Jak stosunki panujące w tych firmach powodują, że ich pracownicy pozostają obojętni na złe skutki uboczne swoich sukcesów. I że nawet kiedy piszę te słowa, nic się w nich nie zmienia na lepsze.
Jest to opowieść o zaufaniu. Platformy internetowe, włączając w to Facebook i Google, są beneficjentami zaufania i dobrej woli, które w ciągu pięćdziesięciu lat wypracowały poprzednie firmy. Wykorzystały one to zaufanie, by za pomocą wyrafinowanych technik żerować na słabościach ludzkiej psychiki, zbierać i wykorzystywać nasze dane osobowe i opracowywać takie modele działania, które nie chronią użytkowników tych platform. Dlatego muszą oni teraz uczyć się ostrożności w stosunku do tego, co uwielbiają, zmieniać swoje zachowania w sieci i nalegać, by te firmy ponosiły odpowiedzialność za skutki swoich wyborów, a także naciskać na decydentów, by zmienili przepisy w celu ochrony interesów publicznych.
Jest to historia przywilejów. Mówi ona o tym, jak ludzie, którzy odnieśli wielki sukces, mogą do tego stopnia skupiać się na własnych celach, że zapominają o prawach innych. Jak to się dzieje, że skądinąd inteligentni ludzie zapominają, że ich klienci mają prawo do samookreślenia. Jak sukces może wywołać nadmierną pewność siebie, która nie pozwala słuchać konstruktywnych rad przyjaciół, nie mówiąc już o krytyce. Jak ciężko pracujący i bardzo produktywni ludzie mogą pozostawać ślepi na konsekwencje tego, co robią, i są gotowi narażać na szwank demokrację w imię własnych przywilejów.
Jest to również opowieść o władzy. Mówi o tym, że ludzie nawet z najlepszymi intencjami mogą wypaczyć najwspanialsze ideały. Wyobraźmy sobie połączenie dzikiego kapitalizmu, wywołującej uzależnienie technologii i autorytarnych wartości oraz bezwzględności i pychy Doliny Krzemowej, które zwalają się na miliardy niczego niepodejrzewających użytkowników Internetu. Myślę, że przyjdzie taka chwila – i to szybciej, niż wyobrażałem sobie dwa lata temu – kiedy ludzie zauważą, że za tym, co dostają od zdominowanych przez Facebook mediów – ta rewolucja, gdy chodzi o gospodarowanie uwagą – kryje się niewyobrażalna katastrofa demokracji, zdrowia publicznego, prywatności i gospodarki. A wcale nie musiało tak być. I trzeba będzie dużego wysiłku, by to zmienić.
Podejrzewam, że kiedy historycy zajmą się tym problemem, będą usprawiedliwiać kiepskie decyzje Zuckerberga i Sheryl Sandberg podejmowane z zespołem. Przynajmniej ja tak na to patrzę. Błędy stanowią część naszego życia, a rozwijanie firmy od malutkiej do takiej o zasięgu światowym stanowi nie lada wyzwanie. Winię jednak Facebook – a jak sądzę, uczyni to też historia – za to, jak firma reagowała na krytykę i świadczące przeciwko niej dowody. Zespół mógł się wykazać i wziąć odpowiedzialność za własne wybory oraz ich katastrofalne rezultaty. Jednak Zuckerberg i Sandberg wybrali inną drogę.
Ta opowieść jeszcze się nie skończyła. Napisałem tę książkę, żeby była przestrogą. Pragnę, by czytelnicy zrozumieli, skąd wziął się obecny kryzys i co można zrobić, żeby go zażegnać. Mam nadzieję, że skorzystają oni z tej okazji. Przede wszystkim chciałbym, żeby zrozumieli, że mogą mieć swój udział w rozwiązaniu tej sytuacji. I że wszyscy się do tego przyczynią.
Bardzo możliwe, że to, co najgorsze, gdy chodzi o Facebook i inne internetowe platformy, już się wydarzyło, choć eksperci byliby raczej innego zdania. Najbardziej prawdopodobne jest to, że technologia i biznesowy model Facebooka i innych podmiotów będą tak długo niszczyły demokrację, zdrowie ludzi, ich prywatność oraz innowacyjność, aż zmiany zostaną wymuszone przez interwencję rządu albo protesty użytkowników.

Na dziesięć dni przed wyborami z listopada 2016 roku wysłałem oficjalny list do Marka Zuckerberga i szefowej operacyjnej Facebooka, Sheryl Sandberg, których uważałem za przyjaciół, by podzielić się obawami, że trolle wykorzystują zarówno strukturę, jak i biznesowe funkcje Facebooka, by wpływać negatywnie na niewinne osoby, a sama firma nie wykorzystuje swego potencjału, by temu zaradzić. Na dwóch stronach wymieniałem różne przypadki sytuacji, których nie spowodowali pracownicy Facebooka, ale ich wystąpienie umożliwiały algorytmy samej platformy, jej model reklamowy, mechanizm automatyzacji, kultura i system wartości. Zwróciłem też uwagę na krzywdy, jakich doznali pracownicy i użytkownicy Facebooka z powodu jego kultury biznesowej i określonych przez firmę celów strategicznych. Treść tego listu zamieszczam jako uzupełnienie na końcu książki.
Mark Zuckerberg stworzył Facebook, by zbliżyć do siebie ludzi na całym świecie. Kiedy go poznałem, nie wiedziałem jeszcze, że jego idealizmu nie równoważą realizm czy empatia. Wydaje się, że założył, iż wszyscy będą korzystać z Facebooka tak jak on i nawet nie przyszło mu do głowy, jak łatwo można wykorzystać tę platformę do siania zamętu. Zuckerberg wcale nie chciał chronić osobistych danych i robił wszystko, by zwiększyć ich jawność i dystrybucję. Tak zarządzał firmą, jakby każdy problem dało się rozwiązać za pomocą lepszych kodów źródłowych lub ich większej liczby. Zaakceptował agresywną inwigilację, beztroskie dzielenie się osobistymi danymi i modyfikacje zachowań na niespotykaną dotąd skalę. To właśnie te działania stanowią podstawę sukcesu Facebooka. Użytkownicy są kołem napędowym rozwoju Facebooka, ale w niektórych przypadkach stają się jego ofiarami..
Kiedy kontaktowałem się z Zuckiem i Sheryl, miałem tylko hipotezę na temat trolli, którzy wykorzystywali Facebook do złych celów. Podejrzewałem też, że przykłady takiej działalności wynikają z błędów systemowych oraz błędów związanych z kulturą firmy. Nie podkreślałem zagrożenia związanego z wyborami prezydenckimi, bo nie wyobrażałem sobie wówczas, żeby można na nie było wpłynąć przez Facebook, i nie chciałem, by firma zbyła moje obawy w wypadku wygranej Hillary Clinton, czego wszyscy się wówczas spodziewali. Pisałem, że Facebook musi naprawić swoje usterki, gdyż inaczej ryzykuje swoje dobre imię i naraża się na utratę zaufania użytkowników. I chociaż sam im nie szkodził, to jednak stał się narzędziem walki, a użytkownicy mieli prawo oczekiwać od niego ochrony.
Tekst ukazał się zaraz po komentarzach redakcji na blogu „Recode”, poświeconemu nowym technologiom. Mój niepokój rósł od 2016 roku i osiągnął szczyt w momencie, kiedy okazało się, że Rosjanie próbowali ingerować w nasze wybory prezydenckie. Bardzo mnie to przeraziło, czemu dałem też wyraz w tym artykule. Moja żona Ann poradziła mi słusznie, żebym wysłał go przed publikacją do Zucka i Sheryl. W początkach Facebooka należałem do licznego grona doradców jego szefa, a także odegrałem pewną rolę przy zatrudnieniu w nim Sheryl. Nie zajmowałem się Facebookiem od 2009 roku, ale byłem jego gorącym zwolennikiem. Mój niewielki wkład w rozwój jednej z największych firm wywodzących się z Doliny Krzemowej stanowił prawdziwie jasny punkt mojej trzydziestoczteroletniej kariery. Ann zauważyła, że jeśli od razu opublikuję artykuł, może to wywołać złe reakcje prasy, przez co Facebookowi trudniej będzie przyjąć moje uwagi. Chodziło mi o to, żeby naprawić sytuację, ale nikogo nie zawstydzać. Nie sądziłem, by Zuck i Sheryl zrobili świadomie coś złego. Wyglądało to raczej na niepożądane skutki podejmowanych w dobrej wierze działań. W ciągu ostatnich siedmiu lat wymieniłem z Zuckiem tylko kilka e-maili, ale częściej kontaktowałem się z Sheryl. Zdarzyło mi się też bardzo im pomóc, więc mogłem mieć nadzieję, że potraktują poważnie moje uwagi. Chodziło mi o to, by oboje zbadali tę sprawę i podjęli odpowiednie kroki w celu naprawienia sytuacji. Mogłem zatem poczekać kilka dni z opublikowaniem artykułu.
Zarówno Zuck, jak i Sheryl odpowiedzieli na mój e-mail w ciągu kilku godzin. Uprzejmie, ale mało merytorycznie. Ich zdaniem przytoczone problemy były anomaliami, którymi firma się już zajęła, ale zaproponowali też, że skontaktują mnie z jedną z ważniejszych osób w firmie. Był to ich bliski współpracownik Dan Rose, z którym osobiście się przyjaźniłem. Rozmawiałem z nim co najmniej dwa razy przed wyborami. Za każdym razem wysłuchał mnie cierpliwie i powtórzył to, co mówili Zuck i Sheryl, z jednym ważnym dodatkiem – Dan zakładał, że Facebook jest platformą, a nie medium, więc nie odpowiada za działania stron trzecich. Jego zdaniem to powinno załatwić całą sprawę.
Dan Rose jest bardzo inteligentny, ale nie odpowiada za politykę Facebooka. Tym zajmuje się sam Mark Zuckerberg. Dan natomiast wykonuje jego polecenia. Dlatego byłoby lepiej, gdybym rozmawiał z samym Zuckiem, ale nie dano mi takiej szansy. Skorzystałem więc z tego, co miałem. Szefowie Facebooka nie chcieli oczywiście, bym upublicznił swoje obawy, a ja z kolei uważałem, że w ten poufny sposób uda mi się więcej osiągnąć. Kiedy rozmawiałem z Danem dzień po wyborach, stało się dla mnie jasne, że nie chce słuchać moich argumentów i traktuje całą sprawę wyłącznie w kategoriach wizerunkowych. Jego zadanie polegało na tym, by mnie uspokoić i oddalić moje obawy. Nie udało mu się to, ale jednak odniósł sukces – nigdy nie opublikowałem tego artykułu. Jak zwykle potraktowałem sprawę z nadmiernym optymizmem, zakładając, że jeśli będę naciskał, to Facebook w końcu zajmie się poważnie tą sprawą.
Dzwoniłem i pisałem do Dana z nadzieją, że firma rozpocznie wewnętrzne dochodzenie. W tym czasie Facebook miał miliard siedemset milionów aktywnych użytkowników. Jego sukces zależał od ich zaufania. Gdyby uznali oni, że firma odpowiada za straty spowodowane przez osoby trzecie żadne legalne środki nie uchroniłyby jej przed katastrofą wizerunkową. Facebook położył wszystko na jednej szali. Uznałem więc, że ma tutaj szansę. Mógłby pójść za przykładem firmy Johnson & Johnson. W 1982 roku w Chicago ktoś dodał truciznę do stojących na półkach sklepowych butelek Tylenolu produkowanego przez tę firmę, a wtedy wycofała ona Tylenol ze wszystkich sklepów i wprowadziła go z powrotem na rynek dopiero w bezpiecznych opakowaniach. Z tego powodu ucierpiały jej bezpośrednie zyski, ale prawdziwą nagrodę stanowił wzrost zaufania klientów. Firma nie ponosiła żadnej odpowiedzialności za to, co się stało. Mogła więc uznać, że są to działania jakiegoś szaleńca. Jednak szefostwo Johnson & Johnson przyjęło, że odpowiada za bezpieczeństwo klientów i podjęło w tym celu odpowiednie kroki. Wydawało mi się więc, że Facebook może zrobić to samo.
Mój problem polegał wówczas między innymi na tym, że nie posiadałem odpowiednich danych, by móc udowodnić, że coś jest nie tak. Towarzyszyło mi tylko takie przeświadczenie, które wynikało z wielu lat pracy w tej branży.
Po raz pierwszy przejąłem się sytuacją Facebooka w lutym 2016 roku w czasie przygotowań do prawyborów prezydenckich. Jako człowiek uzależniony od polityki spędzałem po kilka godzin na czytaniu informacji, a także wpisów na Facebooku, gdzie zauważyłem mnóstwo niepokojących obrazów, którymi dzieliły się osoby w sposób oczywisty związane z kampanią Berniego Sandersa. Były one mizoginiczne i dotyczyły Hillary Clinton. Trudno mi było sobie wyobrazić, by ktoś z ludzi Sandersa mógł na coś takiego pozwolić. Jeszcze bardziej zaniepokoiła mnie szybkość, z jaką rozprzestrzeniały się te posty. Udostępniało je wielu moich znajomych. I codziennie pojawiały się nowe.
Wiedziałem już całkiem sporo o postach na Facebooku. Po pierwsze, gram też w zespole Moonalice i zajmuję się bardzo popularną wśród fanów stroną zespołu na Facebooku. Dlatego te posty nie wyglądały mi na oryginalne. I jak to się stało, że dotarły one do moich znajomych? Jak oni je znaleźli? Grupy na Facebooku nie tworzą się w ciągu jednej nocy. Założyłem, że ktoś musi opłacać reklamy, by moi znajomi dołączyli do tych grup. Tylko po co? Nie potrafiłem odpowiedzieć na te pytania. Te obrazy wciąż nas zalewały, a ja nie potrafiłem przejść nad tym do porządku dziennego.
Zauważyłem też coś jeszcze bardziej niepokojącego. Na przykład w marcu 2016 roku pojawiły się informacje na temat grupy, która wykorzystywała narzędzia Facebooka, by zbierać dane na temat osób, które zainteresowały się ruchem Black Lives Matter, by następnie sprzedać je policji, co wydało mi się niewłaściwe. Facebook zablokował tę grupę, ale dopiero po tym, jak wyrządziła wiele zła. I znowu jakiś troll używał Facebooka w niecnych celach.
W czerwcu 2016 roku obywatele Wielkiej Brytanii zagłosowali za brexitem. Wynik tego głosowania stanowił prawdziwy szok. Badania wskazywały, że przewagą czterech punktów zwyciężą przeciwnicy opuszczenia Unii Europejskiej, ale stało się dokładnie odwrotnie. Nikt nie potrafił zrozumieć tak dużej zmiany, mnie jednak przyszło do głowy możliwe rozwiązanie. A jeśli zawinił tu Facebook? Zwolennicy UE spodziewali się wygranej, gdyż mieli tak doskonały układ z resztą kontynentu i dodatkowo własną walutę. Londyn był niekwestionowanym centrum europejskich finansów, a obywatele Wielkiej Brytanii mogli robić interesy i swobodnie podróżować w granicach Unii. Przesłanie, by pozostać, opierało się na racjonalnych założeniach, ale brakowało mu emocjonalnego wsparcia. Zwolennicy wyjścia oparli się na dwóch bardzo emocjonalnych hasłach. Odwoływali się do nacjonalizmu, winiąc imigrantów za rzeczywiste i wymyślone problemy kraju. Obiecywali też, że dzięki brexitowi uda się zaoszczędzić olbrzymie kwoty, które można będzie przeznaczyć na poprawę opieki zdrowotnej, co pozwalało spojrzeć łagodniej na pierwszy ksenofobiczny argument.
Wynik referendum sprawił, że pojawiła się hipoteza, jakoby Facebook mógł być wykorzystywany przez tych, którzy w swej argumentacji opierają się na strachu czy złości, a nie na neutralnych lub pozytywnych emocjach. Mechanizm reklamowy Facebooka jest zależny od stopnia zaangażowania użytkowników, a to najłatwiej wzbudzić poprzez odwoływanie się do najbardziej podstawowych uczuć. W tym czasie nie wiedziałem jeszcze, że chociaż pozytywne emocje działają podobnie (i dlatego taką popularnością cieszą się posty z kotkami, psiakami czy małymi dziećmi), to jednak nie wszyscy reagują na nie w ten sam sposób. Na przykład niektórzy są zazdrośni. Emocje „mózgu jaszczurki”, takie jak strach czy złość, są bardziej jednoznaczne i działają mocniej na masowych odbiorców. Rozzłoszczona grupa wchłania więcej informacji i częściej się nimi dzieli. Facebook nie ceni obojętnych użytkowników i dlatego tak bardzo stara się pobudzać ich gadzie instynkty. Firma wykorzystywała inwigilację, żeby stworzyć dokładne profile swoich odbiorców i dostarczyć im ich własny Truman Show, podobny do tego z filmu, w którym bohater grany przez Jima Carreya przeżył całe swoje życie jako gwiazda własnego telewizyjnego programu. Facebook zaczyna więc dawać użytkownikom „to, czego chcą”, wykorzystując jednocześnie algorytmy, które będą ich popychały w stronę, o której decyduje sama firma. Algorytmy wybierają takie posty, które podnoszą emocje, bo osoba wzburzona albo przestraszona spędzi w sieci więcej czasu. Tego rodzaju reakcje Facebook nazywa „zaangażowaniem”, ale tak naprawdę chodzi o modyfikację zachowań użytkowników, tak aby ułatwić sobie reklamę. Żałuję, że nie rozumiałem tego w 2016 roku. Kiedy piszę te słowa, Facebook, mimo że istnieje zaledwie od piętnastu lat, jest czwartą co do wartości firmą w Ameryce, co zawdzięcza mistrzowskiej formie inwigilacji i umiejętności modelowania zachowań użytkowników w sieci.

 
Wesprzyj nas