Krytyczne, ale bardzo oryginalne spojrzenie na problemy generowane przez dynamiczny rozwój sztucznej inteligencji. Kate Crawford analizuje nie tylko techniczne aspekty SI, ale również jej wpływ na pracę, prywatność, władzę oraz środowisko.
Sztuczna inteligencja nie jest ani inteligentna, ani sztuczna.
Nieodwracalna transformacja naszego życia, jaką niesie ze sobą wynalezienie sztucznej inteligencji, staje się faktem. Czy znamy ukryte koszty tej przełomowej technologii? Czy wiemy, czyim służy interesom? I jak wpływa na społeczeństwa?
Kate Crawford obala mit, że sztuczna inteligencja jest bezcielesna, obiektywna i niezbędna. Udowadnia, że to narzędzie wyzysku w rękach władzy, policji, wojska czy korporacji i podłoże narastających nierówności. Funkcjonowanie systemów AI nie byłoby możliwe bez nadmiernej eksploatacji zasobów energetycznych i mineralnych, korzystania z taniej siły roboczej i niekontrolowanego pozyskiwania danych.
Atlas sztucznej inteligencji stanowi swoistą mapę teraźniejszości: miejsc, ludzi i relacji, która pomaga nam zrozumieć rolę AI we współczesnym świecie. Jest cenną przeciwwagą dla bezkrytycznych zachwytów nad sztuczną inteligencją oraz zaproszeniem do świadomego i odpowiedzialnego korzystania z technologii informacyjnej.
Czy wiesz, że
– rekruterzy, którzy oceniają kandydatów do pracy, wykorzystują narzędzia do przechwytywania i analizy wyrazu twarzy i mowy ciała?
– niektóre stacje robocze w halach produkcyjnych są wyposażone w czujniki, które na bieżąco informują o temperaturze ciała pracowników i ich fizycznej odległości od innych osób?
– jedna z sieci restauracji zainstalowała w kuchniach systemy widzenia komputerowego, które sprawdzają, czy personel przygotowuje pizzę zgodnie ze standardami?
Współczesne formy sztucznej inteligencji nie są ani sztuczne, ani inteligentne. Powinniśmy natomiast mówić o znojnej fizycznej pracy górników, mechanicznej pracy na linii montażowej, wyrobniczej cybernetycznej pracy programistów, źle opłacanej pracy crowdworkerów Amazon Mechanical Turk i nieopłacanej niematerialnej pracy użytkowników. We wszystkich tych miejscach możemy zrozumieć, że planetarne obliczenia opierają się na wyzysku ludzkiej pracy w ekstrakcyjnym łańcuchu dostaw.
Kate Crawford
Krytyczne, ale bardzo oryginalne spojrzenie na problemy generowane przez dynamiczny rozwój sztucznej inteligencji. Kate Crawford analizuje nie tylko techniczne aspekty SI, ale również jej wpływ na pracę, prywatność, władzę oraz środowisko. Pozycja obowiązkowa zarówno dla entuzjastów, jak i sceptyków szeroko rozumianej sztucznej inteligencji.
Dr Kamil Filipek, socjolog i data scientist, dyrektor Centrum Sztucznej Inteligencji i Modelowania Komputerowego UMCS.
Niezbędna lektura. Przechodząc od wydobywania litu do ekstrakcji danych, od wyzysku pracowników do rządowej inwigilacji, Atlas sztucznej inteligencji doskonale pokazuje, jak „tworzy się” inteligencja. Anemiczne wołanie o »etykę« zastępuje wnikliwymi badaniami degradacji środowiska, akumulacji kapitału i warunków pracy, dzięki którym AI istnieje.
— Wendy Hui Kyong Chun, Katedra Nowych Mediów Uniwersytetu Simona Frasera, Kanada
Śledząc rozwój AI, jej mitologię, etykę i politykę, Atlas sztucznej inteligencji uświadamia nam, że opowiadane o niej historie są równie istotne, jak modele matematyczne, na których systemy te są zbudowane.
— Ruha Benjamin, autorka ksiązki Race After Technology: Abolitionist Tools for the New Jim Code
Wnikliwa książka Kate Crawford pokazuje, że sztuczna inteligencja to nie deus ex machina, ale zbiór dehumanizujących praktyk ekstrakcyjnych, z których większość z nas nie zdaje sobie sprawy.
— Sue Halpern, New York Review of Books
Książka ujawnia ciemną stronę sukcesu sztucznej inteligencji. (…) Oparta na gruntownych badaniach i świetnie napisana.
— Virginia Dignum, Nature
Kate Crawford jest uznaną ekspertką zajmującą się społecznymi następstwami wykorzystywania sztucznej inteligencji. W ciągu swojej 20-letniej kariery akademickiej i badawczej zajmowała się systemami danych, uczeniem maszynowym i AI w szerszym kontekście historii, polityki, pracy i środowiska. Doradzała decydentom w ONZ, Federalnej Komisji Handlu, Parlamencie Europejskim, Australijskiej Komisji Praw Człowieka i Białym Domu. Obecnie wykłada na Uniwersytecie Południowej Kalifornii, kieruje katedrą Sztucznej Inteligencji i Sprawiedliwości w École Normale Supérieure.
Atlas sztucznej inteligencji. Władza, pieniądze i środowisko naturalne
Przekład: Tadeusz Chawziuk
Seria #nauka
Wydawnictwo Bo.wiem
Premiera: 28 lutego 2024
Magazyn Dobre Książki objął publikację patronatem medialnym
SPIS TREŚCI
Wprowadzenie
1 Ziemia
2 Praca
3 Dane
4 Klasyfikacje
5 Afekty
6 Państwo
Zakończenie
Coda
WPROWADZENIE
Najmądrzejszy koń świata
Pod koniec XIX wieku Europę zauroczył koń o imieniu Hans. Sprytny Hans był niesamowity: potrafił rozwiązywać zadania matematyczne, podawał godzinę, rozpoznawał dni w kalendarzu, rozróżniał tony muzyczne oraz zapisywał słowa i zdania. Ludzie schodzili się, aby podziwiać, jak niemiecki ogier wystukuje kopytem odpowiedzi na złożone pytania i nigdy się przy tym nie myli. „Ile jest dwa dodać trzy?” – Hans pilnie stukał kopytem w ziemię pięć razy. „Jaki jest dziś dzień tygodnia?” – koń uderzał kopytem, wskazując poszczególne litery na specjalnie zbudowanej tablicy, i w ten sposób podawał poprawną odpowiedź. Hans radził sobie nawet z bardziej złożonymi pytaniami, takimi jak: „Myślę o pewnej liczbie. Odejmuję od niej dziewięć i zostaje mi trzy. O jakiej liczbie myślę?”. W 1904 roku Sprytny Hans był międzynarodową gwiazdą, a New York Times nazwał go „cudownym koniem z Berlina, który potrafi prawie wszystko, a jedynie, czego nie potrafi, to mówić”.
Wilhelm von Osten, trener Hansa i emerytowany nauczyciel matematyki, od dawna był zafascynowany inteligencją zwierząt. Wcześniej próbował uczyć liczb kardynalnych młode koty i niedźwiedzie, ale dopiero gdy zaczął pracować z koniem, odniósł sukces. Najpierw nauczył Hansa liczyć. Trzymając zwierzę za nogę, pokazywał liczbę i wystukiwał ją na jego kopycie. Wkrótce Hans zaczął sam bezbłędnie wystukiwać proste sumy. Potem von Osten wprowadził tablicę z wypisanym alfabetem, aby Hans mógł wystukać na niej numer każdej litery. Po dwóch latach treningu von Osten był zdumiony, jak dobrze zwierzę radzi sobie z wyrafinowanymi koncepcjami. Zabrał więc Hansa w trasę, aby go pokazywać jako dowód na to, że zwierzęta rozumują. Hans stał się wiralową sensacją belle époque.
Wiele osób było jednak sceptycznie nastawionych, a niemieckie kuratorium oświaty powołało komisję do spraw weryfikacji twierdzeń von Ostena. Przewodniczącymi byli psycholog i filozof Carl Stumpf oraz jego asystent Oskar Pfungst, a w jej skład wchodzili między innymi dyrektor cyrku, emerytowany nauczyciel, zoolog, lekarz weterynarii i oficer kawalerii. Po długich przesłuchaniach Hansa, zarówno w obecności tresera, jak i bez niego, koń w dalszym ciągu udzielał poprawnych odpowiedzi, a komisja nie dopatrzyła się oszustwa.
Jak pisał później Pfungst, Hans występował przed „tysiącami widzów, miłośników koni, pierwszorzędnych treserów, a w toku wielomiesięcznych obserwacji ani jeden z nich nie był w stanie wykryć jakichkolwiek sygnałów” między pytającym a koniem. Komisja uznała, że metody, za pomocą których uczono Hansa, przypominały raczej „nauczanie dzieci w szkołach podstawowych” niż tresurę zwierząt i że były „godne zbadania naukowego”. Stumpf i Pfungst nadal jednak mieli wątpliwości. Szczególnie zaniepokoiło ich jedno odkrycie: gdy pytający nie znał rozwiązania zagadki lub stał zbyt daleko, Hans rzadko udzielał poprawnej odpowiedzi. To doprowadziło Pfungsta i Stumpfa do przypuszczenia, że być może Hans odczytuje jakieś nieintencjonalnie wysyłane komunikaty, dzięki którym udziela poprawnych odpowiedzi.
Jak czytamy w książce Pfungsta z 1911 roku, ta intuicja okazała się trafna: postawa pytającego, jego oddech i wyraz twarzy ulegały subtelnym zmianom w chwili, gdy Hans zbliżał się do poprawnej odpowiedzi, co skłaniało go do zaniechania dalszego stukania. Pfungst w późniejszym czasie przetestował tę hipotezę na ludziach i ją potwierdził. Najbardziej fascynujące w tym odkryciu było dla niego to, że pytający na ogół nie byli świadomi tego, iż dostarczają koniowi wskazówek. Pfungst orzekł, że rozwiązaniem zagadki Sprytnego Hansa są komunikaty nieświadomie wysyłane przez osoby zadające pytania. Koń był szkolony w ten sposób, aby uzyskiwał rezultaty, które pragnął ujrzeć jego właściciel – widzowie czuli jednak, że to nie to samo, co nadzwyczajna inteligencja, którą przypisywali zwierzęciu.
Historia Sprytnego Hansa fascynuje z wielu punktów widzenia: zależności między pragnieniem, złudzeniem a działaniem; zarabiania pieniędzy na pokazach naukowych; tego, jak antropomorfizujemy to, co nieludzkie; sposobu, w jaki powstają uprzedzenia; wykorzystywania pojęcia inteligencji jako narzędzia władzy. Hans stał się inspiracją dla psychologicznego terminu „efekt Sprytnego Hansa” lub „efekt oczekiwań obserwatora”, który oznacza rodzaj pułapki pojęciowej, gdy na badanych wpływają nieumyślne wskazówki udzielane przez eksperymentatorów. Relacja między von Ostenem a Hansem ukazuje złożone mechanizmy, na mocy których uprzedzenia wkradają się do systemów, i to, jak badający wikłają się w badane zjawiska.
Historia Hansa jest przywoływana w uczeniu maszynowym jako przestroga, że nie zawsze wiemy, czego nauczył się model z danych treningowych. System zachowujący się poprawnie w fazie treningu może tworzyć zupełnie błędne prognozy, gdy otrzyma nowe dane.
Tak dochodzimy do najważniejszego pytania tej książki: jak „powstaje” inteligencja i do jakich pułapek może prowadzić ten proces?
Na pierwszy rzut oka historia o Sprytnym Hansie opowiada o tym, jak pewien człowiek stworzył inteligencję, trenując konia, aby postępował zgodnie ze wskazówkami i naśladował ludzką zdolność poznawczą. Praktyka tworzenia inteligencji obejmuje jednak znacznie więcej aspektów. Przedsięwzięcie musiało zostać potwierdzone autorytetem wielu instancji, w tym uniwersytetów, szkół, nauki, opinii publicznej i wojska. Był też rynek dla von Ostena i jego niezwykłego konia – emocjonalnych i ekonomicznych inwestycji, które napędzały wycieczki, artykuły w gazetach i wykłady. Oficjalne organy władzy spotykały się po to, by mierzyć i testować umiejętności konia.
Rolę w konstruowaniu inteligencji Hansa odegrała cała konstelacja interesów ekonomicznych, kulturalnych oraz naukowych i mogła ona zyskać lub stracić w zależności od tego, czy inteligencja konia okaże się niezwykła, czy też nie.
Widzimy w tym działaniu dwie odrębne mitologie. Pierwszym mitem jest to, że systemy nieludzkie (komputery lub konie) są odzwierciedleniem ludzkiego umysłu. Ten punkt widzenia zakłada, że dzięki odpowiedniemu szkoleniu lub wystarczającym zasobom można stworzyć od podstaw inteligencję podobną do ludzkiej – pomijając to, że człowiek ma ciało, jest uwikłany w relacje z innymi ligencja jest samoistna, jakby była naturalnym bytem, odrębnym od czynników społecznych, kulturowych, historycznych lub politycznych. W rzeczywistości przez wieki pojęcie inteligencji wyrządziło ogromne szkody i było używane do usprawiedliwiania stosunków dominacji, od niewolnictwa po eugenikę.
Mity te widać szczególnie wyraźnie w dziedzinie sztucznej inteligencji, gdzie od połowy XX wieku jak aksjomat traktowane jest przekonanie, że inteligencję ludzką można formalizować i że jest reprodukowalna przez maszyny. Tak jak inteligencję Hansa, starannie rozwijaną jak u dziecka w szkole, uważano za podobną do ludzkiej, tak systemy AI niejednokrotnie opisywano jako co prawda proste, ale zasadniczo podobne do ludzkiej inteligencji. Alan Turing w 1950 roku przewidywał, że „pod koniec tego stulecia używanie słów i ogólna opinia ludzi wykształconych zmieni się tak bardzo, że można będzie mówić o maszynach myślących, nie spodziewając się sprzeciwu”. W 1958 roku matematyk John von Neumann twierdził, że ludzki układ nerwowy jest „na pierwszy rzut oka cyfrowy”. Profesor MIT Marvin Minsky na pytanie, czy maszyny mogą myśleć, odpowiedział: „Oczywiście, że maszyny mogą myśleć; my możemy, a jesteśmy »maszynami z mięsa«”.
Ale nie wszyscy dali się przekonać. Joseph Weizenbaum, jeden z pionierów AI i twórca chatbota ELIZA, sądził, że wizja ludzi jako systemów przetwarzania informacji opiera się na uproszczonym pojęciu inteligencji i że napędza ono „perwersyjną, wielką fantazję” o maszynie, która uczyłaby się „tak jak dziecko”.
Jest to jeden z głównych spornych wątków w historii sztucznej inteligencji. W 1961 roku MIT zorganizował przełomową serię wykładów pod tytułem „Zarządzanie i komputer przyszłości” Udział wzięło wybitne grono informatyków, w tym Grace Hopper, J.C.R. Licklider, Marvin Minsky, Allen Newell, Herbert Simon i Norbert Wiener. Uczestnicy omawiali szybko zachodzące zmiany w przetwarzaniu cyfrowym. Na zakończenie John McCarthy dowodził ze swadą, że różnice między ludzkimi zadaniami a zadaniami maszyny są pozorne. Po prostu niektóre ludzkie zadania są skomplikowane, dlatego sformalizowanie i rozwiązanie ich przez maszyny musi zająć więcej czasu.
Profesor filozofii Hubert Dreyfus zgłosił swoje votum separatum, zaskoczony tym, że inżynierowie „nie biorą nawet pod uwagę możliwości, że mózg mógłby przetwarzać informacje zupełnie inaczej niż komputer”. W późniejszej pracy What Computers Can’t Do (Czego komputery nie potrafią) Dreyfus wskazał, że inteligencja i wiedza człowieka opierają się na wielu procesach nieświadomych i podświadomych, podczas gdy komputer wymaga, aby wszystkie procesy i dane były jawne i sformalizowane14. Dlatego na potrzeby komputerów mniej formalne aspekty inteligencji muszą zostać wyabstrahowane, wyeliminowane lub przybliżone, a wskutek tego komputery nie są w stanie tak przetwarzać informacji o sytuacjach, jak robią to ludzie.
Od lat 60. XX wieku w dziedzinie AI wiele się zmieniło, między innymi dokonało się przejście od systemów symbolicznych do technik uczenia maszynowego, w których pokładano być może przesadne nadzieje. Wczesne spory o możliwości AI w znacznej mierze zostały zapomniane, a sceptycyzm zanikł. Od pierwszej dekady XXI wieku sztuczna inteligencja przeżywa okres gwałtownego rozwoju jako dziedzina nauki i przemysłu. Kilka potężnych firm informatycznych wdraża systemy AI operujące w skali globalnej i znów systemy te są wynoszone pod niebiosa jako porównywalne do inteligencji ludzkiej, a nawet ją przewyższające.
Historia Sprytnego Hansa przypomina nam jednak również to, jak wąsko rozpatrujemy lub rozpoznajemy inteligencję. Hansa nauczono naśladować rozwiązywanie zadań z bardzo ograniczonego zakresu: dodawanie, odejmowanie i literowanie wyrazów. Odzwierciedla to ograniczone wyobrażenie o możliwościach koni czy ludzi. Hans dokonał także rzeczy niezwykłych w zakresie komunikacji międzygatunkowej, występów przed publicznością i cierpliwości, ale tego nie zakwalifikowano jako inteligencję. Jak to ujęła Ellen Ullman, pisarka i inżynierka, przekonanie, że umysł niewiele różni się od komputera, „na dziesięciolecia skaziło myślenie w informatyce i kognitywistyce”, stanowiąc coś w rodzaju grzechu pierworodnego tej dziedziny. Chodzi o ideologię dualizmu kartezjańskiego w sztucznej inteligencji, która pojmuje ją wąsko jako inteligencję bezcielesną, pozbawioną wszelkiego związku ze światem materialnym.
Czym jest sztuczna inteligencja (AI)?
Ani sztuczna, ani inteligentna
Postawmy proste pytanie: czym jest sztuczna inteligencja? Gdy zapytamy o to kogoś na ulicy, wymieni zapewne Siri Apple’a, chmurę Amazona, samochody Tesli lub wyszukiwarkę Google. Gdy zapytamy ekspertów od uczenia głębokiego, udzielą zapewne technicznej odpowiedzi o tym, że sieci neuronowe składają się z dziesiątek warstw otrzymujących etykietowane dane, o przypisanych wagach i progach, oraz klasyfikujących dane w sposób, którego na razie nie umiemy w pełni wyjaśnić. Profesor Donald Michie w 1978 roku, omawiając systemy eksperckie, opisał sztuczną inteligencję jako takie udoskonalenie wiedzy, które „zapewnia niezawodność i sprawność kodyfikacji znacznie przewyższające poziom, jaki mógłby osiągnąć ludzki ekspert – teraz lub kiedykolwiek w przyszłości”. W jednym z najpopularniejszych podręczników Stuart Russell i Peter Norvig piszą, że AI jest próbą zrozumienia i budowy inteligentnych bytów. „Inteligencja dotyczy przede wszystkim działania racjonalnego” zauważają. „W idealnym przypadku inteligentny agent podejmuje najlepsze możliwe działanie w danej sytuacji”.
Każda definicja sztucznej inteligencji wyznacza ramy tego, jak później będzie ona rozumiana, mierzona, oceniana i wdrażana. Jeżeli sztuczną inteligencję definiuje się poprzez marki konsumenckie w imieniu korporacyjnej infrastruktury, to horyzont jest z góry wyznaczony przez marketing i reklamę. Jeżeli systemy AI postrzega się jako bardziej niezawodne lub racjonalne od jakiegokolwiek ludzkiego eksperta, zdolne do wybierania „najlepszych możliwych sposobów postępowania”, to można pomyśleć, że powinno się im ufać przy podejmowaniu ważnych decyzji w zakresie zdrowia, edukacji czy wymiaru sprawiedliwości. Jeśli uwaga skupia się jedynie na konkretnych technikach algorytmicznych, to mogłoby sugerować, że liczy się wyłącznie nieprzerwany postęp techniczny, pomijający koszty obliczeniowe takiego podejścia i jego dalekosiężny wpływ na planetę.
W tej książce twierdzę, że sztuczna inteligencja nie jest ani sztuczna, ani inteligentna. Sztuczna inteligencja jest ucieleśniona i materialna, powstaje z naturalnych zasobów, paliwa, ludzkiej pracy, infrastruktury, logistyki, historii i klasyfikacji. Systemy AI nie są autonomiczne, racjonalne ani zdolne do rozpoznania czegokolwiek bez kosztownego obliczeniowo trenowania na wielkich zbiorach danych lub z określonymi z góry zasadami i nagrodami. W istocie taka sztuczna inteligencja, jaką znamy, zależy od szerszych struktur politycznych i społecznych. Ze względu na ogrom kapitału potrzebnego do budowy sztucznej inteligencji w wielkiej skali i na to, jakie sposoby postrzegania ona optymalizuje, jej systemy ostatecznie muszą być projektowane tak, aby służyły dominującym interesom.
W tym sensie sztuczna inteligencja jest manifestacją władzy.
W tej książce przyjrzymy się temu, jak powstaje sztuczna inteligencja w najszerszym rozumieniu, a także jakie siły – ekonomiczne, polityczne, kulturowe i historyczne – ją kształtują. Gdy powiążemy AI z szerszymi strukturami i systemami społecznymi, unikniemy wyobrażenia, że jest ona domeną czysto techniczną. Na fundamentalnym poziomie sztuczna inteligencja to techniczne i społeczne praktyki, instytucje i infrastruktura, polityka i kultura. Obliczeniowy rozum i ucieleśniona praca są ze sobą ściśle splecione: systemy AI odzwierciedlają społeczne relacje i rozumienie świata, jak również je wytwarzają.
Warto zauważyć, że termin „sztuczna inteligencja” może powodować dyskomfort u informatyków. Określenie to było używane – raz częściej, raz rzadziej – w ciągu ostatnich dziesięcioleci i pojawiało się częściej w marketingu niż w języku badaczy. W literaturze technicznej spotykamy się raczej z „uczeniem maszynowym”. Nazwa „sztuczna inteligencja” pojawia się niejednokrotnie w związku z wnioskami o finansowanie, kiedy inwestorzy wyciągają książeczki czekowe, lub gdy badacze pragną zainteresować prasę nowym odkryciem naukowym. W związku z tym to wyrażenie jest albo uwielbiane, albo odrzucane, co powoduje, że jego znaczenie podlega ciągłym zmianom. Sama używam określenia „sztuczna inteligencja” na oznaczenie potężnej przemysłowej struktury obejmującej politykę, pracę, kulturę i kapitał. Mówiąc zaś o „uczeniu maszynowym”, mam na myśli wiele technicznych podejść (które zresztą także mają społeczny i infrastrukturalny charakter, choć o tym rzadko się wspomina).
Są jednak istotne powody, dla których tak bardzo skupiono się na postępie technicznym – przełomach algorytmicznych, stopniowym ulepszaniu produktów i rosnącej wygodzie. Zawężona, abstrakcyjna analiza dobrze służy strukturom władzy w miejscu, w którym krzyżują się technologia, kapitał i zarządzanie. W celu zrozumienia, że sztuczna inteligencja ma z zasady polityczny charakter, musimy wykroczyć poza sieci neuronowe, statystyczne rozpoznawanie wzorców i zapytać o to, co i dla kogo się optymalizuje, a także kto podejmuje decyzje. Potem możemy prześledzić implikacje takich wyborów.