Aleksandra Przegalińska, najbardziej znana w świecie nowych technologii Polka prowadząca badania na MIT, tworzy pasjonującą biografię Sztucznej Inteligencji.


Jak sztuczna inteligencja zmienia nasze życie.

Kto już wkrótce zastąpi nas w biurze i fabryce? Czy algorytm może mieć emocje? Czy roboty mają świadomość? Kto steruje dzisiejszą polityką z tylnego fotela? Czy zbliżamy się do momentu, w którym będziemy musieli oddać koronę władców Ziemi?

Sztuczna Inteligencja staje się rzeczywistością.

Przyjmujemy wobec niej skrajne stanowiska: od wielkiego technooptymizmu z Doliny Krzemowej do ogromnego lęku, który inspiruje snujących scenariusze rodem z Matrixa i Terminatora. Jak działa? Po co ją stworzono? Jak zmienia nasze życie?

Aleksandra Przegalińska, najbardziej znana w świecie nowych technologii Polka prowadząca badania na MIT, tworzy pasjonującą biografię Sztucznej Inteligencji.

Przytacza sylwetki jej twórców i anegdoty związane z jej początkami, które sięgają drugiej wojny światowej. Wyjaśnia zawiłości technologiczne i odpowiada na trudne etyczne pytania. I odważnie podejmuje dyskusję ze specjalistami i teoretykami przyszłości takimi jak Yuval Harari.

***

Książka Aleksandry Przegalińskiej i Pawła Oksanowicza „Sztuczna inteligencja. Nieludzka, arcyludzka” została nominowana do Złotej Róży, nagrody przyznawanej dla najlepszej książki popularnonaukowej, która służy rzetelnemu upowszechnianiu wiedzy naukowej i wyróżnia się wybitną formą literacką.

Aleksandra Przegalińska, Paweł Oksanowicz
Sztuczna Inteligencja. Nieludzka, arcyludzka
Wydawnictwo Znak
Premiera: 20 marca 2023
 
 


Wyjście z domu, droga do pracy. Praca: edytory tekstów, słowniki, podpowiedzi w internecie, analityka danych. Po pracy: transport, medycyna, zakupy, finanse, sposoby spędzania wolnego czasu zgodne z podpowiedziami algorytmów. Wyjście do kina na film o ludziach, którzy bali się SI. Gatunek – komedia.

Zaczynam dzień ze sztuczną inteligencją, SI. Z pewnością inaczej wygląda ten początek niż wtedy, gdy powstawała ta książka w roku 2020. Mam na czole neutralnie odbieraną przez moją skórę opaskę; sama ją zaprojektowałam i wydrukowałam za pomocą drukarki 3D. Często zmieniam tę część, która przylega do skóry, bo zużywa się dość szybko. Produkcja nowej w warunkach domowych zajmuje około dwóch minut. Na dodatek w prosty i ekologiczny sposób mogę ją zutylizować. W opaskę są wbudowane sensory do detekcji fazy snu. Detektory snu ma również moja pidżama. Całość działa w ten sposób, że budzi mnie zawsze około siódmej rano; precyzyjnie mierzy, czy aktualna faza snu pozwala na łagodne przebudzenie. System podłączony do opaski i pidżamy analizuje dane z sensorów, odnosząc je do spersonalizowanych parametrów dobrego snu, i decyduje, że powinnam otworzyć oczy właśnie w danym momencie. Jednego dnia to może być godzina 07.03, a drugiego – 07.05. Rozbudowana aplikacja na podstawie moich określonych ruchów w łóżku i prądów przechodzących przez mój mózg ocenia też przez całą noc, czy mój sen jest niestabilny, czy spokojny, i w razie potrzeby stara się mikroprądami spowodować jego polepszenie.
Budzę się w moim smart house. Mieszkam bowiem w inteligentnym domu, który adaptuje się do moich potrzeb i stara się dobrze je rozpoznawać. System połączonych sensorów i regulujących ich pracę algorytmów decyduje o powolnym odsunięciu zasłon w sypialni. Wtedy światło dzienne łagodnie dociera do moich oczu. Sama opaska na czole też daje możliwość generowania naturalnego światła, tak abym zawsze budziła się w słoneczny dzień, niezależnie od tego, jaka jest pogoda.
To piękne przebudzenie.
Mój inteligentny dom jest w całości ochipowany, tworzy system IoT (Internet of Things, internet rzeczy) i różne sprzęty współpracują ze sobą nawzajem, a także ze mną. Gdy zatem wstaję, ekspres do kawy już wie, że się obudziłam. W 2020 roku nie jest to zaawansowane rozwiązanie, ale trzeba przyznać, że bywa przydatne i miłe, kiedy to pożyteczne i niewinne urządzenie AGD zaskoczy mnie przygotowaniem – dzięki sensorom i systemowi rekomendacji opartemu na różnych rankingach – mojej ulubionej caffè latte. A może jeszcze zapyta mnie:
– Hi Ola, czy chcesz latte? Potwierdź to.
Wtedy odpowiadam: „Tak, dzisiaj chcę latte” albo: „Nie chcę, zrób mi jednak espresso”.
Tak zaczynam dzień. Od samego ranka uruchamia się wiele procesów, które powodują, że pozostaję w interakcji z technologiami.
Monitor zamontowany na drzwiach garderoby podpowiada rodzaj ubrania adekwatnego do pogody i okazji. Równie dobrze może to być aplikacja w smartfonie w rodzaju tych, które w 2020 roku „nakładają” na głowę różne fryzury albo ubrania, aby przekonać odbiorcę, jak wygląda w danej stylizacji. Tutaj zastosowanie technologii polega na wykorzystaniu bardzo popularnej i istotnej dziedziny sztucznej inteligencji, jaką jest przetwarzanie obrazu. System pyta mnie, czy dziś będzie mi dobrze w zestawie: dżinsy i sweter w reniferki. Skąd te reniferki? Uwielbiam pocieszność generowaną przez swetry z tym charakterystycznym wzorem, chociaż kojarzą mi się one głównie z programistami, którzy noszą rogowe okulary i niewiele mówią (odwrotnie niż ja). Jeśli jednak tego dnia nie chcę się ubrać w ten sposób, oto aplikacja podpowiada mi kolejny zestaw: może lepiej dżinsy i marynarka? Zatwierdzam: „Tak, to ten look, to chcę mieć dziś na sobie”. Po kliknięciu odpowiedniego przycisku garderoba otwiera się i na półkach w szafach podświetlają się miejsca i wieszak, na których znajdują się ubrania zaakceptowane przeze mnie. Tak nawigowana ubieram się trochę szybciej niż bez tej pomocy i jest szansa, że będę bardziej zadowolona z wyboru. Dodatkowym plusem jest to, że SI przeszukuje całą garderobę, a nie tylko półki, które są na wyciągnięcie ręki. Przypomina mi w ten sposób o ubraniach, o których już zapomniałam, i być może zmniejsza apetyt na robienie nowych, często niepotrzebnych zakupów ubraniowych.
Chcę jechać do pracy. Tu objawia mi się sztuczna inteligencja w całej krasie: mam do dyspozycji autonomiczny transport publiczny albo… autonomiczny samochód. Może jeszcze będę mieć wybór: auto w pełni autonomiczne lub tylko wsparcie dla kierowcy w postaci SI. Niemniej auto z pewnością będzie wyposażone w system detekcji obiektów, tak zwane widzenie maszynowe, machine vision, oraz w system nawigacji satelitarnej z sensorami powierzchni. Przez łączność satelitarną połączy się z miejskim systemem regulacji ruchu, abym omijała korki. Zresztą nie chodzi tylko o ominięcie korków, takie systemy mamy już przecież w roku 2020, ale na pewno w tej kwestii pójdziemy o krok dalej: po naciśnięciu „ON” w moim samochodzie włączę się do szerszego systemu, który te korki spróbuje sam rozładować. Zadziała zatem analityka predykcyjna oraz machine learning, uczenie maszynowe (patrz: słownik).
Tu ważna uwaga. Kiedy wsiadam do samochodu autonomicznego, a takie są już w sprzedaży w 2020 roku, nie jestem kierowcą, ale „współkierowcą” lub nawet pasażerem. Bot (skrót od „robot”, program komputerowy), który jest w nim zamontowany, wita mnie słowami: „Dzień dobry” lub: „Cześć, Olu!”. Odpowiadam:
– Cześć, zawieź mnie do pracy.
Po drugiej stronie idealnie zsyntetyzowany głos mówi mi, którą drogą pojedziemy i ile zajmie to czasu. Bot asystent proponuje też włączenie radia albo rozmowę na temat wiadomości dnia. Pogawędka jest swobodna i przypomina taką, jaką można toczyć ze znajomym.
Kiedy system przetworzył już wszystkie inicjujące komendy, samochód rusza. Jedziemy, korzystając ze wspomnianego systemu optymalizacji trasy. W 2020 roku niektórzy twierdzą, że mógłby on działać jako blockchain (technologia łańcucha bloków danych, peer-to-peer; patrz: słownik) – rozwiązanie, dzięki któremu każdy użytkownik w sieci jest jej równoprawnym uczestnikiem. Na pewno jest to jedna z możliwości zrealizowania takiego systemu.
Po drodze może zdarzyć się tak, że kichnęłam, a sensor zamontowany w moim ubraniu odnotował, iż podniosło się stężenie przeciwciał w mojej krwi. Wtedy otrzymuję alert na aplikację w smartfonie – przy założeniu, że wciąż korzystam jeszcze ze smartfona, a nie z nieznanego bliżej w 2020 roku uniwersalnego interfejsu (możliwe wszak, że w niedalekiej przyszłości smartfon będzie już sprzętem retro). To może być też modna opaska na rękę, którą dostałam na imieniny, a wcześniej wybrałam w internetowym sklepie z biżuterią. W każdym razie załóżmy, iż technologia ubieralna stwierdza przy okazji, że mam też delikatnie podwyższony puls. Wtedy mój bot komunikuje się z tym w samochodzie, który mówi:
– Olu, wydaje mi się, że czujesz się trochę gorzej niż zazwyczaj. Czy skontaktować cię z lekarzem?
Wtedy odpowiadam: „Tak, poproszę”. Automatycznie zmieniamy trasę i po drodze do pracy wstąpimy do lekarza. Oczywiście mam także możliwość wydać komendę „decline” – odmawiam i jedziemy bezpośrednio do pracy. Wtedy system, jeśli sobie tego życzę, może mi zaproponować leczenie zaczynającej się infekcji gardła sam z siebie, według predykcji i znajomości mojego organizmu z poprzednich przeziębień. To rozwiązanie byłoby szczególnie pomocne dla osób, które cierpią na groźne chroniczne choroby: cukrzycę czy epilepsję.
A czy sztuczna inteligencja może zachorować? Skoro ja jestem podatna na wirusy, to czy system komputerowy też może analogicznie zachorować i nie nadawać się do pracy? Choroba jest specyficzną koncepcją, którą zarezerwowaliśmy raczej dla organizmów żywych, ale oczywiście można w określonej sytuacji powiedzieć, że system w jakimś sensie zachorował. I chociaż wiemy, że systemy w 2020 roku łapią wirusy z internetu, to jednak jest to coś innego niż ludzkie wirusy. Ale może się zdarzyć tak, że po drodze ktoś zhakuje mój samochód i spróbuje mnie porwać, na przykład na przyjęcie. W świecie 2020 roku przeprowadzano już poważne dyskusje o tym, że autonomiczne samochody nie powinny się pojawiać w parku samochodowym osób o wysokiej randze publicznej, bo w takim pojeździe lider czy liderka państwa mogliby po prostu łatwiej zostać uprowadzeni. To poważne zagrożenie, jeśli chodzi o rozwój autonomicznych samochodów, przynajmniej z dzisiejszego punktu widzenia. Systemy autonomiczne w czasie testów zawodziły i zdarzało się, że samochód z autopilotem pojechał w inną stronę, niż zamierzano, lub – co groźniejsze – nie rozpoznawał obiektów wokół siebie, na przykład myląc niebieską ciężarówkę z niebem. Oczywiście każdy system może zostać zawirusowany, zainfekowany, po prostu – przejęty. Może się też wydarzyć wiele innych rzeczy, niekoniecznie z powodu zewnętrznej interwencji, na przykład mogą się skumulować złe dane. System może wejść w stan przechyłu algorytmicznego (zbiasować się, od ang. bias – stronniczość; patrz: słownik). To wątek często podejmowany w 2020 roku w refleksji nad rozwojem SI.
Załóżmy, że w tej historii z życia w przyszłości jestem dziennikarką i muszę się orientować, co się dzieje na świecie i w moim mieście. Ten zawód wydaje się szczególnie czerpać z wielkich możliwości SI. W porównaniu z nim bycie data scientist, którą jestem w 2020 roku, pracując nad rozwojem tych wszystkich inteligentnych opasek, szaf i samochodów, wydaje się mniej ekscytujące. Jako dziennikarka w dużej mierze korzystam więc w mojej pracy ze sztucznej inteligencji. Nie czuję obawy, że SI całkiem zastąpi mnie w pracy, bo jestem też publicystką, piszę dużo subiektywnych tekstów i nie sądzę, że byłoby to algorytmizowane. Wyrazisty styl pisania, niepodrabialność zdań oraz suma poglądów chronią mnie przed zautomatyzowaniem. To ma już znaczenie w pracy w mediach w 2020 roku. Korzystam jednak z danych zaciąganych zewsząd z internetu, z włączeniem analityki danych – podpowiedzi kategoryzujących, z kim warto porozmawiać na dany temat, czyli innymi słowy z propozycjami i referencjami ekspertów.
– Rekomenduj! – wydaję polecenie.
W ten sposób proszę system o zasugerowanie kilku ciekawych pytań, zagadnień, które można poruszyć w zadanym mi przez redakcję tekście o genetyce. Później zastanowię się, czy te wskazówki przydadzą mi się, czy nie. Otrzymuję również od innego systemu informacje o tym, jaki jest profil psychologiczny osoby, z którą będę rozmawiała. Odbywa się to na podstawie danych wyciągniętych z sieci internetowej, korzystam zatem z dobrodziejstw socjometrii (patrz: słownik).
Dowiaduję się na przykład, że z przedstawicielami rodziny Przegalińskich najlepiej rozmawia się nieformalnie, bo lubią być na „ty”. Ale z pewnym panem – specjalistą w zakresie genetyki – rozmawia się inaczej, bo jego styl komunikacji jest bardzo formalny. Jednak jest rekomendowany jako człowiek, który nie owija w bawełnę, i dlatego dobrze mieć jego wypowiedź w tekście. Poza tym nie jest osobą, która lubiłaby dygresje, powinnam więc od razu zadać konkretne pytanie, a on będzie zmierzał do pointy najkrótszą drogą.
Mówię do mojego podstawowego asystenta:
– Poszukaj jeszcze innych ekspertów od genetyki.
Gdy okaże się, że w wynikach wyszukiwania znajdują się tylko mężczyźni, pomyślę zdziwiona: „Co to za propozycja? Żadnej kobiety?”. Będzie to przykład ewidentnego skrzywienia algorytmicznego, biasu, bo system nie wybiera tak, jak ja bym chciała, tylko podaje wynik według swoich wag (patrz: słownik). Weźmy inny przykład: system proponuje mi osoby tylko o określonym stażu, a ja doskonale wiem o kimś, kto ma znacznie krótszy staż pracy w dziedzinie genetyki, że jest również świetnym rozmówcą, więc przydałby mi się w mojej pracy, choć system go nie rekomenduje. Oto przykład „choroby” systemu – jest możliwa w wielu aspektach, niekoniecznie związanych z hakingiem czy zawirusowaniem. Dlatego przy researchu korzystam z co najmniej dwóch asystentów, aby mieć różnorodne źródła pozyskiwania informacji.

Paweł Oksanowicz: Jak zdefiniować prawdę w takiej rzeczywistości? Pozostańmy przy twoim przykładzie: jak określić, który z ekspertów naprawdę najlepiej nadawałby się do tego, byś przeprowadziła z nim wywiad?
Aleksandra Przegalińska: Zależy, co masz na myśli. Każdy system wyszukiwania jest uaktualniany, co pozwala na kontrolę nad nim. Dzięki temu założenia systemu mogą się zmieniać. Przeważnie ustawia się pewne wagi w nim – ustala się cele, ale też parametry tego, co definiujemy jako sukces wyszukiwania. Później staram się sprawdzać, jak wobec tych parametrów ustawiłam preferencje i jak system zadziałał. Ale preferencje też mogę zmieniać, to znaczy mogę zakomunikować: „Nie podoba mi się to, że wyszukujesz według takich kategorii. Chcę, żebyś znalazł mi kogoś/coś innego” – i zmienić w ten sposób filtry wyszukiwania. Oczywiście ważne jest to, żebym wiedziała, co chcę włożyć do systemu na początku – co mu podać jako bazę wiedzy. I tu niebezpieczną przestrzenią jest dla mnie ta, gdzie nie mam takiej możliwości. Jeśli znam osobiście dużo ludzi i mogę dodać ich dane do wiedzy swojego systemowego asystenta, to taka sytuacja jest do zaakceptowania. Mogę też powiedzieć: „Nie, chcę genetyka kobietę, i już!”. Jednak zauważ, że jako dziennikarce na pewno zdarzy mi się działać w takich obszarach, w których nie będę mieć wiedzy a prori i nie będę wiedziała, jak sformułować swoje życzenie. Na przykład, sięgając do innej specjalizacji, wydaję komendę: „Chcę poznać najlepsze, najdroższe gatunki kawy na świecie”. Załóżmy, że się na tym nie znam, a to wiedza rzadko spotykana. Wtedy zgodzę się bezkrytycznie z tym, co zaproponuje asystent.
Obecnie mówi się dużo o AI supervision, superwizji-nadzorze systemów, postulując, aby algorytmy komputerowe sprawdzały siebie nawzajem. Bierze się to stąd, że firmy są pozywane do sądu na przykład z powodu przechyłu algorytmicznego reprezentowanego przez system SI rekrutujący do pracy albo z powodu wskazywania ograniczonej liczby kandydatów do jakiegoś zadania. Moim zdaniem jest to obiecującym, rozwojowym zjawiskiem. Zauważam dużą chęć wspólnego działania, aby ów bias zredukować. Stronniczość można zlikwidować za pomocą ludzkiego wkładu, ale można też użyć wspomnianej superwizji samej sztucznej inteligencji. Obok właściwego działa system alternatywny, który podaje inne propozycje ekspertów i ekspertek w danej dziedzinie. Taka jest moja praktyka z przyszłości. Zgodnie z nią osobiście podejmuję decyzję, które z rozwiązań jest najlepsze. W grę wchodzi wyczucie człowieka, czyli system rekomendacji, na którym polegaliśmy do tej pory przez tysiąclecia. Człowiek pozostaje tu wciąż nadrzędny.
W naszym dniu ze sztuczną inteligencją dojechałam do mojej redakcji dzięki wsparciu bota. Przy okazji połączyliśmy się ze smart house i okazało się, że w apteczce zabrakło tabletek przeciwbólowych. Po moim powrocie powinny już być pod drzwiami albo na stole w kuchni; dom sam wpuści robota kuriera z zakupem.
W redakcji chcę napisać maile do zaakceptowanych przeze mnie ekspertek i ekspertów. Załóżmy, że są to ludzie z anglojęzycznego kręgu kulturowego. Teraz też mogę skorzystać z pomocy bota. Otwieram edytor tekstu na Gmailu i zaczynam wpisywać frazę, a cała reszta zdania pojawia się w rozwinięciu. Tak samo działają w 2020 roku systemy kontekstowe. Chodzi w nich o przetwarzanie języka naturalnego. Operują na dosyć typowych skryptach działania. Gdy zaczynam pisać cokolwiek, mam sporą szansę, że system kontekstowy trafi w to, co mam akurat na myśli (on się tego domyśla), i zaproponuje koniec wyrazu czy zdania. Tak więc zamiast spędzić dziesięć minut na napisaniu pięciu wiadomości, spędziłam nad nimi tylko minutę. E-maile do wskazanych osób, bezbłędne gramatycznie, zostają wysłane.
Załóżmy, że ktoś z zaczepionych przeze mnie ekspertów odpowiada od razu. „Spotkam się z tobą chętnie na kawę jutro o godzinie dziesiątej”. Właściwie już wtedy nie odpowiadam, tylko system sugeruje mi odpowiedź, na przykład: „Fajnie, zgadzam się”, i od razu wrzuca mi informację o tym terminie do e-kalendarza. Mogę też liczyć na to, że kalendarz zintegrowany z asystentem wyśle mi przypominacz o nadchodzącym spotkaniu. System Duplex Google’a, który znamy już teraz, z pewnością wtedy też będzie funkcjonował i zdejmie ze mnie konieczność zadzwonienia do kawiarni, w której spotkam się z ekspertem. (Duplex będzie działał w 2020 roku w najnowszej wersji telefonu Google’a, w tle aktywności właściciela). Mój Duplex może zadzwonić do Duplexa osoby, z którą chcę się umówić, ustalić czas i miejsce spotkania, może nawet wysłać wiadomość o tym spotkaniu do kolejnego Duplexa. Dwa Duplexy porozmawiają ze sobą i ustalą szczegóły spotkania. Mówię jeszcze: „Asystencie, zadzwoń do Jenny i umów mnie z nią na jutro na dziewiętnastą na kolację”, a asystent potwierdza: „OK”. Wiem wtedy, że zrozumiał moją intencję, zna mój głos i język, analizuje także kontekst mojej wypowiedzi. Mogę do niego nawet mówić z różnym akcentem, a on i tak rozszyfruje, o co mi chodzi. Asystent składa więc w całość sekwencje tego, co powinnam zrobić jutro wieczorem, a ja mogę w tym czasie poczytać książkę albo dowiedzieć się czegoś ze świata polityki. Po minucie dostaję tylko potwierdzenie, że spotkanie jest umówione, a adres restauracji wpisany do pamięci e-kalendarza i autonomicznego samochodu.

PO Mogą jednak pojawić się kłopoty. Pamiętam, że w mediach w 2019 roku pokazano pana, który wrócił od dentysty do swego smart domu. Nie mógł wejść do środka, bo system rozpoznawania mowy nie poznał swojego właściciela. Zabieg zwyczajnie zniekształcił mu czasowo aparat mowy.
AP To jest oczywiście możliwe, ale jeśli ktoś mądrze zaprojektuje system dostępu do smart house, do podobnej sytuacji nie dojdzie. Zawsze trzeba pomyśleć o alternatywnej opcji, zostawić możliwość innego sposobu autoryzacji. Przecież na co dzień, w sytuacji gdy zapomnę hasła do jakiegokolwiek systemu, mam pod ręką sposoby przywrócenia dostępu do niego za pomocą innych metod. Rozwiązanie, w którym polegamy tylko na jednym kanale autoryzacji, jest rozwiązaniem dość prymitywnym i zawsze może się to skończyć jak – tak to nazwijmy – „po dentyście”. Decentralizacja jest tu podstawą i oznaką przezorności.

Wracamy do przyszłości. Mój asystent wykonuje dla mnie dużo pracy. Nawet można byłoby pokusić się o stwierdzenie, że co prostsze rozmowy i wywiady też robi za mnie. Nie zakładajmy, że do takiej rewolucji w mediach może dojść szybko. Jeśli już miałoby się tak stać, to na przykład w dziedzinie publikacji na Twitterze, który – jak wiemy – w 2020 roku jest polem działania wielu botów (systemów opartych na algorytmach do tworzenia treści postów, prowadzenia rozmowy). Można jednak przyjąć, że asystent może zamiast mnie wypytać moich gości o podstawowe kwestie związane z tematem artykułu. I wspólnie napiszemy do końca dnia tekst, który zostanie opublikowany w internecie. Do tego zdążę jeszcze przygotować podcast w języku angielskim – rozwinięcie tego tekstu, w czym także pomoże mi mój asystent. Przyjmę też wycieczkę młodzieży w redakcji. W oprowadzeniu po newsroomie pomogą mi okulary VR, virtual reality, wirtualnej rzeczywistości. Asystent przypomni mi wreszcie o zbliżającej się porze posiłku, który będzie czekał na mnie w kantynie redakcyjnej – to danie w ramach diety pudełkowej, mocno spersonalizowanej, przywiezione przez samochód-robota.
Mój zły humor tego dnia może być spowodowany nie tylko lekkim przeziębieniem. Na mój nastrój wpływa też atmosfera w redakcji, która od dłuższego czasu mi nie odpowiada. Na przykład szefowie zdecydowali, że bierzemy kierunek na infotainment, bo złapali lukratywny kontrakt reklamowy na kosmetyki, a ja chcę się zajmować polityką na poważnie. Chcę więc zmienić pracę. Pomoże mi w tym także mój asystent. Już w 2020 roku działają boty, które są przeznaczone do takich zadań. Jestem członkinią rady doradczej firmy w Stanach Zjednoczonych, która nazywa się 50 Skills. Zajmujemy się doskonaleniem bota dla działów HR, human resources, zarządzania kadrami, który wyszukuje dobre oferty z rynku pracy. Takie narzędzie robi testy psychometryczne, socjometryczne, podpowiada strategie rozwoju osobistego. Ostatnio testowaliśmy na MIT, Massachusetts Institute of Technology [najsłynniejsza politechnika świata, gdzie Aleksandra Przegalińska pracuje naukowo – P.O.], podobne narzędzie do badania cech psychologicznych, które działa na podstawie tego, JAK napiszesz test, a nie CO napiszesz. Badamy takie parametry jak nacisk klawisza albo długopisu-rysika na monitorze. Czy twoje pismo jest lekkie, sprawne, czy zacinasz się przy odpowiedziach? Jak długo zastanawiasz się nad odpowiedziami? Na podstawie takich cech asystent w tle tworzy ocenę charakterologiczną i wskazania, do jakiej pracy jesteś predysponowany. Oczywiście tu też trzeba bardzo uważać, jak ostrzega nieprzyjemny przypadek amerykańskiej firmy Amazon, największego sklepu internetowego świata. Firma ta skorzystała ze sztucznej inteligencji, która miała rekrutować do pracy, i przyjęła samych białych mężczyzn. Po drodze system zoptymalizował profil idealnego pracownika, dochodząc do wniosku, że w interesie firmy leży zatrudnienie białego mężczyzny. W danych wejściowych miał parametry wynikające z cech osób aktualnie zatrudnionych i bardzo dobrze wypełniających swoje zawodowe funkcje. Traf chciał, że w tym zbiorze znaleźli się akurat sami mężczyźni. W związku z tym system dyskwalifikował od razu wszystkie kandydatki do pracy, niezależnie od ich zawodowego stażu i kompetencji. To bardzo częsty przechył algorytmiczny, bardzo często rekrutacja jest niekorzystna choćby właśnie dla kobiet. Dobrze, że takie przykłady wychodzą na jaw, bo ukazują ograniczenia systemów SI, które trzeba korygować. Już dzisiaj funkcjonują zatem narzędzia HR, które wspomagają proces rekrutacji – przeszukują sieć w poszukiwaniu oferty pracy najlepszej dla konkretnej osoby. Wprawdzie sieć neuronowa może nas zaskoczyć, myśląc out of the box – nieszablonowo, niemniej zaskoczenie w rodzaju: „Pawle, najlepiej dla ciebie byłoby zostać kucharzem”, jest dalece nieprawdopodobne.
W moim świecie przyszłości właśnie zakończyłam dzień pracy. (W wielu profesjach różnica między pracą a czasem wolnym może być jeszcze bardziej zatarta niż dzisiaj, ale załóżmy, że sama uznałam swoją pracę za zakończoną). Co teraz? Podróż do domu przypomina tę poranną. Spostrzegam, że lodówka świeci pustkami, trzeba zaopatrzyć dom w produkty spożywcze. Wydaję polecenie zakupów, wymieniając produkty: twaróg, ryby, chleb, masło, mleko, warzywa, owoce. Lodówka podpowiada mi, że przeważnie jeszcze zamawiam jogurt brzoskwiniowy, więc zamawiam go także. Lub nie – to moje prawo. Co się wtedy dzieje tak naprawdę? Działa głęboka sieć neuronowa (patrz: słownik), na której oparty jest system rekomendacyjny analizujący moje preferencje. Podsuwa mi: „Czy chcesz inny jogurt tej samej firmy?”. „Nie, dzisiaj nie”. „Dobrze, szukam dalej”. Po chwili dowiaduję się, że jogurt konkurencji ma dziewięćdziesiąt osiem procent wspólnych składników z tym moim ulubionym, jest też podobny w smaku. To kolejne wskazanie dla mnie. System pyta: „Czy może masz ochotę na ten jogurt?”. Odpowiadam: „No dobrze, taki może być, ewentualnie”. Ale lodówka nie odpuszcza i przypomina mi, że moja lista preferencji jest następująca: śmietana, tarty ser i pomidory w oliwie. Klikam „OK”. Zamawiam te produkty. Mogę to wszystko zrobić także przez mojego asystenta w smartfonie, ale tym razem daję mu odpocząć. Lodówka podpowiada mi jeszcze, że mam kilka produktów na liście poza sektorami nabiału czy owoców i warzyw. „Ostatnio nie zamawiałaś kosmetyków ani artykułów higienicznych”.
Opisany mechanizm może działać jak w 2020 roku system rekomendacyjny Alexa wspomnianej firmy Amazon, ale najpewniej (jeżeli Amazon nie uzyska pozycji monopolistycznej, o co będzie trudno) na rynku będzie już wiele innych firm, które stworzą takie systemy. W amerykańskich domach jest już dziś pięćdziesiąt milionów takich urządzeń, z którymi można się w opisany sposób porozumiewać co do zakupów, a one załatwiają sprawę najszybciej, jak potrafią, włącznie z dostawą sprawunków do domu.
Zamówione produkty trafiają do mnie po góra dwóch godzinach; tak to przynajmniej wygląda w moim życiu w Massachusetts w roku 2020. A jeśli zamawiam późnym wieczorem, przyjeżdżają następnego dnia rano.
Zakupy już zrobiłam, nie miałam w tym specjalnego udziału, bo wszystko przyjechało pod mój dom w mikrolodówkach. Asystent daje znać, że transport czeka pod drzwiami. Rozpakowuję zakupy i słyszę, że asystent rozpoczyna rozmowę:
– Wyczuwam, że mało dzisiaj rozmawialiśmy. Czy mam ci opowiedzieć żart, jaki znalazłem w sieci?
– Tak – odpowiadam.
Po chwili śmiejemy się razem.

PO Nie wiem, czy w przypadku kobiety zagajanie rozmowy jest konieczne. Opieram się tutaj na wynikach badań, z których dowiadujemy się, że kobieta dziennie wypowiada średnio około trzydziestu tysięcy słów, a mężczyzna – dziesięć tysięcy.
AP Nie jestem przekonana, że jest to uniwersalna prawda. Na przykład w dyskursie politycznym w ogóle nie ma kobiet albo ich nie słychać – chociaż to też zależy od opcji politycznej – a politycy mówią non stop. Może w biurach rzeczywiście tak bywa, że mężczyźni są milczący, a panie rozgadane? Zresztą takie dane też zahaczają o stronniczość algorytmiczną i to raczej ty powinieneś się w tej sytuacji oburzać.

[My też śmiejemy się razem].

Nie ma się z czego śmiać. W tej sytuacji naprawdę może się pojawić bias algorytmiczny. Gdy system wywnioskuje, że kobiety mówią więcej, pomyśli też, że to z mężczyznami powinien więcej rozmawiać, a niby dlaczego? Może kobieta taka jak ja potrzebuje czterdziestu tysięcy słów na dzień?
À propos atmosfery w pracy i sztucznej inteligencji – oprócz prowadzenia badań nad tym, kto używa ilu słów i jak często, możemy też mierzyć, jaka jest dynamika zaangażowania poszczególnych osób w pracę. Na MIT testujemy urządzenie, które nazywa się badge socjometryczny. Stworzył go mój szef profesor Peter Gloor wspólnie z innym bardzo znanym badaczem – profesorem Alexem Pentlandem. Ma prostą formę identyfikatora noszonego na szyi, który sprawdza, jak często zabierasz głos w dyskusjach, na tle tego, jak często inni dyskutują. Podaje parametry dotyczące tego, jak daleko od swoich rozmówców stajesz podczas interakcji albo jak daleko oni stają od ciebie. Mierzy to, jak głośno mówisz, czyli czy przebijasz się w publicznych sytuacjach. Gdy wypowiadasz się cicho i mówisz rzadko, oscylujesz na peryferiach sieci pracowników/znajomych. I odwrotnie – kiedy jesteś częściej obecny w dyskusji i skracasz dystans pomiędzy sobą i innymi ludźmi, wtedy wydaje się, że jesteś centralnym węzłem sieci albo co najmniej ważnym jej elementem. Jeśli na przykład twój szef chciałby sprawdzić, jaka jest dynamika waszego zespołu, to analizując takie dane, może stwierdzić: „O, Paweł, jesteś ostatnio mało zaangażowany, mało się odzywasz. Co się z tobą dzieje? Chcesz o tym pogadać?”. Ale i ty sam możesz skorzystać z takich obserwacji.
W domu przyszłości mój asystent może policzyć, że wypowiedziałam w ciągu dnia piętnaście tysięcy słów, bo przecież jestem trochę przeziębiona, i do osiągnięcia średniej będzie mi brakowało wciąż połowy. Pamiętajmy jednak, że to jest nasz łagodny przyjaciel, a nie nadzorca, i może być nam pomocny, jeśli tylko sobie tego życzymy.

PO Wciąż nie nazwaliśmy twego asystenta. Oczywiście będzie miał jakieś imię?
AP Nazwę produktu zapewne będzie mieć, tak jak Amazon ma Alexę, Apple – Siri, a Google – Duplexa. W przyszłości będę mogła spersonalizować asystenta, robiąc z niego przyjaciela – Bena, albo przyjaciółkę – Agę. Może mieć męski albo żeński głos.
PO Proponuję na twoją cześć nazwać asystentkę Olexa, od Oli, zdrobnienia Aleksandry, twojego imienia.
AP Mam nadzieję, że buduje to pozytywne skojarzenia na linii człowiek – sztuczna inteligencja! Wracając do podróżowania w przyszłość, musimy wziąć pod uwagę, że Alexa jak na razie nie jest systemem kontekstowym, chociaż docelowo ma być połączona z sensorami w domu. Doprowadzi to do tego, że powinna mniej więcej wiedzieć, w którym pokoju przebywasz, co robisz.

Wyobraźmy sobie zatem, że dostałam swoje zakupy do domu. System przyszłości wie też, jakie miałam danego dnia interakcje ze środowiskiem pracy. Tymczasem mogę otrzymać wiadomość od asystenta płatności, że zbliża się termin ważności ubezpieczenia, ale to – kolejną płatność, które niestety nie znikną w przyszłości – prawdopodobnie załatwię od razu lub, co bardziej prawdopodobne, przez holistyczną bramkę, jaką będzie moja – jak ją nazwałeś – Olexa. Sądzę bowiem, jak już sugerowałam, że w przyszłości będziemy obcować z uniwersalnym interfejsem, bramką do kontaktu z różnymi systemami różnych instytucji i z internetem rzeczy – czymś, co całościowo obsłuży moją egzystencję. Już w filmie Ona z 2013 roku przedstawiono całkiem uprawnioną wizję jednego systemu operacyjnego zawiadującego różnymi aspektami życia bohatera; wydaje mi się, że biznes i świat zmierzają w tę stronę. Przecież w rozwoju technologii chodzi o to, aby wszystko upraszczać. Wspominam tu tylko o interfejsie, to, co będzie za nim, to już zupełnie inna rzecz. Bo zawsze chodzi o to, że ludzie chcą krótko i szybko załatwiać swoje sprawy. Powinna im służyć do tego jedna bramka głosowa. Mówią na przykład: „Alexa, zapłać rachunek”, „Alexa, powiedz: jaka pogoda?”, „Alexa, zrób listę zakupów”, i nie mają ochoty instalować kolejnych aplikacji do każdej z tych osobnych spraw. Ale przy braku zdywersyfikowania usług niekoniecznie niesie to ze sobą samo dobro. Z punktu widzenia rynku konsumenckiego, jego różnorodności i konkurencyjności, niedobrze by chyba było, gdybyśmy mieli tylko jedno rozwiązanie komercyjne, na przykład w postaci usługi Amazona. Chociaż na pewno chcielibyśmy – ze względu na związane z tym ułatwienia – aby było to jedno zintegrowane rozwiązanie w obrębie naszego domu.
Moja obawa dotyczy tego, że za interfejsem kryje się kilka niebezpiecznych powiązań z sytuacjami, w których możemy być wykorzystywani. Żywię więc nadzieję, że w przyszłości takich asystentek jak Alexa będzie w ofercie rynkowej bardzo dużo. Bank niezależny od Amazona będzie komunikował się z nami przez swoją aplikację, taksówki, jedzenie zamówimy też osobnymi kanałami, a wszystkie one połączą się w jedno w smart house. Podkreślę jednak, że to jest pytanie dużego kalibru – w którą stronę pójdzie rozwój SI komercyjnej, zwłaszcza w zakresie botyki: czy w kierunku jednej holistycznej bramki, czy też będzie tych bramek wiele, poświęconych osobno różnym usługom? Przypadek pierwszy nasuwa mi sporo wątpliwości, na przykład wydaje mi się, że bankowcy będą się obawiali przekazywać dane o swoich usługach i klientach do tak dużego gracza jak Facebook, Amazon czy inny dostawca potencjalnego uniwersalnego interfejsu. Będziemy jeszcze mieć okazję o tym porozmawiać. Wprawdzie już teraz w USA szefowie banków wychodzą z propozycjami do Facebooka czy Google’a, aby płatności bankowe obsługiwać przez nich. W ten sposób uprzedzają wojnę o coraz bardziej kurczące się prowizje. Chodzi o znalezienie wspólnego rozwiązania, jak i ustalenie założeń przyszłej współpracy. Trzeba tu jednak zachować ostrożność. Amazon, który fascynuje mnie najbardziej ze wszystkich, bo to agresywny gracz w komercyjnym rozwoju SI, z pewnością ma apetyt na to, aby zagarniać coraz więcej dla siebie. Przecież Alexa została stworzona właśnie po to, aby zagarniać te prowizje. Facebook też testował swoje rozwiązanie w tym zakresie w aplikacji Messenger. Można było przesłać dolara czy dwa z powiązanego konta za pomocą jednej komendy głosowej. Dogorywający Snapchat również proponował e-przekazy drobnych sum. Przesyłałaś czy przesyłałeś komuś dolara, a ta osoba zostawała wizualnie obsypana deszczem dolarów. Głównie młodzież wysyłała sobie w ten sposób pieniądze. Uważam, że przyszłością rynku mikropłatności jest realizowanie drobnych transakcji finansowych głosowo.
W świecie przyszłości nadszedł wieczór. Chcę odpocząć, miło spędzić czas. Może zdecyduję się na Netflixa? Waham się pomiędzy filmem a książką, ale taką, w której sama byłabym bohaterką. Jeśli chodzi o taką interaktywną książkę, to jest to rzeczywiście dopiero pieśń przyszłości, ale w zakresie spersonalizowanej oferty filmowej mamy już w 2020 roku różne rozwiązania. Netflix podąża szybkim krokiem ku przyszłości i jest bardzo interesującym dla obserwatorów graczem na rynku rozrywki, a znowu dla Hollywood czy stacji telewizyjnych – groźnym rywalem. Używa sieci neuronowej, zasilając rekomendera, czyli system rekomendacji oparty na twoich preferencjach. Ten rating ma bardzo zbiasowany charakter, bo mechanizm, który proponuje mi coś do oglądania, podsuwa filmy podobne do tych, jakie już widziałam.
W przyszłości możemy pójść dalej; może będę chciała wziąć udział w hybrydowej grze wirtualnej, stając się jedną z jej bohaterek? Albo na tej samej zasadzie obejrzeć film? Korzystając z systemu narracyjno-kontekstowego, który reaguje na to, co mówię, wpływam na narrację zbudowaną przez algorytm. Dzieje się to w czasie rzeczywistym, fabuła zmienia się „od ręki”. Chodzi więc o coś więcej niż scenariusz filmu – chodzi o grę. Z nałożonymi goglami VR podróżuję przez Tybet lub gdzie indziej, gdzie usytuowałam grę. Mogę też zaprosić więcej osób do tej gry, która jest formą współuczestnictwa w wirtualnej rzeczywistości, abyśmy razem się pobawili w emocjonujące przygody.
Takie spersonalizowane produkty popkultury, spersonalizowane narzędzia rozrywki będą popularne. Dzięki wpisaniu w system narracyjny moich własnych parametrów sieć neuronowa stworzy opowieść, i to w dodatku wciągającą, barwną, ciągnącą się w nieskończoność. Bo asystent oparty na sieci neuronowej w tym przypomina człowieka, że jego sposób wyszukiwania i myślenia nie jest oczywisty. Może mnie mocno zaskoczyć tym, co zaproponuje. Nie musi być to zawsze zaskoczenie pozytywne, ale propozycje z pewnością nie będą schematyczne. Asystent nie będzie jechał palcem po liście tego, co już zobaczyłam, i podsuwał dzieł tego samego autora, reżysera. W zamian zaproponuje coś, czego dotąd nie widziałam, nie spróbowałam.
Nie wspomniałam jeszcze o innym ciekawym, twórczym aspekcie obcowania z SI. Mogę tworzyć dzieła sztuki, czy też quasi-sztuki, wspólnie ze sztuczną inteligencją. Jeśli wieczorem, na przykład, przyjdzie mi ochota coś skomponować, to już w 2020 roku mogę skorzystać z takich systemów sztucznej inteligencji, które pomagają w procesie twórczym. W ramach zaproponowanych przez Google’a prostych eksperymentów z SI (Google AI Experiments – https://experiments.withgoogle.com/collection/ai) do dyspozycji wszystkich użytkowników (bez specjalnych umiejętności w zakresie kodowania) jest sieć neuronowa, która myśli, jak skończyć utwór, który my zaczęliśmy.
Mogę też mieć do dyspozycji myślącą sieć, która będzie malować ze mną obrazy. Nie sądzę, by to była droga do sławy dla ujawnionego geniuszu plastycznego, bo wszyscy będziemy mieć tę samą możliwość, wszyscy będziemy więc takimi samymi artystami. Dlatego sądzę, że ludzie na nowo zdefiniują pojęcie sztuki, w tym sztuk plastycznych. Przecież w 2020 roku każdy może robić zdjęcia, używać różnych filtrów w aparatach, ale mimo wszystko jest coś takiego jak warsztat fotograficzny, który można mieć lub nie – nie każdy jest profesjonalnym fotografem. Nie wierzę w profesjonalizację wszystkich ludzi na wszystkich polach nawet w przyszłości. Przejdziemy raczej przez zbiorowy proces ustalania nowego standardu średniości. Ty będziesz bardziej zadowolony z obrazów, które namalowałeś z SI, niż z tych, które próbowałeś stworzyć sam, ale sąsiad za ścianą w obu przypadkach przyjmie efekty z równym zadowoleniem. A skoro wszyscy będą mogli robić wszystko, o tych wytworach nie powiemy „sztuka”.
Tu się pojawia interesująca okoliczność: przebywamy w immersyjnym, wirtualnym środowisku, z którego można wyjść, rezygnując z gry, wygrać albo się poddać. Inny wariant, trochę łagodniejszy, zakłada, że zaczynam oglądać perypetie bohaterów gry, czasem włączam się w nią, a czasem pozostaję z boku; uruchamia się wtedy kamerka, która cały czas na mnie patrzy, i uaktywnia się system detekcji mimiki. W roku 2020 dysponujemy już takimi systemami. Mechanizm przygląda się moim reakcjom i jeżeli zaczynam się nudzić, wtedy pada propozycja: „Chcesz okradać dalej muzea w Paryżu czy wolisz popływać z delfinami?”. System może nawet podać do wyboru kilka różnorodnych scenariuszy moich dalszych przygód w tej grze w formie zachęcających trailerów filmowych. Oczywiście, system podpowiada te ewentualności na podstawie moich dotychczasowych preferencji albo łączy wcześniejsze preferencje z tym, co dzisiaj zobaczył na mojej twarzy. Jaką mam mimikę i jaki humor ona oznacza? Albo jeszcze inne rozwiązanie – system nadal improwizuje.

 
Wesprzyj nas