Ray Kurzweil, światowej sławy wynalazca, naukowiec i wizjoner, stawia pytania o przyszłość rewolucji technologicznej, która ma nadejść. Albo już nadeszła…


Od czasu wydania poprzedniej przełomowej książki Raya Kurzweila „Nadchodzi osobliwość” większość przewidywań autora dotyczących postępu technologicznego się sprawdziła, a takie koncepcje jak AI, inteligentne maszyny i biotechnologia są obecnie powszechnie znane i wykorzystywane.

Pora na zadanie nowych pytań:

• Jak technologia będzie zmieniać ludzkość w nadchodzących dekadach?
• Dlaczego AI jest przyszłością ewolucji ludzkości?
• Jak zwiększymy długość życia powyżej obecnego limitu 120 lat?

i na odpowiedź na kolejne wątpliwości:

• Jaki wpływ wywrze AI na poziom zatrudnienia?
• Czy autonomiczne maszyny można zostawić bez nadzoru?
• Czy technologia wirtualnego ożywiania zmarłych odmieni nasze życie emocjonalne?

***

✓ „Osobliwość coraz bliżej” to fascynująca eksploracja naszej przyszłości, która dotyka najgłębszych pytań filozoficznych.
– Yuval Noah Harari, autor „Sapiens”

✓ Niewiele osób miało taki wpływ na sposób myślenia o AI jak Ray Kurzweil.
– Mustafa Suleyman, dyrektor generalny Microsoft AI

✓ Ray Kurzweil najlepiej ze znanych mi osób przewiduje przyszłość sztucznej inteligencji.
– Bill Gates

✓ Ta książka zmieni wszystko, co wiecie o technologii, życiu i śmierci.
– Tony Robbins, autor i konsultant biznesowy

✓ Ray Kurzweil to najlepsza wyrocznia naszej cyfrowej epoki.
– Peter H. Diamandis, dyrektor generalny XPRIZE, prezes zarządu Singularity University

✓ Nikt nie jest bardziej optymistycznie nastawiony do technologii niż Ray Kurzweil.
– „The Boston Globe”

Raymond „Ray” Kurzweil (ur. 1948) jest amerykańskim wynalazcą, futurologiem, przedsiębiorcą i pisarzem. Od 2012 roku pełni funkcję dyrektora technicznego firmy Google. Absolwent amerykańskiego Massachusetts Institute of Technology. Od lat 80. kierował różnymi spółkami, zajmującymi się opracowywaniem i wdrażaniem nowych technologii, takich jak m.in. syntezatory mowy oraz systemy rozpoznawania znaków w plikach graficznych (OCR). Jest autorem znanych na całym świecie książek o sztucznej inteligencji, biotechnologii i transhumanizmie: „The Age of Intelligent Machines” (1990), „The Age of Spiritual Machines” (1999), „Nadchodzi osobliwość” (2005). Założyciel katedry futurologii na Singularity University w Dolinie Krzemowej – interdyscyplinarnych studiach, które mają na celu „przygotować ludzkość na przyśpieszoną zmianę technologiczną”. Od 2001 roku prowadzi instytut Kurzweil Accelerating Intelligence zajmujący się monitorowaniem zmian będących następstwem procesów rozwoju technologii opisanych w jego książkach. W 2011 roku trafił na 30. miejsce w rankingu najbardziej wpływowych ludzi świata tygodnika „Time”.

Raymond „Ray” Kurzweil
Osobliwość coraz bliżej. Kiedy połączymy się z AI
Przekład: Tomasz Lanczewski
Wydawnictwo Relacja
Premiera: 27 listopada 2024
 
 

WPROWADZENIE

W mojej książce z 2005 roku Nad­cho­dzi oso­bli­wość przed­sta­wi­łem teo­rię, że zbieżne, wykład­ni­cze trendy tech­no­lo­giczne pro­wa­dzą do trans­for­ma­cji, która cał­ko­wi­cie prze­kształci ludz­kość. Ist­nieje kilka klu­czo­wych obsza­rów zmian, które na­dal jed­no­cze­śnie nabie­rają tempa: moc obli­cze­niowa staje się tań­sza, bio­lo­gia czło­wieka jest coraz lepiej rozu­miana, a inży­nie­ria staje się moż­liwa na znacz­nie mniej­szych ska­lach. W miarę jak moż­li­wo­ści sztucz­nej inte­li­gen­cji rosną, a infor­ma­cje stają się coraz bar­dziej dostępne, coraz ści­ślej inte­gru­jemy te moż­li­wo­ści z naszą natu­ralną inte­li­gen­cją bio­lo­giczną. Osta­tecz­nie nano­tech­no­lo­gia umoż­liwi kul­mi­na­cję tych tren­dów w postaci bez­po­śred­niego roz­sze­rze­nia naszych mózgów o war­stwy wir­tu­al­nych neu­ro­nów w chmu­rze. W ten spo­sób połą­czymy się ze sztuczną inte­li­gen­cją i wzbo­ga­cimy się o miliony razy więk­szą moc obli­cze­niową, niż obda­rzyła nas bio­lo­gia. Posze­rzy to naszą inte­li­gen­cję i świa­do­mość w spo­sób tak głę­boki, że aż trudny do poję­cia. To wyda­rze­nie nazy­wam oso­bli­wo­ścią.
Ter­min „oso­bli­wość” został zapo­ży­czony z mate­ma­tyki (gdzie odnosi się do nie­okre­ślo­nego punktu funk­cji, jak w przy­padku dzie­le­nia przez zero) i fizyki (gdzie ozna­cza nie­skoń­cze­nie gęsty punkt w cen­trum czar­nej dziury, w któ­rym obo­wią­zu­jące prawa fizyki zała­mują się). Należy jed­nak pamię­tać, że uży­wam tego ter­minu jako meta­fory. Moja pro­gnoza doty­cząca tech­no­lo­gicz­nej oso­bli­wo­ści nie suge­ruje, że tempo zmian naprawdę sta­nie się nie­skoń­czone, ponie­waż wzrost wykład­ni­czy nie impli­kuje nie­skoń­czo­no­ści, podob­nie jak w przy­padku fizycz­nej oso­bli­wo­ści. Czarna dziura ma wystar­cza­jąco silną gra­wi­ta­cję, by uwię­zić nawet świa­tło, ale w mecha­nice kwan­to­wej nie ma spo­sobu na uwzględ­nie­nie naprawdę nie­skoń­czonej masy1. Uży­wam jed­nak meta­fory oso­bli­wo­ści, ponie­waż oddaje ona naszą nie­zdol­ność do zro­zu­mie­nia tak rady­kal­nej zmiany na naszym obec­nym pozio­mie inte­li­gen­cji. Ale gdy to przej­ście nastąpi, będziemy zwięk­szać naszą zdol­ność poznaw­czą na tyle szybko, aby się do niego przy­sto­so­wać.
Jak szcze­gó­łowo opi­sa­łem w Nad­cho­dzi oso­bli­wość, dłu­go­ter­mi­nowe trendy suge­rują, że oso­bli­wość nastąpi około 2045 roku. W momen­cie publi­ka­cji owej książki data ta była odda­lona o czter­dzie­ści lat – czyli dwa pełne poko­le­nia – w przy­szłość. Z tej odle­gło­ści mogłem prze­wi­dy­wać ogólne siły, które spo­wo­dują tę trans­for­ma­cję, ale dla więk­szo­ści czy­tel­ni­ków temat ten był wciąż sto­sun­kowo odle­gły od codzien­nej rze­czy­wi­sto­ści 2005 roku. Wielu kry­ty­ków twier­dziło wów­czas, że mój har­mo­no­gram jest zbyt opty­mi­styczny, a nawet że poja­wie­nie się oso­bli­wo­ści trzeba uznać za nie­moż­liwe.
Od tam­tej pory wyda­rzyło się jed­nak coś nie­zwy­kłego. Wbrew wąt­pli­wo­ściom scep­ty­ków postęp na­dal przy­spie­szał. Media spo­łecz­no­ściowe i smart­fony prze­stały być czymś wyjąt­ko­wym i stały się naszymi nie­od­łącz­nymi towa­rzy­szami, dzięki któ­rym łączy się obec­nie ze sobą więk­szość świa­to­wej popu­la­cji. Inno­wa­cje algo­ryt­miczne i poja­wie­nie się dużych zbio­rów danych umoż­li­wiły sztucz­nej inte­li­gen­cji osią­gnię­cie zaska­ku­ją­cych momen­tów prze­ło­mo­wych nawet wcze­śniej, niż spo­dzie­wali się eks­perci – od opa­no­wa­nia gier takich jak Jeopardy! i go, po pro­wa­dze­nie samo­cho­dów, pisa­nie ese­jów, zda­wa­nie egza­mi­nów adwo­kac­kich i wykry­wa­nie raka. Teraz potężne i ela­styczne duże modele języ­kowe, na przy­kład GPT-4 i Gemini, mogą prze­kła­dać pole­ce­nia for­mu­ło­wane w języku natu­ral­nym na kod kom­pu­te­rowy, rady­kal­nie zmniej­sza­jąc barierę mię­dzy ludźmi a maszy­nami. W momen­cie, gdy czy­ta­cie te słowa, dzie­siątki milio­nów ludzi praw­do­po­dob­nie doświad­czyły już tych moż­li­wo­ści na wła­snej skó­rze. W mię­dzyczasie koszt sekwen­cjo­no­wa­nia ludz­kiego genomu spadł o około 99,997 pro­cent, a sieci neu­ro­nowe zaczęły doko­ny­wać istot­nych odkryć medycz­nych dzięki cyfro­wej symu­la­cji bio­lo­gii.
Wresz­cie zysku­jemy nawet moż­li­wość bez­po­śred­niego łącze­nia kom­pu­te­rów z mózgami. U pod­staw wszyst­kich tych osią­gnięć leży coś, co nazy­wam pra­wem przy­spie­sza­ją­cych zwro­tów: tech­no­lo­gie infor­ma­cyjne, takie jak metody obli­cze­niowe, stają się wykład­ni­czo tań­sze, ponie­waż każdy postęp uła­twia zapro­jek­to­wa­nie kolej­nego etapu ich wła­snej ewo­lu­cji. W rezul­ta­cie w momen­cie pisa­nia tego tek­stu za jed­nego dolara można kupić około 11 200 razy wię­cej mocy obli­cze­niowej, przy uwzględ­nie­niu infla­cji, niż kiedy Nad­cho­dzi oso­bli­wość tra­fiła na półki.
Poniż­szy wykres, który omó­wię szcze­gó­łowo w dal­szej czę­ści książki, pod­su­mo­wuje naj­waż­niej­szy trend napę­dza­jący naszą cywi­li­za­cję tech­no­lo­giczną: dłu­go­ter­mi­nowy wykład­ni­czy wzrost (poka­zany jako w przy­bli­że­niu linia pro­sta na skali loga­ryt­micz­nej) ilo­ści mocy obli­cze­nio­wej, jaką można kupić za stałą kwotę. Z prawa Moore’a wynika, że tran­zy­story stale się kur­czą, dzięki czemu kom­pu­tery stają się coraz potęż­niej­sze – ale to tylko jeden z prze­ja­wów prawa przy­spie­sza­ją­cych zwro­tów, które obo­wią­zy­wało już na długo przed wyna­le­zie­niem tran­zy­sto­rów i można się spo­dzie­wać, że będzie obo­wią­zy­wać nawet po osią­gnię­ciu fizycz­nych gra­nic tran­zy­sto­rów i zastą­pie­niu ich przez nowe tech­no­lo­gie. Trend ten zde­fi­nio­wał współ­cze­sny świat i nie­mal wszyst­kie nad­cho­dzące prze­łomy omó­wione w tej książce zostaną przez niego bez­po­śred­nio lub pośred­nio spo­wo­do­wane.

Tak więc trzy­mamy się har­mo­no­gramu dla oso­bli­wo­ści. Istot­ność tej książki wynika z samej natury wykład­ni­czej zmiany. Trendy, które na początku tego stu­le­cia były ledwo zauwa­żalne, obec­nie w bez­po­średni spo­sób wpły­wają na życie miliar­dów ludzi. Na początku lat dwu­dzie­stych XXI wieku weszli­śmy w gwał­tow­nie i stromo rosnącą część krzy­wej wykład­ni­czej, a tempo inno­wa­cji wpływa na spo­łe­czeń­stwo jak ni­gdy dotąd. Dla porów­na­nia: chwila, w któ­rej czy­ta­cie te słowa, jest praw­do­po­dob­nie bli­żej stwo­rze­nia pierw­szej nad­ludz­kiej sztucz­nej inte­li­gen­cji niż wyda­nia mojej ostat­niej książki Jak stwo­rzyć umysł z 2012 roku.
I przy­pusz­czal­nie jeste­ście bli­żej oso­bli­wo­ści niż wyda­nia mojej książki z 1999 roku The Age of Spi­ri­tual Machi­nes (Wiek maszyn ducho­wych). Bądź też, mie­rząc to w kate­go­riach ludz­kiego życia, dzieci uro­dzone dzi­siaj będą wła­śnie koń­czyć stu­dia, gdy nadej­dzie oso­bli­wość. Na pozio­mie bar­dzo oso­bi­stym jest to inny rodzaj „nadej­ścia” niż w 2005 roku.
Dla­tego teraz napi­sa­łem tę książkę. Trwa­jący tysiąc­le­cia marsz ludz­ko­ści w kie­runku oso­bli­wo­ści stał się sza­lo­nym bie­giem. We wstę­pie do Nad­cho­dzi oso­bli­wość wyra­zi­łem opi­nię, że byli­śmy wtedy „w począt­ko­wych eta­pach tej trans­for­ma­cji”. Teraz wkra­czamy w jej kul­mi­na­cję. Tamta książka doty­czyła spoj­rze­nia na odle­gły hory­zont – ta opi­suje ostat­nie kilo­me­try na ścieżce wio­dą­cej do jego osią­gnię­cia.
Na szczę­ście obec­nie widzimy tę ścieżkę znacz­nie wyraź­niej. Cho­ciaż zanim osią­gniemy oso­bli­wość, pozo­staje do roz­wią­za­nia wiele wyzwań tech­no­lo­gicz­nych, jej klu­czowi pre­kur­so­rzy szybko prze­cho­dzą ze sfery nauki teo­re­tycz­nej do aktyw­nych badań i roz­woju. W nad­cho­dzą­cej deka­dzie ludzie będą wcho­dzić w inte­rak­cje ze sztuczną inte­li­gen­cją, która może wyda­wać się prze­ko­nu­jąco ludzka, a pro­ste inter­fejsy mózg–kom­pu­ter będą miały wpływ na codzienne życie na podo­bień­stwo dzi­siej­szych smart­fo­nów. Cyfrowa rewo­lu­cja w bio­tech­no­lo­gii wyle­czy cho­roby i zna­cząco wydłuży ludz­kie życie w zdro­wiu. Jed­no­cze­śnie jed­nak wielu pra­cow­ni­ków odczuje ból wyni­ka­jący z zabu­rzeń gospo­dar­czych, a wszy­scy sta­niemy w obli­czu ryzyka wyni­ka­ją­cego z przy­pad­ko­wego lub celo­wego nad­uży­cia tych nowych moż­li­wo­ści. W latach trzy­dzie­stych XXI wieku samo­do­sko­na­ląca się sztuczna inte­li­gen­cja i doj­rze­wa­jąca nano­tech­no­lo­gia połą­czą ludzi i nasze maszy­nowe wytwory w spo­sób dotych­czas nie­znany, co jesz­cze bar­dziej zwięk­szy zarówno moż­li­wo­ści, jak i zagro­że­nia. Jeśli uda nam się spro­stać wyzwa­niom nauko­wym, etycz­nym, spo­łecz­nym i poli­tycz­nym, jakie stwa­rza ten postęp, do 2045 roku głę­boko prze­kształ­cimy życie na Ziemi na lep­sze. Jeśli jed­nak ponie­siemy porażkę, nasze prze­trwa­nie sta­nie pod zna­kiem zapy­ta­nia. Dla­tego też ta książka opo­wiada o naszym osta­tecz­nym podej­ściu do oso­bli­wo­ści – szan­sach i nie­bez­pie­czeń­stwach, któ­rym musimy wspól­nie sta­wić czoła w ramach ostat­niego poko­le­nia zamiesz­ku­ją­cego świat, jaki zna­li­śmy.
Na począ­tek przyj­rzymy się temu, w jaki spo­sób tak naprawdę nadej­dzie oso­bli­wość, i umie­ścimy to wyda­rze­nie w kon­tek­ście dłu­go­trwa­łego dąże­nia naszego gatunku do prze­kształ­ce­nia wła­snej inte­li­gen­cji. Two­rze­nie świa­do­mo­ści za pomocą tech­no­lo­gii rodzi ważne pyta­nia filo­zo­ficzne, dla­tego omó­wimy wpływ tego przej­ścia na naszą wła­sną toż­sa­mość i poczu­cie celu. Następ­nie przej­dziemy do prak­tycz­nych tren­dów, które będą cha­rak­te­ry­zo­wały nad­cho­dzące dekady. Jak pokażę, prawo przy­spie­sza­ją­cych zwro­tów powo­duje wykład­ni­czą poprawę w bar­dzo sze­ro­kim zakre­sie wskaź­ni­ków odzwier­cie­dla­ją­cych dobro­stan czło­wieka. Jed­nym z naj­bar­dziej oczy­wi­stych nega­tyw­nych skut­ków inno­wa­cji jest nato­miast bez­ro­bo­cie spo­wo­do­wane auto­ma­ty­za­cją w jej róż­nych posta­ciach. Cho­ciaż te szkody są realne, prze­ko­namy się, czemu ist­nieją uza­sad­nione powody do dłu­go­ter­mi­no­wego opty­mi­zmu – oraz dla­czego osta­tecz­nie nie będziemy kon­ku­ro­wać ze sztuczną inte­li­gen­cją.
W miarę jak tech­no­lo­gie te odblo­ko­wują ogromną mate­rialną obfi­tość dla naszej cywi­li­za­cji, nasza uwaga skupi się na poko­na­niu kolej­nej bariery na dro­dze do peł­nego roz­kwitu: sła­bo­ści naszej bio­lo­gii. Następ­nie przyj­rzymy się narzę­dziom, któ­rych będziemy uży­wać w nad­cho­dzą­cych dzie­się­cio­le­ciach, aby spra­wo­wać coraz więk­szą kon­trolę nad samą bio­lo­gią – naj­pierw poprzez poko­na­nie pro­cesu sta­rze­nia się naszych ciał, a następ­nie wzmac­nia­jąc nasze ogra­ni­czone mózgi i wpro­wa­dza­jąc oso­bli­wość. Jed­nak te prze­ło­mowe doko­na­nia mogą rów­nież nara­zić nas na nie­bez­pie­czeń­stwo. Nowe rewo­lu­cyjne sys­temy w bio­tech­no­lo­gii, nano­tech­no­lo­gii lub sztucz­nej inte­li­gen­cji są też w sta­nie dopro­wa­dzić do kata­strofy egzy­sten­cjal­nej, takiej jak nisz­czy­ciel­ska pan­de­mia lub reak­cja łań­cu­chowa samo­re­pli­ku­ją­cych się maszyn. Zakoń­czymy oceną tych zagro­żeń, które wyma­gają sta­ran­nego pla­no­wa­nia, ale jak wyja­śnię, ist­nieją bar­dzo obie­cu­jące spo­soby ich zła­go­dze­nia.
To naj­bar­dziej fascy­nu­jące i donio­słe lata w całej histo­rii rodzaju ludz­kiego. Nie możemy z całą pew­no­ścią powie­dzieć, jakie będzie życie po oso­bli­wo­ści. Jed­nak rozu­mie­jąc i prze­wi­du­jąc przej­ścia pro­wa­dzące do niej, możemy posta­rać się zapew­nić, że ten ostatni etap roz­woju ludz­ko­ści będzie bez­pieczny i udany.

ROZ­DZIAŁ 1
GDZIE JESTE­ŚMY W SZE­ŚCIU ETA­PACH?

Wksiążce Nad­cho­dzi oso­bli­wość opi­sa­łem infor­ma­cję jako pod­stawę świa­do­mo­ści. Wymie­ni­łem sześć eta­pów, lub epok, trwa­ją­cych od początku naszego wszech­świata, przy czym każdy etap two­rzy kolejny na pod­sta­wie prze­twa­rza­nia infor­ma­cji pocho­dzą­cych z poprzed­niego. Zatem ewo­lu­cja inte­li­gen­cji prze­biega poprzez pośred­nią sekwen­cję innych pro­ce­sów.
Pierw­sza epoka to naro­dziny praw fizyki i moż­li­wej dzięki nim che­mii. Kil­ka­set tysięcy lat po Wiel­kim Wybu­chu atomy ufor­mo­wały się z elek­tro­nów krą­żą­cych wokół jądra zło­żo­nego z pro­to­nów i neu­tro­nów. Pro­tony w jądrze pozor­nie nie powinny znaj­do­wać się tak bli­sko sie­bie, ponie­waż siła elek­tro­ma­gne­tyczna pró­buje gwał­tow­nie je roz­dzie­lić. Tak się jed­nak składa, że ist­nieje odrębna siła zwana sil­nym oddzia­ły­wa­niem jądro­wym, która utrzy­muje pro­tony razem. „Kto­kol­wiek” zapro­jek­to­wał zasady wszech­świata, musiał zapew­nić tę dodat­kową siłę, gdyż w prze­ciw­nym razie ewo­lu­cja za pośred­nic­twem ato­mów byłaby nie­moż­liwa.
Miliardy lat póź­niej atomy ufor­mo­wały czą­steczki, które mogły sta­no­wić nośnik zło­żo­nych infor­ma­cji. Węgiel był naj­bar­dziej uży­tecz­nym budul­cem, ponie­waż mógł two­rzyć cztery wią­za­nia, w prze­ci­wień­stwie do jed­nego, dwóch lub trzech w przy­padku wielu innych jąder. To, że żyjemy w świe­cie, który umoż­li­wia ist­nie­nie skom­pli­ko­wa­nej che­mii, jest nie­zwy­kle mało praw­do­po­dobne. Gdyby na przy­kład siła gra­wi­ta­cji była odro­binę słab­sza, nie powsta­łyby super­nowe wytwa­rza­jące pier­wiastki che­miczne, z któ­rych zbu­do­wane jest życie. Gdyby była nieco sil­niej­sza, gwiazdy wypa­li­łyby się i prze­stały ist­nieć, zanim mogłoby powstać inte­li­gentne życie. Tylko ta jedna stała fizyczna musiała mie­ścić się w bar­dzo wąskim zakre­sie, ina­czej nie byłoby nas tutaj. Żyjemy we wszechświe­cie, który jest bar­dzo pre­cy­zyj­nie zrów­no­wa­żony, aby zapew­nić poziom porządku, który umoż­li­wił roz­wój ewo­lu­cji.
Kilka miliar­dów lat temu roz­po­częła się druga epoka: życie. Czą­steczki stały się na tyle zło­żone, że można było zde­fi­nio­wać cały orga­nizm w jed­nej czą­steczce. W ten spo­sób żywe istoty, każda z wła­snym DNA, mogły ewo­lu­ować i roz­prze­strze­niać się.
W trze­ciej epoce zwie­rzęta opi­sane za pomocą DNA wytwo­rzyły mózgi, które same prze­cho­wy­wały i prze­twa­rzały infor­ma­cje. Mózgi te sta­no­wiły źró­dło korzy­ści ewo­lu­cyj­nych, które pomo­gły im roz­wi­nąć się w więk­szą zło­żo­ność na prze­strzeni milio­nów lat.
W czwar­tej epoce zwie­rzęta wyko­rzy­stały swoje wyż­sze zdol­no­ści poznaw­cze, a także kciuki, do prze­kła­da­nia myśli na zło­żone dzia­ła­nia. Byli to ludzie. Nasz gatu­nek użył tych zdol­no­ści do stwo­rze­nia tech­no­lo­gii umoż­li­wia­ją­cej prze­cho­wy­wa­nie infor­ma­cji i mani­pu­lo­wa­nie nimi – od papi­ru­sów po dyski twarde. Tech­no­lo­gie te zwięk­szyły moż­li­wo­ści naszych mózgów w zakre­sie postrze­ga­nia, zapa­mię­ty­wa­nia i oce­nia­nia wzor­ców infor­ma­cji. Jest to kolejne źró­dło ewo­lu­cji, które samo w sobie jest znacz­nie więk­sze niż poziom wcze­śniej­szego postępu. W przy­padku mózgów przy­rost wyno­sił mniej wię­cej 16 cen­ty­me­trów sze­ścien­nych mate­rii mózgo­wej co 100 tysięcy lat, pod­czas gdy w przy­padku obli­czeń cyfro­wych podwa­jamy sto­su­nek wydaj­no­ści do ceny co jakieś szes­na­ście mie­sięcy.
W pią­tej epoce bez­po­śred­nio połą­czymy bio­lo­giczne ludz­kie zdol­no­ści poznaw­cze z szyb­ko­ścią i mocą naszej tech­no­lo­gii cyfro­wej. To inter­fejsy mózg–kom­pu­ter. Prze­twa­rza­nie neu­ro­nowe u czło­wieka odbywa się z szyb­ko­ścią kil­ku­set cykli w ciągu sekundy, w porów­na­niu z kil­koma miliar­dami na sekundę w przy­padku tech­no­lo­gii cyfro­wej. Oprócz szyb­ko­ści i wiel­ko­ści pamięci wzmoc­nie­nie naszych mózgów za pomocą kom­pu­terów nie­bio­lo­gicz­nych pozwoli nam dodać o wiele wię­cej warstw do kory nowej – odblo­ko­wu­jąc znacz­nie bar­dziej zło­żone i abs­trak­cyjne myśle­nie, niż możemy sobie obec­nie wyobra­zić.
W szó­stej epoce nasza inte­li­gen­cja roz­prze­strzeni się po całym wszech­świe­cie, zamie­nia­jąc zwy­kłą mate­rię w kom­pu­tro­nium, czyli mate­rię zor­ga­ni­zo­waną w spo­sób umoż­li­wia­jący mak­sy­malną gęstość obli­cze­niową.
W mojej książce z 1999 roku The Age of Spi­ri­tual Machi­nes prze­wi­dy­wa­łem, że test Turinga – w któ­rym sztuczna inte­li­gen­cja potrafi komu­ni­ko­wać się za pomocą tek­stu w spo­sób nie­odróż­nialny od czło­wieka – zosta­nie zali­czony do roku 2029. Powtó­rzy­łem to przy­pusz­cze­nie w książce Nad­cho­dzi oso­bli­wość z 2005 roku. Pozy­tywne zali­cze­nie testu Turinga ozna­cza, że sztuczna inte­li­gen­cja opa­no­wała język i zdro­wo­roz­sąd­kowe rozu­mo­wa­nie na pozio­mie ludz­kim. Turing opi­sał swoją kon­cep­cję w 1950 roku, ale nie okre­ślił, w jaki spo­sób należy prze­pro­wa­dzić ten test4. W zakła­dzie, jaki zawar­łem z Mit­chem Kapo­rem, zde­fi­nio­wa­li­śmy wła­sne reguły, które są znacz­nie bar­dziej wyma­ga­jące niż inne inter­pre­ta­cje.
Ocze­ki­wa­łem, że aby zdać ważny test Turinga do 2029 roku, będziemy musieli do 2020 roku osią­gnąć sze­roki zakres moż­li­wo­ści inte­lek­tu­al­nych dzięki sztucz­nej inte­li­gen­cji. I rze­czy­wi­ście, od czasu tej pro­gnozy sztuczna inte­li­gen­cja opa­no­wała wiele naj­trud­niej­szych inte­lek­tu­al­nych wyzwań ludz­ko­ści – od gier takich jak Jeopardy!5 i go po poważne zasto­so­wa­nia, takie jak radio­lo­gia i odkry­wa­nie leków. Kiedy piszę te słowa, czo­łowe sys­temy sztucz­nej inte­li­gen­cji, takie jak Gemini i GPT-4, roz­sze­rzają swoje moż­li­wo­ści na wiele róż­nych dzie­dzin – zachę­ca­jąc do pod­ję­cia kro­ków na dro­dze do stwo­rze­nia ogól­nej inte­li­gen­cji.
Osta­tecz­nie, gdy pro­gram przej­dzie test Turinga, będzie musiał spra­wiać wra­że­nie znacz­nie mniej inte­li­gent­nego w wielu obsza­rach, ponie­waż w prze­ciw­nym razie byłoby jasne, że jest to sztuczna inte­li­gen­cja. Gdyby na przy­kład mógł natych­miast popraw­nie roz­wią­zać dowolny pro­blem mate­ma­tyczny, nie zdałby tego testu. Zatem na pozio­mie testu Turinga sztuczna inte­li­gen­cja będzie posia­dać zdol­no­ści, które w rze­czy­wi­sto­ści wykra­czają daleko poza moż­li­wo­ści naj­lep­szych ludzi w więk­szo­ści dzie­dzin.
Ludzie żyją obec­nie w czwar­tej epoce, a nasza tech­no­lo­gia już teraz przy­nosi rezul­taty, które w przy­padku pew­nych zadań prze­kra­czają nasze moż­li­wo­ści zro­zu­mie­nia. Jeśli cho­dzi o aspekty testu Turinga, któ­rych sztuczna inte­li­gen­cja jesz­cze nie opa­no­wała, postęp jest szybki i nie­ustan­nie przy­spie­sza. Zda­nie testu Turinga, które prze­wi­duję na rok 2029, wpro­wa­dzi nas w piątą epokę.
Klu­czową zdol­no­ścią w latach trzy­dzie­stych XXI wieku będzie połą­cze­nie wyż­szych par­tii ludz­kiej kory nowej z chmurą, co bez­po­śred­nio roz­sze­rzy nasze myśle­nie. W ten spo­sób sztuczna inte­li­gen­cja, zamiast być kon­ku­ren­tem, sta­nie się prze­dłu­że­niem nas samych. Zanim to nastąpi, nie­bio­lo­giczne czę­ści naszego umy­słu zapew­nią tysiące razy więk­sze moż­li­wo­ści poznaw­cze niż czę­ści bio­lo­giczne.
W miarę wykład­ni­czego postępu tego pro­cesu do roku 2045 nasze umy­sły posze­rzą się miliony razy. To wła­śnie ta nie­wy­obra­żalna pręd­kość i skala trans­for­ma­cji pozwa­lają nam zapo­ży­czyć meta­forę oso­bli­wo­ści z fizyki do opisu naszej przy­szło­ści.

ROZ­DZIAŁ 2
PRZE­OBRA­ŻE­NIE INTE­LI­GEN­CJI

CO OZNACZA PRZEOBRAŻENIE INTELIGENCJI?

Jeśli cała histo­ria wszech­świata składa się z ewo­lu­ują­cych para­dyg­ma­tów prze­twa­rza­nia infor­ma­cji, to histo­ria ludz­ko­ści roz­po­czyna się sporo za połową tej opo­wie­ści. Nasz roz­dział w tym szer­szym sce­na­riu­szu osta­tecz­nie doty­czy meta­mor­fozy z poziomu zwie­rząt z bio­lo­gicz­nymi mózgami w istoty trans­cen­dentne, któ­rych myśli i toż­sa­mość nie są już dłu­żej ogra­ni­czone przez to, co zapew­nia nam gene­tyka. W latach dwu­dzie­stych XXI wieku wkra­czamy w ostat­nią fazę tej trans­for­ma­cji – prze­obra­że­nie inte­li­gen­cji, którą dała nam natura, na potęż­niej­szym cyfro­wym pod­łożu, a następ­nie połą­cze­nie się z nią. W ten spo­sób czwarta epoka wszech­świata da począ­tek pią­tej.
Ale jak się to kon­kret­nie dokona? Żeby zro­zu­mieć, co ozna­cza prze­obra­że­nie inte­li­gen­cji, naj­pierw przyj­rzymy się naro­dzi­nom sztucz­nej inte­li­gen­cji i dwóm sze­ro­kim szko­łom myśle­nia, które z niej wyro­sły. Aby prze­ko­nać się, dla­czego jedna z nich zwy­cię­żyła nad drugą, odnie­siemy się do tego, co neu­ro­nauka mówi nam o tym, jak móż­dżek i kora nowa dały począ­tek ludz­kiej inte­li­gen­cji. Po zba­da­niu, w jaki spo­sób głę­bo­kie ucze­nie obec­nie odtwa­rza zdol­no­ści kory nowej, możemy oce­nić, co sztuczna inte­li­gen­cja musi jesz­cze osią­gnąć, aby dorów­nać pozio­mowi ludz­kiemu, i skąd będziemy wie­dzieć, kiedy to nastąpi. Na koniec zaj­miemy się tym, jak przy pomocy nadludz­kiej sztucz­nej inte­li­gen­cji zapro­jek­tu­jemy inter­fejsy mózg–kom­pu­ter, które znacz­nie posze­rzą naszą korę nową o war­stwy wir­tu­al­nych neu­ro­nów. Ten pro­ces odblo­kuje cał­ko­wi­cie nowe spo­soby myśle­nia i osta­tecz­nie powięk­szy naszą inte­li­gen­cję miliony razy: to jest wła­śnie oso­bli­wość.

NARODZINY SZTUCZNEJ INTELIGENCJI

W 1950 roku bry­tyj­ski mate­ma­tyk Alan Turing (1912–1954) opu­bli­ko­wał arty­kuł w cza­so­pi­śmie „Mind” zaty­tu­ło­wany „Com­pu­ting Machi­nery and Intel­li­gence” (Maszyny obli­cze­niowe i inte­li­gen­cja)6. Turing zadał w nim jedno z naj­głęb­szych pytań w histo­rii nauki: „Czy maszyny mogą myśleć?”. Cho­ciaż kon­cep­cja myślą­cych maszyn sięga co naj­mniej auto­matu z brązu o imie­niu Talos z mito­lo­gii grec­kiej7, rewo­lu­cyjny pomysł Turinga pole­gał na spro­wa­dze­niu tej kon­cep­cji do cze­goś, co można spraw­dzić empi­rycz­nie. Zapro­po­no­wał on wyko­rzy­sta­nie „gry w naśla­dow­nic­two” – zna­nej dziś jako test Turinga – aby usta­lić, czy obli­cze­nia maszyny są w sta­nie wyko­ny­wać te same zada­nia poznaw­cze co nasze mózgi. W tym teście sędzio­wie prze­pro­wa­dzają wywiad zarówno ze sztuczną inte­li­gen­cją, jak i z ludz­kimi uczest­ni­kami za pomocą komu­ni­ka­tora inter­ne­to­wego, nie widząc, z kim roz­ma­wiają. Następ­nie zadają pyta­nia doty­czące dowol­nego tematu lub sytu­acji. Jeśli po upły­wie okre­ślo­nego czasu arbi­trzy nie będą w sta­nie odróż­nić, które odpo­wie­dzi pocho­dziły od sztucz­nej inte­li­gen­cji, a które od czło­wieka, wów­czas uznaje się, że sztuczna inte­li­gen­cja zdała test.
Prze­ku­wa­jąc tę filo­zo­ficzną ideę w myśl naukową, Turing wzbu­dził ogromny entu­zjazm wśród bada­czy. W 1956 roku pro­fe­sor mate­ma­tyki John McCar­thy (1927–2011) zapro­po­no­wał prze­pro­wa­dze­nie dwu­mie­sięcz­nych, dzie­się­cio­oso­bo­wych badań w Dart­mo­uth Col­lege w Hano­we­rze w sta­nie New Hamp­shire8. Cel był nastę­pu­jący:
Bada­nie ma opie­rać się na przy­pusz­cze­niu, że każdy aspekt ucze­nia się lub jakiej­kol­wiek innej cechy inte­li­gen­cji można w zasa­dzie opi­sać tak pre­cy­zyj­nie, że da się go zasy­mu­lo­wać za pomocą maszyny. Pod­jęta zosta­nie próba zna­le­zie­nia spo­so­bów spra­wie­nia, by maszyny uży­wały języka, two­rzyły abs­trak­cje i kon­cep­cje, roz­wią­zy­wały różne rodzaje pro­ble­mów obec­nie zare­zer­wo­wane dla ludzi oraz ulep­szały same sie­bie9.
Przy­go­to­wu­jąc się do tego eks­pe­ry­mentu, McCar­thy zapro­po­no­wał, aby tę dzie­dzinę, która osta­tecz­nie zauto­ma­ty­zuje każdą inną, nazwać „sztuczną inte­li­gen­cją”10. Nie podoba mi się to okre­śle­nie ze względu na to, że przy­miot­nik „sztuczna” spra­wia, iż ta forma inte­li­gen­cji wydaje się „nie­praw­dziwa”, ale aku­rat ten ter­min się przy­jął.
Bada­nie zostało prze­pro­wa­dzone, ale jego cel – w szcze­gól­no­ści naucze­nie maszyn zro­zu­mie­nia pro­ble­mów opi­sa­nych w języku natu­ral­nym – nie został osią­gnięty w ciągu dwóch mie­sięcy. Wciąż nad tym pra­cu­jemy – oczy­wi­ście teraz z udzia­łem znacz­nie wię­cej niż dzie­się­ciu osób. Według chiń­skiego giganta tech­no­lo­gicz­nego Ten­cent w 2017 roku na całym świe­cie było już około 300 tysięcy „bada­czy i spe­cja­li­stów zaj­mu­ją­cych się sztuczną inte­li­gen­cją”11, a w rapor­cie Glo­bal AI Talent Report z 2019 roku autor­stwa Jeana-François Gagné, Grace Kiser i Yoana Man­thy wska­zano, że około 22 400 eks­per­tów w dzie­dzi­nie sztucz­nej inte­li­gen­cji publi­kuje ory­gi­nalne bada­nia – z któ­rych około 4000 uznano za bar­dzo wpły­wo­wych12. Według Insty­tutu Sztucz­nej Inte­li­gen­cji Skon­cen­tro­wa­nej na Czło­wieku Uni­wer­sy­tetu Stan­forda bada­cze sztucz­nej inte­li­gen­cji w 2021 roku wyge­ne­ro­wali ponad 496 tysięcy publi­ka­cji i ponad 141 tysięcy zgło­szeń paten­to­wych13. W 2022 roku glo­balne inwe­sty­cje przed­się­biorstw w sztuczną inte­li­gen­cję wynio­sły 189 miliar­dów dola­rów, co ozna­cza trzy­na­sto­krotny wzrost w ciągu ostat­niej dekady14. Liczby te będą jesz­cze wyż­sze w momen­cie, gdy będzie­cie czy­tać te słowa.
Trudno było to wszystko sobie wyobra­zić w 1956 roku. Jed­nak cel warsz­ta­tów w Dart­mo­uth był mniej wię­cej rów­no­ważny ze stwo­rze­niem sztucz­nej inte­li­gen­cji, która mogłaby przejść test Turinga. Moja pro­gnoza, że uda nam się osią­gnąć ten cel do 2029 roku, jest stale aktu­alna od czasu wyda­nia mojej książki z 1999 roku The Age of Spi­ri­tual Machi­nes, opu­bli­ko­wa­nej w momen­cie, gdy wielu obser­wa­to­rów uwa­żało, że ten kamień milowy ni­gdy nie zosta­nie osią­gnięty15. Jesz­cze do nie­dawna prze­wi­dy­wa­nie to uwa­żano w tej dzie­dzi­nie za nie­zwy­kle opty­mi­styczne. Na przy­kład bada­nie prze­pro­wa­dzone w 2018 roku wyka­zało zbior­czą pro­gnozę eks­per­tów od sztucz­nej inte­li­gen­cji, że inte­li­gen­cja maszy­nowa na pozio­mie ludz­kim pojawi się dopiero około 2060 roku16. Jed­nak naj­now­sze postępy w zakre­sie dużych modeli języ­ko­wych szybko zmie­niły ocze­ki­wa­nia. Kiedy pisa­łem wcze­sne wer­sje tej książki, kon­sen­sus na Meta­cu­lu­sie, naj­po­pu­lar­niej­szej na świe­cie witry­nie pro­gno­stycz­nej, oscy­lo­wał mię­dzy latami czter­dzie­stymi a pięć­dzie­sią­tymi obec­nego stu­le­cia. Jed­nak zaska­ku­jące postępy sztucz­nej inte­li­gen­cji w ciągu ostat­nich dwóch lat zmie­niły te ocze­ki­wa­nia i do maja 2022 roku kon­sen­sus na Meta­cu­lu­sie dokład­nie zga­dzał się z moimi prze­wi­dy­wa­niami co do daty 2029 roku17. Od tego czasu pro­gnozy pro­wa­dzą nawet do roku 2026, co z tech­nicz­nego punktu widze­nia lokuje mnie w obo­zie spóź­nio­nych futu­ro­lo­gów18!
Wiele ostat­nich prze­ło­mo­wych osią­gnięć w sztucz­nej inte­li­gen­cji zasko­czyło nawet eks­per­tów w tej dzie­dzi­nie. Nie tylko dzieją się one wcze­śniej, niż więk­szość się spo­dzie­wała, ale także wydają się poja­wiać nagle i bez ostrze­że­nia, że wielki krok naprzód jest tuż za rogiem. Na przy­kład w paź­dzier­niku 2014 roku Tomaso Pog­gio, eks­pert z MIT w dzie­dzi­nie sztucz­nej inte­li­gen­cji i nauk kogni­tyw­nych, oznaj­mił: „Umie­jęt­ność opi­sa­nia zawar­to­ści obrazu sta­nowi jedno z naj­trud­niej­szych inte­lek­tu­al­nie wyzwań dla maszyny. Będziemy potrze­bo­wać kolej­nego cyklu badań pod­sta­wo­wych, aby roz­wią­zać tego rodzaju pro­blemy”19. Pog­gio osza­co­wał, że rewo­lu­cja ta nastąpi co naj­mniej za dwie dekady. Tym­cza­sem już w następ­nym mie­siącu firma Google zapre­zen­to­wała sztuczną inte­li­gen­cję do roz­po­zna­wa­nia obiek­tów, która potra­fiła speł­nić te kry­te­ria. Kiedy Raffi Khat­cha­do­urian z „The New Yor­kera” zapy­tał go o tę sprawę, Pog­gio wyco­fał się ku bar­dziej filo­zo­ficz­nemu scep­ty­cy­zmowi, wyra­ża­jąc wąt­pli­wość, czy ta zdol­ność repre­zen­tuje praw­dziwą inte­li­gen­cję. Zwra­cam na to uwagę nie jako kry­tykę Pog­gio, ale raczej jako obser­wa­cję ten­den­cji, któ­rej wszy­scy ule­gamy. Cho­dzi o to, że zanim sztuczna inte­li­gen­cja osią­gnie jakiś cel, wydaje się on nie­zwy­kle skom­pli­ko­wany i wyjąt­kowo ludzki. Jed­nak gdy tylko sztuczna inte­li­gen­cja dotrze do tego miej­sca, osią­gnię­cie to w naszych ludz­kich oczach traci na zna­cze­niu. Innymi słowy, nasz praw­dziwy postęp jest w rze­czy­wi­sto­ści bar­dziej zna­czący, niż wydaje się z per­spek­tywy czasu. To jeden z powo­dów, dla któ­rych pod­cho­dzę opty­mi­stycz­nie do moich pro­gnoz na 2029 rok.
Dla­czego więc te nagłe prze­ło­mowe doko­na­nia miały miej­sce? Odpo­wiedź leży w teo­re­tycz­nym pro­ble­mie się­ga­ją­cym począt­ków tej dzie­dziny. W 1964 roku, będąc w liceum, spo­tka­łem dwóch pio­nie­rów sztucz­nej inte­li­gen­cji: Marvina Min­sky’ego (1927–2016), który był współ­or­ga­ni­za­to­rem warsz­ta­tów na temat sztucz­nej inte­li­gen­cji w Dart­mo­uth Col­lege, oraz Franka Rosen­blatta (1928–1971). W 1965 roku zapi­sa­łem się na MIT i roz­po­czą­łem stu­dia u Min­sky’ego, który pro­wa­dził fun­da­men­talne prace leżące u pod­staw spek­ta­ku­lar­nych kamieni milo­wych w dzie­dzi­nie sztucz­nej inte­li­gen­cji, jakie dziś obser­wu­jemy. Min­sky nauczył mnie, że ist­nieją dwie tech­niki two­rze­nia zauto­ma­ty­zo­wa­nych roz­wią­zań pro­ble­mów: podej­ście sym­bo­liczne i konek­sjo­ni­styczne.
Podej­ście sym­bo­liczne opi­suje w kate­go­riach opar­tych na regu­łach, w jaki spo­sób eks­pert ludzki roz­wią­załby dany pro­blem. W nie­któ­rych przy­pad­kach sys­temy oparte na tym sche­ma­cie mogą być sku­teczne. Na przy­kład w 1959 roku firma RAND Cor­po­ra­tion wpro­wa­dziła „Gene­ral Pro­blem Solver” (GPS) – pro­gram kom­pu­te­rowy, który potra­fił łączyć pro­ste aksjo­maty mate­ma­tyczne w celu roz­wią­zy­wa­nia pro­blemów logicz­nych20. Her­bert A. Simon, J.C. Shaw i Allen Newell opra­co­wali Gene­ral Pro­blem Solver z myślą o tym, aby posia­dał teo­re­tyczną zdol­ność roz­wią­zy­wa­nia dowol­nego pro­blemu, który można wyra­zić w postaci zestawu dobrze zde­fi­nio­wa­nych wzo­rów (WFF, ang. well-for­med for­mu­las). Aby GPS dzia­łał, musiałby uży­wać jed­nego WFF (w zasa­dzie jako aksjo­matu) na każ­dym eta­pie pro­cesu, meto­dycz­nie budu­jąc je w mate­ma­tyczny dowód odpo­wie­dzi.
Nawet jeśli nie macie doświad­cze­nia z logiką for­malną lub mate­ma­tyką opartą na dowo­dach, kon­cep­cja ta jest w zasa­dzie taka sama jak w alge­brze. Jeśli wiemy, że 2 + 7 = 9 i że nie­znana liczba x dodana do 7 daje 10, możemy udo­wod­nić, że x = 3. Jed­nak tego rodzaju logika ma znacz­nie szer­sze zasto­so­wa­nia niż tylko roz­wią­zy­wa­nie rów­nań. Uży­wamy jej także (nawet o tym nie myśląc), gdy zada­jemy sobie pyta­nie, czy coś speł­nia okre­śloną defi­ni­cję. Jeśli wiemy, że liczba pierw­sza nie może mieć żad­nych dziel­ni­ków innych niż 1 i ona sama oraz że 11 jest dziel­ni­kiem 22, a 1 nie jest równe 11, możemy wywnio­sko­wać, że 22 nie jest liczbą pierw­szą. Zaczy­na­jąc od moż­li­wie naj­bar­dziej pod­sta­wo­wych i fun­da­men­tal­nych aksjo­ma­tów, GPS mógł wyko­ny­wać tego rodzaju obli­cze­nia w przy­padku znacz­nie trud­niej­szych pytań. Osta­tecz­nie to wła­śnie robią mate­ma­tycy z krwi i kości – róż­nica polega na tym, że maszyna może (przy­naj­mniej w teo­rii) prze­szu­kać każdy moż­liwy spo­sób łącze­nia pod­sta­wo­wych aksjo­ma­tów w poszu­ki­wa­niu prawdy.
Celem ilu­stra­cji, jeśli na każ­dym eta­pie dostęp­nych byłoby dzie­sięć takich aksjo­ma­tów do wyboru, a do osią­gnię­cia roz­wią­za­nia potrzeb­nych byłoby na przy­kład dwa­dzie­ścia aksjo­ma­tów, ozna­cza­łoby to, że ist­nieje 10²⁰, czyli 100 miliar­dów miliar­dów moż­li­wych roz­wią­zań. Za pomocą nowo­cze­snych kom­pu­te­rów możemy dziś sobie pora­dzić z tak dużymi licz­bami, ale leżało to zde­cy­do­wa­nie poza zasię­giem pręd­ko­ści obli­cze­nio­wych w 1959 roku. Wtedy kom­pu­ter DEC PDP-1 potra­fił wyko­ny­wać około 100 tysięcy ope­ra­cji na sekundę21. W 2023 roku wir­tu­alna maszyna Google Cloud A3 mogła wyko­nać około 26 000 000 000 000 000 000 ope­ra­cji na sekundę22. Za jed­nego dolara można obec­nie kupić około 1,6 biliona razy wię­cej mocy obli­cze­nio­wej niż wtedy, gdy opra­co­wano GPS23. Pro­blemy, które w przy­padku tech­no­lo­gii z 1959 roku zaję­łyby dzie­siątki tysięcy lat, obec­nie trwają tylko kilka minut na sprzę­cie kom­pu­te­ro­wym dostęp­nym w sprze­daży deta­licz­nej. Aby zre­kom­pen­so­wać swoje ogra­ni­cze­nia, GPS miał zapro­gra­mo­wane heu­ry­styki, które pró­bo­wały usta­lić prio­ry­tet moż­li­wych roz­wią­zań. Heu­ry­styki przy­no­siły rezul­taty przez pewien czas, a ich suk­cesy potwier­dziły pogląd, że skom­pu­te­ry­zo­wane roz­wią­za­nie osta­tecz­nie może roz­wią­zać każdy ści­śle zde­fi­nio­wany pro­blem.
Innym przy­kła­dem był sys­tem o nazwie MYCIN, który został opra­co­wany w latach sie­dem­dzie­sią­tych XX wieku do dia­gno­zo­wa­nia i zale­ca­nia lecze­nia cho­rób zakaź­nych. W 1979 roku zespół eks­per­tów porów­nał jego dzia­ła­nie z wyni­kami leka­rzy i stwier­dził, że MYCIN radził sobie rów­nie dobrze lub nawet lepiej niż któ­ry­kol­wiek z medy­ków24.

Typowa „reguła” MYCIN wygląda w nastę­pu­jący spo­sób:
JEŚLI: 1) Infek­cją wyma­ga­jącą lecze­nia jest zapa­le­nie opon mózgowo-rdze­nio­wych, i
2) Rodzaj infek­cji jest grzy­bi­czy, i
3) Orga­ni­zmów nie zaob­ser­wo­wano w bar­wie­niu hodowli, i
4) Pacjent nie jest gospo­da­rzem zagro­żo­nym, i
5) Pacjent prze­by­wał w rejo­nie ende­micz­nym dla kok­cy­dio­ido­my­kozy, i
6) Pacjent należy do jed­nej z ras: [C]zarny [A]zjata [H]indus, i
7) Anty­gen kryp­to­ko­kowy w pły­nie mózgowo-rdze­nio­wym nie dał wyniku pozy­tyw­nego,
TO: Ist­nieją suge­stywne dowody (50%), że kryp­to­koki nie są jed­nym z orga­ni­zmów (poza widocz­nymi w posie­wach lub wyma­zach), które mogą powo­do­wać infek­cję25.

Pod koniec lat osiem­dzie­sią­tych XX wieku te „sys­temy eks­perc­kie” wyko­rzy­sty­wały modele pro­ba­bi­li­styczne i mogły łączyć wiele źró­deł dowo­dów w celu pod­ję­cia decy­zji26. Choć poje­dyn­cza reguła „jeśli–to” sama w sobie nie byłaby wystar­cza­jąca, przez połą­cze­nie wielu tysięcy takich reguł cało­ściowy sys­tem mógł podej­mo­wać wia­ry­godne decy­zje doty­czące ogra­ni­czo­nego pro­blemu.
Mimo że podej­ście sym­bo­liczne jest sto­so­wane od ponad pół wieku, jego głów­nym ogra­ni­cze­niem jest „pułap zło­żo­no­ści”27. Gdy MYCIN i inne tego rodzaju sys­temy popeł­niały błąd, popra­wie­nie go potra­fiło roz­wią­zać ten kon­kretny pro­blem, ale to z kolei mogło spo­wo­do­wać poja­wie­nie się trzech innych błę­dów, które dałyby o sobie znać w innych sytu­acjach. Wyda­wało się, że ist­nieje gra­nica zło­żo­no­ści, która zna­cząco zawę­żała zakres rze­czy­wi­stych pro­blemów moż­li­wych do roz­wią­za­nia.
Jed­nym ze spo­so­bów patrze­nia na zło­żo­ność sys­te­mów opar­tych na regu­łach jest trak­to­wa­nie ich jako zestawu moż­li­wych punk­tów awa­rii. Mate­ma­tycz­nie rzecz bio­rąc, zbiór n ele­men­tów ma 2ⁿ–1 pod­zbio­rów (nie licząc zbioru pustego). Zatem jeśli sztuczna inte­li­gen­cja używa zbioru reguł zawie­ra­ją­cego tylko jedną regułę, ist­nieje tylko jeden punkt awa­rii: czy ta reguła działa popraw­nie samo­dziel­nie, czy nie? Jeśli wyko­rzy­stuje się dwie reguły, ist­nieją trzy punkty awa­rii: każda reguła z osobna oraz sytu­acje, w któ­rych te dwie reguły nie dzia­łają jed­no­cze­śnie. To rośnie wykład­ni­czo. Pięć reguł ozna­cza 31 poten­cjal­nych punk­tów awa­rii, 10 reguł daje 1023 takie punkty, 100 reguł pro­wa­dzi do wię­cej niż tysiąca miliar­dów miliar­dów miliar­dów, a 1000 reguł ozna­cza ponad googol googoli googoli28! Zatem im wię­cej reguł już mamy, tym bar­dziej każda nowa reguła zwięk­sza liczbę moż­li­wych pod­zbio­rów. Nawet jeśli tylko bar­dzo nie­wielki uła­mek moż­li­wych kom­bi­na­cji reguł wpro­wa­dza nowy pro­blem, przy­cho­dzi taki moment (który różni się w zależ­no­ści od sytu­acji), w któ­rym doda­nie jed­nej nowej reguły w celu roz­wią­za­nia pro­blemu praw­do­po­dob­nie spo­wo­duje poja­wie­nie się wię­cej niż jed­nego dodat­ko­wego pro­blemu. To jest wła­śnie pułap zło­żo­no­ści.
Praw­do­po­dob­nie naj­dłu­żej trwa­ją­cym pro­jek­tem sys­temu eks­perc­kiego jest Cyc (nazwa pocho­dzi od angiel­skiego słowa „encyc­lo­pe­dic”, czyli ency­klo­pe­dyczny), stwo­rzony przez Douglasa Lenata i jego współ­pra­cow­ni­ków z Cycorp29. Zaini­cjo­wany w 1984 roku pro­jekt Cyc ma na celu zako­do­wa­nie całej „zdro­wo­roz­sąd­ko­wej wie­dzy” – powszech­nie zna­nych fak­tów, takich jak „Upusz­czone jajko się roz­bije” czy „Dziecko bie­gnące przez kuch­nię w zabło­co­nych butach roz­sier­dzi swo­ich rodzi­ców”. Te miliony drob­nych idei nie są jaw­nie spi­sane w jed­nym miej­scu. Są to nie­wy­po­wie­dziane zało­że­nia leżące u pod­staw ludz­kiego zacho­wa­nia i rozu­mo­wa­nia, nie­zbędne do zro­zu­mie­nia wie­dzy prze­cięt­nej osoby w róż­nych dzie­dzi­nach. Ponie­waż jed­nak sys­tem Cyc repre­zen­tuje rów­nież tę wie­dzę za pomocą reguł sym­bo­licz­nych, on rów­nież musi sta­wić czoła puła­powi zło­żo­no­ści.
W latach sześć­dzie­sią­tych, gdy Min­sky dora­dzał mi w spra­wie zalet i wad podej­ścia sym­bo­licz­nego, zaczą­łem dostrze­gać dodat­kowe korzy­ści podej­ścia konek­sjo­ni­stycz­nego. Obej­muje ono sieci węzłów, które two­rzą inte­li­gen­cję dzięki swej struk­tu­rze, a nie poprzez swoją zawar­tość. Zamiast korzy­stać z inte­li­gent­nych reguł, uży­wają pro­stych węzłów uło­żo­nych w spo­sób umoż­li­wia­jący wydo­by­cie infor­ma­cji z samych danych. W rezul­ta­cie mają one poten­cjał do odkry­wa­nia sub­tel­nych wzor­ców, które ni­gdy nie przy­szłyby do głowy pro­gra­mi­stom pró­bu­ją­cym opra­co­wać reguły sym­bo­liczne. Jedną z klu­czo­wych zalet podej­ścia konek­sjo­ni­stycz­nego jest to, że pozwala ono roz­wią­zy­wać pro­blemy bez ich zro­zu­mie­nia. Nawet gdy­by­śmy mieli dosko­nałą zdol­ność do for­mu­ło­wa­nia i wdra­ża­nia bez­błęd­nych reguł roz­strzy­ga­nia pro­ble­mów za pomocą sym­bo­licznej sztucz­nej inte­li­gen­cji (czego nie­stety nie posia­damy), byli­by­śmy ogra­ni­czeni naszym nie­do­sko­na­łym zro­zu­mie­niem tego, które reguły byłyby w pierw­szej kolej­no­ści opty­malne.
Jest to sku­teczny spo­sób roz­wią­zy­wa­nia zło­żo­nych pro­ble­mów, ale ma swoją ciemną stronę. Konek­sjo­ni­styczna sztuczna inte­li­gen­cja ma skłon­ność do sta­wa­nia się „czarną skrzynką” – zdolną do poda­nia popraw­nej odpo­wie­dzi, ale nie­po­tra­fiącą wyja­śnić, w jaki spo­sób ją zna­la­zła30. Może to stać się poważ­nym pro­ble­mem, ponie­waż ludzie będą chcieli poznać uza­sad­nie­nie sto­jące za decy­zjami o istot­nym zna­cze­niu, takimi jak lecze­nie, egze­kwo­wa­nie prawa, epi­de­mio­lo­gia czy zarzą­dza­nie ryzy­kiem. Wła­śnie dla­tego wielu eks­per­tów w dzie­dzi­nie sztucz­nej inte­li­gen­cji pra­cuje obec­nie nad opra­co­wa­niem lep­szych form „przej­rzy­sto­ści” (lub „moż­li­wo­ści inter­pre­ta­cji mecha­nicz­nej”) przy decy­zjach opar­tych na ucze­niu maszy­no­wym31. Czas pokaże, jak sku­teczna będzie przej­rzy­stość, w miarę jak ucze­nie głę­bo­kie sta­nie się bar­dziej zło­żone i potęż­niej­sze.
Kiedy jed­nak zaczy­na­łem zaj­mo­wać się konek­sjo­ni­zmem, sys­temy były znacz­nie prost­sze. Pod­sta­wową ideą było stwo­rze­nie skom­pu­te­ry­zo­wa­nego modelu inspi­ro­wa­nego dzia­ła­niem ludz­kich sieci neu­ro­no­wych. Począt­kowo było to bar­dzo abs­trak­cyjne zada­nie, ponie­waż metodę tę opra­co­wano, zanim uzy­ska­li­śmy szcze­gó­łowe zro­zu­mie­nie rze­czy­wi­stej orga­ni­za­cji bio­lo­gicz­nych sieci neu­ro­no­wych.

SCHE­MAT PRO­STEJ SIECI NEU­RO­NO­WEJ

Oto pod­sta­wowy sche­mat algo­rytmu sieci neu­ro­no­wej. Moż­li­wych jest wiele warian­tów, a pro­jek­tant sys­temu musi zapew­nić pewne klu­czowe para­me­try i metody (opi­sane szcze­gó­łowo poni­żej). Two­rze­nie roz­wią­za­nia pro­blemu za pomocą sieci neu­ro­no­wej obej­muje nastę­pu­jące kroki:

Określ dane wej­ściowe.
Określ topo­lo­gię sieci neu­ro­no­wej (czyli war­stwy neu­ro­nów i połą­cze­nia mię­dzy neu­ro­nami).
Prze­pro­wadź pro­ces ucze­nia sieci neu­ro­no­wej na dostęp­nych przy­kła­dach danego pro­blemu.
Uru­chom wytre­no­waną sieć neu­ro­nową, aby roz­wią­zy­wała nowe przy­kłady pro­blemu.
Wpro­wadź swoją firmę zaj­mu­jącą się sie­ciami neu­ro­no­wymi na giełdę.
Te wszyst­kie kroki (z wyjąt­kiem ostat­niego) są szcze­gó­łowo opi­sane poni­żej:

DANE WEJ­ŚCIOWE PRO­BLEMU

Dane wej­ściowe do sieci neu­ro­no­wej skła­dają się z sze­regu liczb. Dane te mogą znaj­do­wać się:
w sys­te­mie roz­po­zna­wa­nia wzor­ców wizu­al­nych – dwu­wy­mia­rowa tablica liczb repre­zen­tu­ją­cych pik­sele obrazu; lub
w sys­te­mie roz­po­zna­wa­nia dźwięku (np. mowy) – dwu­wy­mia­rowa tablica liczb repre­zen­tu­ją­cych dźwięk, gdzie pierw­szy wymiar odpo­wiada para­me­trom dźwięku (np. skła­do­wym czę­sto­tli­wo­ścio­wym), a drugi wymiar ozna­cza różne punkty w cza­sie; lub
w dowol­nym sys­te­mie roz­po­zna­wa­nia wzor­ców – n-wymia­rowa tablica liczb repre­zen­tu­ją­cych wzo­rzec wej­ściowy.

OKRE­ŚLE­NIE TOPO­LO­GII

Aby skon­fi­gu­ro­wać sieć neu­ro­nową, archi­tek­tura każ­dego neu­ronu składa się z:

wielu wejść, z któ­rych każde jest „połą­czone” z wyj­ściem innego neu­ronu lub jedną z liczb wej­ścio­wych; oraz
zazwy­czaj poje­dyn­czego wyj­ścia, które jest połą­czone z wej­ściem innego neu­ronu (zwy­kle znaj­du­ją­cego się w wyż­szej war­stwie) lub z wyj­ściem koń­co­wym.

UTWO­RZE­NIE PIERW­SZEJ WAR­STWY NEU­RO­NÓW

Utwórz N0 neu­ro­nów w pierw­szej war­stwie. Dla każ­dego z tych neu­ro­nów „połącz” każde z wielu wejść neu­ronu z „punk­tami” (czyli licz­bami) w danych wej­ścio­wych pro­blemu. Połą­cze­nia te można okre­ślić losowo lub za pomocą algo­rytmu ewo­lu­cyj­nego (patrz poni­żej).
Przy­pisz począt­kową „siłę synap­tyczną” do każ­dego utwo­rzo­nego połą­cze­nia. Wagi te mogą począt­kowo być takie same, mogą być przy­pi­sane losowo lub mogą być okre­ślone w inny spo­sób (patrz poni­żej).

UTWO­RZE­NIE DODAT­KO­WYCH WARSTW NEU­RO­NÓW

Utwórz łącz­nie M warstw neu­ro­nów. Dla każ­dej war­stwy skon­fi­gu­ruj neu­rony w tej war­stwie. Dla war­stwy i:
Utwórz Ni neu­ro­nów w war­stwiei. Dla każ­dego z tych neu­ro­nów „połącz” każde z wielu wejść neu­ronu z wyj­ściami neu­ro­nów w war­stwiei–1 (patrz warianty poni­żej).
Przy­pisz począt­kową „siłę synap­tyczną” do każ­dego utwo­rzo­nego połą­cze­nia. Wagi te mogą począt­kowo być takie same, mogą być przy­pi­sane losowo lub mogą być okre­ślone w inny spo­sób (patrz poni­żej).
Wyj­ścia neu­ro­nów w war­stwieM są wyj­ściami sieci neu­ro­no­wej (patrz warianty poni­żej).

PRÓBY ROZ­PO­ZNA­WA­NIA

DZIA­ŁA­NIE KAŻ­DEGO NEU­RONU

Po skon­fi­gu­ro­wa­niu neu­ron wyko­nuje nastę­pu­jące czyn­no­ści w przy­padku każ­dej próby roz­po­zna­wa­nia:
Każdy ważony sygnał wej­ściowy docie­ra­jący do neu­ronu jest obli­czany przez pomno­że­nie sygnału wyj­ścio­wego innego neu­ronu (lub począt­ko­wego sygnału wej­ścio­wego), z któ­rym połą­czone jest wej­ście tego neu­ronu, przez siłę synap­tyczną tego połą­cze­nia.
Wszyst­kie ważone sygnały wej­ściowe docie­ra­jące do neu­ronu są sumo­wane.
Jeśli suma ta jest więk­sza niż próg wyzwa­la­nia tego neu­ronu, wów­czas neu­ron uznaje się za aktywny i jego sygnał wyj­ściowy wynosi 1. W prze­ciw­nym razie jego sygnał wyj­ściowy wynosi 0 (patrz warianty poni­żej).

DLA KAŻ­DEJ PRÓBY ROZ­PO­ZNA­WA­NIA WYKO­NAJ NASTĘ­PU­JĄCE CZYN­NO­ŚCI

Dla każ­dej war­stwy, od war­stwy0 do war­stwyM, oraz dla każ­dego neu­ronu w tej war­stwie:

Zsu­muj ważone sygnały wej­ściowe. (Każdy ważony sygnał wej­ściowy = sygnał wyj­ściowy innego neu­ronu [lub począt­kowy sygnał wej­ściowy], z któ­rym wej­ście danego neu­ronu jest połą­czone, pomno­żone przez siłę synap­tyczną tego połą­cze­nia).
Jeśli suma ważo­nych sygna­łów wej­ścio­wych jest więk­sza niż próg wyzwa­la­nia danego neu­ronu, ustaw sygnał wyj­ściowy tego neu­ronu na 1, w prze­ciw­nym razie ustaw go na 0.

UCZE­NIE SIECI NEU­RO­NO­WEJ

Prze­pro­wadź wie­lo­krotne próby roz­po­zna­wa­nia przy­kła­do­wych pro­ble­mów.
Po każ­dej pró­bie dosto­suj siłę synap­tyczną wszyst­kich połą­czeń mię­dzy­neu­ro­no­wych, aby popra­wić wydaj­ność sieci neu­ro­no­wej w tej pró­bie (zobacz dys­ku­sję poni­żej na temat spo­sobu wyko­na­nia tego pro­cesu).
Kon­ty­nuuj ucze­nie, dopóki wskaź­nik dokład­no­ści sieci neu­ro­no­wej prze­sta­nie się popra­wiać (to zna­czy osią­gnie asymp­totę).

KLU­CZOWE DECY­ZJE PRO­JEK­TOWE

W pro­stym sche­ma­cie przed­sta­wio­nym powy­żej pro­jek­tant algo­rytmu sieci neu­ro­no­wej musi na początku okre­ślić:

Co repre­zen­tują liczby wej­ściowe.
Liczbę warstw neu­ro­nów.
Liczbę neu­ro­nów w każ­dej war­stwie. (Każda war­stwa nie­ko­niecz­nie musi mieć tę samą liczbę neu­ro­nów).
Liczbę wejść dla każ­dego neu­ronu w każ­dej war­stwie. Liczba wejść (czyli połą­czeń mię­dzy­neu­ro­no­wych) może się róż­nić mię­dzy neu­ro­nami i war­stwami.
Fak­tyczne „oka­blo­wa­nie” (czyli połą­cze­nia). Dla każ­dego neu­ronu w każ­dej war­stwie składa się ono z listy innych neu­ro­nów, któ­rych wyj­ścia sta­no­wią wej­ścia do tego neu­ronu. Sta­nowi to klu­czowy obszar pro­jek­towy. Można to zro­bić na kilka spo­so­bów:
(i) Połą­czyć losowo sieć neu­ro­nową; lub
(ii) Użyć algo­rytmu ewo­lu­cyj­nego (patrz poni­żej), aby okre­ślić opty­malny wariant oka­blo­wa­nia; lub
(iii) Użyć naj­lep­szej oceny pro­jek­tanta sys­temu przy wyzna­cza­niu spo­sobu oka­blo­wa­nia.
Począt­kowe siły synap­tyczne (czyli wagi) każ­dego połą­cze­nia. Można tego doko­nać na kilka spo­so­bów: (i) Usta­wić siły synap­tyczne na tę samą war­tość; lub
(ii) Usta­wić siły synap­tyczne na różne losowe war­to­ści; lub
(iii) Użyć algo­rytmu ewo­lu­cyj­nego, aby okre­ślić opty­malny zestaw war­to­ści począt­ko­wych; lub
(iv) Zasto­so­wać naj­lep­szą ocenę pro­jek­tanta sys­temu w celu okre­śle­nia war­to­ści począt­ko­wych.
Próg wyzwa­la­nia każ­dego neu­ronu.
Sygnał wyj­ściowy, który może być:
(i) sygna­łami wyj­ścio­wymi war­stwyM neu­ro­nów; lub
(ii) sygna­łem wyj­ścio­wym poje­dyn­czego neu­ronu wyj­ścio­wego, któ­rego sygnały wej­ściowe są sygna­łami wyj­ścio­wymi neu­ro­nów w war­stwieM; lub
(iii) funk­cją (na przy­kład sumą) sygna­łów wyj­ścio­wych neu­ro­nów w war­stwieM; lub
(iv) inną funk­cją sygna­łów wyj­ścio­wych neu­ro­nów w wielu war­stwach.
Siły synap­tyczne wszyst­kich połą­czeń, które należy dosto­so­wać pod­czas ucze­nia tej sieci neu­ro­no­wej. Jest to klu­czowa decy­zja pro­jek­towa i sta­nowi przed­miot wielu badań i dys­ku­sji. Można to zro­bić na kilka spo­so­bów:
(i) Dla każ­dej próby roz­po­zna­wa­nia zwiększ lub zmniejsz każdą siłę synap­tyczną o (zazwy­czaj małą) stałą war­tość, tak aby sygnał wyj­ściowy sieci neu­ro­no­wej bar­dziej odpo­wia­dał pra­wi­dło­wej odpo­wie­dzi. Jed­nym ze spo­so­bów reali­za­cji tego zada­nia jest wypró­bo­wa­nie zarówno zwięk­sza­nia, jak i zmniej­sza­nia i spraw­dze­nie, które z nich daje bar­dziej pożą­dany efekt. Może to być cza­so­chłonne, dla­tego ist­nieją inne metody podej­mo­wa­nia lokal­nych decy­zji o zwięk­sze­niu lub zmniej­sze­niu każ­dej siły synap­tycz­nej.
(ii) Ist­nieją inne metody sta­ty­styczne umoż­li­wia­jące mody­fi­ko­wa­nie siły synap­tycz­nej po każ­dej pró­bie roz­po­zna­wa­nia, tak aby dzia­ła­nie sieci neu­ro­no­wej w tej pró­bie bar­dziej odpo­wia­dało pra­wi­dło­wej odpo­wie­dzi.
(iii) Należy pamię­tać, że ucze­nie sieci neu­ro­no­wych będzie mieć miej­sce, nawet jeśli nie wszyst­kie odpo­wie­dzi w pró­bach uczą­cych będą poprawne. Pozwala to na wyko­rzy­sta­nie rze­czy­wi­stych danych szko­le­nio­wych, które mogą mieć nie­od­łączny poziom błę­dów. Klu­czem do suk­cesu sys­temu roz­po­zna­wa­nia opar­tego na sieci neu­ro­no­wej jest ilość danych wyko­rzy­sty­wa­nych do ucze­nia. Zwy­kle do uzy­ska­nia zado­wa­la­ją­cych rezul­ta­tów potrzeba bar­dzo dużego zbioru danych. Podob­nie jak w przy­padku ludz­kich uczniów, ilość czasu, jaką sieć neu­ro­nowa poświęca na tre­ning, jest klu­czo­wym czyn­ni­kiem wpły­wa­ją­cym na jej dzia­ła­nie.

WARIANTY

Moż­li­wych jest wiele warian­tów powyż­szego sche­matu:

Ist­nieją różne spo­soby okre­śla­nia topo­lo­gii. W szcze­gól­no­ści połą­cze­nia mię­dzy­neu­ro­nowe można usta­wić losowo lub przy uży­ciu algo­rytmu ewo­lu­cyj­nego, który naśla­duje wpływ muta­cji i doboru natu­ral­nego na pro­jekt sieci.
Ist­nieją różne spo­soby usta­la­nia począt­ko­wych sił synap­tycz­nych.
Sygnały wej­ściowe do neu­ro­nów w war­stwiei nie­ko­niecz­nie muszą pocho­dzić z sygna­łów wyj­ścio­wych neu­ro­nów w war­stwiei−1. Sygnały wej­ściowe do neu­ro­nów w każ­dej war­stwie mogą rów­nież pocho­dzić z dowol­nej niż­szej lub wyż­szej war­stwy.
Ist­nieją różne spo­soby okre­śla­nia koń­co­wego sygnału wyj­ścio­wego.
Metoda opi­sana powy­żej skut­kuje wyzwa­la­niem typu „wszystko albo nic” (1 lub 0), zwa­nym nie­li­nio­wo­ścią. Można zasto­so­wać inne funk­cje nie­li­niowe. Zwy­kle uży­wana jest funk­cja, która prze­cho­dzi od 0 do 1 w szybki, ale nieco bar­dziej stop­niowy spo­sób. Rów­nież wyj­ścia mogą mieć war­to­ści inne niż 0 i 1.
Różne metody dosto­so­wy­wa­nia sił synap­tycz­nych pod­czas ucze­nia sta­no­wią klu­czowe decy­zje pro­jek­towe.
Powyż­szy sche­mat opi­suje „syn­chro­niczną” sieć neu­ro­nową, w któ­rej każda próba roz­po­zna­wa­nia odbywa się przez obli­cze­nie sygna­łów wyj­ścio­wych każ­dej war­stwy, począw­szy od war­stwy0 do war­stwyM. W praw­dzi­wym sys­te­mie rów­no­le­głym, w któ­rym każdy neu­ron działa nie­za­leż­nie od innych, neu­rony mogą dzia­łać „asyn­chro­nicz­nie” (czyli nie­za­leż­nie). W podej­ściu asyn­chro­nicz­nym każdy neu­ron stale doko­nuje ana­lizy swo­ich sygna­łów wej­ścio­wych i ulega wyzwo­le­niu, gdy suma jego ważo­nych sygna­łów wej­ścio­wych prze­kra­cza próg (lub cokol­wiek innego, co okre­śla jego funk­cja wyj­ściowa).
Celem jest następ­nie zna­le­zie­nie rze­czy­wi­stych przy­kła­dów, na pod­sta­wie któ­rych sys­tem może nauczyć się roz­wią­zy­wać dany pro­blem. Typo­wym punk­tem wyj­ścia jest losowe usta­wie­nie połą­czeń neu­ro­no­wych i wag synap­tycz­nych, tak aby odpo­wie­dzi gene­ro­wane przez tę nie­prze­szko­loną sieć neu­ro­nową rów­nież były losowe. Klu­czową funk­cją sieci neu­ro­no­wej jest to, że musi ona uczyć się swo­jego przed­miotu, podob­nie jak mózgi ssa­ków, na któ­rych jest (przy­naj­mniej w przy­bli­że­niu) wzo­ro­wana. Sieć neu­ro­nowa zaczyna od nie­wie­dzy, ale jest zapro­gra­mo­wana tak, aby mak­sy­ma­li­zo­wać funk­cję „nagrody”. Następ­nie jest ona kar­miona danymi uczą­cymi (na przy­kład zdję­ciami zawie­ra­ją­cymi i niezawie­ra­ją­cymi psy rasy corgi, ozna­czo­nymi wcze­śniej przez ludzi). Gdy sieć neu­ro­nowa gene­ruje pra­wi­dłowy sygnał wyj­ściowy (na przy­kład popraw­nie okre­śli, że na zdję­ciu jest corgi), otrzy­muje infor­ma­cję zwrotną o nagro­dzie. Tę infor­ma­cję zwrotną można następ­nie wyko­rzy­stać do dosto­so­wa­nia siły każ­dego połą­cze­nia mię­dzy­neu­ro­nal­nego. Połą­cze­nia zgodne z poprawną odpo­wie­dzią zostają wzmoc­nione, pod­czas gdy te, które dają błędną odpo­wiedź, są osła­biane.
Z bie­giem czasu sieć neu­ro­nowa orga­ni­zuje się w taki spo­sób, aby móc udzie­lać popraw­nych odpo­wie­dzi bez dodat­ko­wego szko­le­nia. Eks­pe­ry­menty wyka­zały, że sieci neu­ro­nowe potra­fią nauczyć się swo­jego przed­miotu nawet przy nie­rze­tel­nych nauczy­cie­lach. Jeśli dane uczące są popraw­nie ozna­czone tylko w 60 pro­cen­tach przy­pad­ków, sieć neu­ro­nowa może na­dal uczyć się z dokład­no­ścią znacz­nie prze­kra­cza­jącą 90 pro­cent. W pew­nych warun­kach można sku­tecz­nie uży­wać nawet mniej­szego odsetka popraw­nych ozna­czeń32.
Nie jest wcale czymś intu­icyj­nie oczy­wi­stym, że nauczy­ciel może wyszko­lić ucznia tak, aby prze­kra­czał jego wła­sne umie­jęt­no­ści, podob­nie jak może być zaska­ku­jące, że nie­rze­telne dane uczące mogą pro­wa­dzić do dosko­na­łych wyni­ków. Krótka odpo­wiedź jest taka, że błędy mogą się wza­jem­nie zno­sić. Załóżmy, że uczymy sieć neu­ro­nową roz­po­zna­wa­nia cyfry 8 na pod­sta­wie odręcz­nie zapi­sa­nych pró­bek cyfr od 0 do 9. I przyj­mijmy też, że jedna trze­cia ozna­czeń jest nie­do­kładna – losowa mie­szanka cyfr 8 ozna­czo­nych jako 4, cyfr 5 ozna­czo­nych jako 8 i tak dalej. Jeśli zbiór danych jest wystar­cza­jąco duży, nie­do­kład­no­ści te będą się wza­jem­nie kom­pen­so­wać i nie wypa­czą zbyt­nio pro­cesu ucze­nia w żad­nym kon­kret­nym kie­runku. Pozwala to zacho­wać więk­szość przy­dat­nych infor­ma­cji w zbio­rze danych na temat wyglądu óse­mek i na­dal uczyć sieć neu­ro­nową na wyso­kim pozio­mie.
Pomimo tych zalet wcze­sne sys­temy konek­sjo­ni­styczne miały pewne fun­da­men­talne ogra­ni­cze­nie. Jed­no­war­stwowe sieci neu­ro­nowe były mate­ma­tycz­nie nie­zdolne do roz­wią­zy­wa­nia nie­któ­rych rodza­jów pro­ble­mów33. Kiedy odwie­dzi­łem pro­fe­sora Franka Rosen­blatta na Uni­wer­sy­te­cie Cor­nella w 1964 roku, poka­zał mi jed­no­war­stwową sieć neu­ro­nową zwaną Per­cep­tro­nem, która potra­fiła roz­po­zna­wać dru­ko­wane litery. Pró­bo­wa­łem pro­stych mody­fi­ka­cji sygna­łów wej­ścio­wych. Sys­tem cał­kiem nie­źle radził sobie z auto­ma­tycz­nym koja­rze­niem (to zna­czy potra­fił roz­po­znać litery, nawet jeśli zakry­łem ich czę­ści), ale gorzej dawał sobie radę z nie­zmien­ni­czo­ścią (to zna­czy nie potra­fił roz­po­znać liter po zmia­nach roz­miaru i czcionki).
W 1969 roku Min­sky skry­ty­ko­wał wzrost zain­te­re­so­wa­nia tą dzie­dziną, mimo że w 1953 roku sam był auto­rem pio­nier­skich prac nad sie­ciami neu­ro­no­wymi. On i Sey­mour Papert, dwaj współ­za­ło­ży­ciele Labo­ra­to­rium Sztucz­nej Inte­li­gen­cji MIT, napi­sali książkę zaty­tu­ło­waną Per­cep­trons (Per­cep­trony), która for­mal­nie wyka­zała, dla­czego per­cep­tron z natury nie jest w sta­nie okre­ślić, czy wydru­ko­wany obraz jest połą­czony, czy nie. Dwa obrazy na stro­nie 39 pocho­dzą z okładki tej książki. Górny obraz nie jest połą­czony (czarne linie nie two­rzą poje­dyn­czego cią­głego kształtu), pod­czas gdy dolny obraz jest połą­czony (czarne linie sta­no­wią poje­dyn­czą cią­głą figurę). Czło­wiek może to stwier­dzić, podob­nie jak pro­sty pro­gram kom­pu­te­rowy. Per­cep­tron jed­no­kie­run­kowy (w któ­rym połą­cze­nia mię­dzy węzłami nie two­rzą żad­nych pętli), taki jak per­cep­tron Rosen­blatta typu 1, nie potrafi tego okre­ślić.
Krótko mówiąc, powo­dem, dla któ­rego per­cep­trony jed­no­kie­run­kowe nie mogą roz­wią­zać tego pro­blemu, jest fakt, że wymaga on zasto­so­wa­nia funk­cji logicz­nej XOR (exc­lu­sive or), która okre­śla, czy frag­ment linii jest czę­ścią jed­nej cią­głej figury na obra­zie, ale nie jest czę­ścią innej. Jed­nak poje­dyn­cza war­stwa węzłów bez sprzę­że­nia zwrot­nego nie jest w sta­nie mate­ma­tycz­nie zaim­ple­men­to­wać funk­cji XOR, ponie­waż zasad­ni­czo musi skla­sy­fi­ko­wać wszyst­kie dane jed­no­cze­śnie za pomocą reguły linio­wej (na przy­kład „Jeśli oba te węzły ule­gną wyzwo­le­niu, sygnał wyj­ściowy funk­cji będzie praw­dziwy”), a funk­cja XOR wymaga kroku sprzę­że­nia zwrot­nego („Jeśli któ­ry­kol­wiek z tych węzłów ule­gnie wyzwo­le­niu, ale nie oba jed­no­cze­śnie, sygnał wyj­ściowy funk­cji jest praw­dziwy”).

Kiedy Min­sky i Papert doszli do tego wnio­sku, sku­tecz­nie pozba­wiło to dzie­dzinę konek­sjo­ni­zmu więk­szo­ści finan­so­wa­nia i musiały minąć dekady, zanim ponow­nie się odro­dziła. Ale tak naprawdę już w 1964 roku Rosen­blatt wyja­śnił mi, że nie­zdol­ność Per­cep­tronu do radze­nia sobie z nie­zmien­ni­czo­ścią wyni­kała z braku warstw. Gdyby sygnał wyj­ściowy z Per­cep­tronu prze­ka­zać z powro­tem do kolej­nej war­stwy iden­tycz­nej z poprzed­nią, wynik byłby bar­dziej ogólny i przy powta­rza­ją­cych się ite­ra­cjach tego pro­cesu w coraz więk­szym stop­niu byłby w sta­nie pora­dzić sobie z nie­zmien­no­czo­ścią. Gdy­by­śmy mieli wystar­cza­jącą liczbę warstw i odpo­wied­nią ilość danych uczą­cych, mogli­by­śmy dać sobie radę z nie­sa­mo­wi­tym pozio­mem zło­żo­no­ści. Zapy­ta­łem go, czy fak­tycz­nie tego pró­bo­wał, na co on odparł, że nie, ale sta­nowi to ważny punkt jego pro­gramu badaw­czego. To było nie­sa­mo­wite odkry­cie, lecz Rosen­blatt zmarł zale­d­wie sie­dem lat póź­niej, w 1971 roku, i nie miał szansy zwe­ry­fi­ko­wać swo­jej hipo­tezy. Minęła kolejna dekada, zanim war­stwy wie­lo­krotne weszły do powszech­nego użytku, a nawet wtedy sieci wie­lo­war­stwowe wyma­gały więk­szej mocy obli­cze­nio­wej i danych uczą­cych, niż było to moż­liwe do zasto­so­wa­nia w prak­tyce. Ogromny postęp w dzie­dzi­nie sztucz­nej inte­li­gen­cji w ostat­nich latach wynika z zasto­so­wa­nia wielu warstw neu­ro­no­wych ponad pół wieku po roz­wa­ża­niu tego pomy­słu przez Rosen­blatta.
Tak więc podej­ścia konek­sjo­ni­styczne do sztucz­nej inte­li­gen­cji było w dużej mie­rze igno­ro­wane aż do połowy dru­giej dekady XXI wieku, kiedy postęp sprzę­towy w końcu uwol­nił ich ukryty poten­cjał. Wresz­cie ceny stały się na tyle niskie, że można było zgro­ma­dzić wystar­cza­jącą moc obli­cze­niową i przy­kłady szko­le­niowe, aby ta metoda mogła się dosko­nale spraw­dzić. Mię­dzy publi­ka­cją książki Per­cep­trons w 1969 roku a śmier­cią Min­sky’ego w 2016 roku obli­cze­niowa wydaj­ność cenowa (po uwzględ­nie­niu infla­cji) wzro­sła około 2,8 miliarda razy34. Zmie­niło to kra­jo­braz moż­li­wych podejść do sztucz­nej inte­li­gen­cji. Kiedy roz­ma­wia­łem z Min­skym pod koniec jego życia, wyra­ził żal, że Per­cep­trons miało tak duży wpływ, ponie­waż do tego czasu konek­sjo­nizm odniósł już duży suk­ces w tej dzie­dzi­nie.
Konek­sjo­nizm przy­po­mina więc w pew­nym stop­niu wyna­lazki maszyn lata­ją­cych Leonarda da Vinci – były to pro­ro­cze wizje, ale nie­wy­ko­nalne, dopóki nie opra­co­wano lżej­szych i moc­niej­szych mate­ria­łów35. Kiedy sprzęt nad­ro­bił zale­gło­ści, roz­le­głe sieci konek­sjo­ni­styczne nawet o stu war­stwach stały się wyko­nalne. W rezul­ta­cie takie sys­temy były w sta­nie roz­strzy­gnąć pro­blemy, któ­rych ni­gdy wcze­śniej nie roz­wią­zy­wano. Jest to para­dyg­mat będący moto­rem napę­do­wym wszyst­kich naj­bar­dziej spek­ta­ku­lar­nych postę­pów ostat­nich kilku lat.

MÓŻDŻEK: STRUKTURA MODUŁOWA

Aby zro­zu­mieć sieci neu­ro­nowe w kon­tek­ście ludz­kiej inte­li­gen­cji, pro­po­nuję małą dygre­sję: wróćmy do począt­ków wszech­świata. Pier­wotne dąże­nie mate­rii w kie­runku coraz więk­szej orga­ni­za­cji postę­po­wało bar­dzo powoli, bez mózgów, które mogłyby nim kie­ro­wać. (Zobacz pod­roz­dział „Nie­sa­mo­wite nie­praw­do­po­do­bień­stwo bytu” w roz­dziale 3, doty­czący praw­do­po­do­bień­stwa, że wszech­świat w ogóle ma zdol­ność zapisu uży­tecz­nych infor­ma­cji). Czas potrzebny do stwo­rze­nia nowego poziomu szcze­gó­ło­wo­ści wyno­sił setki milio­nów, a nawet miliardy lat36.
W isto­cie minęły miliardy lat, zanim czą­steczka mogła zacząć two­rzyć zako­do­wane instruk­cje umoż­li­wia­jące stwo­rze­nie żywej istoty. Ist­nieją pewne nie­pew­no­ści w kwe­stii obec­nie dostęp­nych dowo­dów, ale więk­szość naukow­ców sytu­uje począ­tek życia na Ziemi gdzieś pomię­dzy 3,5 a 4 miliar­dami lat temu37. Sza­cuje się, że wiek wszech­świata wynosi około 13,8 miliarda lat (a ści­śle rzecz bio­rąc, tyle czasu minęło od Wiel­kiego Wybu­chu), a Zie­mia praw­do­po­dob­nie ufor­mo­wała się około 4,5 miliarda lat temu38. Tak więc minęło około 10 miliar­dów lat mię­dzy powsta­niem pierw­szych ato­mów a poja­wie­niem się pierw­szych czą­ste­czek (na Ziemi) zdol­nych do samo­re­pli­ka­cji. Część tego opóź­nie­nia można wytłu­ma­czyć przy­pad­kiem – nie wiemy dokład­nie, jak mało praw­do­po­dobne było, aby czą­steczki przy­pad­kowo zde­rza­jące się w „zupie pier­wot­nej” wcze­snej Ziemi połą­czyły się w odpo­wiedni spo­sób. Być może życie mogło zacząć się nieco wcze­śniej, a może bar­dziej praw­do­po­dobne było, że roz­pocz­nie się dużo póź­niej. Ale zanim któ­ry­kol­wiek z tych warun­ków koniecz­nych stał się moż­liwy, musiały prze­mi­nąć całe cykle życia gwiazd, w któ­rych te ciała nie­bie­skie prze­kształ­cały wodór w cięż­sze pier­wiastki potrzebne do pod­trzy­ma­nia zło­żo­nego życia.
Według naj­lep­szych sza­cun­ków naukow­ców mię­dzy poja­wie­niem się pierw­szego życia na Ziemi a pierw­szym życiem wie­lo­ko­mór­ko­wym upły­nęło około 2,9 miliarda lat39. Minęło kolejne 500 milio­nów lat, zanim zwie­rzęta zaczęły zamiesz­ki­wać ląd, i jesz­cze kolejne 200 milio­nów lat, zanim poja­wiły się pierw­sze ssaki40. Kon­cen­tru­jąc się na mózgu, czas pomię­dzy pierw­szym roz­wo­jem pry­mi­tyw­nych sieci ner­wo­wych a wyło­nie­niem się naj­wcze­śniej­szego scen­tra­li­zo­wa­nego, trój­dziel­nego mózgu wyno­sił nieco ponad 100 milio­nów lat41. Pierw­sza pod­sta­wowa kora nowa poja­wiła się dopiero po kolej­nych 350–400 milio­nach lat, a ewo­lu­cja współ­cze­snego ludz­kiego mózgu trwała następne 200 milio­nów lat42.
Przez całą tę histo­rię bar­dziej zaawan­so­wane mózgi zapew­niały wyraźną prze­wagę ewo­lu­cyjną. Kiedy zwie­rzęta rywa­li­zo­wały o zasoby, czę­sto zwy­cię­żały te mądrzej­sze43. Inte­li­gen­cja ewo­lu­owała w znacz­nie krót­szym cza­sie niż wcze­śniej­sze etapy: pro­ces ten trwał kilka milio­nów lat, co sta­nowi wyraźne przy­spie­sze­nie. Naj­bar­dziej zna­czącą zmianą w mózgach pra­ssa­ków był obszar zwany móżdż­kiem. Mózg czło­wieka ma obec­nie wię­cej neu­ro­nów w móżdżku niż w korze nowej, która odgrywa naj­istot­niej­szą rolę w funk­cjach wyż­szego rzędu44. Móż­dżek jest w sta­nie prze­cho­wy­wać i akty­wo­wać dużą liczbę instruk­cji kon­tro­lu­ją­cych zada­nia moto­ryczne, takie jak pod­pi­sy­wa­nie się. (Te instruk­cje są czę­sto nie­for­mal­nie nazy­wane „pamię­cią mię­śniową”. W rze­czy­wi­sto­ści nie jest to zja­wi­sko anga­żu­jące same mię­śnie, lecz raczej móż­dżek. Gdy jakaś czyn­ność jest powta­rzana wie­lo­krot­nie, mózg dosto­so­wuje się, aby uła­twić jej wyko­na­nie i uczy­nić ją bar­dziej pod­świa­domą – przy­po­mina to prze­jazd wielu pojaz­dów koło­wych, które stop­niowo two­rzą kole­iny na dro­dze)45.
Jed­nym ze spo­so­bów zła­pa­nia piłki lecą­cej w powie­trzu jest roz­wią­za­nie wszyst­kich rów­nań róż­nicz­ko­wych, które opi­sują jej tra­jek­to­rię, a także naszych wła­snych ruchów, i jed­no­cze­sna zmiana pozy­cji ciała w opar­ciu o te wyniki. Nie­stety, nie mamy w mózgu modułu do obli­cza­nia rów­nań róż­nicz­ko­wych, więc zamiast tego roz­wią­zu­jemy prost­szy pro­blem: jak naj­sku­tecz­niej umie­ścić ręka­wicę mię­dzy piłką a cia­łem. Móż­dżek zakłada, że ręka i piłka powinny znaj­do­wać się w podob­nych poło­że­niach wzglę­dem sie­bie przy każ­dym zła­pa­niu, więc jeśli piłka opada zbyt szybko, a nasza ręka wydaje się poru­szać zbyt wolno, to pokie­ruje naszą ręką w taki spo­sób, aby poru­szała się szyb­ciej i dopa­so­wała się do zna­nej względ­nej pozy­cji.
Te pro­ste dzia­ła­nia móżdżku mające na celu odwzo­ro­wa­nie bodź­ców zmy­sło­wych na ruchy mię­śni odpo­wia­dają mate­ma­tycz­nej kon­cep­cji „funk­cji bazo­wych” i umoż­li­wiają nam zła­pa­nie piłki bez roz­wią­zy­wa­nia rów­nań róż­nicz­ko­wych46. Za pomocą móżdżku możemy także prze­wi­dzieć, jakie byłyby nasze dzia­ła­nia, nawet jeśli ich fak­tycz­nie nie podej­mu­jemy. Móż­dżek może nam pod­po­wie­dzieć, że możemy zła­pać piłkę, ale praw­do­po­dob­nie zde­rzymy się z innym gra­czem, więc może lepiej tego nie robić. Wszystko to dzieje się instynk­tow­nie.
Podob­nie gdy tań­czymy, móż­dżek czę­sto kie­ruje naszymi ruchami bez anga­żo­wa­nia świa­do­mej uwagi. Osoby, któ­rym na sku­tek urazu lub cho­roby bra­kuje w pełni funk­cjo­nal­nego móżdżku, na­dal mogą wyko­ny­wać spon­ta­niczne dzia­ła­nia za pośred­nic­twem kory nowej, ale wymaga to skon­cen­tro­wa­nego wysiłku i mogą cier­pieć na pro­blemy z koor­dy­na­cją, znane jako atak­sja47.
Klu­czo­wym ele­men­tem dosko­na­le­nia umie­jęt­no­ści fizycz­nych jest wyko­ny­wa­nie skła­da­ją­cych się na nie czyn­no­ści z taką czę­sto­tli­wo­ścią, aby utrwa­lić je w pamięci mię­śnio­wej. Ruchy, które kie­dyś wyma­gały świa­do­mego myśle­nia i sku­pie­nia, zaczy­nają wyda­wać się auto­ma­tyczne. Zasad­ni­czo ozna­cza to prze­su­nię­cie kon­troli z kory rucho­wej do móżdżku. Nie­za­leż­nie od tego, czy rzu­camy piłkę, ukła­damy kostkę Rubika, czy gramy na pia­ni­nie, im mniej świa­do­mego wysiłku umy­sło­wego musimy skie­ro­wać na wyko­na­nie zada­nia, tym praw­do­po­dob­nie lepiej będziemy je wyko­ny­wać. Nasze dzia­ła­nia będą szyb­sze i płyn­niej­sze, a my będziemy mogli poświę­cić uwagę innym aspek­tom suk­cesu. Kiedy muzycy opa­nują grę na instru­men­cie, będą mogli wydo­być dany dźwięk rów­nie łatwo i intu­icyj­nie, jak zwy­kli ludzie za pomocą głosu, śpie­wa­jąc „Sto lat”. Gdy­bym zapy­tał was, jak spra­wia­cie, że wasze struny gło­sowe wydają wła­ściwy dźwięk zamiast nie­wła­ści­wego, praw­do­po­dob­nie nie byli­by­ście w sta­nie opi­sać tego pro­cesu sło­wami. Psy­cho­lo­go­wie i tre­ne­rzy nazy­wają to „nie­świa­domą kom­pe­ten­cją”, ponie­waż ta umie­jęt­ność funk­cjo­nuje w dużej mie­rze na pozio­mie poni­żej naszej świa­do­mej uwagi48.
Jed­nak zdol­no­ści móżdżku nie wyni­kają z jakiejś nie­zwy­kle zło­żo­nej archi­tek­tury. Mimo że zawiera on więk­szość neu­ro­nów w mózgu doro­słego czło­wieka (lub innego gatunku), to w geno­mie nie ma zbyt wielu infor­ma­cji o jego ogól­nym wzorcu – składa się on głów­nie z małych i pro­stych modu­łów49. Cho­ciaż neu­ro­nauka na­dal stara się zro­zu­mieć szcze­góły funk­cjo­no­wa­nia móżdżku, wiemy, że jest on zbu­do­wany z tysięcy małych modu­łów prze­twa­rza­ją­cych uło­żo­nych w jed­no­kie­run­kową struk­turę50. Pomaga to w kształ­to­wa­niu naszego zro­zu­mie­nia, jakie archi­tek­tury neu­ro­nowe są potrzebne do reali­za­cji funk­cji móżdżku, a nowe odkry­cia doty­czące tej struk­tury mogą zatem dostar­czyć dal­szych spo­strze­żeń przy­dat­nych w dzie­dzi­nie sztucz­nej inte­li­gen­cji.
Więk­szość modu­łów móżdżku ma wąsko okre­ślone funk­cje – na przy­kład te, które kie­rują ruchami pal­ców pod­czas gry na pia­ni­nie, nie mają zasto­so­wa­nia do ruchu nóg pod­czas cho­dze­nia. Mimo że móż­dżek był klu­czo­wym obsza­rem mózgu przez setki milio­nów lat, ludzie w coraz mniej­szym stop­niu pole­gają na nim w kon­tek­ście prze­trwa­nia, ponie­waż nasza bar­dziej ela­styczna kora nowa prze­jęła wio­dącą rolę w kie­ro­wa­niu współ­cze­snym spo­łe­czeń­stwem51.
Tym­cza­sem zwie­rzęta inne niż ssaki nie posia­dają zalet kory nowej. Nato­miast ich móżdżki bar­dzo pre­cy­zyj­nie zapi­sały klu­czowe zacho­wa­nia nie­zbędne do prze­trwa­nia. Te kie­ro­wane przez móż­dżek zacho­wa­nia zwie­rząt noszą nazwę utrwa­lo­nych wzor­ców zacho­wa­nia. Są one na stałe wbu­do­wane w przed­sta­wi­cieli danego gatunku, w prze­ci­wień­stwie do zacho­wań naby­tych poprzez obser­wa­cję i naśla­dow­nic­two. Nawet u ssa­ków pewne dość zło­żone zacho­wa­nia są wro­dzone. Na przy­kład myszaki leśne kopią krót­kie nory, a myszaki pla­żowe dłuż­sze z tune­lem uciecz­ko­wym52. Gdy hodo­wane w labo­ra­to­rium zwie­rzęta, które nie miały wcze­śniej­szego doświad­cze­nia z norami, umiesz­czono na pia­sku, każdy z nich kopał rodzaj nory cha­rak­te­ry­styczny dla swo­jego gatunku na wol­no­ści.
W więk­szo­ści przy­pad­ków dane zacho­wa­nie kon­tro­lo­wane przez móż­dżek – jak zdol­ność żaby do pre­cy­zyj­nego łapa­nia muchy języ­kiem – utrzy­muje się w gatunku do czasu, aż popu­la­cja o ulep­szo­nym zacho­wa­niu nie wyprze go w dro­dze doboru natu­ral­nego. Kiedy zacho­wa­nia wyni­kają z genów, a nie z ucze­nia się, adap­ta­cja jest o rząd wiel­ko­ści wol­niej­sza. Pod­czas gdy nauka pozwala stwo­rze­niom na zna­czącą mody­fi­ka­cję zacho­wa­nia w ciągu trwa­nia ich życia, zacho­wa­nia wro­dzone ogra­ni­czają się do stop­nio­wych zmian na prze­strzeni wielu poko­leń. Jed­nak, co cie­kawe, obec­nie infor­ma­tycy uży­wają cza­sem podej­ścia „ewo­lu­cyj­nego”, które odzwier­cie­dlają zacho­wa­nia uwa­run­ko­wane gene­tycz­nie53. Polega to na two­rze­niu zestawu pro­gra­mów z pew­nymi loso­wymi cechami i spraw­dza­niu, jak dobrze radzą sobie z okre­ślo­nym zada­niem. Te, które osią­gają dobre wyniki, mogą połą­czyć swoje cechy, podob­nie jak w przy­padku gene­tycz­nego mie­sza­nia się pod­czas roz­mna­ża­nia zwie­rząt. Następ­nie można wpro­wa­dzić losowe „muta­cje”, aby spraw­dzić, które z nich popra­wiają wydaj­ność. Na prze­strzeni wielu poko­leń może to zop­ty­ma­li­zo­wać roz­wią­zy­wa­nie pro­ble­mów w spo­sób, o jakim ludzcy pro­gra­mi­ści ni­gdy by nie pomy­śleli.

 
Wesprzyj nas