Anatomia Sztucznej Inteligencji

Fot. Piotr Sokołowski
Sztuczna inteligencja nie jest jednym zjawiskiem, technologi─ů czy procesem. To bardzo szerokie poj─Öcie, w kt├│rym mie┼Ťci si─Ö wiele r├│┼╝nych, niekoniecznie sp├│jnych koncepcji, pomys┼é├│w i rozwi─ůza┼ä. Chcesz wiedzie─ç, czym s─ů deep learning, sieci neuronowe, big data, algorytmy adaptacyjne, programowanie genetyczne, heurystyka i wiele wi─Öcej? Zapraszamy na fascynuj─ůc─ů wypraw─Ö po ┼Ťwiecie SI.

Czym jest „inteligencja maszynowa”, czy te┼╝ – najcz─Ö┼Ťciej spotykane poj─Öcie odnosz─ůce si─Ö do poruszanego tu tematu: „sztuczna inteligencja”?┬áWyja┼Ťnienie, czym tak naprawd─Ö jest sztuczna inteligencja, sprawia trudno┼Ť─ç, bo sami nie umiemy do ko┼äca jednolicie zdefiniowa─ç inteligencji jako takiej, mimo od dawna przeprowadzanych pr├│b w tym kierunku.

Uznaje si─Ö, ┼╝e samo poj─Öcie „inteligencja” wprowadzi┼é Cyceron – rzymski m├│wca, polityk, pisarz i dow├│dca. Okre┼Ťla┼é on w ten spos├│b zdolno┼Ťci intelektualne cz┼éowieka. Dzi┼Ť komputery, czy mo┼╝e szerzej – maszyny – s─ů w stanie rozumie─ç ludzk─ů mow─Ö, samodzielnie wysnuwa─ç wnioski, b┼éyskawicznie dokonywa─ç oblicze┼ä, rozmawia─ç z lud┼║mi i przeprowadza─ç mn├│stwo innych czynno┼Ťci, kt├│re uznaliby┼Ťmy z ca┼é─ů pewno┼Ťci─ů za przejaw zdolno┼Ťci intelektualnej, gdyby dana czynno┼Ť─ç by┼éa wykonywana przez cz┼éowieka. Czy zatem sztuczna inteligencja to zdolno┼Ť─ç intelektualna maszyny? Nie. ┼╗eby znale┼║─ç odpowied┼║ na pytanie, czym jest sztuczna inteligencja, najlepiej si─Ögn─ů─ç do jej pocz─ůtk├│w.

Wspaniałe lata 50

W pierwszej po┼éowie lat 50-tych ubieg┼éego wieku Claude Shannon i Alan Turing pisali ju┼╝ niezale┼╝nie od siebie programy szachowe na komputery zgodne z architektur─ů von Neumanna – pierwsz─ů architektur─ů komputera jak─ů kiedykolwiek wymy┼Ťlono (a wymy┼Ťlono j─ů w 1945 roku). Co ciekawe, obaj wybitni informatycy napisali sw├│j kod nie maj─ůc dost─Öpu do komputera. Jednak po raz pierwszy sformu┼éowania „artificial intelligence”, czyli „sztuczna inteligencja” u┼╝y┼é ameryka┼äski matematyk i informatyk, absolwent Princeton: John McCarthy. Zrobi┼é to w 1956 roku podczas dwumiesi─Öcznych warsztat├│w naukowych przeprowadzonych w Darthmouth College. Zaproszono na nie naukowc├│w zajmuj─ůcych si─Ö teori─ů automatyki, sieciami neuronowymi czy badaniami nad og├│lnie poj─Öt─ů inteligencj─ů.

Komputer zdolny do dedukcji

To w┼éa┼Ťnie w Darthmouth, Allen Newell i Herbert A. Simon zaprezentowali program o nazwie Logic Theorist, kt├│ry by┼é zdolny w pe┼éni automatycznie dowie┼Ť─ç wi─Ökszo┼Ťci twierdze┼ä zawartych w drugim tomie┬áPrincipia Mathematica autorstwa Bertranda Russella i Alfreda Northa Whiteheada. Przynajmniej w jednym przypadku dow├│d przeprowadzony przez maszyn─Ö by┼é bardziej elegancki ni┼╝ ten przeprowadzony przez autor├│w Principia Mathematica. Dlaczego to takie niezwyk┼ée? Ot cho─çby dlatego, ┼╝e po pierwsze Logic Theorist przeczy┼é popularnej w├│wczas tezie ┼╝e maszyny mog─ů „my┼Ťle─ç” tylko numerycznie, na dodatek udowadnia┼é, ┼╝e maszyny s─ů zdolne przeprowadzi─ç proces dedukcji i „wymy┼Ťla─ç” dowody logiczne. Pami─Ötajmy, ┼╝e pierwsze znaki kodu programu Logic Theorist powstawa┼éy w 1955 roku, kiedy poj─Öcie „sztuczna inteligencja” jeszcze w og├│le nie istnia┼éo.

Tw├│rcy programu Logic Theorist
Herbert Simon (po lewej) i Allen Newell – tw├│rcy programu Logic Theorist (fot. cs.ks.edu)

Logic Theorist zosta┼é p├│┼║niej rozwini─Öty przez swoich tw├│rc├│w w program General Problem Solver, kt├│ry potrafi┼é nie tylko udowadnia─ç twierdzenia matematyczne, ale r├│wnie┼╝ rozwi─ůzywa─ç do┼Ť─ç szeroki zakres formalnie opisanych problem├│w (np. by┼é w stanie rozwi─ůza─ç popularn─ů ┼éamig┼é├│wk─Ö „Wie┼╝e Hanoi”).

Maszyna mo┼╝e si─Ö uczy─ç

Cho─ç Newell i Simon „skradli show” w Darthmouth to warto te┼╝ wspomnie─ç o innych ciekawych projektach, jak cho─çby warcaby Arthura Samuela. Samuel, w├│wczas pracownik firmy IBM (p├│┼║niejszy profesor Uniwersytetu Stanforda) r├│wnie┼╝ bra┼é udzia┼é w warsztatach w Darthmouth College. Opracowa┼é on program stanowi─ůcy odpowied┼║ na pytanie „jak nauczy─ç komputer rzeczy, kt├│rej samemu si─Ö nie potrafi?” – program, kt├│ry gra┼é z cz┼éowiekiem w warcaby. Przy ├│wczesnej wydajno┼Ťci komputer├│w i pojemno┼Ťci pami─Öci przewidywanie wszystkich mo┼╝liwych w tej grze ruch├│w nie wchodzi┼éo w rachub─Ö, zatem Samuel opracowa┼é algorytm przeszukuj─ůcy (dzi┼Ť znamy go pod nazw─ů algorytm alfa-beta), z redukcj─ů liczby w─Öz┼é├│w, charakteryzuj─ůcy si─Ö wysok─ů efektywno┼Ťci─ů we wszystkich implementacjach gier dwuosobowych, takich jak warcaby, szachy czy go. Innymi s┼éowy algorytm Samuela wykorzystywa┼é funkcj─Ö oceniaj─ůc─ů aktualn─ů pozycj─Ö na planszy, co pozwala┼éo wybiera─ç w kolejnych posuni─Öciach najbardziej obiecuj─ůce rozwi─ůzania.

Arthur Samuel pionier uczenia maszynowego
Arthur Samuel podczas partyjki warcab├│w ze swoim programem wykorzystuj─ůcym jeden z pierwszych algorytm├│w uczenia maszynowego (fot. IBM)

Wa┼╝ne jest te┼╝ to, ┼╝e w swoim programie Samuel opracowa┼é r├│wnie┼╝ mechanizm, kt├│ry umo┼╝liwia┼é maszynie uczenie si─Ö na b┼é─Ödach, tzw. algorytm rote learning. W ten spos├│b program Arthura Samuela by┼é pierwszym komputerowym kodem wykorzystuj─ůcym uczenie maszynowe i robi┼é to ca┼ékiem dobrze. Samodoskonal─ůcy si─Ö program pokona┼é w 1962 roku mistrza stanu Connecticut w warcabach). Warto doda─ç, ┼╝e dzi┼Ť warcaby s─ů gr─ů, w kt├│r─ů komputer nie mo┼╝e przegra─ç. Moce obliczeniowe jakimi dzi┼Ť dysponujemy pozwalaj─ů przewidzie─ç absolutnie ka┼╝de posuni─Öcie. Dowodem na to jest rozwijany w latach 1989 – 2007 na kanadyjskim Uniwersytecie Alberty program Chinook, z kt├│rym nie mo┼╝na wygra─ç. Cz┼éowiek (albo maszyna, np. z drug─ů instancj─ů programu Chinook) nie pope┼éniaj─ůcy ┼╝adnego b┼é─Ödu jest w stanie uzyska─ç jedynie remis.

Wr├│─çmy jednak do pionierskich czas├│w dla SI. Logiczna dedukcja maszynowa, samouczenie, pocz─ůtki SI by┼éy imponuj─ůce. Nic dziwnego, ┼╝e wielu badaczy ju┼╝ w├│wczas s─ůdzi┼éo, ┼╝e od cyfrowego intelektu dor├│wnuj─ůcego ludziom dzieli nas tylko jeden krok.

Najpierw by┼é neuron – sztuczny neuron

Pierwsz─ů prac─ů, kt├│r─ů obecnie powszechnie uznaje si─Ö, za pioniersk─ů w dziedzinie SI jest matematyczny model sztucznego neuronu opracowany w 1943 roku przez Warrena McCullocha i Waltera Pittsa. Obaj panowie opierali si─Ö na trzech pozornie niezale┼╝nych od siebie ┼║r├│d┼éach: po pierwsze dysponowali oni wiedz─ů na temat podstawowej fizjologii i funkcji neuron├│w w m├│zgu (pami─Ötajmy, w jakim czasie ├│w model powstawa┼é), po drugie odwo┼éywali si─Ö do matematycznej logiki formalnej, a dok┼éadniej do sp├│jnej teorii rachunku logicznego zda┼ä Russella i Whiteheada, po trzecie skorzystali z teorii obliczalno┼Ťci Turinga. Ich model by┼é prosty, ka┼╝dy neuron m├│g┼é by─ç w stanie aktywnym lub wy┼é─ůczonym, a aktywno┼Ť─ç pojawia┼éa si─Ö jako reakcja na stymulacj─Ö przez wystarczaj─ůc─ů liczb─Ö s─ůsiednich neuron├│w.

Schemat neuronu McCullocha-Pittsa
Schemat neuronu McCullocha-Pittsa (┼║r├│d┼éo: projekt rastrowy: Andrut, wektoryzacja: Krzysztof Zaj─ůczkowski / Wikimedia)

McCulloch i Pitts pokazali ponadto, ┼╝e ka┼╝da funkcja obliczalna mo┼╝e by─ç obliczona przez sie─ç po┼é─ůczonych neuron├│w. Tak, m├│wimy tu o pierwszej w historii sieci neuronowej – na razie jeszcze w formie konceptu, a nie fizycznego sprz─Ötu. Co wi─Öcej, McCulloch i Pitts zasugerowali, ┼╝e odpowiednio skonstruowana sie─ç sztucznych neuron├│w by┼éaby w stanie sama si─Ö uczy─ç. Potwierdzeniem tych sugestii by┼éo odkrycie dokonane w┬á1949 roku przez Donalda O. Hebba, kanadyjskiego psychologa specjalizuj─ůcego si─Ö w neuropsychologii. Hebb wykaza┼é, ┼╝e psychologiczny proces uczenia si─Ö da si─Ö sprowadzi─ç do relatywnie prostej regu┼éy wzmacniania po┼é─ůcze┼ä pomi─Ödzy neuronami opisuj─ůcej podstawowy mechanizm plastyczno┼Ťci synaptycznej. Dzi┼Ť wiemy, ┼╝e zar├│wno McCulloch i Pitts ze swoim modelem, jak i Hebb mieli racj─Ö, ale w├│wczas to by┼é dopiero pierwszy impuls. Lawina wiedzy poszukuj─ůcej odpowiedzi na pytanie postawione w 1950 roku przez Alana Turinga: „czy maszyna mo┼╝e my┼Ťle─ç?” ruszy┼éa.

Jest neuron, jest sie─ç… jest m├│zg? Niestety, nie

Na pocz─ůtku 1952 roku dw├│ch absolwent├│w matematyki z Princeton: Marvin Minsky i Dean Edmonds konstruuj─ů SNARC (Stochastic Neural Analog Reinforcement Calculator) – pierwszy komputer ze stochastyczn─ů sieci─ů neuronow─ů. Sprz─Öt wykorzystuj─ůcy 3000 lamp pr├│┼╝niowych oraz zapasowy mechanizm autopilota z bombowca B-24 by┼é w stanie symulowa─ç prac─Ö 40 neuron├│w i stanowi┼é cz─Ö┼Ť─ç pracy doktorskiej Marvina Minsky’ego. Celem tej maszyny by┼éa symulacja szczura pr├│buj─ůcego znale┼║─ç wyj┼Ťcie z labiryntu, st─ůd te┼╝ SNARC cz─Östo jest okre┼Ťlany nieoficjaln─ů nazw─ů „Maze computer” (z ang. maze = labirynt).

Komisja oceniaj─ůca jego prace mia┼éa w─ůtpliwo┼Ťci, czy symulowanie neuron├│w mo┼╝e by─ç w og├│le uznane za matematyk─Ö, ale w komisji zasiada┼é r├│wnie┼╝ von Neumann, kt├│ry stwierdzi┼é, ┼╝e „je┼╝eli to nie jest ni─ů (matematyk─ů – dop. CHIP) teraz, to b─Ödzie ni─ů w przysz┼éo┼Ťci”.

sztuczny neuron SNARC
Pojedynczy „neuron” z komputera SNARC Marvina Minsky’ego i Deana Edmondsa. Ca┼éa maszyna nie przetrwa┼éa do naszych czas├│w – zosta┼éa wypo┼╝yczona przez Minsky’ego studentom z Darthmouth i zdemontowana (fot. Gregory Loan).

Cho─ç praca Minsky’ego i Edmondsa by┼éa z pewno┼Ťci─ů pod wieloma wzgl─Ödami pionierska, to za pierwsz─ů sztuczn─ů sie─ç neuronow─ů uznaje si─Ö zbudowany w 1957 roku przez Franka Rosenblatta Mark I Perceptron. P├│┼║niej pojawi┼éy si─Ö kolejne sieci neuronowe, np. sie─ç ADALINE zbudowana przez Bernarda Widrowa w 1960 roku.

Ma┼éa dygresja: patrz─ůc na pojedynczy lampowy neuron z komputera SNARC Minsky’ego i Edmondsa i por├│wnuj─ůc go z jednym z najnowszych urz─ůdze┼ä sprz─Ötowych: Intel Movidius Neural Compute Stick a┼╝ trudno uwierzy─ç jak wielkiego skoku technologicznego dokonali┼Ťmy od pionierskich czas├│w w dziedzinie bada┼ä nad SI. Sprz─Öt widoczny na powy┼╝szym filmie wygl─ůda jak pendrive, a jest nie pojedynczym neuronem, lecz ca┼é─ů platform─ů akceleracyjn─ů sieci neuronowych. Wi─Öcej na temat tego urz─ůdzenia ju┼╝ pisali┼Ťmy. Tymczasem wr├│─çmy do Minsky’ego i sztucznych sieci neuronowych sprzed p├│┼éwiecza.

Niestety, swoistym paradoksem jest, ┼╝e Minsky, jeden z pionier├│w sztucznych sieci neuronowych by┼é jednocze┼Ťnie badaczem, kt├│ry p├│┼║niej – w 1969 roku – wraz z Seymourem Papertem wykaza┼é znaczne ograniczenia logiki perceptron├│w (perceptron to najprostsza sie─ç neuronowa sk┼éadaj─ůca si─Ö z neuron├│w McCullocha-Pittsa), uniemo┼╝liwiaj─ůce zwi─Ökszanie jego mo┼╝liwo┼Ťci wy┼é─ůcznie poprzez efekt skali. Oznacza┼éo to, ┼╝e cyfrowego odpowiednika ludzkiego m├│zgu nie uda si─Ö uzyska─ç, a przynajmniej nie tak szybko jak si─Ö w├│wczas wydawa┼éo. Na czym generalnie polega┼é problem z wczesnymi implementacjami algorytm├│w SI? Przede wszystkim na tym, ┼╝e cho─ç bardzo dobrze radzi┼éy sobie one w konkretnych przyk┼éadach, to w przypadku gdy pr├│bowano uzyskane rozwi─ůzania zaadoptowa─ç do szerszego spektrum bardziej skomplikowanych problem├│w, okazywa┼éy si─Ö nieskuteczne.

Dobrym przyk┼éadem tego stanu rzeczy by┼é opracowany w 1965 roku program ELIZA. Mia┼é on w zamierzeniu tw├│rc├│w prowadzi─ç konwersacj─Ö z cz┼éowiekiem na ka┼╝dy temat. Pomys┼é niezwykle ambitny. Zbyt ambitny. Program w istocie udawa┼é konwersacj─Ö, ale s┼éowo „udawa┼é” jest tu kluczem. ELIZA po prostu manipulowa┼é zdaniami wprowadzonymi wcze┼Ťniej przez cz┼éowieka. Kod nie mia┼é ┼╝adnej „wiedzy” na temat znacze┼ä s┼é├│w, poj─Ö─ç itp. Dzi┼Ť trudno si─Ö dziwi─ç, ┼╝e ELIZA powsta┼éy niemal p├│┼é wieku przed dzisiejszymi cyfrowymi asystentami g┼éosowymi, takimi jak Siri Apple, Cortana Microsoftu, Asystent Google, czy Alexa Amazonu „poleg┼é”.

Dzisiejsze boty konwersacyjne s─ů o wiele doskonalsze, „rozumiej─ů” nie tylko logiczne zale┼╝no┼Ťci pomi─Ödzy wyrazami (syntaktyka), ale tak┼╝e ich znaczenie (semantyk─Ö). Powy┼╝szy film pokazuje rozmow─Ö dw├│ch instancji sztucznej inteligencji ze sob─ů. Ka┼╝dy kto chcia┼éby pogada─ç z Cleverbotem (na podstawie tego w┼éa┼Ťnie programu opracowano powy┼╝szy film) mo┼╝e to zrobi─ç zagl─ůdaj─ůc na witryn─Ö tego projektu.

Wracaj─ůc do g┼é├│wnego nurtu naszych rozwa┼╝a┼ä, wiemy, ┼╝e program ELIZA nie by┼é udanym tworem. Podobnie by┼éo z wczesnymi pr├│bami automatycznych, „inteligentnych” system├│w t┼éumacz─ůcych. Po wystrzeleniu przez Sowiet├│w pierwszego sztucznego satelity Ziemi w 1957 roku, Amerykanie chcieli jak najszybciej dysponowa─ç t┼éumaczeniami rosyjskich tre┼Ťci na j─Özyk angielski. National Research Council wy┼éo┼╝y┼é odpowiednie fundusze i prace ruszy┼éy z impetem. Niestety, jedyne co uzyskano to proste syntaktyczne systemy s┼éownikowe, dos┼éownie t┼éumacz─ůce poszczeg├│lne wyrazy, ale ca┼ékowicie pozbawione „wiedzy” o niuansach j─Özyka. Jedn─ů ze s┼éynniejszych retranslacji cyfrowych z tamtych czas├│w by┼éo przet┼éumaczenie frazy „the spirit is willing but the flesh is weak” („duch wprawdzie ochoczy ale cia┼éo s┼éabe”, cytat z Ewangelii wg ┼Ťw. Mateusza) na… „the vodka is good but the meat is rotten” („w├│dka dobra, ale mi─Öso zgni┼ée”). Wobec tak „obiecuj─ůcych” rezultat├│w trudno si─Ö dziwi─ç, ┼╝e w 1966 roku ameryka┼äski rz─ůd zaprzesta┼é jakiegokolwiek finansowania projekt├│w zwi─ůzanych z „inteligentnym” cyfrowym t┼éumaczeniem.

Praca Minsky’ego i Paperta spowodowa┼éa d┼éugotrwa┼éy impas w badaniach nad sztuczn─ů inteligencj─ů i sieciami neuronowymi. Nie tylko zachwia┼éa wiar─ů w szybki prze┼éom na drodze do uzyskania wszechstronnej sztucznej inteligencji (tzw. silnej SI), ale przede wszystkim odci─Ö┼éa ┼║r├│d┼éa finansowania od wielu ├│wczesnych projekt├│w zwi─ůzanych z sieciami neuronowymi i SI. Ka┼╝dy impas kiedy┼Ť si─Ö jednak ko┼äczy.

Systemy oparte na wiedzy

Rozczarowanie pierwszymi systemami SI opartymi na logice formalnej i prostych sieciach neuronowych zaowocowa┼éo skierowaniem wysi┼ék├│w badawczych w stron─Ö tzw. system├│w eksperckich, czy system├│w opartych na wiedzy. Pierwszym przejawem nowego trendu w badaniach nad sztuczn─ů inteligencj─ů by┼é opracowany w latach 60-tych ubieg┼éego wieku przez naukowc├│w pracuj─ůcych na Stanford University program Dendral. Bruce Buchanan (filozof i informatyk), Ed Feigenbaum (by┼éy student Herberta Simona – wsp├│┼étw├│rcy wspomnianego wcze┼Ťniej programu Logic Theorist) oraz Joshua Lederberg (genetyk, laureat Nagrody Nobla) stworzyli narz─Ödzie zdolne do automatycznej analizy i identyfikacji moleku┼é zwi─ůzk├│w organicznych. Dendral analizowa┼é wyniki uzyskane w trakcie spektrometrii mas badanych zwi─ůzk├│w (jest to jedna ze spektroskopowych technik analizy chemicznej).

Pierwotna wersja Dendrala by┼éa jednak daleka od doskona┼éo┼Ťci, po dostarczeniu do programu danych ┼║r├│d┼éowych (elementarne wzory chemiczne badanych zwi─ůzk├│w oraz ich widma masowe) generowa┼é po prostu zbyt du┼╝─ů liczb─Ö danych, co przy bardziej skomplikowanych cz─ůstkach czyni┼éo go systemem niepraktycznym. Pomog┼éa konsultacja tw├│rc├│w Dendrala z chemikami zajmuj─ůcymi si─Ö analiz─ů molekularn─ů. Dopiero zaprogramowanie w kodzie Dendrala dobrze znanych wzorc├│w w widmach masowych pozwoli┼éo uczyni─ç ten program u┼╝ytecznym rozwi─ůzaniem umo┼╝liwiaj─ůcym przy┼Ťpieszenie rozpoznawania cz─ůstek i to zar├│wno znanych zwi─ůzk├│w, jak i takich, kt├│re wcze┼Ťniej nie by┼éy znane. Po raz pierwszy w historii ludzko┼Ťci odkrycie naukowe (nowego zwi─ůzku) zosta┼éo dokonane na Ziemi nie przez cz┼éowieka, a przez komputer i oprogramowanie.

Sukces Dendrala by┼é swoistym natchnieniem dla jego tw├│rc├│w. Na Uniwersytecie Stanforda uruchomiony zosta┼é projekt HPP (Heuristic Programming Project). Jego zadaniem by┼éo rozszerzenie nowej metodologii system├│w eksperckich na inne dziedziny badawcze. Efektem wsp├│┼épracy Buchanana, Feigenbauma oraz Dr. Edwarda Shortliffe’a by┼é MYCIN, pierwszy system komputerowej diagnostyki medycznej.

MYCIN by┼é systemem eksperckim wyposa┼╝onym w oko┼éo 450 regu┼é, za pomoc─ů kt├│rych u┼éatwia┼é on diagnoz─Ö infekcji krwi. Warto podkre┼Ťli─ç, ┼╝e system radzi┼é sobie z zadaniem r├│wnie dobrze co wielu lekarzy – ekspert├│w, a cz─Östo znacznie lepiej ni┼╝ pocz─ůtkuj─ůcy lekarze. MYCIN w przeciwie┼ästwie do Dendrala nie zawiera┼é wbudowanego modelu teoretycznego, na kt├│rym opiera┼é proces dedukcji. System wnioskowa┼é na podstawie wiedzy pochodz─ůcej od ekspert├│w i wynik├│w ich analiz konkretnych przypadk├│w.

W latach 80-tych XX wieku system├│w eksperckich funkcjonuj─ůcych w bran┼╝y by┼éo ju┼╝ naprawd─Ö sporo. Programy zaprojektowane jako narz─Ödzia wsparcia decyzyjnego dla ludzi. Jednak u podstaw ich architektury tkwi┼éa istotna wada. System ekspercki wyci─ůga wnioski z bazy wiedzy zawieraj─ůcej fakty uzyskane od specjalist├│w. To oczywi┼Ťcie s┼éuszne podej┼Ťcie, ale problem polega┼é na tym, ┼╝e wklepywane z mozo┼éem w j─Özyku formalnym cz─ůstki eksperckiej wiedzy si─Ö dezaktualizowa┼éy. Tymczasem skuteczno┼Ť─ç systemu eksperckiego w znacznym stopniu zale┼╝y w┼éa┼Ťnie od wielko┼Ťci bazy wiedzy. Budowa takiej bazy wiedzy stanowi najwi─Ökszy koszt tego typu system├│w. Ma┼ée systemy by┼éy mo┼╝e i tanie, ale by┼éy w praktyce ma┼éo przydatne. Z kolei konserwacja i aktualizacja du┼╝ych system├│w eksperckich konieczna ze wzgl─Ödu na stale powi─Ökszaj─ůce si─Ö zasoby wiedzy w danej dziedzinie, kt├│rej konkretny system dotyczy┼é, poch┼éania┼éa krocie. By┼éo jasne, ┼╝e trzeba by┼éo poszuka─ç jeszcze innego rozwi─ůzania.

Propagacja wsteczna i deep learning – nadzieje od┼╝ywaj─ů ponownie

Ironi─ů losu jest fakt, ┼╝e w tym samym, 1969 roku, w kt├│rym praca Minsky’ego i Paperta zachwia┼éa wiar─ů w szybki rozw├│j SI opartej na sieciach neuronowych, inni badacze: Arthur E. Bryson oraz Yu-Chi Ho opracowali algorytm, kt├│ry da┼é podwaliny rozwi─ůzaniu buduj─ůcemu renesans sieci neuronowych w p├│┼║nych latach 80-tych i p├│┼║niej: propagacji wstecznej.

Czym jest propagacja wsteczna? Jest to jeden z wielu znanych nam dzi┼Ť algorytm├│w nadzorowanego uczenia wielowarstwowych sieci neuronowych. Okaza┼éo si─Ö, ┼╝e mo┼╝na budowa─ç znacznie wi─Öksze sieci neuronowe i b─Öd─ů one u┼╝yteczne w znacznie szerszym zakresie problem├│w ni┼╝ perceptrony jednowarstwowe, wystarczy┼éo nieco zmodyfikowa─ç sam─ů metod─Ö ich uczenia. Wielowarstwow─ů sie─ç neuronow─ů wykorzystuj─ůc─ů algorytm propagacji wstecznej zaprezentowali w 1986 roku trzej badawcze. Dw├│ch z Instytutu Bada┼ä Kognitywnych Uniwersytetu Kalifornii w San Diego (David E. Rumelhart oraz Ronald J. Williams) oraz Geoffrey E. Hinton z Carnegie-Mellon University. Cho─ç jednak uda┼éo im si─Ö udowodni─ç, ┼╝e mo┼╝liwe jest skuteczne uczenie wielowarstwowych sieci, to wci─ů┼╝ zbyt ma┼éa moc obliczeniowa w dw├│ch ostatnich dekadach XX wieku oraz niedoskona┼éo┼Ťci samego algorytmu (m.in. tzw. problem zanikaj─ůcego gradientu) spowodowa┼éy, ┼╝e mimo pewnych sukces├│w sieci neuronowe nie zyska┼éy ju┼╝ takiej atencji jak w pionierskich latach, co jednak nie oznacza, ┼╝e finalnie zyska┼éy dzi┼Ť nale┼╝ne im miejsce w pracach nad sztuczn─ů inteligencj─ů.

Mniejsze zainteresowanie sieciami neuronowymi w dw├│ch ostatnich dekadach XX wieku wynika┼éo r├│wnie┼╝ z tego, ┼╝e opracowano odmienne, efektywne metody rozwi─ůzywania zada┼ä charakterystycznych dla sztucznej inteligencji. Przyk┼éadem mo┼╝e by─ç zaproponowana przez V. Vapnika w 1998 roku tzw. maszyna wektor├│w no┼Ťnych (SVM – Support Vector Machine), czy opracowywane w├│wczas metody probabilistyczne. Jako ciekawostk─Ö warto zaznaczy─ç, ┼╝e SVM by┼éa (i jest) skutecznie wykorzystywana w procesie komputerowego rozpoznawania obraz├│w.

Stale rosn─ůca moc obliczeniowa, a tak┼╝e coraz wi─Öksza ilo┼Ť─ç danych, kt├│re mog┼éyby stanowi─ç baz─Ö wzorc├│w dla uczenia maszynowego spowodowa┼éa, ┼╝e w 2006 roku dokonano kolejnego prze┼éomu: pojawi┼éo si─Ö tzw. g┼é─Öbokie uczenie maszynowe. Zasadniczo po raz kolejny zmieni┼éa si─Ö metoda uczenia wielowarstwowych sieci neuronowych. Sieci korzystaj─ůce z uczenia g┼é─Öbokiego uczy si─Ö warstwa po warstwie, przy czym ka┼╝d─ů z warstw mo┼╝na dodatkowo „doucza─ç” a i ca┼éa sie─ç jest wst─Öpnie uczona.

Dzi┼Ť z metod deep learning korzystaj─ů wszyscy najwi─Öksi potentaci bran┼╝y IT, bez uczenia g┼é─Öbokiego Google, Apple, czy Microsoft nie mog┼éyby oferowa─ç wielu swoich us┼éug online. Inteligencja g┼éosowych asystent├│w takich jak Siri, Cortana czy Asystent Google, to produkt g┼é─Öbokiego uczenia maszynowego. To, ┼╝e poszukuj─ůc np. konkretnych zdj─Ö─ç, wyszukiwarka (Google, Bing) jest w stanie je znale┼║─ç i wyszuka─ç tak┼╝e podobie┼ästwa wymaga „rozumienia” zawarto┼Ťci obrazu – tego maszyna te┼╝ nie potrafi┼éaby bez uczenia g┼é─Öbokiego. Potencja┼é sztucznej inteligencji dostrzegaj─ů r├│wnie┼╝ firmy kojarzone raczej ze sprz─Ötem, np. Intel. Zreszt─ů trudno pomin─ů─ç rol─Ö procesorowego potentata z Santa Clara wobec faktu, ┼╝e a┼╝ 97% wszystkich serwer├│w ┼Ťwiata przetwarzaj─ůcych ┼╝─ůdania zwi─ůzane z uczeniem maszynowym pracuje pod kontrol─ů procesor├│w Intela w┼éa┼Ťnie. Jednak „sprz─Ötowcy” nie poprzestaj─ů wy┼é─ůcznie na opracowywaniu samych uk┼éad├│w. Intel przej─ů┼é rok temu (w sierpniu 2016 roku) stosunkowo m┼éod─ů, bo powsta┼é─ů w 2014 roku firm─Ö Nervana Systems. Ta ma┼éo znana u nas sp├│┼éka ma imponuj─ůce osi─ůgni─Öcia w dziedzinie technologii uczenia g┼é─Öbokiego. Intel ma nadziej─Ö, ┼╝e przej─Öcie w┼éasno┼Ťci intelektualnej Nervana Systems pozwoli firmie znacznie rozszerzy─ç mo┼╝liwo┼Ťci w dziedzinie dalszego rozwoju sztucznej inteligencji.

Sieci neuronowe, uczenie maszynowe (machine learning), g┼é─Öbokie uczenie (deep learning), heurystyka – ka┼╝de z tych, przedstawionych wy┼╝ej zagadnie┼ä, wesp├│┼é z dynamicznie rosn─ůc─ů moc─ů obliczeniow─ů oraz coraz wi─Ökszymi zbiorami danych (big data) pozwala nam za pomoc─ů komputer├│w symulowa─ç coraz wi─Öcej dzia┼éa┼ä, kt├│re w przypadku gdyby wykonywa┼é je cz┼éowiek uznaliby┼Ťmy za inteligentne.

Wci─ů┼╝ jednak daleko nam do symulowania ca┼éego ludzkiego m├│zgu. Mo┼╝liwo┼Ťci SI s─ů dzi┼Ť imponuj─ůce, ale sztuczny m├│zg? Czy to da nam w pe┼éni og├│ln─ů inteligencj─Ö maszynow─ů? Zdania s─ů podzielone, jednak ewolucja jest procesem, kt├│ry potrafi wykreowa─ç inteligencj─Ö. Jeste┼Ťmy tego ┼╝ywym dowodem.

Kopiowanie ewolucji

Czy zaadoptowanie mechanizm├│w darwinowskiego doboru naturalnego w cyfrowym ┼Ťwiecie pomo┼╝e nam wykreowa─ç sztuczn─ů inteligencj─Ö? Natura wykszta┼éci┼éa precedens, wystarczy zatem tylko powt├│rzy─ç jej osi─ůgni─Öcie, prawda? Niezupe┼énie. Oczywi┼Ťcie ludzki m├│zg jest centralnym organem kontrolnym istoty z pewno┼Ťci─ů uwa┼╝anej za byt inteligentny. Zatem logicznie rzecz bior─ůc, je┼╝eli b─Ödziemy w stanie zmapowa─ç wszystkie po┼é─ůczenia nerwowe w m├│zgu w postaci cyfrowego konstruktu uzyskamy cyfrow─ů inteligencj─Ö, a nawet ┼Ťwiadomo┼Ť─ç tak─ů sam─ů jak biologicznego wzorca. Skoro potrafimy symulowa─ç neurony, tworzymy z nich ca┼ée sieci, to mo┼╝emy przecie┼╝ symulowa─ç ca┼éy m├│zg. Nie mo┼╝emy. Jeszcze nie teraz. Czy kiedykolwiek? Uczciwa odpowied┼║ brzmi: to mo┼╝liwe.

P├│┼étora kilo wszech┼Ťwiata

Ludzki m├│zg wa┼╝y nieco mniej ni┼╝ p├│┼étora kilograma. Pod wzgl─Ödem efektywno┼Ťci dzia┼éania jest najdoskonalszym biologicznym komputerem jaki znamy. Skopiowanie go to olbrzymie wyzwanie. Wie o tym doskonale profesor Sebastian Seung z MIT, kt├│ry wraz z wsp├│┼épracownikami podj─ů┼é si─Ö analizy ludzkiego konektomu, czyli og├│┼éu wszystkich po┼é─ůcze┼ä nerwowych cz┼éowieka.

Ludzki m├│zg zawiera oko┼éo 100 miliard├│w neuron├│w, z kt├│rych ka┼╝dy jest po┼é─ůczony z innymi neuronami za pomoc─ů nawet do 10 tysi─Öcy po┼é─ůcze┼ä synaptycznych. Co wi─Öcej u ka┼╝dego osobnika homo sapiens ta sie─ç ponad biliarda (1015) po┼é─ůcze┼ä jest zupe┼énie inna. Struktury naszego m├│zgu s─ů plastyczne i w ci─ůgu naszego ┼╝ycia ulegaj─ů ci─ůg┼éym modyfikacjom. Nie m├│wimy jednak o stworzeniu dynamicznego modelu, ale cho─çby pe┼énej kopii. Problemem z cyfrowym odtworzeniem m├│zgu jest przede wszystkim z┼éo┼╝ono┼Ť─ç i brak metod dok┼éadnego pomiaru. Obecnie mo┼╝emy zeskanowa─ç m├│zg kawa┼éek po kawa┼éku za pomoc─ů mikroskopu elektronowego, nietrudno jednak zauwa┼╝y─ç, ┼╝e metoda ta uniemo┼╝liwia zeskanowania m├│zgu kogo┼Ť ┼╝ywego.

Kwestie konstrukcyjne zwi─ůzane z sieci─ů po┼é─ůcze┼ä nerwowych i budow─ů m├│zgu, pozostaj─ůce wci─ů┼╝ poza naszym zasi─Ögiem to nie wszystko. Trudno budowa─ç opart─ů na ludzkim umy┼Ťle sztuczn─ů inteligencj─Ö, je┼╝eli sami nie wiemy jak ├│w wzorzec dok┼éadnie funkcjonuje. Dr Steven Novella, neurolog z Uniwersytetu Yale m├│wi wprost, ┼╝e sami nie wiemy ile jeszcze nie wiemy, wi─Öc jakiekolwiek przewidywania kiedy b─Ödziemy w stanie zbudowa─ç inteligentny umys┼é odtwarzaj─ůc nas w┼éasny s─ů w chwili obecnej pozbawione sensu.

Niemniej ju┼╝ w 1988 roku Hans Moravec, profesor Instytutu Robotyki przy Uniwersytecie Carnegie Mellon w Pittsburghu w swojej ksi─ů┼╝ce pt. „Mind Children” napisa┼é nast─Öpuj─ůce s┼éowa:

W o┼Ťrodkach zmys┼éowych i motorycznych ludzkiego m├│zgu zakodowane jest miliard lat do┼Ťwiadczenia o naturze ┼Ťwiata i o tym, jak w nim przetrwa─ç. ┼Üwiadomy proces, kt├│ry nazywamy my┼Ťleniem jest, wed┼éug mnie, cieniutk─ů warstewk─ů ludzkich my┼Ťli, efektywn─ů tylko dzi─Öki wsparciu o wiele starszej i o wiele pot─Ö┼╝niejszej, cho─ç zwykle nieu┼Ťwiadomionej, wiedzy motorycznej. Jeste┼Ťmy wszyscy wybitnymi olimpijczykami w dziedzinie percepcji i zdolno┼Ťci motorycznych, tak dobrymi, ┼╝e trudne zadania wydaj─ů nam si─Ö ┼éatwe. My┼Ťl abstrakcyjna jednak jest now─ů zdolno┼Ťci─ů, by─ç mo┼╝e m┼éodsz─ů ni┼╝ 100 tys. lat. Nie opanowali┼Ťmy jej jeszcze dobrze. Nie jest ona sama z siebie wcale trudna ÔÇô tylko taka si─Ö wydaje, gdy my j─ů wykonujemy.

Wynika z nich co┼Ť bardzo istotnego: chc─ůc uzyska─ç sztuczn─ů inteligencj─Ö drog─ů symulacji ludzkiego m├│zgu, zostawmy wypracowan─ů przez miliony lat ewolucji motoryk─Ö, skoro potrzebne s─ů nam np. matematyka, in┼╝ynieria, logika czy my┼Ťlenie naukowe. Innymi s┼éowy wykorzystajmy ewolucj─Ö, ale nie po to by odkry─ç jak wyewoluowa┼é nasz m├│zg, a po to, by stosuj─ůc jej mechanizmy wyhodowa─ç inteligentne programy.

Programowanie i algorytmy genetyczne

W 1980 roku profesor John Henry Holland wraz z Davidem Goldbergiem, jednym ze swoich doktorant├│w, pracowali nad rozwi─ůzaniem praktycznego problemu dotycz─ůcego optymalizacji przepustowo┼Ťci gazoci─ůg├│w za pomoc─ů komputera. Zbudowali wst─Öpny model problemu z istotnymi parametrami, a nast─Öpnie poddawali go zmianom narzucanym przez algorytm dzia┼éaj─ůcy w oparciu o regu┼éy doboru naturalnego. W efekcie ka┼╝da zmiana modelu stawa┼éa si─Ö odpowiednikiem mutacji, a kolejna iteracja poddawanego mutacjom modelu – pokoleniem. Pomys┼é okaza┼é si─Ö nadspodziewanie dobry. Ju┼╝ po oko┼éo 30 generacjach kodu model systemu gazoci─ůg├│w wyewoluowa┼é w rozwi─ůzanie skuteczniejsze od stanu bazowego, opartego na rzeczywistym uk┼éadzie.

Cho─ç pomys┼é z wykorzystaniem algorytmu genetycznego w celu ewolucyjnego rozwi─ůzania problemu jest dobry, to znacznie pog┼é─Öbi┼é go dr John Koza, wsp├│┼épracownik profesora Hollanda. Dr Koza postawi┼é sobie pytanie: skoro mechanizmy ewolucyjne tak dobrze zoptymalizowa┼éy model ruroci─ůgu, mo┼╝e warto wykorzysta─ç je do rozwijania samego kodu programu? To by┼é pocz─ůtek programowania genetycznego, czyli tworzenia kodu za pomoc─ů metod ewolucyjnych. Jakie to ma znaczenie w kontek┼Ťcie SI? Warto wiedzie─ç, ┼╝e cech─ů programowania genetycznego szczeg├│lnie odr├│┼╝niaj─ůc─ů t─Ö metod─Ö tworzenia program├│w od technik klasycznych jest to, ┼╝e dzi─Öki niemu mo┼╝liwe jest rozwi─ůzywanie z┼éo┼╝onych problem├│w praktycznie bez wsparcia cz┼éowieka. To ca┼ékowite przeciwie┼ästwo wspominanych wcze┼Ťniej system├│w eksperckich, kt├│re nie istnia┼éy bez bazy pe┼énej fachowej, eksperckiej wiedzy. Co ciekawsze programowanie genetyczne i algorytmy ewolucyjne wielokrotnie udowodni┼éy swoj─ů przydatno┼Ť─ç generuj─ůc zaskakuj─ůce rozwi─ůzania, kt├│re wykonywa┼éy postawione przed nimi zadania zadziwiaj─ůco efektywnie. Cz─Östo lepiej ni┼╝ rozwi─ůzania analogicznych problem├│w proponowane przez ekspert├│w w swoich dziedzinach. Skojarzenie ze sztuczn─ů inteligencj─ů wydaje si─Ö zasadne, ale wci─ů┼╝ mamy tutaj problem ograniczonej u┼╝yteczno┼Ťci – wypracowane rozwi─ůzania dzia┼éaj─ů skutecznie, ale w w─ůskim zakresie.

Sztuczna inteligencja jest już wokół nas

Mimo i┼╝ wci─ů┼╝ nie uda┼éo nam si─Ö zbudowa─ç og├│lnej sztucznej inteligencji, czyli konstruktu cyfrowego, kt├│ry by┼éby zdolny do rozwi─ůzywania szerokiego zakresu problem├│w w stopniu por├│wnywalnym do mo┼╝liwo┼Ťci ludzkiego umys┼éu, to ju┼╝ dzi┼Ť jeste┼Ťmy otoczeniu rozwi─ůzaniami, kt├│re s─ů w istocie wieloma instancjami tzw. s┼éabej SI, czyli rozwi─ůzania wykazuj─ůcego inteligentne dzia┼éanie w ograniczonym zakresie. „Ograniczony” nie jest tu r├│wnoznaczne z „banalny”. SI jest dzi┼Ť wykorzystywana w analizie obraz├│w, w autonomicznej kontroli pojazd├│w (nie tylko samochody, ale te┼╝ drony), diagnostyce medycznej, analizie finansowej, serwisach transakcyjnych, bezpiecze┼ästwie informatycznym i wielu, wielu innych dziedzinach naszego ┼╝ycia.

Artystyczna wizja sztucznej inteligencji
Potencja┼é SI jest olbrzymi, ale buduj─ůc coraz ┼Ťmielsze projekty warto pami─Öta─ç o pewnych zasadach. Pr├│b─ů skodyfikowania prac nad SI jest zbi├│r zasad „Asilomar AI Principles”. (fot. Future of Life Institute)

Grupa naukowc├│w i wynalazc├│w, z r├│┼╝nych dziedzin (m.in. Stephen Hawking czy Elon Musk) opracowa┼éa kodeks Sztucznej Inteligencji zwany ÔÇ×Zasadami z AsilomarÔÇŁ. Celem powstania tego spisu regu┼é by┼éo zdefiniowanie tego, czym ludzie si─Ö powinni kierowa─ç pracuj─ůc nad sztuczn─ů inteligencj─ů. Poni┼╝sze zasady zosta┼éy podzielone na trzy grupy. Pierwsza grupa dotyczy regu┼é, kt├│re s─ů ┼Ťci┼Ťle zwi─ůzane z samymi badaniami nad sztuczn─ů inteligencj─ů, druga porusza znacznie bardziej og├│lne kwestie dotycz─ůce m.in. etyki i warto┼Ťci, kt├│rych znaczenie mo┼╝e rosn─ů─ç w miar─Ö post─Öp├│w w pracach nad SI. Natomiast trzecia grupa skupia si─Ö na d┼éugoterminowych kwestiach zwi─ůzanych z funkcjonowaniem SI. Pe┼ény zbi├│r 23 zasad zosta┼é zebrany przez Future of Life Institute (https://futureoflife.org/ai-principles/), organizacj─Ö non-profit za┼éo┼╝on─ů przez wsp├│┼éza┼éo┼╝yciela SkypeÔÇÖa Jaana Tallinna, kosmologa Maksa Tegmarka z MIT oraz Victori─Ö Krakovn─ů, badaczk─Ö SI z DeepMind, firmy obecnie nale┼╝─ůcej do Alphabetu ÔÇô w┼éa┼Ťcicieli GoogleÔÇÖa. Poni┼╝sze regu┼éy opracowano podczas zorganizowanej w styczniu br. konferencji Beneficial AI, w kt├│rej udzia┼é wzi─Öli m.in. Elon Musk, Demis Hassabis (szef DeepMind), Yann LeCun (spec od AI w Facebooku), Jann Tallinn oraz Nick Bostrom, szwedzki naukowiec specjalizuj─ůcy si─Ö w zagadnieniach dotycz─ůcych SI, czy transhumanizmu.

Dodatkowe źródła wiedzy

Jak zwykle w przypadku naszych przekrojowych materia┼é├│w dzielimy si─Ö z Wami ciekawymi ┼║r├│d┼éami wiedzy poszerzaj─ůcymi spojrzenie na zagadnienia zwi─ůzane ze sztuczn─ů inteligencj─ů. Wiemy, co piszemy – sami z nich korzystali┼Ťmy.

| CHIP