Sztuczna inteligencja: „science-fiction” czy tylko „fiction”

Czy to faktycznie inteligencja i na ile sztuczna?

Godzina 13:40, 10 lipca 2013, niedaleko wschodniego wybrzeża USA. Na głównym pokładzie lotniskowca amerykańskiej marynarki wojennej panuje napięta atmosfera. Blisko 50 żołnierzy i techników czeka na powrót nowego myśliwca bojowego, który przed kilkoma minutami oderwał się od
ziemi, by odbyć próbny lot. Po przeciągającej się w nieskończoność chwili oczekiwania dało się zauważyć ostry zarys sylwetki odrzutowca Northrop Grumman X-47B na tle nieba. Godzina 13:45. Lądowanie. Myśliwiec zatrzymuje się na swoim miejscu postojowym, jednak z kokpitu nie wychodzi pilot. Po raz pierwszy dron bez asysty człowieka wylądował na lotniskowcu. Zakończył się więc kolejny etap rozwoju maszyny, która wykonała zadanie poprawnie realizowane tylko przez najlepszych i najbardziej doświadczonych pilotów. W przypadku X-47B operator przekazuje jedynie dane misji, takie jak trasa lotu i jej cel, o resztę – start, przelot, interpretację danych, celowanie, strzelanie i lądowanie – dron musi zadbać sam. Do momentu lądowania na lotniskowcu dron komunikuje się ze swoimi komputerem pokładowym, który dostarcza mu bez przerwy danych o pozycji, szybkości przelotu, kierunku i sile wiatru. Na podstawie pozycji (z systemu GPS) i informacji odbieranych przez
własne sensory algorytm oblicza optymalną trasę podchodzenia do lądowania. Prace nad rozwojem autonomicznych dronów bojowych, którym marynarka wojenna nadała kryptonim „Salty Dog 502”, trwają już osiem lat.
Komory bombowe, na razie puste, mogą posłużyć do przenoszenia 2 ton ładunku. Jednak dronom nie wolno jeszcze uczestniczyć w misjach bojowych. W kolejnych zaplanowanych na ten rok zadaniach X-47B musi najpierw udowodnić, że potrafi lądować na lotniskowcu obok bojowego myśliwca, sterowanego przez żywych pilotów. Wówczas okaże się, czy system pokładowej inteligencji dorówna umiejętnościom ludzkiego pilota.

Takiego scenariusza nie wyklucza profesor Wolfgang Wahlster: „W przypadku takich zmysłów, jak wzrok, słuch, węch i dotyk, dla każdego z osobna potrafi my tworzyć sztuczne odpowiedniki, które działają o niebo lepiej niż ludzki pierwowzór”, powiedział CEO i dyrektor naukowy Niemieckiego Centrum Badań Sztucznej Inteligencji (DFKI). Również naśladując logiczne procesy myślowe, maszyny częściowo wyprzedzają ludzi. „Z mizerną mocą obliczeniową i pojemnością pamięci, jaką dziś dysponujemy, żaden ludzki umysł nie może dotrzymać kroku SI”, wyjaśnia Wahlster. Piaskownicę do zabawy dla systemów SI stanowi Big Data: w olbrzymich strukturach danych rozpoznają wzór, do czego żaden ludzki umysł nie byłby zdolny.
Czy ludzkość powinna się obawiać o swoją pozycję jako dominującego gatunku, jeśli maszyny już dziś dysponują lepszymi umiejętnościami sensorycznymi i kognitywnymi? Na razie nie, ponieważ najtrudniejszą do pokonania przeszkodę badacze sztucznej inteligencji mają jeszcze przed sobą: mowa o tzw. inteligencji ogólnej, jaką jest nasza zdolność do podejmowania rozsądnej decyzji pomimo niepewnych, niekompletnych lub mglistych informacji. „Przy tym zadaniu nasze systemy SI są nieudolne”, wyjaśnia Wahlster. Zdolność improwizacji to pole do badań: „To zadanie dla badaczy SI na stulecia”. A co gdyby jednak pewnego dnia został wykonany ten krok milowy? Wahlster uspokaja: „Celem badań SI nie jest całkowite skopiowanie człowieka. Nie dążymy do stworzenia Frankensteina”. Chodzi raczej o wspieranie, poprawianie lub uzupełnianie umiejętności człowieka. Dlatego właśnie działania, których przykładem jest ćwiczebny lot drona Northrop Grumman X-47B, trudno nazwać w pełni sztuczną inteligencją. W tym przypadku mamy do czynienia raczej z nader wyrafinowaną automatyką. Autonomiczne systemu pilotażu mogą imponować skutecznością, ale same w sobie nie stanowią innowacyjnego rozwiązania. Wszak od wielu lat w liniowcach pasażerskich i samolotach innego typu stosuje się pokładowe instrumenty automatyzujące lot. Są one dziś znacznie bardziej rozbudowane od prostego autopilota potrafiącego utrzymać pułap i kierunek lotu.

Sztuczna inteligencja za kółkiem

Z zewnątrz Future Truck 2025 wygląda jak zwykła ciężarówka. Tym, co istotne, jest życie wewnętrzne: podczas gdy kierowca studiuje kartę dań najbliższej restauracji, SI prowadzi ciężarówkę na autostradzie
Z zewnątrz Future Truck 2025 wygląda jak zwykła ciężarówka. Tym, co istotne, jest życie wewnętrzne: podczas gdy kierowca studiuje kartę dań najbliższej restauracji, SI prowadzi ciężarówkę na autostradzie

Jak wygląda udzielanie pomocy w wykonaniu sztucznej inteligencji, można było zobaczyć na początku lipca 2014 r. w pobliżu Magdeburga. Przez zamknięty dla postronnych, zagrodzony odcinek A14 przejeżdża przed trybunami pełnymi widzów kolumna 15 samochodów. Z tyłu słychać wóz jadący na sygnale. Pojazd oklejony czarno-białą folią momentalnie zjeżdża na prawy pas, by zrobić miejsce dla karetki. Jednak człowiek za kółkiem nie trzyma rąk na kierownicy, a jedynie dotyka ekranu tabletu. Future Truck 2025 – tak Daimler ochrzcił swój prototypowy pojazd, sterowany przez Highway Pilot System. Jego sztuczna inteligencja to wynikowa wszystkich dotąd istniejących systemów bezpieczeństwa stosowanych w samochodach ciężarowych, uzupełniona o kamery, radary i możliwość komunikacji między pojazdami. Kierowca musi ingerować tylko podczas wyprzedzania, ze względów prawnych, jak argumentowano w trakcie prezentacji na autostradzie A14. Teoretycznie Highway Pilot System potrafi również wyprzedzać. Brakuje już tylko tego, by elektroniczny kierowca nauczył się rozmawiać z żywym szoferem i wymieniać plotki o najnowszych modelach ciężarówek (pobrane błyskawicznie z Internetu).

Cyfrowe pogawędki

Alan Turing fot. The Guardian
Alan Turing fot. The Guardian

Wspomnieliśmy o konwersacjach. Prowadzenie rozmów przez maszyny jest kolejnym działaniem, które uznaje się za pewną formę inteligencji. Słynny brytyjski matematyk Alan Turing zaproponował

w 1950 roku test, który pośrednio miał dowodzić opanowania przez maszynę umiejętności myślenia w sposób podobny do ludzkiego. Turing wysunął hipotezę, że w roku 2000 pojawią się maszyny, które podczas czatu będą mogły przekonać 30 proc. swoich rozmówców do tego, że również są ludźmi. Test jest prowadzony w ten sposób, że sędzia – człowiek – prowadzi rozmowę w języku naturalnym z kilkoma rozmówcami, z których jednym (ale nie wiadomo którym) jest maszyna. Jeżeli sędzia nie jest w stanie stwierdzić, który z interlokutorów jest maszyną, komputer zdaje test. 8 czerwca, na miesiąc przed prezentacją Future Truck 2025, sensacyjna wieść obiegła świat: brytyjski University of Reading ogłosił, że chatbotowi nazwanemu Eugene Goostman udało się po raz pierwszy zdać test Turinga, choć jest wokół tego wiele kontrowersji.

Do zamknięcia tego wydania CHIP-a Eugene Goostman, zwykle gawędzący na princetonai.com/bot, był wyłączony. Dlatego prezentujemy fragment chatu pomiędzy Rayem Kurzweilem i Eugene'em Goostmanem.
Eugene Goostman, zwykle gawędzący na princetonai.com/bot jest tymczasowo wyłączony. Dlatego prezentujemy fragment chatu pomiędzy Rayem Kurzweilem i Eugene’em Goostmanem.

Podczas tegorocznego konkursu Loebner Prize, Eugene Goostman potrafił przekonać członków jury do tego, że jest człowiekiem. Opracowany przez trzech programistów – Jewgienija Demczenko, Siergieja Ułasiena i Władimira Wesiełowa – chatbot to program konwersacyjny udający osobowość trzynastolatka. Wielu ekspertów uważa, że właśnie nadanie mu osobowości dziecka pozwoliło przejść test Turinga w ponad 30 proc. przypadków, gdyż trudno oczekiwać od 13-latka tak szerokiej wiedzy, jaką dysponują dorośli osobnicy homo sapiens. „Zastosowano tutaj trik”, mówi profesor Wahlster. „Goostman ma naśladować chłopaka z Ukrainy w wieku dojrzewania, który nawet nie mówi poprawnie w języku angielskim. Wahlster umniejsza osiągnięcie zespołu programistów: „W takim razie równie dobrze można by poddać testowi symulator głuchoniemego”. Zdaniem uczonego test Turinga nie jest relewantny, żeby móc go wykorzystywać do badania sprawności systemów SI. „Test Turinga jest wprawdzie eksperymentem myślowym, lecz to bardziej PR-owa sztuczka niż faktyczne osiągnięcie naukowe”, mówi Wahlster.

Nie tylko Wahlster, ale wielu innych badaczy sztucznej inteligencji zwraca uwagę na fakt, że test Turinga w istocie nic nie mówi o inteligencji. Pozwala on jedynie stwierdzić, czy maszyna potrafi odtwarzać zachowania uznawane za ludzkie, czy też – odnosząc to do samych konwersacji – zdolna jest do manipulacji słowami i zdaniami w sposób przekonujący ludzkiego rozmówcę. Trudno jednak na tej podstawie wnioskować, iż mamy w danym przypadku do czynienia z inteligentnym programem – byłoby to naiwną nadinterpretacją. Zresztą rozumiał to również sam Alan Turing: pytanie, czy maszyny rzeczywiście potrafią myśleć, nie było dla niego istotne. Wystarczy, że stwarzają takie pozory.

Także profesor Ipke Wachsmuth, który zajmuje się badaniami SI na Uniwersytecie w Bielefeld, nie przypisuje żadnego znaczenia wiadomości o zwycięstwie w teście Turinga. „W jury zasiadają ludzie, którzy nie są ekspertami i którzy pozwolili zauroczyć się programowi”. Wachsmuth jest specjalistą w dziedzinie mówiących systemów SI. Już dziesięć lat temu grupa studentów pod jego kierownictwem stworzyła Avatar Max, który od tego czasu pracuje jako przewodnik muzeum w Heinz Nixdorf MuseumsForum w Paderbornie. Rozmowa z Maxem jest zbliżona do tej z człowiekiem. Jednak Wachsmuth nie wysłałby swojego Avatara na test Turinga: „Eksperci bardzo dobrze wiedzą, jak taki system wziąć w krzyżowy ogień pytań i rozłożyć na łopatki”. Uważa za wysoce nieprawdopodobne, że chatbota można wyposażyć w taki poziom inteligencji, który by dorównywał ludzkiemu, i przekonać nawet eksperta: „Inteligencja jest czymś więcej niż tylko stosowaniem określonych reguł”.

Czym jest sztuczna inteligencja?

Termin „sztuczna inteligencja” został sformułowany po raz pierwszy w 1956 r. na konferencji w Dartmought przez Johna McCarthy’ego, amerykańskiego matematyka i informatyka, zdobywcy Nagrody Turinga w 1971 roku. Pozornie wszyscy „wiemy”, czym jest SI. „Chodzi o inteligentne maszyny!” – powie z pewnością większość zapytana o definicję, potwierdzają to przecież powyższe przykłady „inteligentnych” samolotów i samochodów. Problem w tym, że samo pojęcie inteligencji jest trudno definiowalne, a do tego jeszcze mamy kwestię jej „sztuczności”. Najpowszechniej przyjęta definicja sztucznej inteligencji to realizacja za pomocą komputera/maszyny tego, co zrealizowane przez człowieka byłoby uznane za działanie inteligentne. Czyż sztuka pilotażu nie jest „inteligentna”? Z pewnością wielu uznałoby pilota wykonującego manewr lądowania za inteligentnego, jednak nie można tego powiedzieć o wykonującej to samo działanie maszynie. Przytoczona definicja sztucznej inteligencji jest jedną z wielu. Rozumienie sztucznej inteligencji okazuje się inne w zależności od tego, czy terminem tym zajmuje się biolog, informatyk czy psycholog. Wyróżnia się dwa główne nurty badawcze sztucznej inteligencji. Pierwszym jest budowa komputerowych modeli procesów myślowych człowieka w celu rozwijania badań w zakresie nauk psychologicznych. Natomiast drugi to poszukiwanie nietrywialnych metod rozwiązywania zadań w warunkach nieoczekiwanego ich pojawiania się przy braku wszystkich potrzebnych informacji.

Budowa modeli

Główny problem z modelami jest taki, że przekazują one informacje o modelowanej rzeczywistości w sposób niepełny. Chcąc zbudować system inteligentny, musimy mu przede wszystkim dostarczyć danych stanowiących podstawę umożliwiającą wnioskowanie, a także reguł umożliwiających uzyskiwanie rezultatów przy braku wszystkich potrzebnych informacji. Głównym zadaniem modelu ma być poprawne odzwierciedlenie cech interesujących badacza, ale w zestawieniu z realnym światem informacja modelowa będzie wyrwana z kontekstu. Z pewnością wielu czytelników pasjonowało się modelarstwem. Oczywiście to uprawiane przez rzesze ludzi hobby ma niewiele wspólnego z modelowaniem rzeczywistości w SI i robotyce, ale to „niewiele” wystarczy. Prosty przykład: małe modele samolotów, które wyglądają jak zmniejszone, wierne wizualnie kopie rzeczywistych maszyn, zazwyczaj ładnie się prezentują, ale nie latają. Tymczasem niewielkie modele, które potrafią latać, nie wyglądają jak prawdziwe samoloty.

W jednym przypadku celem był wygląd rzeczywistych maszyn, w drugim – ich podstawowa cecha: zdolność pokonywania przestworzy. Żaden z modeli nie przekazuje jednak pełnej informacji. Nikt nie przeczy, że dron firmy Northrop Grumman potrafi błyskawicznie analizować mnóstwo danych na temat otaczającego go środowiska, ale z pewnością daleki jest od zachwycania się subtelnościami zachodzącego za chmurami słońca, nie potrafi też np. prowadzić abstrakcyjnej konwersacji – jego funkcjonalność jest ograniczona i choć niewątpliwe maszyna liczy szybciej niż człowiek, to szerokością spojrzenia na rzeczywistość jeszcze długo mu nie dorówna. Sukcesy osiągnięte dotychczas na polu sztucznej inteligencji prezentowane masowej publiczności w postaci „zwycięstw” w teleturniejach (jak IBM-owski Watson, komputer-zwycięzca teleturnieju „Jeopardy!”; w Polsce znanego pod nazwą „Va Banque”) czy pomyślne przejście testu Turinga (chatbot Eugene Goostman) doskonale podsumował Stuart Shieber, naukowiec z Harvardu zajmujący się zagadnieniami SI. Shieber stwierdził, że próba osiągnięcia sztucznej inteligencji poprzez nabieranie coraz większej rzeszy ludzi za pomocą coraz bardziej rozbudowanych chatbotów jest jak osiągnięcie kontrolowanego lotu atmosferycznego poprzez… coraz wyższe skoki na drążku pogo.

Pokaż mi swój konektom

Badanie procesów myślowych nie zawsze musi oznaczać imitowania człowieka. Projekt OpenWorm to międzynarodowy zespół badaczy, który postawił sobie za cel cyfrowe zrekonstruowanie nicienia Caenorhabditis elegans. W przeciwieństwie do założeń Top–down (z góry na dół), w których to odtworzenie cech człowieka jest celem sztucznej inteligencji, zespół OpenWorm przyjął założenie Bottom-Up, próbując przyjrzeć się inteligencji od dołu. „Projekt OpenWorm odzwierciedla w pewnym sensie historię badań SI”, objaśnia doktor Benjamin Inden z Uniwersytetu w Bielefeld. „Wcześniej pod pojęciem inteligencji rozumiano coś w rodzaju gry w szachy. Dziś już wiemy, że orientacja oraz poruszanie się w przestrzeni są znacznie trudniejsze”.

Dla Indena, który zajmuje się badaniem ewolucyjnych algorytmów i sieci neuronowych, jest to jasne: „Badając SI, możemy wiele nauczyć się od zwierząt takich jak nicień. Nawet jeśli nie udaje się tego dostrzec na pierwszy rzut oka, robaki zdolne są do pewnych inteligentnych osiągnięć: uczą się, przyzwyczajając się do określonych bodźców, lub łączą zapach ze źródłem pożywienia”, wyjaśnia Inden. Według badacza wyłania się z tego bezpośrednia korzyść dla innych obszarów badań SI: „Takie umiejętności są przede wszystkim interesujące dla robotów”, stwierdza Inden. „Byłoby prawdziwym postępem, gdyby mogły uczyć się wnikliwie, a więc dobrze funkcjonowałyby również podczas zaburzeń w środowisku”.

Dlaczego nicień? C. elegans to ulubiony obiekt nie tylko naukowców zajmujących się sztuczną inteligencją. Jako tzw. jeden z organizmów modelowych stanowi przedmiot badań mikrobiologów czy

genetyków. To właśnie C. elegans był pierwszym organizmem wielokomórkowym, którego genom (czyli kompletną sekwencję nukleotydów w DNA) odczytano – było to w 1998 roku. Jest też jedynym organizmem wielokomórkowym z w pełni poznanym konektomem, czyli kompletną mapą sieci połączeń neuronalnych (termin „konektom” powstał przez analogię do genomu – kompletnej informacji o sekwencji genów, czy proteomu, czyli kompletnej informacji o białkach w danym organizmie). Kompletna mapa układu nerwowego C. elegans składa się z 302 neuronów i 7000 połączeń międzyneuronalnych. Jej poznanie pozwoli naukowcom zrozumieć podstawowe procesy związane z przekazywaniem sygnałów w układzie nerwowym, jednak do pełnego zrozumienia sposobu funkcjonowania ludzkiego umysłu droga wydaje się jeszcze daleka – mimo entuzjastycznych wręcz przepowiedni niektórych ekspertów od sztucznej inteligencji.

Nadchodzi osobliwość

Raymond Kurzweil, amerykański naukowiec specjalizujący się w dziedzinach takich jak OCR (optyczne rozpoznawanie znaków), synteza mowy, rozpoznawanie mowy, synteza dźwięków (głównie instrumentów klawiszowych), to jednocześnie futurolog, pełen pasji wizjoner i mesjasz transhumanistów. Transhumanizm to ideologia zakładająca koniec ewolucji naszego gatunku w znany dziś sposób (na drodze darwinowskiego doboru naturalnego) i przejście na wyższy poziom rozwoju z wykorzystaniem osiągnięć nauki, w szczególności takich gałęzi jak nanotechnologia czy biotechnologia. Jednym z propagatorów tej idei jest właśnie Kurzweil. Przepowiada on, że już w trzeciej dekadzie XXI wieku (czyli raptem za kilkanaście lat!) zostaną odkryte wszystkie tajemnice związane z funkcjonowaniem ludzkiego umysłu, a moc obliczeniowa wzrośnie na tyle, by około 2040 roku stało się możliwe przeniesienie świadomości ludzkiej do komputera. W tym samym roku zwykły komputer domowy kosztujący 1000 dolarów ma być efektywniejszy od człowieka we wszystkich zadaniach. Brzmi fantastycznie? Nie dla transhumanistów. Kurzweil ma w przepowiadaniu przyszłości spore doświadczenie.

Ten amerykański naukowiec przewidział, że komputer wygra z każdym człowiekiem w szachy w 1998 roku – pomylił się o rok. IBM-owski Deep Blue wygrał z arcymistrzem Garrim Kasparowem – najlepszym szachistą świata – 11 maja 1997 roku. Czym innym jest jednak zwycięstwo komputera w grze, czyli w skodyfikowanym i mocno ograniczonym wycinku rzeczywistości, a czym innym transfer świadomości z ludzkiego umysłu do maszyny czy osiągnięcie przez maszynę inteligencji dorównującej ludzkiej. Zresztą już po słynnym meczu szachowym wielu obserwatorów słusznie zauważało, że Garri

Kasparow przegrał nie tyle z maszyną, co ze sztabem programujących tę maszynę ludzi, wśród których znajdowali się również inni arcymistrzowie szachowi wspomagający ekipę fi rmy IBM. Co więcej, pomiędzy poszczególnymi rundami zwycięskiego meczu kod programu był modyfikowany i optymalizowany pod kątem stylu gry rywala.

Programowanie genetyczne

Problem „zaprogramowanej inteligencji” w maszynie, czyli bezpośredniego wpływu programistów, w pewnym stopniu rozwiązują specyficzne metody tworzenia programów znane pod wspólną nazwą „programowanie genetyczne”. W takim przypadku programiści tworzą jedynie ogólny zarys problemu, każąc maszynie samej utworzyć kod rozwiązujący dany problem. Algorytmy genetyczne i obliczenia ewolucyjne to ważna część badań nad sztuczną inteligencją. Sukcesami na tym polu może pochwalić się m.in. wyszukiwarkowy gigant. Już w 2011 roku na zorganizowanej w San Francisco konferencji dotyczącej maszynowego uczenia przedstawiciel firmy Google przekazał uczestnikom informacje na temat działania technologii maszynowego uczenia do automatycznego klasyfikowania zgromadzonych danych. Nie wnikając w zawiłości poruszanej tematyki, istotne jest to, że w wyniku tego procesu maszyna wygenerowała efektywny i wydajny kod, który nie był już zrozumiały przez tworzących wstępne założenia programistów. Program klasyfikujący ewoluował, a jego twórcy nie potrafili stwierdzić, w jaki sposób.

Użyty przez Google’a system to zbudowany z 16 tysięcy procesorów zamknięty klaster obliczeniowy, w którym liczba wewnętrznych po połączeń przekracza miliard. Doktor Jeff Dean nadzorujący badania dotyczące maszynowego uczenia się rozpoznawania konkretnych obrazów stwierdził, że maszyna nie potrzebowała informacji na temat wzorca, sama go wypracowała na podstawie analizy gigantycznej liczby danych, którymi w tym przypadku były miliony miniatur klipów z serwisu YouTube.

Ludzki umysł – niedościgniony wzorzec

Mimo niewątpliwych osiągnięć w opracowywaniu rozwiązań zbliżających nas do pełnej sztucznej inteligencji, meta na tej drodze wydaje się być – zdaniem wielu naukowców – znacznie dalej niż wizje

snute przez Raya Kurzweila. Znamy już kompletną mapę połączeń nerwowych nicienia C. elegans, potrafi my budować samouczące się klastry z miliardem wewnętrznych połączeń, jednak w stosunku

do tego, co znajduje się w naszych głowach, to tyle co nic.

Profesor Sebastian Seung z MIT ujawnia skalę problemu. Nasz mózg składa się ze 100 miliardów neuronów i zawiera 10 tys. razy tyle połączeń. Ludzki konektom zawiera milion razy więcej połączeń niż jest pojedynczych liter w ludzkim genomie. Łączna długość tych połączeń w jednym tylko mózgu człowieka szacowana jest na miliony kilometrów. Najdłuższa droga pokonana przez człowieka – na Księżyc i z powrotem – to przy tym niewielki spacerek. Odtworzenie t ej gigantycznej (pod względem złożoności) struktury wymaga użycia metod badawczych, które jeszcze nie istnieją. Prof. Seung wraz ze współpracownikami bada mózg myszy, analizując warstwa po warstwie układ neuronów pod mikroskopem. Tego typu badanie wymaga jednak uśmiercenia przedmiotu badań. Tym samym nie jest to metoda, której można by użyć do badania konektomu człowieka, tym bardziej że układ połączeń nerwowych jest u każdego inny. Kurzweil zakłada, że za jakiś czas dokładne odwzorowanie struktur w ludzkim mózgu będzie możliwe za pomocą nanotechnologii – mikroskopijne roboty będą mogły skanować nerwowe połączenia wewnątrz żyjącego osobnika. Tego typu rewelacje biolodzy kwitują jednak uśmiechem politowania, konstatując, że ktoś, kto twierdzi, iż możliwe będzie utworzenie jakichkolwiek nanostruktur badających umysł od środka, po prostu nie rozumie biologii. Neurony nie znajdują się w próżni, lecz wraz z synapsami, astrocytami i innymi komórkami pomocniczymi tworzącymi ciało ludzkiego mózgu stanowią niezwykle zwartą konstrukcję – nie ma tu miejsca na jakiekolwiek nanoroboty. I opisana forma „skanowania” budowy mózgu przez wszystkich badaczy ludzkiego umysłu uznawana jest obecnie za czystą fikcję, zwłaszcza przy założeniu, że skanowanie to miałoby być możliwe bez najmniejszej szkody dla skanowanego osobnika. Błąd w rozumowaniu popełniają również ci, którzy porównują gęsto upakowane neurony do klocków lego i poprzez ekstrapolację połączoną ze spodziewanym olbrzymim wzrostem mocy obliczeniowej zakładają możliwość kompletnego odtworzenia ludzkiego umysłu.

Rzeczywistość jest znacznie bardziej złożona. Każda komórka nerwowa różni się od innej, może w różny sposób łączyć się z pozostałymi komórkami, a na dodatek połączenia te u każdego z nas przebiegają inaczej. „Wyrwanie” fragmentu mózgu i jego odtworzenie nie będzie odtworzeniem fragmentu umysłu, lecz rekonstrukcją wyrwanego z kontekstu fragmentu pewnej całości, który ze względu na brak owego kontekstu nie będzie zawierał przydatnej informacji. Kwestie konstrukcyjne związane z siecią połączeń nerwowych i budową mózgu to nie wszystko. Trudno budować opartą na ludzkim umyśle sztuczną inteligencję, jeżeli sami nie wiemy, jak ów wzorzec dokładnie funkcjonuje. Doktor Steven Novella, neurolog z Uniwersytetu Yale, mówi wprost, że sami nie wiemy, ile jeszcze nie wiemy, więc jakiekolwiek przewidywania, kiedy będziemy w stanie zbudować inteligentny umysł, odtwarzając nasz własny, są obecnie pozbawione sensu.

Czy sztuczna inteligencja kiedykolwiek powstanie? Takie prawdopodobieństwo istnieje, niemniej wielu współczesnych naukowców podchodzi do tego potencjalnego wydarzenia bez krzty entuzjazmu. Nie tak dawno na łamach brytyjskiego „The Independent” Stephen Hawking wraz z grupą naukowców wręcz ostrzegał przed opracowywaniem SI, zwracając uwagę na podstawowy problem: czy sztuczną inteligencję w ogóle da się kontrolować?

Chcesz być na bieżąco z CHIP? Obserwuj nas w Google News