Czy Androidy marzą?

Fot. Piotr Sokołowski
Czy maszyny mogą być samoświadome? Czy, żeby zaprząc je do pracy, musimy dać im motywacje i popędy analogiczne do tych, które kierują nami? Tłumaczymy, czym różni się sposób działania człowieka od tego, jak "myśli" maszyna.

Czy osiągnięcie silnej sztucznej inteligencji, czyli sztucznego tworu zdolnego do abstrakcyjnego myślenia i rozwiązywania szerokiego spektrum problemów na równi z człowiekiem będzie oznaczało, że taki byt będzie samoświadomy? Pytanie dotyka istoty problemu niezrozumienia przez większość ludzi, czym jest SI. Fałszywe pojęcie sztucznej inteligencji ugruntowują wytwory kultury popularnej. W wielu filmach sztuczna inteligencja albo przejmuje kontrolę nad światem (Matrix, Terminator), albo powodowana strachem o własne istnienie, w taki czy inny sposób zagraża człowiekowi (Odyseja Kosmiczna 2001). Dysponując takimi filmowymi „archetypami” sztucznej inteligencji, czy może raczej naszych wyobrażeń o niej, trudno się dziwić, że siłą rzeczy antropomorfizujemy SI i na dodatek się obawiamy, że gdy zyska ona świadomość stanie się coś strasznego. Czy zyskanie świadomości, a właściwie samoświadomości przez maszynę jest w ogóle możliwe?

Duch w maszynie czy iluzja?

Pojęcie „świadomość” – podobnie jak „inteligencja” – nie ma jednej definicji. Sposób interpretowania świadomości przez człowieka jest zależny od jego profesji, punktu widzenia, umiejętności, kontekstu – można wymieniać długo. Faktem jest, że neurolog, psychiatra, filozof, teolog, behawiorysta, antropolog – każdy z nich inaczej zdefiniuje świadomość. Na szczęście ścisła definicja nie jest potrzebna do tego, by danym tematem się zajmować.

mózg - wizja artystyczna

Nasza świadomość jest „gdzieś tu”. Gdzie dokładnie? Wciąż szukamy (fot. Pixabay)

Nie znamy istoty świadomości. Nie wiemy jak ona się kształtuje, co dokładnie jest jej reprezentacją w naszych umysłach. Istnieją różne teorie, ale niczego nie wiemy „na pewno”. Wilder Penfield, kanadyjski neurochirurg jeden z pionierów w tej dziedzinie uważał, że „świadomość” jest zlokalizowana w tzw. górnym pniu mózgu (wzgórze, podwzgórze i twór siatkowaty).  Z kolei amerykańsko-brytyjski neurolog, noblista John O’Keefe umieszcza „świadomość” w hipokampie, niedużej strukturze wchodzącej w skład układu limbicznego, o której wiemy na pewno, że ma szczególne znaczenie dla naszych procesów pamięciowych. Idźmy dalej – Roger Penrose, kolejny noblista, brytyjski fizyk i matematyk w swojej książce pt. „Nowy umysł cesarza” wysuwa śmiały wniosek, iż „świadomość” jest zlokalizowana w korze mózgowej, najmłodszej ewolucyjnie, ale i najbardziej rozbudowanej właśnie u ludzi części mózgu. Istnieją też – stosunkowo młode (pojawiły się już w XXI w.) teorie, że za nasze „ja” nie odpowiada jeden wybrany obszar, lecz cała prawa półkula.

Jak widać nie ma zgody co do dokładnej lokalizacji „świadomości” w mózgu, zatem tym bardziej nieuprawnione staje się pytanie, czy możemy ją przenieść do maszyny i w ogóle po co mielibyśmy to robić. Jednak jak wcześniej wspomnieliśmy, do zajmowania się danym tematem badań nie potrzebujemy ani ścisłej definicji, ani też dokładnej lokalizacji obszaru w naszym mózgu odpowiadającym za świadomość. Droga przeniesienia naszego „ja” do maszyny, jest – przynajmniej przy obecnym stanie techniki – z góry skazana na porażkę, co wykazaliśmy w naszym poprzednim przekrojowym materiale pt. „Anatomia Sztucznej Inteligencji”.

Wszystkie dziś konstruowane sztuczne inteligencje powstają w jakimś celu. Mają rozwiązywać konkretne problemy, wspomagać człowieka w podejmowaniu decyzji, przyśpieszać wykonywanie określonych zadań, ułatwiać przeszukiwanie olbrzymich zbiorów danych i poszukiwać w nich cennych korelacji itd. W realizacji takich zadań nie ma potrzeby wyposażania SI w świadomość. Pomijamy tutaj kwestię, że po prostu nie wiemy jak to zrobić. Nie umiemy ani przenieść świadomości (np. ludzkiej) do maszyny, ani tym bardziej wykreować świadomego siebie bytu od podstaw. W tej dziedzinie natura wciąż pozostaje niedoścignionym wzorcem.

Imperatyw głodu (konieczność zdobycia energii), strachu (ochrona w celu przetrwania) czy prokreacji (przekazanie genów) napędza nas, ale w przypadku maszyn? Czy jest w ogóle sens zaszczepiania tego typu motywacji maszynom? Czy w ogóle tego typu pytanie jest uprawnione w kontekście maszynowo uczonego algorytmu? Owszem, w wielu przypadkach uzasadnione jest zaszczepianie maszynom umiejętności symulowania świadomego zachowania, tyle że symulowanie takich działań nie ma nic wspólnego ze świadomym działaniem maszyny.

Test lustra i robot Nico

Z pewnością znany jest Wam tzw. „test lustra”, czyli jedna z wielu – ze względu na swoją prostotę bardzo popularna – metod badania samoświadomości ludzi i zwierząt. W skrócie test polega na umieszczeniu badanego obiektu przed lustrem, a następnie obserwacji zachowania w celu stwierdzenia, czy badana istota ma zdolność rozpoznawania siebie w lustrze. Skąd wiemy, że dana istota ma zdolność rozpoznawania siebie? Choćby poprzez umieszczenie jakiegoś symbolu na ciele badanego obiektu w taki sposób, by był on widoczny wyłącznie w lustrze.

Dla nas taka zdolność jest oczywista, ale nawet ludzie nie mają jej „wbudowanej” od razu. Mózg homo sapiens bezpośrednio po urodzeniu nie jest na tyle dojrzały i noworodki nie mają jeszcze tej zdolności. Dzieci nabywają ją w wieku około 18 miesięcy.

Nie tylko ludzie mają świadomość samych siebie przed lustrem. Mają ją również zwierzęta – z testem lustra radzą sobie delfiny, słonie czy niektóre gatunki z rzędu naczelnych. Łatwo zauważyć, że wymienieni przedstawiciele świata fauny to istoty dość wysoko stojące na drabinie ewolucji. Jednak w lustrze rozpoznają się także sroki (patrz: powyższy film), które ewolucyjnie stoją niżej od ssaków. Do niedawna sądzono, że testu nie zdają psy. Istoty na pewno bardziej inteligentne od srok, czyżby jednak mniej świadome „siebie”? Nie uważa tak Roberto Cazzolla Gatti, naukowiec z rosyjskiego Uniwersytetu w Tomsku, behawiorysta analizujący zachowania zwierząt. Gatti zauważa, że test lustra jest po prostu niewłaściwy dla psów, dla których nadrzędnym zmysłem percepcji świata jest węch. Przygotował zatem test oparty właśnie na węchu, którym udowodnił, że te zwierzęta również mają poczucie własnego „ja”.

nico, robot udający że ma świadomość

Robot Nico zaprogramowany by „zdać” lustrzany test samoświadomości (fot. io9.com)

Wiedza na temat zachowań różnych zwierząt i ludzi w kontekście ich świadomości pozwala symulować takie zachowania w przypadku maszyn. Doskonałym tego typu przykładem jest robot Nico, nad którym pracowali naukowcy z Uniwersytetu Yale: Dr Brian Scassellati oraz prowadzony przez niego doktorant Justin Hart. Głównym zadaniem jakie postawili przed sobą ci panowie, było takie przygotowanie robota, by ten zaliczył poprawnie lustrzany test samoświadomości. Nie do końca im się to udało, niemniej robot był w stanie wykryć wizualną reprezentację części samego siebie (swoje ramię) w odbiciu w lustrze. Czy to oznacza, że Nico był pierwszym świadomym siebie robotem? Oczywiście nie. To tylko i wyłącznie eksperyment potwierdzający co najwyżej, że jesteśmy w stanie symulować zachowania, które obserwowane przez człowieka sprawiają wrażenie, że oglądamy istotę, która jest siebie świadoma. Niestety, w internecie pojawiło się wówczas sporo niemal „entuzjastycznych” wpisów o świadomości maszyn. Tymczasem jedyne co Nico „był zdolny” zrobić, to symulowanie reakcji jakie generowałaby istota świadoma swojego odbicia w lustrze. W zasadzie to nawet nie to, robot po prostu był zdolny do zarejestrowania lokalizacji części swojego „ciała” w odbiciu w lustrze. Tylko tyle. Do „świadomości robotów” to – przyznacie – jeszcze bardzo daleka droga.

Udawanie świadomej rozmowy i test Turinga

Możemy narzucać sztucznej inteligencji symulowanie różnych zachowań, ale wciąż będą to wyłącznie symulacje, a nie tak przez ludzi wynoszona na piedestał świadomość czy wolna wola. Przykłady? Choćby boty konwersacyjne. Faktem jest, że prowadzenie rozmów przez maszyny uważa się za działanie stanowiące pewną formę inteligencji. Już w 1950 roku Alan Turing zaproponował test, a właściwie eksperyment myślowy, który pośrednio ma dowodzić opanowania przez maszynę sposobu myślenia podobnego do ludzkiego.

Test Turinga jest prowadzony w ten sposób, że sędzia – człowiek – prowadzi rozmowę w języku naturalnym z kilkoma rozmówcami, z których jednym (ale nie wiadomo którym) jest maszyna. Jeżeli sędzia nie jest w stanie stwierdzić, który z interlokutorów jest maszyną, komputer zdaje test. Już pięć lat temu, w 2012 roku taki test zdał chatbot o nazwie Eugene Goostman. Jednak wynik wzbudził wiele kontrowersji. Przede wszystkim twórcy Goostmana zbudowali sztuczną osobowość, która miała za zadanie symulować niezbyt rozgarniętego ukraińskiego nastolatka, który na dodatek nieszczególnie dobrze rozmawia po angielsku. Ze względu na te ograniczenia, czy może raczej przesadne uproszczenia modelu, wielu nie uznaje Goostmana za implementację przechodzącą test Turinga. Zwracamy przy tym uwagę, że test Turinga w żaden sposób nie określa, że maszyna myśli, a jedynie ma pokazać, że komputer potrafi symulować człowieka na tyle dobrze, że oszuka innego człowieka.

Ponownie mamy tu do czynienia z problemem, który towarzyszy wszystkim sztucznym inteligencjom jakie dotychczas zbudowaliśmy – działają one poprawnie (zakładamy, że piszemy wyłącznie o względnie udanych projektach), ale w wąskim zakresie zadań do jakich zostały przygotowane. Po prostu jesteśmy w stanie wyuczyć maszynę pewnych zachowań, po to, by uzyskać pożądany w konkretnym przypadku efekt.

Kreacja bez świadomości nie musi być głupia

Przyjrzyjmy się innemu przykładowi, kiedy SI wkracza na obszar, który dotychczas – zdaniem większości – zastrzeżony był wyłącznie dla naszego gatunku. Chodzi o zdolność do tworzenia sztuki. Dziś znamy już projekty, w których przejawy działalności artystycznej w całości zostały zrealizowane przez maszyny. Przykładem może być opracowany przez Google projekt DeepDream, w którym maszyna jest w stanie „tworzyć” obrazy. Poniżej jeden z nich.

obraz namalowany przez maszynę

Obraz namalowany przez DeepDream – SI Google’a (fot. Deepdreamgenerator.com)

Chętni mogą samodzielnie wypróbować zdolności „malarskie” DeepDream odwiedzając witrynę DeepDream Generator. Choć obrazy generowane przez maszynę są niewątpliwie oryginalne to nietrudno zauważyć, że efekty działania zdolności graficznych DeepDream przypominają bardzo wyrafinowany, kreatywny filtr artystyczny. Filtry takie są już dziś wbudowywane w znacznych ilościach w profesjonalne oprogramowanie do obróbki cyfrowych zdjęć czy tworzenia grafiki komputerowej. Podobnie udało się nam opracować kod zmuszający maszynę do komponowania muzyki, czy nawet do pisania scenariuszy filmowych.

Przykładem jest film pt. „It’s No Game”. Scenariusz do tego krótkiego filmu SF, w którym jedną z głównych ról gra David Hasselhoff powstał przy intensywnej współpracy sztucznej inteligencji o nazwie Benjamin. Benjamin od strony technicznej jest rozbudowaną siecią neuronową LSTM (Long short-term memory – jedna z architektur projektowania sztucznych sieci neuronowych, efektywna w kontekście maszynowego uczenia), którą twórcy „nakarmili” solidną dawką scenariuszy filmowych. Co ciekawe, „It’s No Game” nie jest pierwszym dziełem Benjamina. Wcześniej „napisał” on scenariusz do filmu pt. „Sunspring”.

Algorytmy uczenia głębokiego sprawiają, że w przypadku wielu sztucznych inteligencji udaje się wypracować skuteczne rozwiązania, odpowiadające wstępnym założeniom projektowym, ale sami projektanci danej instancji SI nie wiedzą w jaki sposób maszyna doszła do konkretnego rozwiązania. Nie jest to jednak szczególnie istotne, ani też w żaden sposób nie oznacza, że komputer ma wolną wolę czy – tym bardziej – świadomość. Nawet, jeżeli ich sposób działania jest wzorowany na ludzkim, tak naprawdę funkcjonują zupełnie inaczej. Dobrym przykładem może być tu zaprogramowana przez Intela SI Saffron. To potężne narzędzie analityczne wykorzystuje procesy kojarzenia danych i wyciągania wniosków naśladujące te, które zachodzą w naszych mózgach, będąc w stanie znajdować połączenia pomiędzy faktami, które wydają się zupełnie ze sobą nie związane. Jednak podobieństwo tych procesów u Saffron i u ludzi jest pozorne. SI wykorzystuje analogiczne schematy kojarzenia i wyszukiwania powiązań, ale nie ma świadomości znaczenia opracowywanych danych i wszystkie je traktuje tak samo, podczas gdy w ludzkim mózgu zapamiętywanie i kojarzenie jest mocno powiązane z emocjami. Informacje, które mają dla nas znaczenie osobiste i które wiążą się z przeżyciem emocji zapamiętujemy dużo szybciej i skuteczniej. To wypracowany przez dziesiątki tysięcy lat ewolucji mechanizm pozwalający na lepsze gospodarowanie pamięcią i „mocą obliczeniową” mózgu, wymagający jednak świadomości i uczuć, a więc nie do skopiowania do maszyny.

Maszyna która samodzielnie, bez udziału człowieka, a wyłącznie na podstawie wyuczonych sekwencji, olbrzymich zbiorów danych i wstępnych wytycznych była w stanie wypracować skuteczne (w sensie efektywne) rozwiązanie nie musi mieć świadomości i wolnej woli. Pamiętajmy jednak, że to my – ludzie – ustaliliśmy maszynie warunki brzegowe, zdefiniowaliśmy jej cel i zaczęliśmy kształcić maszynowe sieci neuronowe w konkretnym kierunku – po to, aby komputer realizował konkretne zadania. W takim kontekście wytwór SI nie ma w sobie ani grama wolnej woli maszyny. Rozwiązanie powstaje w sposób jakkolwiek wyuczony (uczenie głębokie) to jednak nieświadomy. Czy zatem nieświadomy oznacza głupi? Nic bardziej błędnego.

Motywacja do działania i etyka maszyn

Z ludzkiego punktu widzenia motywacja i etyka wiążą się bezsprzecznie ze świadomością, wolną wolą, swobodą wyboru i inteligencją, ale w przypadku maszyn i sztucznej inteligencji powinna być postrzegana zupełnie inaczej. Pojawienie się maszyn zdolnych do samodzielnego podejmowania decyzji (mimo braku wolnej woli i świadomości) wymaga zdefiniowania norm etycznych, którymi maszyny powinny się kierować. Jest to szczególnie widoczne w przypadku autonomicznych systemów transportowych: dronów czy autonomicznych samochodów.

firefly, testowy samochód autonomiczny

Firefly, testowy samochód autonomiczny wykorzystywany przez firmę Waymo, spółkę zależną Alphabet Inc. (Google). Tego typu pojazdy są znacznie bezpieczniejsze, ale też wybacza im się znacznie mniej (fot. Waymo)

Bardzo niedawno, bo w lipcu br. grupa badaczy z Uniwersytetu z Osnabrück w Niemczech opublikowała na łamach magazynu „Frontiers in Behavioral Neuroscience” pracę naukową dotyczącą wykorzystania wirtualnej rzeczywistości do oceny etyki decyzji podejmowanych przez maszyny w scenariuszach związanych z ruchem drogowym, przy zastosowaniu modeli opartych na priorytecie wartości życia oraz założeniu działania pod presją czasu (link do pełnego tekstu w źródłach na końcu artykułu).

Praca ta zwraca uwagę na dwie istotne kwestie, po pierwsze różne analizy dotyczące bezpieczeństwa ruchu przy założeniu, że będzie on realizowany za pomocą autonomicznych pojazdów wskazują na bardzo duży spadek liczby wypadków. Nawet o 90 procent mniej w porównaniu do obecnej sytuacji. Po drugie nawet pomimo spodziewanej znacznej redukcji liczby wypadków (a tym samym i ofiar) kłopot polega na tym, w jaki sposób zaimplementować maszynom kwestie moralnego wyboru. Czy też innymi słowy – jak zalgorytmizować słynny dylemat wagonika. Medialna atrakcyjność tematu związana z kontrowersjami pojawiającymi się w sytuacji, kiedy algorytm ma decydować o życiu ludzi powoduje, że mało mówi się o technologiach, które mają szanse zminimalizować konieczność podejmowania takich decyzji, jak choćby Vehicle-to-everything (V2E), pozwalająca autonomicznemu pojazdowi porozumiewać się w czasie rzeczywistym z innymi uczestnikami ruchu i elementami infrastruktury. Tak naprawdę V2E to cały zestaw technologii komunikacji samochodów z różnymi elementami otoczenia (V2D, V2V, V2H, V2I) i rozwiązań wspieranych przez szereg producentów: w Japonii eksperymentują z nimi między innymi Toyota i Mitsubishi, w Europie BMW, inteligentną infrastrukturę rozwija i testuje Siemens i Cohda Wireless, a kluczowy komponent, czyli łączność ma zapewnić kooperacja LG i Intela.  Wykorzystujący technologię V2E samochód będzie miał ogromną wiedzę o swoim otoczeniu – co więcej, otoczenie będzie „wiedziało” co dzieje się z samochodem i będzie w stanie zgodnie z tą wiedzą reagować! W tej sytuacji jakiekolwiek analogie do podejmującego decyzje człowieka po prostu przestają mieć sens.

Producenci samochodów, firmy technologiczne i zajmujące się infrastrukturą wspólnie pracują nad standardem komunikacji między samochodem a otoczeniem Vehicle-to-everything. Prototypy już jeżdżą (Fot. Slashgear.com)

Z robotami, czy – w tym przypadku – z autonomicznymi samochodami, jest pewien problem. Wybacza im się znacznie mniej. Doskonale ilustruje to przypadek śmierci kierowcy samochodu marki Tesla z włączoną funkcją automatycznego pilota. Wypadek miał miejsce w maju 2016 roku i bezpośrednio po nim większość przekazów medialnych punktowała Teslę za „robota, który zabił”. Dopiero gdy amerykańska agencja bezpieczeństwa drogowego zakończyła swoje śledztwo w styczniu br. okazało się, że nie zawiódł Autopilot Tesli, lecz człowiek, który aż siedem razy zignorował ostrzeżenia pokładowego systemu komputerowego i przez ponad 37 minut nie trzymał rąk na kierownicy. Trzeba też pamiętać, że Tesla, choć wyposażona w funkcję Autopilota nie jest samochodem autonomicznym, a rzeczona funkcja ma za zadanie jedynie pomóc kierowcy i – co również wykazało wspomniane śledztwo – robi to skutecznie zmniejszając liczbę wypadków o 40 procent. Pokazuje to poniższy film, w którym sztuczna inteligencja „zaszyta” w samochodzie Tesla (z niego pochodzi zarejestrowane nagranie) jest w stanie odpowiednio szybko zareagować i rozpocząć hamowanie jeszcze zanim poprzedzające pojazdy wezmą udział w kolizji.

W jaki sposób do kwestii algorytmizacji moralnych wyborów, które miałyby być dokonywane przez autonomiczne samochody podeszli niemieccy naukowcy? Przeprowadzili oni eksperyment, w którym badani – ludzie – kierowali pojazdami w symulatorze przedstawiającym drogę we mgle, na której pojawiają się różne przeszkody: obiekty, zwierzęta, a także ludzie. Badacze obserwując reakcje badanych, ich moralne wybory i podjęte decyzje (lub brak decyzji i zdanie się na los – co również jest pewnym wyborem) wyodrębnili trzy modele zachowań w podejmowaniu nagłych decyzji. Oczywiście przełożenie wypracowanych modeli na język maszyny i zaimplementowanie ich w sztucznej inteligencji sterującej autonomicznym samochodem nie będzie oznaczać, że SI nagle będzie dokonywać świadomych wyborów, czy też będzie „rozumieć” moralność. Nic z tych rzeczy. System zachowa się po prostu tak, jak zostanie zaprogramowany. Warto przy tym zauważyć najważniejsze – to ludzie stoją za decyzjami moralnymi maszyn. Zatem czy powinniśmy obawiać się Sztucznej Inteligencji, czy raczej jej twórców? Zostawiamy Was z tym pytaniem.

Dodatkowe źródła wiedzy

Jak zwykle w przypadku naszych przekrojowych materiałów dzielimy się z Wami ciekawymi źródłami wiedzy poszerzającymi spojrzenie na poruszane przez nas zagadnienia. Wiemy, co piszemy – sami z nich korzystaliśmy.

| CHIP