G艂owa androida z zamkni臋tymi oczami z sennym baranem origami ponad ni膮.

Czy Androidy marz膮?

Czy maszyny mog膮 by膰 samo艣wiadome? Czy, 偶eby zaprz膮c je do pracy, musimy da膰 im motywacje i pop臋dy analogiczne do tych, kt贸re kieruj膮 nami? T艂umaczymy, czym r贸偶ni si臋 spos贸b dzia艂ania cz艂owieka od tego, jak "my艣li" maszyna.

Czy osi膮gni臋cie silnej sztucznej inteligencji, czyli sztucznego tworu zdolnego do abstrakcyjnego my艣lenia i rozwi膮zywania szerokiego spektrum problem贸w na r贸wni z cz艂owiekiem b臋dzie oznacza艂o, 偶e taki byt b臋dzie samo艣wiadomy? Pytanie dotyka istoty problemu niezrozumienia przez wi臋kszo艣膰 ludzi, czym jest SI. Fa艂szywe poj臋cie sztucznej inteligencji ugruntowuj膮 wytwory kultury popularnej. W wielu filmach sztuczna inteligencja albo przejmuje kontrol臋 nad 艣wiatem (Matrix, Terminator), albo powodowana strachem o w艂asne istnienie, w taki czy inny spos贸b zagra偶a cz艂owiekowi (Odyseja Kosmiczna 2001). Dysponuj膮c takimi filmowymi „archetypami” sztucznej inteligencji, czy mo偶e raczej naszych wyobra偶e艅 o niej, trudno si臋 dziwi膰, 偶e si艂膮 rzeczy antropomorfizujemy SI i na dodatek si臋 obawiamy, 偶e gdy zyska ona 艣wiadomo艣膰 stanie si臋 co艣 strasznego. Czy zyskanie 艣wiadomo艣ci, a w艂a艣ciwie samo艣wiadomo艣ci przez maszyn臋 jest w og贸le mo偶liwe?

Duch w maszynie czy iluzja?

Poj臋cie „艣wiadomo艣膰” – podobnie jak „inteligencja” – nie ma jednej definicji. Spos贸b interpretowania 艣wiadomo艣ci przez cz艂owieka jest zale偶ny od jego profesji, punktu widzenia, umiej臋tno艣ci, kontekstu – mo偶na wymienia膰 d艂ugo. Faktem jest, 偶e neurolog, psychiatra, filozof, teolog, behawiorysta, antropolog – ka偶dy z nich inaczej zdefiniuje 艣wiadomo艣膰. Na szcz臋艣cie 艣cis艂a definicja nie jest potrzebna do tego, by danym tematem si臋 zajmowa膰.

m贸zg - wizja artystyczna
Nasza 艣wiadomo艣膰 jest „gdzie艣 tu”. Gdzie dok艂adnie? Wci膮偶 szukamy (fot. Pixabay)

Nie znamy istoty 艣wiadomo艣ci. Nie wiemy jak ona si臋 kszta艂tuje, co dok艂adnie jest jej reprezentacj膮 w naszych umys艂ach. Istniej膮 r贸偶ne teorie, ale niczego nie wiemy „na pewno”. Wilder Penfield, kanadyjski neurochirurg jeden z pionier贸w w tej dziedzinie uwa偶a艂, 偶e „艣wiadomo艣膰” jest zlokalizowana w tzw. g贸rnym pniu m贸zgu (wzg贸rze, podwzg贸rze i tw贸r siatkowaty). 聽Z kolei ameryka艅sko-brytyjski neurolog, noblista John O’Keefe umieszcza „艣wiadomo艣膰” w hipokampie, niedu偶ej strukturze wchodz膮cej w sk艂ad uk艂adu limbicznego, o kt贸rej wiemy na pewno, 偶e ma szczeg贸lne znaczenie dla naszych proces贸w pami臋ciowych. Id藕my dalej – Roger Penrose, kolejny noblista, brytyjski fizyk i matematyk w swojej ksi膮偶ce pt. „Nowy umys艂 cesarza” wysuwa 艣mia艂y wniosek, i偶 „艣wiadomo艣膰” jest zlokalizowana w korze m贸zgowej, najm艂odszej ewolucyjnie, ale i najbardziej rozbudowanej w艂a艣nie u ludzi cz臋艣ci m贸zgu. Istniej膮 te偶 – stosunkowo m艂ode (pojawi艂y si臋 ju偶 w XXI w.) teorie, 偶e za nasze „ja” nie odpowiada jeden wybrany obszar, lecz ca艂a prawa p贸艂kula.

Jak wida膰 nie ma zgody co do dok艂adnej lokalizacji „艣wiadomo艣ci” w m贸zgu, zatem tym bardziej nieuprawnione staje si臋 pytanie, czy mo偶emy j膮 przenie艣膰 do maszyny i w og贸le po co mieliby艣my to robi膰.聽Jednak jak wcze艣niej wspomnieli艣my, do zajmowania si臋 danym tematem bada艅 nie potrzebujemy ani 艣cis艂ej definicji, ani te偶 dok艂adnej lokalizacji obszaru w naszym m贸zgu odpowiadaj膮cym za 艣wiadomo艣膰. Droga przeniesienia naszego „ja” do maszyny, jest – przynajmniej przy obecnym stanie techniki – z g贸ry skazana na pora偶k臋, co wykazali艣my w naszym poprzednim przekrojowym materiale pt. „Anatomia Sztucznej Inteligencji”.

Wszystkie dzi艣 konstruowane sztuczne inteligencje powstaj膮 w jakim艣 celu. Maj膮 rozwi膮zywa膰 konkretne problemy, wspomaga膰 cz艂owieka w podejmowaniu decyzji, przy艣piesza膰 wykonywanie okre艣lonych zada艅, u艂atwia膰 przeszukiwanie olbrzymich zbior贸w danych i poszukiwa膰 w nich cennych korelacji itd. W realizacji takich zada艅 nie ma potrzeby wyposa偶ania SI w 艣wiadomo艣膰. Pomijamy tutaj kwesti臋, 偶e po prostu nie wiemy jak to zrobi膰. Nie umiemy ani przenie艣膰 艣wiadomo艣ci (np. ludzkiej) do maszyny, ani tym bardziej wykreowa膰 艣wiadomego siebie bytu od podstaw. W tej dziedzinie natura wci膮偶 pozostaje niedo艣cignionym wzorcem.

Imperatyw g艂odu (konieczno艣膰 zdobycia energii), strachu (ochrona w celu przetrwania) czy prokreacji (przekazanie gen贸w) nap臋dza nas, ale w przypadku maszyn? Czy jest w og贸le sens zaszczepiania tego typu motywacji maszynom? Czy w og贸le tego typu pytanie jest uprawnione w kontek艣cie maszynowo uczonego algorytmu? Owszem, w wielu przypadkach uzasadnione jest zaszczepianie maszynom umiej臋tno艣ci symulowania 艣wiadomego zachowania, tyle 偶e symulowanie takich dzia艂a艅 nie ma nic wsp贸lnego ze 艣wiadomym dzia艂aniem maszyny.

Test lustra i robot Nico

Z pewno艣ci膮 znany jest Wam tzw. „test lustra”, czyli jedna z wielu – ze wzgl臋du na swoj膮 prostot臋 bardzo popularna – metod badania samo艣wiadomo艣ci ludzi i zwierz膮t. W skr贸cie test polega na umieszczeniu badanego obiektu przed lustrem, a nast臋pnie obserwacji zachowania w celu stwierdzenia, czy badana istota ma zdolno艣膰 rozpoznawania siebie w lustrze. Sk膮d wiemy, 偶e dana istota ma zdolno艣膰 rozpoznawania siebie? Cho膰by poprzez umieszczenie jakiego艣 symbolu na ciele badanego obiektu w taki spos贸b, by by艂 on widoczny wy艂膮cznie w lustrze.

Dla nas taka zdolno艣膰 jest oczywista, ale nawet ludzie nie maj膮 jej „wbudowanej” od razu. M贸zg homo sapiens bezpo艣rednio po urodzeniu nie jest na tyle dojrza艂y i noworodki nie maj膮 jeszcze tej zdolno艣ci. Dzieci nabywaj膮 j膮 w wieku oko艂o 18 miesi臋cy.

Nie tylko ludzie maj膮 艣wiadomo艣膰 samych siebie przed lustrem. Maj膮 j膮 r贸wnie偶 zwierz臋ta – z testem lustra radz膮 sobie delfiny, s艂onie czy niekt贸re gatunki z rz臋du naczelnych. 艁atwo zauwa偶y膰, 偶e wymienieni przedstawiciele 艣wiata fauny to istoty do艣膰 wysoko stoj膮ce na drabinie ewolucji. Jednak w lustrze rozpoznaj膮 si臋 tak偶e sroki (patrz: powy偶szy film), kt贸re ewolucyjnie stoj膮 ni偶ej od ssak贸w. Do niedawna s膮dzono, 偶e testu nie zdaj膮 psy. Istoty na pewno bardziej inteligentne od srok, czy偶by jednak mniej 艣wiadome „siebie”? Nie uwa偶a tak Roberto Cazzolla Gatti, naukowiec z rosyjskiego Uniwersytetu w Tomsku, behawiorysta analizuj膮cy zachowania zwierz膮t. Gatti zauwa偶a, 偶e test lustra jest po prostu niew艂a艣ciwy dla ps贸w, dla kt贸rych nadrz臋dnym zmys艂em percepcji 艣wiata jest w臋ch. Przygotowa艂 zatem test oparty w艂a艣nie na w臋chu, kt贸rym udowodni艂, 偶e te zwierz臋ta r贸wnie偶 maj膮 poczucie w艂asnego „ja”.

nico, robot udaj膮cy 偶e ma 艣wiadomo艣膰
Robot Nico zaprogramowany by „zda膰” lustrzany test samo艣wiadomo艣ci (fot. io9.com)

Wiedza na temat zachowa艅 r贸偶nych zwierz膮t i ludzi w kontek艣cie ich 艣wiadomo艣ci pozwala symulowa膰 takie zachowania w przypadku maszyn. Doskona艂ym tego typu przyk艂adem jest robot Nico, nad kt贸rym pracowali naukowcy z Uniwersytetu Yale: Dr Brian Scassellati oraz prowadzony przez niego doktorant Justin Hart. G艂贸wnym zadaniem jakie postawili przed sob膮 ci panowie, by艂o takie przygotowanie robota, by ten zaliczy艂 poprawnie lustrzany test samo艣wiadomo艣ci. Nie do ko艅ca im si臋 to uda艂o, niemniej robot by艂 w stanie wykry膰 wizualn膮 reprezentacj臋 cz臋艣ci samego siebie (swoje rami臋) w odbiciu w lustrze. Czy to oznacza, 偶e Nico by艂 pierwszym 艣wiadomym siebie robotem? Oczywi艣cie nie. To tylko i wy艂膮cznie eksperyment potwierdzaj膮cy co najwy偶ej, 偶e jeste艣my w stanie symulowa膰 zachowania, kt贸re obserwowane przez cz艂owieka sprawiaj膮 wra偶enie, 偶e ogl膮damy istot臋, kt贸ra jest siebie 艣wiadoma. Niestety, w internecie pojawi艂o si臋 w贸wczas sporo niemal „entuzjastycznych” wpis贸w o 艣wiadomo艣ci maszyn. Tymczasem jedyne co Nico „by艂 zdolny” zrobi膰, to symulowanie reakcji jakie generowa艂aby istota 艣wiadoma swojego odbicia w lustrze. W zasadzie to nawet nie to, robot po prostu by艂 zdolny do zarejestrowania lokalizacji cz臋艣ci swojego „cia艂a” w odbiciu w lustrze. Tylko tyle. Do „艣wiadomo艣ci robot贸w” to – przyznacie – jeszcze bardzo daleka droga.

Udawanie 艣wiadomej rozmowy i test Turinga

Mo偶emy narzuca膰 sztucznej inteligencji symulowanie r贸偶nych zachowa艅, ale wci膮偶 b臋d膮 to wy艂膮cznie symulacje, a nie tak przez ludzi wynoszona na piedesta艂 艣wiadomo艣膰 czy wolna wola. Przyk艂ady? Cho膰by boty konwersacyjne. Faktem jest, 偶e prowadzenie rozm贸w przez maszyny uwa偶a si臋 za dzia艂anie stanowi膮ce pewn膮 form臋 inteligencji. Ju偶 w 1950 roku Alan Turing zaproponowa艂 test, a w艂a艣ciwie eksperyment my艣lowy, kt贸ry po艣rednio ma dowodzi膰 opanowania przez maszyn臋 sposobu my艣lenia podobnego do ludzkiego.

Test Turinga jest prowadzony w ten spos贸b, 偶e s臋dzia 鈥 cz艂owiek 鈥 prowadzi rozmow臋 w j臋zyku naturalnym z kilkoma rozm贸wcami, z kt贸rych jednym (ale nie wiadomo kt贸rym) jest maszyna. Je偶eli s臋dzia nie jest w stanie stwierdzi膰, kt贸ry z interlokutor贸w jest maszyn膮, komputer zdaje test. Ju偶 pi臋膰 lat temu, w 2012 roku taki test zda艂 chatbot o nazwie Eugene Goostman. Jednak wynik wzbudzi艂 wiele kontrowersji. Przede wszystkim tw贸rcy Goostmana zbudowali sztuczn膮 osobowo艣膰, kt贸ra mia艂a za zadanie symulowa膰 niezbyt rozgarni臋tego ukrai艅skiego nastolatka, kt贸ry na dodatek nieszczeg贸lnie dobrze rozmawia po angielsku. Ze wzgl臋du na te ograniczenia, czy mo偶e raczej przesadne uproszczenia modelu, wielu nie uznaje Goostmana za implementacj臋 przechodz膮c膮 test Turinga. Zwracamy przy tym uwag臋, 偶e test Turinga w 偶aden spos贸b nie okre艣la, 偶e maszyna my艣li, a jedynie ma pokaza膰, 偶e komputer potrafi symulowa膰 cz艂owieka na tyle dobrze, 偶e oszuka innego cz艂owieka.

Ponownie mamy tu do czynienia z problemem, kt贸ry towarzyszy wszystkim sztucznym inteligencjom jakie dotychczas zbudowali艣my – dzia艂aj膮 one poprawnie (zak艂adamy, 偶e piszemy wy艂膮cznie o wzgl臋dnie udanych projektach), ale w w膮skim zakresie zada艅 do jakich zosta艂y przygotowane. Po prostu jeste艣my w stanie wyuczy膰 maszyn臋 pewnych zachowa艅, po to, by uzyska膰 po偶膮dany w konkretnym przypadku efekt.

Kreacja bez 艣wiadomo艣ci nie musi by膰 g艂upia

Przyjrzyjmy si臋 innemu przyk艂adowi, kiedy SI wkracza na obszar, kt贸ry dotychczas – zdaniem wi臋kszo艣ci – zastrze偶ony by艂 wy艂膮cznie dla naszego gatunku. Chodzi o zdolno艣膰 do tworzenia sztuki. Dzi艣 znamy ju偶 projekty, w kt贸rych przejawy dzia艂alno艣ci artystycznej w ca艂o艣ci zosta艂y zrealizowane przez maszyny. Przyk艂adem mo偶e by膰 opracowany przez Google projekt DeepDream, w kt贸rym maszyna jest w stanie „tworzy膰” obrazy. Poni偶ej jeden z nich.

obraz namalowany przez maszyn臋
Obraz namalowany przez DeepDream – SI Google’a (fot. Deepdreamgenerator.com)

Ch臋tni mog膮 samodzielnie wypr贸bowa膰 zdolno艣ci „malarskie” DeepDream odwiedzaj膮c witryn臋 DeepDream Generator. Cho膰 obrazy generowane przez maszyn臋 s膮 niew膮tpliwie oryginalne to nietrudno zauwa偶y膰, 偶e efekty dzia艂ania zdolno艣ci graficznych DeepDream przypominaj膮 bardzo wyrafinowany, kreatywny filtr artystyczny. Filtry takie s膮 ju偶 dzi艣 wbudowywane w znacznych ilo艣ciach w profesjonalne oprogramowanie do obr贸bki cyfrowych zdj臋膰 czy tworzenia grafiki komputerowej. Podobnie uda艂o si臋 nam opracowa膰 kod zmuszaj膮cy maszyn臋 do komponowania muzyki, czy nawet do pisania scenariuszy filmowych.

Przyk艂adem jest film pt. „It’s No Game”. Scenariusz do tego kr贸tkiego filmu SF, w kt贸rym jedn膮 z g艂贸wnych r贸l gra David Hasselhoff powsta艂 przy intensywnej wsp贸艂pracy sztucznej inteligencji o nazwie Benjamin. Benjamin od strony technicznej jest rozbudowan膮 sieci膮 neuronow膮 LSTM (Long short-term memory – jedna z architektur projektowania sztucznych sieci neuronowych, efektywna w kontek艣cie maszynowego uczenia), kt贸r膮 tw贸rcy „nakarmili” solidn膮 dawk膮 scenariuszy filmowych. Co ciekawe, „It’s No Game” nie jest pierwszym dzie艂em Benjamina. Wcze艣niej „napisa艂” on scenariusz do filmu pt. „Sunspring”.

Algorytmy uczenia g艂臋bokiego sprawiaj膮, 偶e w przypadku wielu sztucznych inteligencji udaje si臋 wypracowa膰 skuteczne rozwi膮zania, odpowiadaj膮ce wst臋pnym za艂o偶eniom projektowym, ale sami projektanci danej instancji SI nie wiedz膮 w jaki spos贸b maszyna dosz艂a do konkretnego rozwi膮zania. Nie jest to jednak szczeg贸lnie istotne, ani te偶 w 偶aden spos贸b nie oznacza, 偶e komputer ma woln膮 wol臋 czy – tym bardziej – 艣wiadomo艣膰. Nawet, je偶eli ich spos贸b dzia艂ania jest wzorowany na ludzkim, tak naprawd臋 funkcjonuj膮 zupe艂nie inaczej. Dobrym przyk艂adem mo偶e by膰 tu zaprogramowana przez Intela SI Saffron. To pot臋偶ne narz臋dzie analityczne wykorzystuje procesy kojarzenia danych i wyci膮gania wniosk贸w na艣laduj膮ce te, kt贸re zachodz膮 w naszych m贸zgach, b臋d膮c w stanie znajdowa膰 po艂膮czenia pomi臋dzy faktami, kt贸re wydaj膮 si臋 zupe艂nie ze sob膮 nie zwi膮zane. Jednak podobie艅stwo tych proces贸w u Saffron i u ludzi jest pozorne. SI wykorzystuje analogiczne schematy kojarzenia i wyszukiwania powi膮za艅, ale nie ma 艣wiadomo艣ci znaczenia opracowywanych danych i wszystkie je traktuje tak samo, podczas gdy w ludzkim m贸zgu zapami臋tywanie i kojarzenie jest mocno powi膮zane z emocjami. Informacje, kt贸re maj膮 dla nas znaczenie osobiste i kt贸re wi膮偶膮 si臋 z prze偶yciem emocji zapami臋tujemy du偶o szybciej i skuteczniej. To wypracowany przez dziesi膮tki tysi臋cy lat ewolucji mechanizm pozwalaj膮cy na lepsze gospodarowanie pami臋ci膮 i „moc膮 obliczeniow膮” m贸zgu, wymagaj膮cy jednak 艣wiadomo艣ci i uczu膰, a wi臋c nie do skopiowania do maszyny.

Maszyna kt贸ra samodzielnie, bez udzia艂u cz艂owieka, a wy艂膮cznie na podstawie wyuczonych sekwencji, olbrzymich zbior贸w danych i wst臋pnych wytycznych by艂a w stanie wypracowa膰 skuteczne (w sensie efektywne) rozwi膮zanie nie musi mie膰 艣wiadomo艣ci i wolnej woli. Pami臋tajmy jednak, 偶e to my – ludzie – ustalili艣my maszynie warunki brzegowe, zdefiniowali艣my jej cel i zacz臋li艣my kszta艂ci膰 maszynowe sieci neuronowe w konkretnym kierunku – po to, aby komputer realizowa艂 konkretne zadania. W takim kontek艣cie wytw贸r SI nie ma w sobie ani grama wolnej woli maszyny. Rozwi膮zanie powstaje w spos贸b jakkolwiek wyuczony (uczenie g艂臋bokie) to jednak nie艣wiadomy. Czy zatem nie艣wiadomy oznacza g艂upi? Nic bardziej b艂臋dnego.

Motywacja do dzia艂ania i etyka maszyn

Z ludzkiego punktu widzenia motywacja i etyka wi膮偶膮 si臋 bezsprzecznie ze 艣wiadomo艣ci膮, woln膮 wol膮, swobod膮 wyboru i inteligencj膮, ale w przypadku maszyn i sztucznej inteligencji powinna by膰 postrzegana zupe艂nie inaczej. Pojawienie si臋 maszyn zdolnych do samodzielnego podejmowania decyzji (mimo braku wolnej woli i 艣wiadomo艣ci) wymaga zdefiniowania norm etycznych, kt贸rymi maszyny powinny si臋 kierowa膰. Jest to szczeg贸lnie widoczne w przypadku autonomicznych system贸w transportowych: dron贸w czy autonomicznych samochod贸w.

firefly, testowy samoch贸d autonomiczny
Firefly, testowy samoch贸d autonomiczny wykorzystywany przez firm臋 Waymo, sp贸艂k臋 zale偶n膮 Alphabet Inc. (Google). Tego typu pojazdy s膮 znacznie bezpieczniejsze, ale te偶 wybacza im si臋 znacznie mniej (fot. Waymo)

Bardzo niedawno, bo w lipcu br. grupa badaczy z Uniwersytetu z Osnabr眉ck w Niemczech opublikowa艂a na 艂amach magazynu „Frontiers in Behavioral Neuroscience” prac臋 naukow膮 dotycz膮c膮 wykorzystania wirtualnej rzeczywisto艣ci do oceny etyki decyzji podejmowanych przez maszyny w scenariuszach zwi膮zanych z ruchem drogowym, przy zastosowaniu modeli opartych na priorytecie warto艣ci 偶ycia oraz za艂o偶eniu dzia艂ania pod presj膮 czasu (link do pe艂nego tekstu w 藕r贸d艂ach na ko艅cu artyku艂u).

Praca ta zwraca uwag臋 na dwie istotne kwestie, po pierwsze r贸偶ne analizy dotycz膮ce bezpiecze艅stwa ruchu przy za艂o偶eniu, 偶e b臋dzie on realizowany za pomoc膮 autonomicznych pojazd贸w wskazuj膮 na bardzo du偶y spadek liczby wypadk贸w. Nawet o 90 procent mniej w por贸wnaniu do obecnej sytuacji. Po drugie nawet pomimo spodziewanej znacznej redukcji liczby wypadk贸w (a tym samym i ofiar) k艂opot polega na tym, w jaki spos贸b zaimplementowa膰 maszynom kwestie moralnego wyboru. Czy te偶 innymi s艂owy – jak zalgorytmizowa膰 s艂ynny dylemat wagonika.聽Medialna atrakcyjno艣膰 tematu zwi膮zana z kontrowersjami pojawiaj膮cymi si臋 w sytuacji, kiedy algorytm ma decydowa膰 o 偶yciu ludzi powoduje, 偶e ma艂o m贸wi si臋 o technologiach, kt贸re maj膮 szanse zminimalizowa膰 konieczno艣膰 podejmowania takich decyzji, jak cho膰by Vehicle-to-everything (V2E), pozwalaj膮ca autonomicznemu pojazdowi porozumiewa膰 si臋 w czasie rzeczywistym z innymi uczestnikami ruchu i elementami infrastruktury. Tak naprawd臋 V2E to ca艂y zestaw technologii komunikacji samochod贸w z r贸偶nymi elementami otoczenia (V2D, V2V, V2H, V2I) i rozwi膮za艅 wspieranych przez szereg producent贸w: w Japonii eksperymentuj膮 z nimi mi臋dzy innymi Toyota i Mitsubishi, w Europie BMW, inteligentn膮 infrastruktur臋 rozwija i testuje Siemens i Cohda Wireless, a kluczowy komponent, czyli 艂膮czno艣膰 ma zapewni膰 kooperacja LG i Intela. 聽Wykorzystuj膮cy technologi臋 V2E samoch贸d b臋dzie mia艂 ogromn膮 wiedz臋 o swoim otoczeniu – co wi臋cej, otoczenie b臋dzie „wiedzia艂o” co dzieje si臋 z samochodem i b臋dzie w stanie zgodnie z t膮 wiedz膮 reagowa膰! W tej sytuacji jakiekolwiek analogie do podejmuj膮cego decyzje cz艂owieka po prostu przestaj膮 mie膰 sens.

Producenci samochod贸w, firmy technologiczne i zajmuj膮ce si臋 infrastruktur膮 wsp贸lnie pracuj膮 nad standardem komunikacji mi臋dzy samochodem a otoczeniem Vehicle-to-everything. Prototypy ju偶 je偶d偶膮 (Fot. Slashgear.com)

Z robotami, czy – w tym przypadku – z autonomicznymi samochodami, jest pewien problem. Wybacza im si臋 znacznie mniej. Doskonale ilustruje to przypadek 艣mierci kierowcy samochodu marki Tesla z w艂膮czon膮 funkcj膮 automatycznego pilota. Wypadek mia艂 miejsce w maju 2016 roku i bezpo艣rednio po nim wi臋kszo艣膰 przekaz贸w medialnych punktowa艂a Tesl臋 za „robota, kt贸ry zabi艂”. Dopiero gdy ameryka艅ska agencja bezpiecze艅stwa drogowego zako艅czy艂a swoje 艣ledztwo w styczniu br. okaza艂o si臋, 偶e nie zawi贸d艂 Autopilot Tesli, lecz cz艂owiek, kt贸ry a偶 siedem razy zignorowa艂 ostrze偶enia pok艂adowego systemu komputerowego i przez ponad 37 minut nie trzyma艂 r膮k na kierownicy. Trzeba te偶 pami臋ta膰, 偶e Tesla, cho膰 wyposa偶ona w funkcj臋 Autopilota nie jest samochodem autonomicznym, a rzeczona funkcja ma za zadanie jedynie pom贸c kierowcy i – co r贸wnie偶 wykaza艂o wspomniane 艣ledztwo – robi to skutecznie zmniejszaj膮c liczb臋 wypadk贸w o 40 procent. Pokazuje to poni偶szy film, w kt贸rym sztuczna inteligencja „zaszyta” w samochodzie Tesla (z niego pochodzi zarejestrowane nagranie) jest w stanie odpowiednio szybko zareagowa膰 i rozpocz膮膰 hamowanie jeszcze zanim poprzedzaj膮ce pojazdy wezm膮 udzia艂 w kolizji.

W jaki spos贸b do kwestii algorytmizacji moralnych wybor贸w, kt贸re mia艂yby by膰 dokonywane przez autonomiczne samochody podeszli niemieccy naukowcy? Przeprowadzili oni eksperyment, w kt贸rym badani – ludzie – kierowali pojazdami w symulatorze przedstawiaj膮cym drog臋 we mgle, na kt贸rej pojawiaj膮 si臋 r贸偶ne przeszkody: obiekty, zwierz臋ta, a tak偶e ludzie. Badacze obserwuj膮c reakcje badanych, ich moralne wybory i podj臋te decyzje (lub brak decyzji i zdanie si臋 na los – co r贸wnie偶 jest pewnym wyborem) wyodr臋bnili trzy modele zachowa艅 w podejmowaniu nag艂ych decyzji. Oczywi艣cie prze艂o偶enie wypracowanych modeli na j臋zyk maszyny i zaimplementowanie ich w sztucznej inteligencji steruj膮cej autonomicznym samochodem nie b臋dzie oznacza膰, 偶e SI nagle b臋dzie dokonywa膰 艣wiadomych wybor贸w, czy te偶 b臋dzie „rozumie膰” moralno艣膰. Nic z tych rzeczy. System zachowa si臋 po prostu tak, jak zostanie zaprogramowany. Warto przy tym zauwa偶y膰 najwa偶niejsze – to ludzie stoj膮 za decyzjami moralnymi maszyn. Zatem czy powinni艣my obawia膰 si臋 Sztucznej Inteligencji, czy raczej jej tw贸rc贸w? Zostawiamy Was z tym pytaniem.

Dodatkowe 藕r贸d艂a wiedzy

Jak zwykle w przypadku naszych przekrojowych materia艂贸w dzielimy si臋 z Wami ciekawymi 藕r贸d艂ami wiedzy poszerzaj膮cymi spojrzenie na poruszane przez nas zagadnienia. Wiemy, co piszemy 鈥 sami z nich korzystali艣my.

| CHIP