Sztuczna inteligencja ma swoje ograniczenia. Wykazał to matematyczny paradoks

W Proceedings of the National Academy of Sciences ukazały się wyniki badań sugerujących, że sztuczna inteligencja posiada ograniczenia wynikające z paradoksu matematycznego znanego od wielu lat.
sztuczna-inteligencja-neurochirurgia

sztuczna-inteligencja-neurochirurgia

Z jednej strony systemy oparte na przykład na głębokim uczeniu (ang. Deep Learning) zachwycają swoimi możliwościami, niejednokrotnie przewyższając ludzkie umiejętności. Sztuczna inteligencja może wykonywać obliczenia znacznie szybciej niż człowiek, skuteczniej radzi sobie też między innymi w rozpoznawaniu symptomów chorobowych. Wygląda jednak na to, iż największym jej problemem jest zrozumienie, kiedy popełnia błędy.

Czytaj też: Węzły spędzały matematykom sen z powiek, ale dla DeepMind to bułka z masłem

Badaniami w tej sprawie zajęli się przedstawiciele uniwersytetów w Cambridge i Oslo. Ich zdaniem niestabilność sztucznej inteligencji stanowi jej najsłabszy punkt, co udowadnia paradoks matematyczny sprzed wielu lat. Zajmowali się nim już Alan Turing i Kurt Gödel, którzy próbowali uzasadnić, że matematyka jest ostatecznym, spójnym językiem nauki. W toku analiz doszli natomiast do wniosku, że nie da się udowodnić, czy pewne twierdzenia matematyczne są prawdziwe czy fałszywe. Części problemów obliczeniowych nie da się też rozwiązać za pomocą algorytmów.

Wiele systemów SI jest niestabilnych i staje się to poważnym problemem, zwłaszcza, że są one coraz częściej wykorzystywane w obszarach wysokiego ryzyka, takich jak diagnozowanie chorób czy pojazdy autonomiczne. Jeśli systemy SI są wykorzystywane w dziedzinach, w których mogą wyrządzić prawdziwą krzywdę, jeśli się pomylą, zaufanie do tych systemów musi być najwyższym priorytetem. Anders Hansen, Uniwersytet w Cambridge

Sztuczna inteligencja nie zawsze zdaje sobie sprawę z tego, kiedy robi coś źle

Jeśli chodzi o wspomniany wcześniej paradoks, to Stephen Smale zaproponował listę 18 nierozwiązanych problemów matematycznych XXI wieku. Jeden z nich dotyczył granic inteligencji ludzi i maszyn. To właśnie ten paradoks sprawia, że mogą istnieć dobre sieci neuronowe, które nie będą mogły zagwarantować pełnego zaufania. Jak wyjaśnia jeden z członków zespołu badawczego, bez względu na dokładność danych zabraknie informacji do zbudowania idealnej sieci neuronowej.

Czytaj też: Niewidomi dowiedzą się, na co patrzą. Pomoże sztuczna inteligencja

Obecnie systemy sztucznej inteligencji mogą czasami bawić się w zgadywanie. Próbujesz czegoś, a jeśli to nie działa, dodajesz więcej elementów w nadziei, że wreszcie zadziała. W pewnym momencie jesteś zmęczony tym, że nie otrzymałeś tego, czego oczekiwałeś, i spróbujesz innej metody. Ważne jest, aby zrozumieć ograniczenia różnych metod. Znajdujemy się na etapie, na którym praktyczne sukcesy SI znacznie wyprzedzają teorię i zrozumienie. Aby usunąć tę lukę, potrzebny jest program poświęcony zrozumieniu podstaw obliczeń SI.Matthew Colbrook, Uniwersytet w Cambridge