Ile danych wymaga uczenie maszynowe?

Fot. Pixabay
Techniki głębokiego uczenia maszynowego stanowią dziś trzon badań nad sztuczną inteligencją. Powszechnie wiadomo, że sieci neuronowe wymagają dużych zbiorów danych w procesie uczenia maszynowego. Jak duże muszą to być zbiory? Ile danych potrzeba by w ogóle myśleć o efektywnym nauczeniu maszyny czegokolwiek?

Osiągnięta już dziś, stale rosnąca moc obliczeniowa w połączeniu z coraz efektywniejszymi algorytmami głębokiego uczenia maszynowego pozwoliła wrócić do łask wielowarstwowym i wielowymiarowym sieciom neuronowym, a te z kolei – o ile są dobrze wyuczone – stanowią mózg coraz bardziej wyrafinowanych systemów sztucznej inteligencji. Niemniej jedna cecha uczenia maszynowego od lat pozostaje niezmienna. Wymaga ono naprawdę dużo danych. Dzięki wypowiedzi Jeffa Deana, szefa projektu Google Brain, wiemy ile to jest „dużo”.

Na konferencji VB Summit 2017 w Berkeley, w Kalifornii  Dean stwierdził „Każda firma, która ma dziesiątki lub setki tysięcy interakcji z klientami, ma wystarczającą skalę, by zacząć myśleć o używaniu tego typu rzeczy (uczyć maszynowo wyspecjalizowane sieci neuronowe i budować sztuczne inteligencje – dop. CHIP).” Szef projektu Google Brain, dodał, że dysponując dziesięcioma przykładami trudno maszynę czegokolwiek nauczyć, jednak gdy liczba przykładów wynosi 100 tysięcy i więcej – można już rozważać opcję budowy i/lub trenowania sztucznej inteligencji na własne potrzeby.

Jeff Dean, szef projektu Google Brain
Jeff Dean, szef projektu Google Brain tłumaczy aspekty uczenia maszynowego podczas konferencji VB Summit 2017 w Berkeley (fot. Michael O’Donnel / VentureBeat).

Jeff Dean wie co mówi, sieciami neuronowymi zajmuje się od początków lat 90-tych, aktualnie grupa badaczy z Google Brain pod jego przewodnictwem koncentruje się na szerokim spektrum problemów z zakresu sztucznej inteligencji i ogólnej informatyki. Zdaniem Deana mechanizmy uczenia głębokiego mogą być wykorzystane nie tylko w branżach technologicznych, ale praktycznie w każdej gałęzi życia społeczno-gospodarczego.

Uczenie maszynowe napotyka jednak wciąż wiele przeszkód. Sama duża ilość danych nie wystarczy. Dane stanowiące „paliwo” informacyjne dla uczonej maszyny muszą być odpowiednio przetworzone. To z kolei wymaga środków, mocy obliczeniowych, czasu, a niekiedy znacznej interwencji człowieka.

AlphaGo
System AlphaGo opracowany przez należącą do Google’a spółkę DeepMind już wygrał z mistrzem świata w Go. Ale teraz jest jeszcze doskonalszy dzięki temu, że uczy się grać coraz lepiej, grając sam ze sobą.

Niemniej w niektórych przynajmniej projektach udaje się uzyskać znaczne zwiększenie efektywności uczenia maszynowego, poprzez fakt, że maszyna na pewnym etapie jest zdolna uczyć się już nie na podstawie dostarczanych danych zewnętrznych i przykładów, ale na podstawie własnych doświadczeń. Dobrym przykładem takiego tworu jest system AlphaGo firmy DeepMind (własność Google’a/Alphabet), który nie poprzestał na zwycięstwie z mistrzem świata w Go, ale był dalej doskonalony poprzez naukę na własnych doświadczeniach, czyli grę z samym sobą (drugą instancją AlphaGo). | CHIP

0
Źródło: VentureBeat
Zamknij

Choć staramy się je ograniczać, wykorzystujemy mechanizmy takie jak ciasteczka, które pozwalają naszym partnerom na śledzenie Twojego zachowania w sieci. Dowiedz się więcej.