Sztuczna inteligencja

AlphaGo – maszyna, która opanowała grę w Go

Gra w Go

Pochodząca z Chin gra Go była uważana za ten ostatni bastion, którego pokonanie zajmie maszynom jeszcze co najmniej dekadę. Ta dekada minęła dość szybko, ponieważ dwa tygodnie temu DeepMind i ich algorytm AlphaGo pokonał mistrza Europy w Go i napisał nowy rozdział w historii sztucznej inteligencji.

Teraz, kiedy opadł kurz i emocje po tym zwycięstwie, mogę przyjrzeć się dokładniej czym jest AlphaGo.

Dlaczego Go?

Gra w Go wydaje się być niezbyt skomplikowana na pierwszy rzut oka. Rzeczywistość jest jednak zupełnie inna.

Tradycyjne algorytmy do rozwiązanywania gier opierają się na drzewach decyzyjnych. Polegają one na analizie wszystkich możliwych ścieżek z danego punktu w grze i ocenie tych ścieżek (czy prowadzą do zwycięstwa lub porażki) w każdej turze. Takie algorytmy świetnie się sprawdzają w prostszych grach, gdzie ilość możliwych ruchów z danego punktu w grze nie jest zbyt duża.

Problemy zaczynają się, gdy zwiększa się ilość możliwych ruchów. Stopień skomplikowania drzewa decyzyjnego rośnie wykładniczo i myślenie o przynajmniej kilku ruchach do przodu staje się niemożliwe.

W przypadku Go ilość możliwych kombinacji i ruchów do rozpatrzenia jest tak duża, że tradycyjne algorytmy nie są w stanie rozwiązać problemu w rozsądnym czasie lub po prostu nie ma tylu zasobów na świecie, aby przeznaczyć na ten cel.

Trzeba było więc znaleźć inną drogę. Zaczęto opracowywać inne algorytmy. Jeden z nich, Monte-Carlo Tree Search (MCTS), był przez długi czas sztandarowym algorytmem do rozwiązywania gry w Go. MCTS był wystarczająco dobry, aby konkurować z amatorami, lecz nie był w stanie pokonać lepszych zawodników, o mistrzach nie wspominając.

DeepMind i AlphaGo

Gra w Go stała się tym, czym były szachy zanim DeepBlue pokonał Garriego Kasparowa. Ten, który pierwszy stworzy program mogący konkurować i zwyciężać z mistrzami, zapisałby się w historii rozwoju sztucznej inteligencji.

W tym wyścigu liczy się dwa zespoły – należący do Google DeepMind oraz Facebook i jego zespół ekspertów od AI. Większość ludzi myślała, że pokonanie mistrzów w Go zajmie jeszcze dekadę lub co najmniej kilka lat.

Aż tu nagle, 28 stycznia 2016 roku, Deep Mind ogłosiło, że ich system, AlphaGo, pokonał mistrza Europy oraz Facebooka.

Rozwiązanie, jakie zaproponował DeepMind określiłbym hybrydą na każdym poziomie. AlphaGo składa się z dwóch sieci neuronowych (deep neural networks, DNN), które znajdują obiecujące ruchy oraz określają, czy są warte wyboru. Sieci neuronowe w ostatnich latach zrewolucjonizowały sztuczną inteligencję, lecz nawet one same nie były w stanie pokonać gry w Go. Dlatego, obok sieci neuronowych, AlphaGo korzysta z Monte-Carlo Tree Search do wyboru odpowiedniego kroku.

Również sposób nauczania AlphaGo był hybrydowy. Jeden podsystem był trenowany przez ludzkich ekspertów, który następnie był wykorzystywany do gry z drugim podsystemem. W ten sposób AlphaGo dość szybko zrozumiał zasady gry i możliwe ruchy, a następnie grał sam ze sobą tysiące razy, szlifując swoje zdolności.

Sukces DeepMind i AlphaGo jest dużym krokiem naprzód w rozwoju sztucznej inteligencji, który spotkał się z dużym zainteresowaniem w mediach. Niektóre media tylko trochę przesadziły ogłaszając, że AlphaGo pokonał mistrza świata albo arcymistrza w Go. To jest nieprawda. AlphaGo pokonał mistrza Europy, który jest sklasyfikowany na 633. miejscu w światowym rankingu. Gdyby AlphaGo był sklasyfikowany w rankingu, to prawdopobnie znalazłby się w gdzieś w trzeciej setce.

Nagłówki mogą jednak wkrótce stać się prawdziwe. Demis Hassabis, założyciel DeepMind, ogłosił, że AlphaGo wyzwało mistrza świata w Go, Koreańczyka Lee Sedola, na pojedynek. Wyzwanie zostało przyjęte i między 9 a 15 marca 2016 roku AlphaGo i Lee Sedol stoczą pięć pojedynków. Jeżeli Lee Sedol wygra, to otrzyma milion dolarów nagrody.

Całość będzie transmitowana na żywo na YouTube. Nie mogę się doczekać!


Źródło zdjęcia – Chad Miller

Podobne wpisy