W ciemnym pomieszczeniu w którymś z budynków należących do MIT mały robot trafił na problem. Na jego ścieżce znalazła się przeszkoda, którą teraz musi ominąć w bezpiecznej odległości, aby dostać się do celu. W czasie gdy rozważa wszelkie możliwe opcje, dodatkowy system wyświetla je na podłodze w formie kolorowych linii i punktów, dzięki czemu można podejrzeć „myśli” robota.
Roboty „myślą” inaczej niż ludzie. I ten prosty fakt przeraża wielu ludzi. Systemy sztucznej inteligencji montowane w robotach są tak zaawansowane, że nawet sami twórcy takiego systemu nie jest w stanie przewidzieć „myśli” swojego dzieła. Sytuacja jeszcze bardziej się komplikuje, gdy na scenę wkraczają kolejne maszyny, każda wpływająca na inne. Wiedzą o tym naukowcy z MIT i dlatego postanowili, wykorzystując augmented reality, pokazać jak myślą roboty.
System wizualizacji myśli robota powstał również jako odpowiedź na pytanie, które zadawali goście laboratorium – „dlaczego ten robot pojechał tak, a nie inaczej?”. Naukowcy czasami nie byli w stanie odpowiedzieć na te pytania. „Czasami miało się wrażenie, że wybór robota był całkowicie przypadkowy”, mówi Shayegan Omidshafiei, jeden z badaczy zaangażowanych w projekt. Wspólnie z Ali-akbar Agha-mohammadi i kolegami zbudowali więc system, który miał pomóc im podejrzeć, co się dzieje w umyśle robota.
Wykorzystując 18 kamer motion-capture zamontowanych na suficie otrzymali bardzo dokładną informację o położeniu robota w przestrzeni. Dzięki nim mogą również śledzić wiele robotów na raz. Następnie stworzyli odpowiednie oprogramowanie i system, który łączy informację o położeniu robotów, ich percepcji przeszkód oraz rozważanych opcji i w czasie rzeczywistym wyświetla wszystko w formie linii i punktów na podłodze.
Wizualny debugger
Badacze dość szybko spostrzegli, iż poza tym, że fajnie to wszystko wygląda, system może pełnić rolę debuggera (czyli narzędzia do szukania i naprawia błędów w kodzie) robotów. Widząc rozważane przez robota opcje i konfrontując je z oczekiwanym rezultatem mogli w stanie szybciej dostrzec błędy w algorytmach i szybciej je naprawiać, zanim robot zrobi sobie krzywdę.
Doskonalszy system byłby w stanie prześledzić ścieżkę rozumowania drona do pojedynczych linii kodu, co jeszcze bardziej ułatwiłoby zrozumienie działania maszyny.
Trening pod dachem
Wizualny debugger myśli robota już sam w sobie jest ciekawym projektem. Badacze z MIT znaleźli jeszcze jedno zastosowanie dla swojego systemu. Dzięki projektorom, które wyświetlają myśli robota, mogą odtworzyć na podłodze dowolny krajobraz i symulować świat zewnętrzny pod dachem.
Jako przykład podali drony monitorujące lasy i ostrzegające o pożarach. Używając zdjęć lotniczych badacze są w stanie zasymulować widoki, które widziałby taki dron w rzeczywistości. Dzięki temu mogą postawić drona w różnych sytuacjach, testować różne scenariusze i uczyć maszynę odróżniać ważne rzeczy od tych mniej ważnych, a dzięki wizualnemu debuggerowi mogą w czasie rzeczywistym widzieć efekt pracy algorytmów i doskonalić je na bieżąco.
Tego typu podejście może skrócić czas potrzebny na naukę maszyny zadania, które ma wykonywać i wychwycić więcej błędów w bezpiecznych, kontrolowanych warunkach w laboratorium.
Ma jeszcze jedną, dość znaczącą zaletę. Otóż przepisy w USA w przypadku latających dronów są dość restrykcyjne i z tego powodu nie można wykonywać lotów badawczych i testowych w terenie. Jednak przepisy nic nie mówią o lataniu dronem pod dachem. Przenosząc fragment świata zewnętrznego pod dach można w dość sprytny sposób ominąć prawo i doskonalić drony w środowisku choć trochę przypominające te, na które mogą trafić.