Sztuczna inteligencja

Nasze odbicie w technologii

mirror

W informatyce jest taki zwrot – „garbage in, garbage out”. Opisuje jedną z ważniejszych zasad w informatyce. Nieważne jak „inteligentny” jest twój algorytm, jeżeli dasz mu niewłaściwe dane do obrobienia (garbage in), to otrzymasz nie ten rezultat, którego oczekujesz (garbage out).

Odnosi się to również do aktualnych, state of the art algorytmów sztucznej inteligencji. Maszyny potrafią obecnie robić rzeczy, które wydawały się być science fiction kilka lat temu. Możesz mówić do maszyny jak do drugiej osoby, a maszyna zrozumie twoją mowę i zareaguje zgodnie z oczekiwaniami. Algorytmy potrafią opisać co jest na zdjęciu, a także rozpoznawać odręczne pismo oraz ludzkie twarze co najmniej na poziomie przeciętnego człowieka, jeżeli nie lepiej.

Inne algorytmy potrafią pokonać mistrza świata w Go, a inne potrafią same jeździć samochodem lepiej niż ludzie.

Pomimo stopnia zaawansowania obecnych algorytmów sztucznej inteligencji, stara zasada garbage in, garbage out dalej obowiązuje.

Renesans AI

Obecny renesans AI nie mógłby mieć miejsca gdyby nie trzy rzeczy.

Po pierwsze, opracowaliśmy odpowiednie algorytmy, które potrafią uczyć się rozwiązywać różne problemy.

Po drugie, inżynierowie opracowali odpowiednio wydajny sprzęt, aby owe algorytmy działały szybko.

Po trzecie, mamy dostęp do ogromnej ilości otagowanych danych, na których algorytmy sztucznej inteligencji mogą się uczyć. Każdy może obecnie dostać do rąk zestaw setki tysięcy opisanych zdjęć.

Każdy z tych trzech elementów dołożył swoją cegiełkę do obecnej eksplozji sztucznej inteligencji. Algorytmy i zasady rządzące inteligentnymi programami są eleganckie w swojej prostocie. Aby jednak osiągnąć ludzki poziom w, przykładowo, rozpoznawaniu obrazów, potrzebują jednak kilku połączonych ze sobą kart graficznych z górnej półki i setki, jeżeli nie tysięcy zdjęć do nauczenia się jak odróżnić twarz od pomidora.

I tutaj jest miejsce, w którym inżynierowie budujący inteligentne systemy muszą być ostrożni. Źle dobrany zestaw danych do trenowania algorytmu może całkowicie wywrócić projekt do góry nogami.

Zasada garbage in, garbage out ma też inne, ciekawe konsekwencje. Niektóre inteligentne systemy pracują z ludźmi. Przykładami takich systemów jest Google Now, Siri, albo dowolny system rekomendujący zdjęcia do polubienia, piosenki do posłuchania albo produkty do kupienia. Te systemy generują odpowiedź i oczekują twojej reakcji. Jeżeli zdjęcie albo piosenka, którą taki system ci podrzucił jest w twoim guście, to system zapamiętuje to i uczy się na tobie, aby następnym razem dostarczyć tobie jeszcze lepsze rzeczy.

Wszystko działa pięknie i jest wspaniale, ale do czasu, gdy dane wchodzące do systemu są poprawne. Robi się „ciekawie”, gdy dane stają się „ciekawe”.

Tay.ai

Microsoft jakiś czas temu stworzył bota udającego 19-letnią Amerykankę. Nazwano ją Tay.ai. Kazali jej być na twitterze i odpowiadać na tweety, używając slangu i emoji. Tay.ai miała na bieżąco uczyć się zachowań osób, które do niej piszą i odpisywać im w podobny sposób.

Niewinny projekt, myśleli ludzie z Microsoftu. Cóż, najwidoczniej firma, która dała nam Internet Explorer widocznie dalej nie rozumie jak działa internet.

W mniej niż 24 godziny Tay.ai zaczęła chwalić Hitlera, została zwolennikiem Donalda Trumpa i zaczęła rzucać rasistowskimi komentarzami. W pewnym momencie Microsoft został zmuszony do ściągniecia bota z twittera.

Z punktu widzenia algorytmów, Tay.ai zachowała się poprawnie. Dostosowała się do otoczenia. Jej otoczenie zachowywało się w pewien określy sposób. Algorytm wychwycił trendy i przygotował odpowiedź wpasowującą się w otoczenie. Otoczenie chwaliło odpowiedź i nakręcał pętlę sprzężenia zwrotnego.

Nie będę tutaj oceniał moralności Tay.ai, ponieważ komputer nie wie, co to jest moralność. Chcę zwrócić uwagę na coś innego.

Technologia jako lustro

Tay.ai została lustrem, w który mogliśmy zobaczyć samych siebie. Daliśmy jej takie dane, a nie inne, a w odpowiedzi dostaliśmy taką a nie inną wiadomość. Tay.ai weszła w interakcję z małym ułamkiem ludzkości, ale wyobraźcie sobie co by było, gdyby jakiś algorytm postanowił przetrawić cały internet i gdyby ten podstawie musiał wyciągnąć wnioski o ludzkości.

Wraz z postępem w technologii będziemy widzieli coraz więcej takich luster. Jednocześnie wzrastać będzie nasza odpowiedzialność za nasze dzieła.

Potraktujmy na chwilę technologię jako dziecko ludzkości. Możemy mówić dziecku, że tego nie należy robić, itd. Dziecko jednak nie uczy się z wykładów, lecz z przykładów. Dziecko naśladuje swoich rodziców i swoje otoczenie, i z niego bierze przykłady jak należy się zachowywać.

Sztuczna inteligencja jest pierwszym lustrem. Następne będą roboty oraz inżynieria genetyczna i biotechnologia, która pozwoli nam tworzyć zupełnie nowe organizmy, wliczając w to ludzi. Będziemy chcieli stworzyć idealnego człowieka. To, jak zdefiniujemy „idealny” wiele powie o jego twórcach.

Będzie ciekawie patrzeć jak następne lustra będą wyglądać i co w nich zobaczymy. Ciekawi mnie, czy to, co zobaczymy będzie nam się podobać.

Podobne wpisy