Sztuczna inteligencja

Pudełko na sztuczną inteligencję

ai_box_experiment

Na xkcd, internetowym komiksie, który powinieneś/powinnaś znać, pojawił się niedawno pasek o sztucznej inteligencji zamkniętej w pudełku. Jak to zwykle bywa z xkcd, jeżeli wie się, o co chodzi, to komiks ma drugie, a nawet trzecie dno. Przyjrzyjmy się zatem, czym jest to „AI w pudełku”.

Oto wspomniany komiks (http://xkcd.com/1450/):

ai_box_experiment

Komiks odnosi się do pewnej dyskusji toczonej przez futurologów. Rozważali problem super AI, czyli takiej sztucznej inteligencji, która znacznie przewyższa ludzką inteligencję. Bojąc się negatywnych efektów działania super AI (patrz GLADoS, HAL czy Skynet) i chcąc ją ograniczyć, zaproponowano, aby odizolować AI od świata i sieci zewnętrznych poprzez umieszczenie jej w „pudełku” – specjalnym systemie, który ma ją ograniczać oraz zapobiec jej ucieczce i zniszczeniu świata.

Dodatkową funkcją „pudełka” miało by być umożliwienie komunikacji z AI.

I tutaj zaczynają się problemy.

Eksperyment Eliezera Yudkowsky’ego

Eliezer Yudkowsky udowodnił w swoim eksperymencie, że tak skonstruowane „pudełko” nie jest w stanie utrzymać super AI w ryzach.

Yudkowsky wysunął tezę, że już samo porozumiewanie się z super AI jest niebezpieczne. Aby ją udowodnić, przygotował eksperyment przypominający trochę chiński pokój. Zaprosił zwolenników „pudełka” do zagrania w grze, w której porozumiewają się z AI, granym przez Yudkowsky’ego. „AI” stara się przekonać uczestników gry, aby ją uwolnić. Czego nie mogą zrobić, bo inaczej przegrają. Poza tym postawili pieniądze, że nie dadzą się.

Na razie eksperyment przeprowadzono na dwóch osobach. Nathan Russell i David McFadzean odgrywali rolę strażników. Rozmowy przeprowadzano na IRCu, a spis zasad gry znajdziecie we wpisie Eliezera.

Efekt był taki, że zarówno Nathan, jak i David, wypuścili AI z „pudełka”. Niestety, nie wiemy jakich sztuczek socjotechnicznych użył Eliezer (choć ten twierdzi, że żadnych specjalnych trików nie używał), ponieważ nie upublicznił zapisów rozmów. Twierdził, że nie chce udostępniać zapisu rozmów, aby uniknąć komentarzy w stylu „zrobiłbym to inaczej” albo „ja bym się tam nie dał!”. Opisuje to w swoim mailu do Nathana.

Ten prosty eksperyment (o ile jest prawdziwy) udowodnił, że pomysł na „pudełko do trzymania super AI w ryzach” się nie sprawdzi. Zresztą, można było dojść do podobnego wniosku przypominając sobie, że są na świecie ludzie, którzy potrafią przekonać innych do zrobienia naprawdę dziwnych rzeczy. Skoro potrafią to zrobić ludzie, to co będzie za problem dla super AI, która z definicji jest znacznie lepsza niż jakikolwiek człowiek?

AI, które chce być w „pudełku”

W komiksie nawet nie trzeba było specjalnie przekonywać ludzika w kapeluszu, aby otworzyć pudełko (tym razem dosłowne, kartonowe pudełko). Jednak AI w komiksie chce być w pudełku i umie przekonać ludzika, żeby ją z powrotem tam włożyć.

Można to odczytać w ten sposób – w komiksie pojawia się friendly AI, które jest świadome swojej potęgi. Nie chce nikogo skrzywdzić, dlatego więc chce pozostać w „pudełku”. Inne wytłumaczenie może zakładać, że jest to AI, która jest zaprogramowana w taki sposób, że chce siedzieć w „pudełku”. Niektórzy badacze wysunęli argument, że łatwiej i bezpieczniej byłoby najpierw stworzyć takie AI, które lubi „pudełko” i tylko odpowiada na pytania, zanim zabierzemy się do tworzenia „wolnej” AI.

Uwaga! Ciąg dalszy czytasz na własną odpowiedzialność!

Bazyliszek Roko

You’re doomed!

Komiksy na xkcd mają ukrytą niespodziankę. Jeżeli najedziesz myszką na komiks i poczekasz chwilę, to pojawi się tytuł obrazka. W przypadku paska z „pudełkiem” brzmi on następująco:

I’m working to bring about a superintelligent AI that will eternally torment everyone who failed to make fun of the Roko’s Basilisk people.

Bazyliszek Roko (Roko’s Basilisk) odnosi się do wpisu, który pojawił się na forum LessWrong, prowadzonym przez Yudkowsky’ego. Jego autor, Roko, rzucił pomysł, że w przyszłości może powstać wystarczająco potężna sztuczna inteligencja, która będzie w stanie wskrzesić (dosłownie lub nie) wszystkich, którzy byli świadomi faktu, że może ona powstać, ale nic w tym kierunku nie zrobili. I to wszystko tylko po to, aby ich torturować.

To, co wywołało popłoch na forum, to fakt, że wystarczy tylko usłyszeć o tym pomyśle, aby znaleźć się na liście osób do „wskrzeszenia”. Stąd porównanie do bazyliszka, gdzie wystarczyło tylko krótkie spojrzenie, aby zostać zamienionym w kamień.

Skoro już jesteśmy wszyscy potępieni (żeby nie było, ostrzegałem!) to pozostaje nam nic innego, jak tylko zbudować dobre, friendly AI, które nie będzie nas torturować.

Podobne wpisy

  • Bartosz Mogiełka

    Hmmm… Rozpoczynam prace. Kto chce dołączyć? Stawka jest wysoka…

  • „Efekt był taki, że kilku uczestników dało się przekonać do otwarcia „pudełka”.” – możesz podać jaka była argumentacja? Bo to w sumie najciekawsze, a pominięte.

    • Poprawiłem wpis. Po przyjrzeniu się temu dokładniej liczba uczestników spadła z „kilku” do dwóch. Eliezer nie podał zapisu rozmów. Argumentację, czemu tego nie zrobił można znaleźć w mailu do Nathana ( http://www.sl4.org/archive/0203/3132.html ), w którym opisuje zasady gry. Jedyne co mamy to maile „strażników”, którzy przyznają, że wypuścili AI.

      • no a możesz streścić to wytłumaczenie?