W tym wpisie na blogu autorzy dogłębnie analizują kwestię, czy sztuczna inteligencja jest rzeczywiście istotą zdolną do „myślenia” jak ludzie, czy też jest po prostu maszyną imitującą inteligencję.
Co to jest AI?
Łatwo zauważyć, że AI oznacza sztuczną inteligencję. AI jest często interpretowane jako systemy, które naśladują wiedzę o ludzkich zachowaniach, aby działać zgodnie z nimi. Na przykład AlphaGo, który pokonał Lee Sedola w go, lub systemy zaprogramowane w samochodach autonomicznych – wszystkie maszyny, które potrafią naśladować inteligencję ludzi i przekładać ją na działanie, nazywane są AI. Uważam jednak, że musimy zreinterpretować AI w oparciu o jej dosłowne znaczenie. AI oznacza po prostu sztucznie rozwiniętą inteligencję. Sztuczna inteligencja oznacza obiekt „stworzony” przez ludzkość, celowo lub nieumyślnie. Jednak inteligencja jest niezwykle trudną zdolnością do zdefiniowania. Ponieważ różni naukowcy interpretują inteligencję na różne sposoby, zdefiniowanie jej dla ogółu społeczeństwa jest jeszcze trudniejsze. Dlatego chcę wykorzystać artykuł Alexa Wissnera-Grossa dotyczący inteligencji.
Inteligencja: zdolność odmienna od myśli
Alex Wissner-Gross sugeruje, że gdybyśmy mieli zostawić jedno zdanie, które pomogłoby przyszłym potomkom zrekonstruować lub zrozumieć sztuczną inteligencję, brzmiałoby ono: „Inteligencja to proces fizyczny, który maksymalizuje swobodę przyszłych działań i zapobiega ograniczeniom własnej przyszłości”. Następnie wyraził to następującą formułą:
F = T∇Sτ
To wzór na inteligencję. Zakładając, że inteligencja wynosi F, T reprezentuje jakąś siłę, S oznacza różnorodność możliwych do osiągnięcia przyszłości, a τ oznacza konkretny punkt w przyszłości. Na pierwszy rzut oka ta pozornie absurdalna formuła napędza zachowania, które powszechnie kojarzymy z inteligencją. Wprowadź tę formułę do systemu umieszczonego w określonej sytuacji, a system sam zrównoważy pręt bez żadnych instrukcji lub zagra w Ponga. Umożliwia ona również systemom zwiększanie własnych aktywów w symulowanym handlu akcjami lub tworzenie dobrze powiązanych sieci społecznych. Możemy zaobserwować, że to, co ludzie uważają za działania intelektualne, takie jak współpraca społeczna, jest indukowane przez tę formułę.
Łatwo jednak zauważyć, że maszyna posiadająca inteligencję i akt myślenia to odrębne kwestie. Jak wspomniano wcześniej, inteligencja jest jedynie ukierunkowana na cel, aby uniknąć przyszłych ograniczeń. Myślenie jest jednak koncepcją wyższego rzędu, która to obejmuje. Polega ona na dążeniu do celów i chęci przewidywania przyszłości. Na przykład, obserwując inne zwierzęta używające narzędzi lub polujące w grupach, uważamy je za polujące inteligentnie, ale trudno jest postrzegać je jako istoty myślące. Co więcej, osoby z niepełnosprawnością intelektualną często wykazują niezwykłą kreatywność w różnych obszarach, pomimo niepełnego rozwoju zdolności intelektualnych. Sugeruje to, że inteligencja jest jedynie narzędziem używanym do osiągnięcia celu; posiadanie inteligencji nie jest równoznaczne z myśleniem. Dlatego w momencie, gdy sztuczna inteligencja zademonstruje, że myśli, sam termin „sztuczna inteligencja” musi się zmienić. Przekroczyłaby poziom samego posiadania inteligencji, aby faktycznie zaangażować się w myślenie.
Czy istnieje sposób na udowodnienie myślenia?
Przez całą historię ludzkość rozwijała sztuczną inteligencję, obserwując jedynie przednią stronę monety. Awers odnosi się do obliczonych wartości, które sztuczna inteligencja wyświetla na zewnątrz. To znaczy system, w którym wprowadzenie danych A generuje wynik B, udzielając dokładnej odpowiedzi na pytanie. Aby wyjaśnić to prościej, rozważmy jeden przykład. W filmie Kena Goldberga z TED Talk można zobaczyć robota o nazwie „Remote Garden”. Zdalny ogród to system umożliwiający każdemu dostęp do robota ogrodowego online w celu podlewania roślin lub sadzenia nasion. System ten jest zainstalowany w holu muzeum w Austrii. Można jednak zadać to pytanie osobom zdalnie nim sterującym: „Czy robot jest PRAWDZIWY?”. Nawet jeśli żaden robot nie istnieje, moglibyśmy rozpowszechniać zdjęcia online za pomocą różnych obrazów, aby ludzie uwierzyli, że robot tam jest. To odzwierciedla problem epistemologiczny Kartezjusza. Sztuczną inteligencję można podobnie postrzegać jako problem epistemologiczny. To, czy sztuczna inteligencja jest systemem, który generuje dane na podstawie danych wejściowych, jest pytaniem epistemologicznym. Innymi słowy, nie możemy powstrzymać się od kwestionowania tego, czy sztuczna inteligencja myśli.
Czy zatem nie możemy dostrzec drugiej strony medalu? Na to pytanie chcę śmiało odpowiedzieć TAK. W jednym z wykładów TED, które widziałem, Blaise Agüera y Arcas zadał pytanie o kreatywność, używając następującego równania:
Y = W(*)X
W reprezentuje złożoną sieć neuronową mózgu, X to dane obiektów postrzeganych przez pięć zmysłów, a (*) wskazuje, jak sieć neuronowa oddziałuje na dane wejściowe X. Wreszcie Y to dane, które ostatecznie postrzegamy i które generujemy z X. TED sugeruje, że mapę neuronową W można aproksymować za pomocą operacji X, Y i (*). Pozwala nam to wyprowadzić wynik Y po wprowadzeniu X. Dzięki temu uzyskaliśmy pewien wgląd w kreatywność i myślenie. Nasuwa się jednak pytanie, czy wynikowa wartość Y jest rzeczywiście kompletna. W TED, gdy wartość wejściowa „pies” została wprowadzona do X, zobaczyliśmy, że narysowała ona obraz psa jako Y. Ale gdybyśmy poprosili ludzi o narysowanie psa, czy mogliby stworzyć rysunek tak szczegółowy i bezbłędnie rozpoznawalny, jak ten z TED? Zastanawiałem się, czy potrafiliby narysować psa inaczej niż inne, gdyby ich o to poproszono. Innymi słowy, wydaje się on niczym więcej niż zbiorem danych pochodzących z big data. A co, gdyby ludzkość perfekcyjnie rozszyfrowała W, sieć neuronową? Prawdopodobnie mógłby wyprowadzić wartość Y poprzez X, (*) i W, tak jak robią to ludzie. Następnie, zamiast polegać wyłącznie na dużych zbiorach danych, mógłby samodzielnie opracować W, tak jak ludzie, i wyrazić wartość Y na swój własny, unikalny sposób. To pozwoliłoby ludzkości odwrócić monetę i odkryć drugą stronę medalu: kreatywność i myślenie.
Kiedy więc w pełni zrozumiemy układ nerwowy, rozwiniemy neuronaukę i w pełni zinterpretujemy zbiór neuronów? W tej kwestii chciałbym zacytować Dijkstrę: „Pytanie, czy maszyny potrafią myśleć, jest mniej więcej tak samo istotne, jak pytanie, czy okręty podwodne potrafią pływać”. Ludzkość potrzebowała tysięcy lat, by po zbudowaniu statków i przepłynięciu mórz i oceanów stworzyć okręty podwodne i rozpocząć eksplorację nieznanych dotąd głębin oceanów. Sztuczna inteligencja jest obecnie w trakcie budowy statków i nawigacji po morzach. Dlatego nie mam wątpliwości, że ludzkość pewnego dnia zinterpretuje nieznaną sferę myśli i stworzy maszyny, które myślą.