Powszechnym i powracającym poglądem na ostatnie przełomowe odkrycia w badaniach nad sztuczną inteligencją jest to, że czujące i inteligentne maszyny są właśnie na horyzoncie. Maszyny rozumieją polecenia słowne, odróżniają zdjęcia, prowadzą samochody i grają w gry lepiej niż my. Jak długo to może potrwać, zanim pójdą między nami?
Nowy raport Białej Izby na temat sztucznej inteligencji ma odpowiednio sceptyczny pogląd na ten sen. Mówi, że w ciągu najbliższych 20 lat maszyny prawdopodobnie nie będą miały „inteligencji o szerokim zastosowaniu, porównywalnej lub przekraczającej inteligencję ludzi”, choć mówi dalej, że w nadchodzących latach „maszyny osiągną i przekroczą ludzką wydajność na więcej i więcej zadań ”. Jednak jego założenia dotyczące rozwoju tych zdolności pomijają pewne ważne punkty.
Jako badacz sztucznej inteligencji przyznam, że miło było wyróżnić moją dziedzinę na najwyższym szczeblu amerykańskiego rządu, ale raport koncentrował się prawie wyłącznie na tym, co nazywam „nudnym rodzajem sztucznej inteligencji”. W pół zdania odrzucił moją gałąź badań nad sztuczną inteligencją, w jaki sposób ewolucja może pomóc w rozwoju ciągle udoskonalanych systemów AI oraz w jaki sposób modele obliczeniowe mogą pomóc nam zrozumieć, w jaki sposób ewoluowała nasza ludzka inteligencja.
Raport koncentruje się na tym, co można nazwać głównymi narzędziami sztucznej inteligencji: uczenie maszynowe i głębokie uczenie się. Są to technologie, które były w stanie zagrać w „Jeopardy!” i pokonaj ludzkich mistrzów Go w najbardziej skomplikowanej grze, jaką kiedykolwiek wymyślono. Te obecne inteligentne systemy są w stanie obsłużyć ogromne ilości danych i bardzo szybko dokonywać skomplikowanych obliczeń. Ale brakuje im elementu, który będzie kluczem do budowy świadomych maszyn, które wyobrażamy sobie w przyszłości.
Musimy zrobić coś więcej niż nauczyć maszyny uczenia się. Musimy przekroczyć granice, które definiują cztery różne rodzaje sztucznej inteligencji, bariery oddzielające maszyny od nas - i nas od nich.
AI typu I: Maszyny reaktywne
Najbardziej podstawowe typy systemów AI są czysto reaktywne i nie są w stanie ani tworzyć wspomnień, ani wykorzystywać przeszłych doświadczeń do podejmowania bieżących decyzji. Deep Blue, superkomputer szachowy IBM, który pod koniec lat 90. pokonał międzynarodowego arcymistrza Garry'ego Kasparowa, jest doskonałym przykładem tego typu maszyny.
Deep Blue potrafi rozpoznać pionki na szachownicy i wiedzieć, jak się poruszają. Może przewidywać, jakie ruchy mogą być następne dla niego i jego przeciwnika. I może wybierać najbardziej optymalne ruchy spośród możliwości.
Ale nie ma w nim żadnej koncepcji przeszłości ani żadnej pamięci o tym, co wydarzyło się wcześniej. Poza rzadko stosowaną specyficzną dla szachów regułą przeciw powtarzaniu tego samego ruchu trzy razy, Deep Blue ignoruje wszystko przed chwilą. Wszystko, co robi, to patrzeć na pionki na obecnej szachownicy i wybierać spośród możliwych następnych ruchów.
Ten rodzaj inteligencji polega na tym, że komputer postrzega świat bezpośrednio i działa na podstawie tego, co widzi. Nie opiera się na wewnętrznej koncepcji świata. W jednym z najważniejszych artykułów, badacz AI Rodney Brooks argumentował, że powinniśmy budować tylko takie maszyny. Jego głównym powodem było to, że ludzie nie są zbyt dobrzy w programowaniu dokładnych symulowanych światów dla komputerów, co w stypendium AI nazywane jest „reprezentacją” świata.
Obecne inteligentne maszyny, nad którymi się podziwiamy, albo nie mają takiej koncepcji świata, albo mają bardzo ograniczoną i specjalistyczną maszynę do określonych zadań. Innowacją w projekcie Deep Blue nie było poszerzenie zakresu możliwych filmów rozważanych przez komputer. Deweloperzy znaleźli raczej sposób, aby zawęzić swoje pole widzenia, aby przestać realizować potencjalne przyszłe ruchy, w oparciu o to, jak ocenił ich wynik. Bez tej umiejętności Deep Blue musiałby być jeszcze potężniejszym komputerem, aby pokonać Kasparowa.
Podobnie AlphaGo firmy Google, która pokonała najlepszych ekspertów od Go, nie może również ocenić wszystkich potencjalnych przyszłych ruchów. Jego metoda analizy jest bardziej wyrafinowana niż Deep Blue, przy użyciu sieci neuronowej do oceny rozwoju gier.
Metody te poprawiają zdolność systemów AI do lepszego grania w określone gry, ale nie można ich łatwo zmienić ani zastosować w innych sytuacjach. Te skomputeryzowane wyobrażenia nie mają pojęcia o szerszym świecie - co oznacza, że nie mogą funkcjonować poza określonymi zadaniami, które im przydzielono, i można je łatwo oszukać.
Nie mogą interaktywnie uczestniczyć w świecie, tak jak sobie wyobrażamy systemy AI. Zamiast tego maszyny te będą zachowywać się dokładnie tak samo za każdym razem, gdy napotkają tę samą sytuację. Może to być bardzo dobre dla zapewnienia wiarygodności systemu AI: Chcesz, aby Twój autonomiczny samochód był niezawodnym kierowcą. Ale źle, jeśli chcemy, aby maszyny naprawdę współpracowały ze światem i reagowały na nie. Te najprostsze systemy AI nigdy się nie nudzą, nie będą zainteresowane ani smutne.
Typ II AI: Ograniczona pamięć
Ta klasa typu II zawiera maszyny, które mogą patrzeć w przeszłość. Samochody samojezdne już to robią. Na przykład obserwują prędkość i kierunek innych samochodów. Nie można tego zrobić w jednej chwili, ale raczej wymaga identyfikacji określonych obiektów i monitorowania ich w czasie.
Obserwacje te są dodawane do zaprogramowanych przedstawień świata samochodów samojezdnych, które obejmują także oznaczenia pasów, sygnalizację świetlną i inne ważne elementy, takie jak zakręty na drodze. Są one uwzględniane, gdy samochód decyduje, kiedy zmienić pas, aby uniknąć odcięcia innego kierowcy lub potrącenia przez samochód w pobliżu.
Ale te proste informacje o przeszłości są tylko przejściowe. Nie są one zapisywane jako część biblioteki samochodu, z której można się uczyć, na podstawie sposobu, w jaki kierowcy gromadzą doświadczenia przez lata za kierownicą.
Jak więc zbudować systemy AI, które budują pełne reprezentacje, zapamiętują ich doświadczenia i uczą się, jak radzić sobie w nowych sytuacjach? Brooks miał rację, ponieważ bardzo trudno to zrobić. Moje własne badania nad metodami inspirowanymi ewolucją darwinowską mogą zacząć nadrabiać ludzkie wady, pozwalając maszynom budować własne reprezentacje.
AI typu III: Teoria umysłu
Możemy się tu zatrzymać i nazwać ten punkt ważnym podziałem między maszynami, które mamy, a maszynami, które będziemy budować w przyszłości. Lepiej jest jednak bardziej szczegółowo omówić rodzaje reprezentacji, jakie maszyny muszą utworzyć, i to, o czym powinny być.
Maszyny w kolejnej, bardziej zaawansowanej klasie, nie tylko tworzą wyobrażenia o świecie, ale także o innych agentach lub bytach na świecie. W psychologii nazywa się to „teorią umysłu” - rozumieniem, że ludzie, stworzenia i przedmioty na świecie mogą mieć myśli i emocje, które wpływają na ich zachowanie.
Ma to zasadnicze znaczenie dla tego, jak my, ludzie, kształtowaliśmy społeczeństwa, ponieważ pozwoliły nam one na interakcje społeczne. Bez wzajemnego zrozumienia motywów i intencji oraz bez uwzględnienia tego, co ktoś wie o mnie lub o środowisku, wspólna praca jest w najlepszym razie trudna, aw najgorszym niemożliwa.
Jeśli systemy AI rzeczywiście będą wśród nas chodzić, będą musiały zrozumieć, że każdy z nas ma myśli, uczucia i oczekiwania co do tego, jak będziemy traktowani. I będą musieli odpowiednio dostosować swoje zachowanie.
AI typu IV: samoświadomość
Ostatnim krokiem rozwoju sztucznej inteligencji jest zbudowanie systemów, które mogą tworzyć reprezentacje na swój temat. Ostatecznie my, badacze AI, będziemy musieli nie tylko zrozumieć świadomość, ale także zbudować maszyny, które ją posiadają.
Jest to w pewnym sensie rozszerzenie „teorii umysłu” posiadanej przez sztuczne inteligencje typu III. Z jakiegoś powodu świadomość jest również nazywana „samoświadomością”. („Chcę tego przedmiotu” jest zupełnie innym stwierdzeniem niż „Wiem, że chcę tego przedmiotu.”) Świadome istoty są świadome siebie, wiedzą o swoich stanach wewnętrznych i są w stanie przewidzieć uczucia innych. Zakładamy, że ktoś, kto trączy za nami w ruchu, jest zły lub niecierpliwy, ponieważ tak się czujemy, gdy traktujemy innych. Bez teorii umysłu nie moglibyśmy wyciągać takich wniosków.
Chociaż prawdopodobnie daleko nam do tworzenia maszyn, które są samoświadome, powinniśmy skoncentrować nasze wysiłki na zrozumieniu pamięci, uczenia się i zdolności do podejmowania decyzji na podstawie przeszłych doświadczeń. Jest to ważny krok na drodze do zrozumienia ludzkiej inteligencji. Jest to bardzo ważne, jeśli chcemy zaprojektować lub rozwinąć maszyny, które są bardziej niż wyjątkowe w klasyfikacji tego, co widzą przed nimi.
Arend Hintze, adiunkt biologii zintegrowanej oraz informatyki i inżynierii, Michigan State University