Ten artykuł jest częścią naszych przeglądów prac badawczych AI, serii postów, które badają najnowsze odkrycia w dziedzinie sztucznej inteligencji.
Czy powinieneś czuć się źle, gdy wyciągasz wtyczkę z robota lub wyłączasz algorytm sztucznej inteligencji? Na razie nie. Ale co powiesz na to, gdy nasze komputery staną się równie inteligentne – lub mądrzejsze – od nas?
Debaty na temat konsekwencji sztucznej inteligencji ogólnej (AGI) są niemal tak stare jak historia samej AI. Większość dyskusji przedstawia przyszłość sztucznej inteligencji jako apokalipsę w stylu Terminatora lub utopię w stylu Wall-E. Mniej dyskutuje się jednak o tym, jak będziemy postrzegać, współdziałać i akceptować agentów sztucznej inteligencji, gdy rozwiną oni cechy życia, inteligencji i świadomości.
W niedawno opublikowanym eseju, Borna Jalsenjak, naukowiec z Zagreb School of Economics and Management, omawia superinteligentną sztuczną inteligencję i analogie między biologicznym i sztucznym życiem. Zatytułowany „The Artificial Intelligence Singularity: What It Is and What It Is Not”, jego praca pojawia się w Guide to Deep Learning Basics, zbiorze artykułów i rozpraw, które badają różne historyczne, naukowe i filozoficzne aspekty sztucznej inteligencji.
Jalsenjak przedstawia nam filozoficzno-antropologiczne spojrzenie na życie i to, jak odnosi się ono do systemów AI, które mogą ewoluować poprzez własne manipulacje. Przekonuje, że „myślące maszyny” pojawią się, gdy AI rozwinie swoją własną wersję „życia” i zostawia nas z odrobiną refleksji na temat bardziej niejasnych i mglistych aspektów przyszłości sztucznej inteligencji.
Singularność AI
Singularność jest terminem, który często pojawia się w dyskusjach na temat ogólnej AI. I jak to zwykle bywa ze wszystkim, co ma związek z AGI, jest wiele zamieszania i nieporozumień co do tego, czym jest osobliwość. Jednak większość naukowców i filozofów zgadza się, że jest to punkt zwrotny, w którym nasze systemy AI staną się mądrzejsze od nas samych. Innym ważnym aspektem osobliwości jest czas i szybkość: Systemy AI osiągną punkt, w którym będą mogły się samodoskonalić w sposób powtarzalny i przyspieszający.
„Mówiąc bardziej zwięźle, kiedyś istnieje AI, która jest na poziomie człowieka i ta AI może stworzyć nieco bardziej inteligentną AI, a potem ta jedna może stworzyć jeszcze bardziej inteligentną AI, a potem następna tworzy jeszcze bardziej inteligentną i trwa to tak długo, aż pojawi się AI, która jest wybitnie bardziej zaawansowana niż to, co ludzie mogą osiągnąć” – pisze Jalsenjak.
Jasno mówiąc, technologia sztucznej inteligencji, którą dysponujemy obecnie, znana jako wąska AI, nie jest w stanie osiągnąć takiego wyczynu. Jalšenjak opisuje obecne systemy AI jako „specyficzne dla danej dziedziny”, takie jak „AI, która jest świetna w robieniu hamburgerów, ale nie jest dobra w niczym innym”. Z drugiej strony, rodzaj algorytmów, który jest przedmiotem dyskusji o osobliwości AI to „AI, które nie jest specyficzne tematycznie, lub z braku lepszego słowa, jest bezdomne i jako takie jest zdolne do działania w każdej dziedzinie”, pisze Jalsenjak.
To nie jest dyskusja o tym, jak i kiedy osiągniemy AGI. To inny temat, który również jest przedmiotem wielu debat, przy czym większość naukowców uważa, że sztuczna inteligencja na poziomie człowieka jest odległa o co najmniej kilkadziesiąt lat. Jalsenjack spekuluje raczej, jak zostanie zdefiniowana tożsamość AI (i ludzi), gdy już tam dotrzemy, czy to jutro, czy za sto lat.
Czy sztuczna inteligencja żyje?
W społeczności AI istnieje duża tendencja do postrzegania maszyn jako ludzi, zwłaszcza gdy rozwijają one zdolności, które wykazują oznaki inteligencji. Choć jest to wyraźne przecenienie dzisiejszej technologii, Jasenjak przypomina nam również, że sztuczna inteligencja ogólna nie musi być replikacją ludzkiego umysłu.
„Nie ma powodu, by sądzić, że zaawansowana AI będzie miała taką samą strukturę jak ludzka inteligencja, jeśli w ogóle kiedykolwiek do tego dojdzie, ale ponieważ w ludzkiej naturze leży przedstawianie stanów świata w sposób, który jest nam najbliższy, trudno uniknąć pewnego stopnia antropomorfizacji” – pisze w przypisie do eseju.
Jedną z największych różnic między ludźmi a obecną technologią sztucznej inteligencji jest to, że o ile ludzie są „żywi” (do czego za chwilę dojdziemy), o tyle algorytmy AI już nie.
„Dzisiejszy stan technologii nie pozostawia wątpliwości, że technologia nie jest żywa” – pisze Jalsenjak, na co dodaje: „To, co może nas zaciekawić, to jeśli kiedykolwiek pojawi się superinteligencja taka, jaką przewiduje się w dyskusjach o osobliwości, może warto spróbować i sprawdzić, czy możemy ją również uznać za żywą.”
Aczkolwiek nie organiczne, takie sztuczne życie miałoby ogromne reperkusje na to, jak postrzegamy AI i jak się wobec niej zachowujemy.
Co by było potrzebne, aby AI ożyła?
Wyciągając wnioski z koncepcji antropologii filozoficznej, Jalsenjak zauważa, że żywe istoty mogą działać autonomicznie i dbać o siebie i swój gatunek, co znane jest jako „aktywność immanentna”.”
„Teraz przynajmniej, bez względu na to, jak zaawansowane są maszyny, pod tym względem zawsze służą w swoim celu jedynie jako przedłużenia ludzi” – zauważa Jalsenjak.
Istnieją różne poziomy życia, a jak pokazuje trend, AI powoli toruje sobie drogę do stania się żywą. Zgodnie z antropologią filozoficzną, pierwsze oznaki życia pojawiają się, gdy organizmy rozwijają się w kierunku celu, co jest obecne w dzisiejszej AI zorientowanej na cel. Fakt, że SI nie jest „świadoma” swojego celu i bezmyślnie chrupie liczby, aby go osiągnąć, wydaje się być nieistotny, mówi Jalsenjak, ponieważ uważamy rośliny i drzewa za żywe, mimo że one również nie mają tego poczucia świadomości.
Innym kluczowym czynnikiem pozwalającym uznać istotę za żywą jest jej zdolność do naprawy i ulepszania siebie w stopniu, na jaki pozwala jej organizm. Powinna ona również produkować i opiekować się swoim potomstwem. To jest coś, co widzimy w drzewach, owadach, ptakach, ssakach, rybach i praktycznie we wszystkim, co uważamy za żywe. Prawa doboru naturalnego i ewolucji zmusiły każdy organizm do rozwinięcia mechanizmów, które pozwalają mu uczyć się i rozwijać umiejętności, aby dostosować się do środowiska, przetrwać i zapewnić przetrwanie swojego gatunku.
W kwestii wychowywania dzieci Jalsenjak twierdzi, że reprodukcja AI niekoniecznie przebiega równolegle do reprodukcji innych istot żywych. „Maszyny nie potrzebują potomstwa, aby zapewnić przetrwanie gatunku. AI mogłaby rozwiązywać problemy związane z degradacją materiałów, mając pod ręką wystarczającą ilość części zamiennych, aby zamienić wadliwie działające (martwe) części na nowe” – pisze. „Żywe istoty rozmnażają się na wiele sposobów, więc faktyczna metoda nie jest kluczowa.”
Gdy chodzi o samodoskonalenie, sprawy stają się nieco bardziej subtelne. Jalsenjak zauważa, że istnieje już oprogramowanie zdolne do samomodyfikacji, choć jej stopień różni się w zależności od oprogramowania.
Dzisiejsze algorytmy uczenia maszynowego są w pewnym stopniu zdolne do dostosowania swojego zachowania do otoczenia. Dostrajają wiele parametrów do danych zebranych w świecie rzeczywistym, a gdy świat się zmienia, mogą być ponownie przeszkolone na podstawie nowych informacji. Na przykład, pandemia koronawirusów zakłóciła działanie wielu systemów AI, które zostały wytrenowane na naszych normalnych zachowaniach. Wśród nich są algorytmy rozpoznawania twarzy, które nie są już w stanie wykryć twarzy, ponieważ ludzie noszą maski. Algorytmy te mogą teraz dostroić swoje parametry poprzez trening na obrazach twarzy noszących maski. Oczywiście, ten poziom adaptacji jest bardzo mały w porównaniu z szerokimi możliwościami ludzi i zwierząt wyższego rzędu, ale można go porównać do, powiedzmy, drzew, które adaptują się poprzez zapuszczanie głębszych korzeni, gdy nie mogą znaleźć wody na powierzchni ziemi.
Inteligentna samodoskonaląca się SI byłaby jednak w stanie tworzyć zupełnie nowe algorytmy, które przyniosłyby fundamentalne ulepszenia. Nazywa się to „rekurencyjnym samodoskonaleniem” i prowadziłoby do niekończącego się i przyspieszającego cyklu coraz inteligentniejszych SI. Mogłoby to być cyfrowym odpowiednikiem mutacji genetycznych, przez które przechodzą organizmy na przestrzeni wielu pokoleń, choć SI byłaby w stanie dokonywać ich w znacznie szybszym tempie.
Dzisiaj mamy pewne mechanizmy, takie jak algorytmy genetyczne i grid-search, które mogą poprawić nietrenowalne komponenty algorytmów uczenia maszynowego (znane również jako hiperparametry). Jednak zakres zmian, jakie mogą one przynieść, jest bardzo ograniczony i nadal wymaga pewnego stopnia ręcznej pracy ludzkiego programisty. Na przykład nie można oczekiwać, że rekurencyjna sieć neuronowa zmieni się w Transformera w wyniku wielu mutacji.
Rekursywne samodoskonalenie da jednak AI „możliwość całkowitego zastąpienia używanego algorytmu” – zauważa Jalsenjak. „Ten ostatni punkt jest tym, co jest potrzebne do zaistnienia osobliwości.”
Przez analogię, patrząc na zdeterminowane cechy, superinteligentne AI można uznać za żywe, podsumowuje Jalsenjak, unieważniając twierdzenie, że AI jest przedłużeniem istot ludzkich. „Będą miały swoje własne cele, a prawdopodobnie także swoje prawa” – mówi – „Ludzie po raz pierwszy będą dzielić Ziemię z istotą, która jest co najmniej tak inteligentna jak oni, a prawdopodobnie o wiele inteligentniejsza.”
Czy nadal byłbyś w stanie odłączyć robota od prądu bez poczucia winy?
Bycie żywym to za mało
Na końcu swojego eseju Jalsenjak przyznaje, że refleksja nad sztucznym życiem pozostawia jeszcze wiele pytań. „Czy opisane tu cechy dotyczące istot żywych są wystarczające, by coś można było uznać za żywe, czy też są one tylko konieczne, ale niewystarczające?” pyta.
Przeczytawszy właśnie I Am a Strange Loop filozofa i naukowca Douglasa Hofstadtera, mogę zdecydowanie powiedzieć, że nie. Tożsamość, samoświadomość i świadomość to inne pojęcia, które odróżniają żywe istoty od siebie. Na przykład, czy bezmyślny robot budujący spinacze, który nieustannie ulepsza swoje algorytmy, aby zamienić cały wszechświat w spinacze, jest żywy i zasługuje na własne prawa?
Wolna wola jest również kwestią otwartą. „Ludzie są współtwórcami samych siebie w tym sensie, że nie nadają sobie całkowicie istnienia, ale czynią swoje istnienie celowym i spełniają ten cel” – pisze Jalsenjak. „Nie jest jasne, czy przyszłe AI będą miały możliwość posiadania wolnej woli.”
I wreszcie pojawia się problem etyki superinteligentnych AI. Jest to szeroki temat, który obejmuje rodzaje zasad moralnych, jakie powinna mieć SI, zasady moralne, jakie ludzie powinni mieć wobec SI, oraz to, jak SI powinny postrzegać swoje relacje z ludźmi.
Społeczność AI często odrzuca takie tematy, wskazując na wyraźne ograniczenia obecnych systemów głębokiego uczenia się i odległe pojęcie osiągnięcia ogólnej AI.
Ale podobnie jak wielu innych naukowców, Jalsenjak przypomina nam, że czas na dyskusję na te tematy jest dziś, a nie wtedy, gdy będzie za późno. „Te tematy nie mogą być ignorowane, ponieważ wszystko, co wiemy w tej chwili o przyszłości, wydaje się wskazywać, że ludzkie społeczeństwo stoi w obliczu bezprecedensowych zmian” – pisze.
W pełnym eseju, dostępnym na Springer, Jalsenjak przedstawia dogłębne szczegóły dotyczące sztucznej inteligencji singularity i praw życia. Cała książka, Guide to Deep Learning Basics, zawiera bardziej dogłębny materiał na temat filozofii sztucznej inteligencji.