Eine Reflexion über die Singularität der künstlichen Intelligenz

Künstliche Intelligenz Singularität
Bildnachweis:

Dieser Artikel ist Teil unserer Rezensionen von KI-Forschungsarbeiten, einer Serie von Beiträgen, die sich mit den neuesten Erkenntnissen im Bereich der künstlichen Intelligenz beschäftigen.

Sollten Sie ein schlechtes Gewissen haben, wenn Sie einem Roboter den Stecker ziehen oder einen Algorithmus der künstlichen Intelligenz abschalten? Im Moment noch nicht. Aber wie sieht es aus, wenn unsere Computer so schlau – oder schlauer – werden wie wir?

Die Debatten über die Folgen der allgemeinen künstlichen Intelligenz (AGI) sind fast so alt wie die Geschichte der KI selbst. Die meisten Diskussionen stellen die Zukunft der künstlichen Intelligenz entweder als Terminator-ähnliche Apokalypse oder als Wall-E-ähnliche Utopie dar. Was jedoch weniger diskutiert wird, ist, wie wir Agenten der künstlichen Intelligenz wahrnehmen, mit ihnen interagieren und sie akzeptieren werden, wenn sie Züge von Leben, Intelligenz und Bewusstsein entwickeln.

Guide to Deep Learning Basics - Buchcover
Guide to Deep Learning Basics – by Springer

In einem kürzlich veröffentlichten Aufsatz, Borna Jalsenjak, Wissenschaftler an der Zagreb School of Economics and Management, diskutiert über superintelligente KI und Analogien zwischen biologischem und künstlichem Leben. Unter dem Titel „The Artificial Intelligence Singularity: What It Is and What It Is Not“ erscheint seine Arbeit im Guide to Deep Learning Basics, einer Sammlung von Aufsätzen und Abhandlungen, die verschiedene historische, wissenschaftliche und philosophische Aspekte der künstlichen Intelligenz beleuchten.

Jalsenjak führt uns durch die philosophisch-anthropologische Sichtweise des Lebens und wie sie auf KI-Systeme anwendbar ist, die sich durch eigene Manipulationen weiterentwickeln können. Er argumentiert, dass „denkende Maschinen“ entstehen werden, wenn die KI ihre eigene Version von „Leben“ entwickelt, und lässt uns mit einigen Denkanstößen über die eher obskuren und vagen Aspekte der Zukunft der künstlichen Intelligenz zurück.

KI-Singularität

Singularität ist ein Begriff, der in Diskussionen über allgemeine KI oft auftaucht. Und wie es bei allem, was mit AGI zu tun hat, üblich ist, gibt es eine Menge Verwirrung und Uneinigkeit darüber, was die Singularität ist. Aber in einem Punkt sind sich die meisten Wissenschaftler und Philosophen einig: Es ist ein Wendepunkt, an dem unsere KI-Systeme schlauer werden als wir selbst. Ein weiterer wichtiger Aspekt der Singularität ist Zeit und Geschwindigkeit: KI-Systeme werden einen Punkt erreichen, an dem sie sich selbst in einer wiederkehrenden und sich beschleunigenden Art und Weise verbessern können.

„Kurz gesagt, wenn es einmal eine KI gibt, die auf dem Niveau von Menschen ist, und diese KI kann eine etwas intelligentere KI erschaffen, und dann kann diese eine noch intelligentere KI erschaffen, und dann erschafft die nächste eine noch intelligentere, und so geht es weiter, bis es eine KI gibt, die bemerkenswert weiter fortgeschritten ist als das, was Menschen erreichen können“, schreibt Jalsenjak.

Die heutige Technologie der künstlichen Intelligenz, die als enge KI bekannt ist, ist weit davon entfernt, eine solche Leistung zu erreichen. Jalšenjak beschreibt aktuelle KI-Systeme als „domänenspezifisch“, wie etwa „KI, die großartig darin ist, Hamburger zu machen, aber in nichts anderem gut ist.“ Auf der anderen Seite ist die Art von Algorithmen, um die es bei der Diskussion um die KI-Singularität geht, „KI, die nicht fachspezifisch ist, oder in Ermangelung eines besseren Wortes, sie ist domänenlos und als solche ist sie in der Lage, in jeder Domäne zu agieren“, schreibt Jalsenjak.

Dies ist keine Diskussion darüber, wie und wann wir AGI erreichen werden. Das ist ein anderes Thema und auch ein Schwerpunkt vieler Debatten, wobei die meisten Wissenschaftler der Meinung sind, dass künstliche Intelligenz auf menschlichem Niveau mindestens noch Jahrzehnte entfernt ist. Jalsenjack spekuliert eher darüber, wie die Identität von KI (und Menschen) definiert wird, wenn wir tatsächlich dort ankommen, sei es morgen oder in einem Jahrhundert.

Ist künstliche Intelligenz lebendig?

Roboterdenken

Es gibt eine große Tendenz in der KI-Gemeinschaft, Maschinen als Menschen zu betrachten, besonders wenn sie Fähigkeiten entwickeln, die Anzeichen von Intelligenz zeigen. Während das eindeutig eine Überschätzung der heutigen Technologie ist, erinnert uns Jasenjak auch daran, dass künstliche allgemeine Intelligenz nicht notwendigerweise eine Replikation des menschlichen Geistes sein muss.

„Es gibt keinen Grund zu glauben, dass fortgeschrittene KI die gleiche Struktur wie menschliche Intelligenz haben wird, wenn es überhaupt jemals dazu kommt, aber da es in der menschlichen Natur liegt, Zustände der Welt auf eine Art und Weise darzustellen, die uns am nächsten ist, ist ein gewisses Maß an Anthropomorphisierung schwer zu vermeiden“, schreibt er in der Fußnote seines Essays.

Einer der größten Unterschiede zwischen Menschen und der aktuellen Technologie der künstlichen Intelligenz besteht darin, dass Menschen zwar „lebendig“ sind (und wir werden gleich darauf eingehen, was das bedeutet), KI-Algorithmen jedoch nicht.

„Der heutige Stand der Technik lässt keinen Zweifel daran, dass die Technik nicht lebendig ist“, schreibt Jalsenjak und fügt hinzu: „Worauf wir neugierig sein können, ist, wenn jemals eine Superintelligenz auftaucht, wie sie in den Diskussionen über die Singularität vorhergesagt wird, könnte es sich lohnen zu versuchen, ob wir sie auch als lebendig betrachten können.“

Wenn auch nicht organisch, so hätte ein solches künstliches Leben doch enorme Auswirkungen darauf, wie wir KI wahrnehmen und uns ihr gegenüber verhalten.

Was wäre nötig, damit KI lebendig wird?

Ausgehend von Konzepten der philosophischen Anthropologie stellt Jalsenjak fest, dass Lebewesen autonom handeln und sich um sich selbst und ihre Art kümmern können, was als „immanente Aktivität“ bezeichnet wird.“

„Zumindest jetzt, egal wie fortgeschritten Maschinen sind, dienen sie in dieser Hinsicht immer nur als Erweiterungen des Menschen“, bemerkt Jalsenjak.

Es gibt verschiedene Stufen des Lebens, und wie der Trend zeigt, ist die KI langsam auf dem Weg, lebendig zu werden. Nach der philosophischen Anthropologie zeigen sich die ersten Anzeichen von Leben, wenn sich Organismen auf einen Zweck hin entwickeln, was bei der heutigen zielgerichteten KI gegeben ist. Die Tatsache, dass die KI sich ihres Ziels nicht „bewusst“ ist und gedankenlos Zahlen knirscht, um es zu erreichen, scheint irrelevant zu sein, sagt Jalsenjak, denn wir betrachten Pflanzen und Bäume als lebendig, obwohl auch sie dieses Gefühl des Bewusstseins nicht haben.

Ein weiterer Schlüsselfaktor, um als lebendig zu gelten, ist die Fähigkeit eines Wesens, sich selbst zu reparieren und zu verbessern, in dem Maße, wie es sein Organismus erlaubt. Es sollte auch seine Nachkommen produzieren und sich um sie kümmern. Das ist etwas, was wir bei Bäumen, Insekten, Vögeln, Säugetieren, Fischen und praktisch allem, was wir als lebendig betrachten, sehen. Die Gesetze der natürlichen Auslese und der Evolution haben jeden Organismus dazu gezwungen, Mechanismen zu entwickeln, die es ihm ermöglichen, zu lernen und Fähigkeiten zu entwickeln, um sich an seine Umwelt anzupassen, zu überleben und das Überleben seiner Art zu sichern.

Zur Kindererziehung stellt Jalsenjak die These auf, dass die Fortpflanzung von KI nicht notwendigerweise parallel zu der von anderen Lebewesen verläuft. „Maschinen brauchen keine Nachkommen, um das Überleben der Spezies zu sichern. KI könnte Probleme mit dem materiellen Verfall lösen, indem sie lediglich genügend Ersatzteile vorrätig hat, um die defekten (toten) Teile gegen neue auszutauschen“, schreibt er. „Lebewesen reproduzieren sich auf viele Arten, die eigentliche Methode ist also nicht wesentlich.“

Wenn es um Selbstverbesserung geht, werden die Dinge etwas subtiler. Jalsenjak weist darauf hin, dass es bereits Software gibt, die zur Selbstmodifikation fähig ist, auch wenn der Grad der Selbstmodifikation von Software zu Software unterschiedlich ist.

Denkender Roboter

Heutige maschinelle Lernalgorithmen sind bis zu einem gewissen Grad in der Lage, ihr Verhalten an ihre Umgebung anzupassen. Sie stimmen ihre vielen Parameter auf die gesammelten Daten aus der realen Welt ab, und wenn sich die Welt verändert, können sie auf neue Informationen umtrainiert werden. So hat beispielsweise die Coronavirus-Pandemie viele KI-Systeme gestört, die auf unser normales Verhalten trainiert worden waren. Dazu gehören Gesichtserkennungsalgorithmen, die Gesichter nicht mehr erkennen können, weil die Menschen Masken tragen. Diese Algorithmen können nun ihre Parameter neu einstellen, indem sie mit Bildern von maskierten Gesichtern trainieren. Natürlich ist dieser Grad der Anpassung sehr gering, wenn man ihn mit den weitreichenden Fähigkeiten von Menschen und höher entwickelten Tieren vergleicht, aber er wäre vergleichbar mit Bäumen, die sich anpassen, indem sie tiefere Wurzeln bilden, wenn sie an der Bodenoberfläche kein Wasser mehr finden.

Eine ideale selbstverbessernde KI wäre jedoch eine, die völlig neue Algorithmen erstellen könnte, die grundlegende Verbesserungen mit sich bringen würden. Dies wird als „rekursive Selbstverbesserung“ bezeichnet und würde zu einem endlosen und sich beschleunigenden Zyklus einer immer intelligenteren KI führen. Es könnte das digitale Äquivalent zu den genetischen Mutationen sein, die Organismen über die Spanne von vielen, vielen Generationen durchlaufen, obwohl die KI in der Lage wäre, sie in einem viel schnelleren Tempo durchzuführen.

Heute haben wir einige Mechanismen wie genetische Algorithmen und Grid-Suche, die die nicht trainierbaren Komponenten von Algorithmen des maschinellen Lernens (auch bekannt als Hyperparameter) verbessern können. Aber der Umfang der Änderungen, die sie bringen können, ist sehr begrenzt und erfordert immer noch ein gewisses Maß an manueller Arbeit durch einen menschlichen Entwickler. Man kann zum Beispiel nicht erwarten, dass sich ein rekursives neuronales Netzwerk durch viele Mutationen in einen Transformer verwandelt.

Rekursive Selbstverbesserung wird der KI jedoch die „Möglichkeit geben, den verwendeten Algorithmus komplett zu ersetzen“, bemerkt Jalsenjak. „Dieser letzte Punkt ist das, was nötig ist, damit die Singularität eintritt.“

In Analogie zu bestimmten Eigenschaften können superintelligente KIs als lebendig betrachtet werden, schließt Jalsenjak und entkräftet damit die Behauptung, dass KI eine Erweiterung des Menschen ist. „Sie werden ihre eigenen Ziele haben und wahrscheinlich auch ihre eigenen Rechte“, sagt er, „Menschen werden zum ersten Mal die Erde mit einer Entität teilen, die mindestens so schlau ist wie sie selbst und wahrscheinlich viel schlauer.“

Würden Sie den Roboter noch ausstecken können, ohne Schuldgefühle zu haben?

Leben ist nicht genug

Am Ende seines Essays räumt Jalsenjak ein, dass das Nachdenken über künstliches Leben noch viele Fragen offen lässt. „Reichen die hier beschriebenen Eigenschaften von Lebewesen aus, damit etwas als lebendig gelten kann, oder sind sie nur notwendig, aber nicht ausreichend?“ Er fragt.

Nachdem ich gerade „Ich bin eine seltsame Schleife“ des Philosophen und Wissenschaftlers Douglas Hofstadter gelesen habe, kann ich definitiv nein sagen. Identität, Selbstwahrnehmung und Bewusstsein sind andere Konzepte, die Lebewesen voneinander unterscheiden. Ist zum Beispiel ein hirnloser Büroklammer-Bauroboter, der seine Algorithmen ständig verbessert, um das gesamte Universum in Büroklammern zu verwandeln, lebendig und verdient er eigene Rechte?

Der freie Wille ist ebenfalls eine offene Frage. „Der Mensch ist ein Mitschöpfer seiner selbst in dem Sinne, dass er sich seine Existenz nicht vollständig selbst gibt, aber seine Existenz zweckmäßig gestaltet und diesen Zweck erfüllt“, schreibt Jalsenjak. „Es ist nicht klar, ob zukünftige KIs die Möglichkeit eines freien Willens haben werden.“

Und schließlich gibt es noch das Problem der Ethik superintelligenter KI. Dies ist ein weites Thema, das die Art der moralischen Prinzipien umfasst, die KI haben sollte, die moralischen Prinzipien, die Menschen gegenüber KI haben sollten, und wie KIs ihre Beziehungen zu Menschen betrachten sollten.

Die KI-Gemeinschaft lehnt solche Themen oft ab und verweist auf die klaren Grenzen aktueller Deep-Learning-Systeme und die weit hergeholte Vorstellung, eine allgemeine KI zu erreichen.

dumme KI

Aber wie viele andere Wissenschaftler erinnert uns Jalsenjak daran, dass die Zeit, diese Themen zu diskutieren, heute ist, nicht wenn es zu spät ist. „Diese Themen können nicht ignoriert werden, denn alles, was wir im Moment über die Zukunft wissen, scheint darauf hinzuweisen, dass die menschliche Gesellschaft vor einem noch nie dagewesenen Wandel steht“, schreibt er.

In dem vollständigen Essay, der bei Springer erhältlich ist, geht Jalsenjak ausführlich auf die Singularität der künstlichen Intelligenz und die Gesetze des Lebens ein. Das komplette Buch, Guide to Deep Learning Basics, bietet tiefergehendes Material über die Philosophie der künstlichen Intelligenz.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.