Cet article fait partie de nos revues d’articles de recherche sur l’IA, une série de billets qui explorent les dernières découvertes en matière d’intelligence artificielle.
Doit-on se sentir mal à l’idée de débrancher un robot ou d’éteindre un algorithme d’intelligence artificielle ? Pas pour le moment. Mais qu’en sera-t-il lorsque nos ordinateurs deviendront aussi intelligents – ou plus intelligents – que nous ?
Les débats sur les conséquences de l’intelligence artificielle générale (IAG) sont presque aussi vieux que l’histoire de l’IA elle-même. La plupart des discussions dépeignent le futur de l’intelligence artificielle comme une apocalypse à la Terminator ou une utopie à la Wall-E. Mais ce qui est moins discuté, c’est la façon dont nous percevrons, interagirons avec et accepterons les agents d’intelligence artificielle lorsqu’ils développeront des traits de vie, d’intelligence et de conscience.
Dans un essai récemment publié , Borna Jalsenjak, scientifique à l’école d’économie et de gestion de Zagreb, évoque l’IA super-intelligente et les analogies entre la vie biologique et artificielle. Intitulé « The Artificial Intelligence Singularity : What It Is and What It Is Not », son travail apparaît dans Guide to Deep Learning Basics, une collection d’articles et de traités qui explorent divers aspects historiques, scientifiques et philosophiques de l’intelligence artificielle.
Jalsenjak nous fait découvrir la vision anthropologique philosophique de la vie et la façon dont elle s’applique aux systèmes d’IA qui peuvent évoluer par leurs propres manipulations. Il soutient que les « machines pensantes » émergeront lorsque l’IA développera sa propre version de la « vie », et nous laisse avec quelques éléments de réflexion sur les aspects les plus obscurs et les plus vagues de l’avenir de l’intelligence artificielle.
Singularité de l’IA
La singularité est un terme qui revient souvent dans les discussions sur l’IA générale. Et comme il est coutume avec tout ce qui a trait à l’AGI, il y a beaucoup de confusion et de désaccord sur ce qu’est la singularité. Mais un élément clé sur lequel la plupart des scientifiques et des philosophes s’accordent est qu’il s’agit d’un tournant où nos systèmes d’IA deviennent plus intelligents que nous-mêmes. Un autre aspect important de la singularité est le temps et la vitesse : Les systèmes d’IA atteindront un point où ils pourront s’auto-améliorer de manière récurrente et accélérée.
« Dit de manière plus succincte, une fois qu’il y a une IA qui est au niveau des êtres humains et que cette IA peut créer une IA légèrement plus intelligente, puis celle-ci peut créer une IA encore plus intelligente, puis la suivante en crée une encore plus intelligente et cela continue ainsi jusqu’à ce qu’il y ait une IA qui soit remarquablement plus avancée que ce que les humains peuvent réaliser », écrit Jalsenjak.
Pour être clair, la technologie d’intelligence artificielle dont nous disposons aujourd’hui, connue sous le nom d’IA étroite, est loin de réaliser un tel exploit. Jalšenjak décrit les systèmes d’IA actuels comme étant « spécifiques à un domaine », comme « l’IA qui est excellente pour faire des hamburgers mais qui n’est bonne à rien d’autre ». D’autre part, le type d’algorithmes qui est la discussion de la singularité de l’IA est « l’IA qui n’est pas spécifique à un sujet, ou par manque d’un meilleur mot, elle est sans domaine et en tant que telle, elle est capable d’agir dans n’importe quel domaine », écrit Jalsenjak.
Il ne s’agit pas d’une discussion sur comment et quand nous atteindrons l’AGI. C’est un autre sujet, qui fait également l’objet de nombreux débats, la plupart des scientifiques étant d’avis que l’intelligence artificielle de niveau humain ne sera pas atteinte avant plusieurs décennies. Jalsenjack spécule plutôt sur la façon dont l’identité de l’IA (et des humains) sera définie lorsque nous y arriverons réellement, que ce soit demain ou dans un siècle.
L’intelligence artificielle est-elle vivante ?
Il y a une grande tendance dans la communauté de l’IA à considérer les machines comme des humains, surtout lorsqu’elles développent des capacités qui montrent des signes d’intelligence. Bien que ce soit clairement une surestimation de la technologie d’aujourd’hui, Jasenjak nous rappelle également que l’intelligence générale artificielle ne doit pas nécessairement être une réplication de l’esprit humain.
« Qu’il n’y a aucune raison de penser que l’IA avancée aura la même structure que l’intelligence humaine, si même cela se produit un jour, mais comme il est dans la nature humaine de présenter les états du monde d’une manière qui est la plus proche de nous, un certain degré d’anthropomorphisation est difficile à éviter », écrit-il dans la note de bas de page de son essai.
L’une des plus grandes différences entre les humains et la technologie actuelle de l’intelligence artificielle est que si les humains sont « vivants » (et nous verrons ce que cela signifie dans un instant), les algorithmes de l’IA ne le sont pas.
« L’état de la technologie aujourd’hui ne laisse aucun doute sur le fait que la technologie n’est pas vivante », écrit Jalsenjak, auquel il ajoute : « Ce dont nous pouvons être curieux, c’est que si un jour apparaît une superintelligence telle qu’elle est prédite dans les discussions sur la singularité, il pourrait être intéressant d’essayer de voir si nous pouvons également la considérer comme vivante. »
Bien que non organique, une telle vie artificielle aurait d’énormes répercussions sur la façon dont nous percevons l’IA et agissons à son égard.
Que faudrait-il pour que l’IA devienne vivante ?
S’appuyant sur des concepts d’anthropologie philosophique, Jalsenjak note que les êtres vivants peuvent agir de manière autonome et prendre soin d’eux-mêmes et de leur espèce, ce que l’on appelle » l’activité immanente « . »
« Aujourd’hui au moins, quel que soit le degré de perfectionnement des machines, elles ne servent toujours, à cet égard, que d’extensions des humains », observe Jalsenjak.
Il y a différents niveaux de vie, et comme le montre la tendance, l’IA se fraie lentement un chemin pour devenir vivante. Selon l’anthropologie philosophique, les premiers signes de vie prennent forme lorsque les organismes se développent vers un but, ce qui est présent dans l’IA actuelle orientée vers un but. Le fait que l’IA ne soit pas « consciente » de son objectif et écrase sans réfléchir des chiffres pour l’atteindre ne semble pas pertinent, dit Jalsenjak, car nous considérons que les plantes et les arbres sont vivants, même s’ils n’ont pas non plus ce sens de la conscience.
Un autre facteur clé pour être considéré comme vivant est la capacité d’un être à se réparer et à s’améliorer, dans la mesure où son organisme le permet. Il doit également produire et prendre soin de sa progéniture. C’est un phénomène que nous observons chez les arbres, les insectes, les oiseaux, les mammifères, les poissons et pratiquement tout ce que nous considérons comme vivant. Les lois de la sélection naturelle et de l’évolution ont forcé chaque organisme à développer des mécanismes qui lui permettent d’apprendre et de développer des compétences pour s’adapter à son environnement, survivre et assurer la survie de son espèce.
Sur l’éducation des enfants, Jalsenjak postule que la reproduction de l’IA ne se déroule pas nécessairement en parallèle avec celle des autres êtres vivants. « Les machines n’ont pas besoin de descendance pour assurer la survie de l’espèce. L’IA pourrait résoudre les problèmes de détérioration matérielle en ayant simplement suffisamment de pièces de rechange sous la main pour échanger les pièces défectueuses (mortes) avec les nouvelles », écrit-il. « Les êtres vivants se reproduisent de nombreuses façons, la méthode réelle n’est donc pas essentielle. »
Lorsqu’il s’agit d’auto-amélioration, les choses deviennent un peu plus subtiles. Jalsenjak souligne qu’il existe déjà des logiciels capables de s’auto-modifier, même si le degré d’auto-modification varie selon les logiciels.
Les algorithmes d’apprentissage automatique d’aujourd’hui sont, dans une certaine mesure, capables d’adapter leur comportement à leur environnement. Ils règlent leurs nombreux paramètres en fonction des données collectées dans le monde réel, et lorsque le monde évolue, ils peuvent être réentraînés sur de nouvelles informations. Par exemple, la pandémie de coronavirus a perturbé de nombreux systèmes d’IA qui avaient été formés à notre comportement normal. Parmi eux, les algorithmes de reconnaissance faciale qui ne peuvent plus détecter les visages parce que les gens portent des masques. Ces algorithmes peuvent maintenant réajuster leurs paramètres en s’entraînant sur des images de visages portant des masques. Il est clair que ce niveau d’adaptation est très faible par rapport aux vastes capacités des humains et des animaux de niveau supérieur, mais il serait comparable, par exemple, aux arbres qui s’adaptent en faisant pousser des racines plus profondes lorsqu’ils ne trouvent pas d’eau à la surface du sol.
Une IA auto-améliorante idéale, cependant, serait une IA capable de créer des algorithmes totalement nouveaux qui apporteraient des améliorations fondamentales. C’est ce qu’on appelle « l’auto-amélioration récursive » et cela conduirait à un cycle sans fin et accéléré d’IA toujours plus intelligentes. Il pourrait s’agir de l’équivalent numérique des mutations génétiques que subissent les organismes sur plusieurs générations, même si l’IA serait capable de les réaliser à un rythme beaucoup plus rapide.
Aujourd’hui, nous disposons de certains mécanismes tels que les algorithmes génétiques et la recherche sur grille qui peuvent améliorer les composants non entraînables des algorithmes d’apprentissage automatique (également appelés hyperparamètres). Mais l’ampleur des changements qu’ils peuvent apporter est très limitée et nécessite toujours un certain degré de travail manuel de la part d’un développeur humain. Par exemple, on ne peut pas s’attendre à ce qu’un réseau neuronal récursif se transforme en Transformer à la suite de nombreuses mutations.
L’auto-amélioration récursive, cependant, donnera à l’IA la « possibilité de remplacer complètement l’algorithme utilisé », note Jalsenjak. « Ce dernier point est ce qui est nécessaire pour que la singularité se produise. »
Par analogie, en regardant les caractéristiques déterminées, les IA superintelligentes peuvent être considérées comme vivantes, conclut Jalsenjak, invalidant l’affirmation selon laquelle l’IA est une extension des êtres humains. « Elles auront leurs propres objectifs, et probablement aussi leurs droits », dit-il. « Les humains partageront, pour la première fois, la Terre avec une entité qui est au moins aussi intelligente qu’eux et probablement beaucoup plus intelligente. »
Seriez-vous encore capable de débrancher le robot sans vous sentir coupable ?
Etre vivant ne suffit pas
À la fin de son essai, Jalsenjak reconnaît que la réflexion sur la vie artificielle laisse encore beaucoup de questions. « Les caractéristiques décrites ici concernant les êtres vivants sont-elles suffisantes pour que quelque chose soit considéré comme vivant ou sont-elles juste nécessaires mais pas suffisantes ? ». Il demande.
Venant de lire I Am a Strange Loop du philosophe et scientifique Douglas Hofstadter, je peux définitivement dire non. L’identité, la conscience de soi et la conscience sont d’autres concepts qui discriminent les êtres vivants les uns des autres. Par exemple, un robot constructeur de trombones sans cervelle qui améliore constamment ses algorithmes pour transformer l’univers entier en trombones est-il vivant et mérite-t-il ses propres droits ?
Le libre arbitre est également une question ouverte. « Les humains sont des cocréateurs d’eux-mêmes dans le sens où ils ne se donnent pas entièrement l’existence mais donnent un but à leur existence et remplissent ce but », écrit Jalsenjak. « Il n’est pas clair si les IA futures auront la possibilité d’un libre arbitre. »
Et enfin, il y a le problème de l’éthique des IA superintelligentes. C’est un vaste sujet qui inclut les types de principes moraux que l’IA devrait avoir, les principes moraux que les humains devraient avoir envers l’IA, et la façon dont les IA devraient envisager leurs relations avec les humains.
La communauté de l’IA écarte souvent ces sujets, en soulignant les limites évidentes des systèmes actuels d’apprentissage profond et la notion farfelue d’atteindre une IA générale.
Mais comme beaucoup d’autres scientifiques, Jalsenjak nous rappelle que le moment de discuter de ces sujets est aujourd’hui, pas quand il sera trop tard. « Ces sujets ne peuvent être ignorés car tout ce que nous savons actuellement sur l’avenir semble indiquer que la société humaine est confrontée à des changements sans précédent », écrit-il.
Dans l’essai complet, disponible chez Springer, Jalsenjak fournit des détails approfondis sur la singularité de l’intelligence artificielle et les lois de la vie. Le livre complet, Guide to Deep Learning Basics, fournit un matériel plus approfondi sur la philosophie de l’intelligence artificielle.