Este artículo forma parte de nuestras revisiones de artículos de investigación sobre IA, una serie de posts que exploran los últimos descubrimientos en inteligencia artificial.
¿Deberías sentirte mal por desconectar un robot o apagar un algoritmo de inteligencia artificial? De momento, no. Pero, ¿qué pasará cuando nuestros ordenadores lleguen a ser tan inteligentes -o más- que nosotros?
Los debates sobre las consecuencias de la inteligencia artificial general (IAG) son casi tan antiguos como la propia historia de la IA. La mayoría de los debates describen el futuro de la inteligencia artificial como un apocalipsis tipo Terminator o una utopía tipo Wall-E. Pero lo que se discute menos es cómo percibiremos, interactuaremos y aceptaremos a los agentes de inteligencia artificial cuando desarrollen rasgos de vida, inteligencia y conciencia.
En un ensayo publicado recientemente, Borna Jalsenjak, científico de la Escuela de Economía y Gestión de Zagreb, analiza la IA superinteligente y las analogías entre la vida biológica y la artificial. Titulado «La singularidad de la inteligencia artificial: Lo que es y lo que no es», su trabajo aparece en Guide to Deep Learning Basics, una colección de artículos y tratados que exploran diversos aspectos históricos, científicos y filosóficos de la inteligencia artificial.
Jalsenjak nos lleva a través de la visión antropológica filosófica de la vida y cómo se aplica a los sistemas de IA que pueden evolucionar a través de sus propias manipulaciones. Sostiene que las «máquinas pensantes» surgirán cuando la IA desarrolle su propia versión de la «vida», y nos deja algunos elementos de reflexión sobre los aspectos más oscuros y vagos del futuro de la inteligencia artificial.
Singularidad de la IA
La singularidad es un término que surge con frecuencia en las discusiones sobre la IA general. Y como es habitual en todo lo que tiene que ver con la AGI, hay mucha confusión y desacuerdo sobre lo que es la singularidad. Pero la mayoría de los científicos y filósofos coinciden en que se trata de un punto de inflexión en el que nuestros sistemas de IA se vuelven más inteligentes que nosotros mismos. Otro aspecto importante de la singularidad es el tiempo y la velocidad: Los sistemas de IA llegarán a un punto en el que podrán auto-mejorarse de forma recurrente y acelerada.
«Dicho de forma más sucinta, una vez que haya una IA que esté al nivel de los seres humanos y esa IA pueda crear una IA ligeramente más inteligente, y luego esa pueda crear una IA aún más inteligente, y luego la siguiente cree una aún más inteligente y así continúa hasta que haya una IA que sea notablemente más avanzada que lo que los humanos pueden lograr», escribe Jalsenjak.
Para ser claros, la tecnología de inteligencia artificial que tenemos hoy en día, conocida como IA estrecha, no está ni de lejos cerca de lograr tal hazaña. Jalšenjak describe los sistemas de IA actuales como «de dominio específico», como «la IA que es genial haciendo hamburguesas pero no es buena en nada más». Por otro lado, el tipo de algoritmos que es la discusión de la singularidad de la IA es «la IA que no es específica de un tema, o a falta de una palabra mejor, no tiene dominio y como tal es capaz de actuar en cualquier dominio», escribe Jalsenjak.
Esto no es una discusión sobre cómo y cuándo llegaremos a la AGI. Ese es un tema diferente, y también un foco de mucho debate, con la mayoría de los científicos en la creencia de que la inteligencia artificial a nivel humano es por lo menos décadas de distancia. Jalsenjack especula más bien sobre cómo se definirá la identidad de la IA (y de los humanos) cuando lleguemos a ella, ya sea mañana o dentro de un siglo.
¿Está viva la inteligencia artificial?
Hay una gran tendencia en la comunidad de la IA a considerar a las máquinas como seres humanos, especialmente cuando desarrollan capacidades que muestran signos de inteligencia. Aunque eso es claramente una sobrevaloración de la tecnología actual, Jasenjak también nos recuerda que la inteligencia general artificial no tiene por qué ser una réplica de la mente humana.
«Que no hay razón para pensar que la IA avanzada tendrá la misma estructura que la inteligencia humana, si es que llega a suceder, pero como está en la naturaleza humana presentar los estados del mundo de la forma más cercana a nosotros, es difícil evitar cierto grado de antropomorfización», escribe en la nota a pie de página de su ensayo.
Una de las mayores diferencias entre los humanos y la actual tecnología de inteligencia artificial es que mientras los humanos están «vivos» (y en un momento llegaremos a lo que eso significa), los algoritmos de IA no lo están.
«El estado de la tecnología en la actualidad no deja lugar a dudas de que la tecnología no está viva», escribe Jalsenjak, a lo que añade: «Lo que sí podemos curiosear es que si alguna vez aparece una superinteligencia como la que se predice en las discusiones sobre la singularidad podría valer la pena intentar ver si también podemos considerarla viva.»
Aunque no sea orgánica, esa vida artificial tendría tremendas repercusiones en cómo percibimos la IA y actuamos hacia ella.
¿Qué haría falta para que la IA cobrara vida?
A partir de conceptos de antropología filosófica, Jalsenjak señala que los seres vivos pueden actuar de forma autónoma y cuidar de sí mismos y de su especie, lo que se conoce como «actividad inmanente».»Ahora, al menos, por muy avanzadas que sean las máquinas, en ese sentido siempre sirven en su propósito sólo como extensiones de los humanos», observa Jalsenjak.
Hay diferentes niveles de vida y, como muestra la tendencia, la IA se está abriendo paso poco a poco hacia la vida. Según la antropología filosófica, los primeros signos de vida toman forma cuando los organismos se desarrollan hacia un propósito, lo que está presente en la IA actual orientada a objetivos. El hecho de que la IA no sea «consciente» de su objetivo y haga números sin sentido para alcanzarlo parece ser irrelevante, dice Jalsenjak, porque consideramos que las plantas y los árboles están vivos aunque tampoco tengan ese sentido de la conciencia.
Otro factor clave para ser considerado vivo es la capacidad de un ser para repararse y mejorarse a sí mismo, en la medida en que su organismo lo permita. También debe producir y cuidar a su descendencia. Esto es algo que vemos en los árboles, los insectos, los pájaros, los mamíferos, los peces y prácticamente todo lo que consideramos vivo. Las leyes de la selección natural y de la evolución han obligado a todo organismo a desarrollar mecanismos que le permitan aprender y desarrollar habilidades para adaptarse a su entorno, sobrevivir y asegurar la supervivencia de su especie.
Sobre la crianza de los hijos, Jalsenjak plantea que la reproducción de la IA no tiene por qué ser paralela a la de otros seres vivos. «Las máquinas no necesitan tener descendencia para asegurar la supervivencia de la especie. La IA podría resolver los problemas de deterioro material con sólo tener a mano suficientes piezas de repuesto para cambiar las piezas que funcionan mal (muertas) por las nuevas», escribe. «Los seres vivos se reproducen de muchas maneras, por lo que el método en sí no es esencial»
Cuando se trata de la autosuperación, las cosas se vuelven un poco más sutiles. Jalsenjak señala que ya hay software capaz de automodificarse, aunque el grado de automodificación varía entre los distintos programas.
Los algoritmos de aprendizaje automático actuales son, hasta cierto punto, capaces de adaptar su comportamiento a su entorno. Ajustan sus numerosos parámetros a los datos recogidos en el mundo real y, a medida que el mundo cambia, pueden reentrenarse con nueva información. Por ejemplo, la pandemia de coronavirus desbarató muchos sistemas de IA que habían sido entrenados en nuestro comportamiento normal. Entre ellos están los algoritmos de reconocimiento facial que ya no pueden detectar las caras porque la gente lleva máscaras. Estos algoritmos pueden ahora reajustar sus parámetros entrenándose con imágenes de rostros con máscara. Evidentemente, este nivel de adaptación es muy pequeño si se compara con las amplias capacidades de los seres humanos y los animales de nivel superior, pero sería comparable a, por ejemplo, los árboles que se adaptan echando raíces más profundas cuando no encuentran agua en la superficie del suelo.
Una IA ideal que se autoperfeccione, sin embargo, sería aquella que pudiera crear algoritmos totalmente nuevos que aportaran mejoras fundamentales. Esto se denomina «automejora recursiva» y conduciría a un ciclo interminable y acelerado de una IA cada vez más inteligente. Podría ser el equivalente digital de las mutaciones genéticas por las que pasan los organismos a lo largo de muchas muchas generaciones, aunque la IA sería capaz de realizarlo a un ritmo mucho más rápido.
Hoy en día, tenemos algunos mecanismos como los algoritmos genéticos y la búsqueda en cuadrícula que pueden mejorar los componentes no entrenables de los algoritmos de aprendizaje automático (también conocidos como hiperparámetros). Pero el alcance del cambio que pueden aportar es muy limitado y sigue requiriendo cierto grado de trabajo manual por parte de un desarrollador humano. Por ejemplo, no se puede esperar que una red neuronal recursiva se convierta en una Transformer a través de muchas mutaciones.
La auto-mejora recursiva, sin embargo, dará a la IA la «posibilidad de sustituir el algoritmo que se está utilizando por completo», señala Jalsenjak. «Este último punto es el que se necesita para que se produzca la singularidad».
Por analogía, atendiendo a determinadas características, las IA superinteligentes pueden considerarse vivas, concluye Jalsenjak, invalidando la afirmación de que la IA es una extensión de los seres humanos. «Tendrán sus propios objetivos, y probablemente también sus derechos», afirma. «Los humanos, por primera vez, compartirán la Tierra con una entidad que es, al menos, tan inteligente como ellos y, probablemente, mucho más.»
¿Se podría seguir desenchufando el robot sin sentir culpa?
No basta con estar vivo
Al final de su ensayo, Jalsenjak reconoce que la reflexión sobre la vida artificial deja muchos más interrogantes. «¿Son suficientes las características aquí descritas respecto a los seres vivos para que algo se considere vivo o sólo son necesarias pero no suficientes?». Se pregunta.
Acabando de leer I Am a Strange Loop, del filósofo y científico Douglas Hofstadter, puedo decir definitivamente que no. La identidad, la autoconciencia y la conciencia son otros conceptos que discriminan a los seres vivos entre sí. Por ejemplo, ¿un robot constructor de clips sin sentido que mejora constantemente sus algoritmos para convertir todo el universo en clips está vivo y merece sus propios derechos?
El libre albedrío también es una cuestión abierta. «Los humanos son cocreadores de sí mismos en el sentido de que no se dan por completo la existencia, pero sí hacen que su existencia tenga un propósito y lo cumplen», escribe Jalsenjak. «No está claro si las futuras IAs tendrán la posibilidad de un libre albedrío».
Y finalmente, está el problema de la ética de la IA superinteligente. Este es un tema amplio que incluye los tipos de principios morales que debe tener la IA, los principios morales que deben tener los humanos hacia la IA, y cómo las IAs deben ver sus relaciones con los humanos.
La comunidad de la IA suele desestimar estos temas, señalando los claros límites de los actuales sistemas de aprendizaje profundo y la descabellada noción de lograr una IA general.
Pero como muchos otros científicos, Jalsenjak nos recuerda que el momento de discutir estos temas es hoy, no cuando sea demasiado tarde. «Estos temas no pueden ser ignorados porque todo lo que sabemos en este momento sobre el futuro parece señalar que la sociedad humana se enfrenta a un cambio sin precedentes», escribe.
En el ensayo completo, disponible en Springer, Jalsenjak ofrece detalles en profundidad sobre la singularidad de la inteligencia artificial y las leyes de la vida. El libro completo, Guide to Deep Learning Basics, ofrece más material en profundidad sobre la filosofía de la inteligencia artificial.