Este artigo faz parte das nossas revisões de artigos de investigação sobre inteligência artificial, uma série de posts que exploram as últimas descobertas em inteligência artificial.
Sentir-se-á mal por puxar a ficha de um robô ou desligar um algoritmo de inteligência artificial? De momento, não. Mas e quando os nossos computadores se tornam tão ou mais inteligentes do que nós?
Debates sobre as consequências da inteligência geral artificial (AGI) são quase tão antigos como a própria história da IA. A maioria das discussões retrata o futuro da inteligência artificial como um apocalipse do tipo Terminator ou como uma utopia do tipo Wall-E. Mas o que é menos discutido é como iremos perceber, interagir com, e aceitar agentes de inteligência artificial quando estes desenvolverem traços de vida, inteligência, e consciência.
num ensaio recentemente publicado, Borna Jalsenjak, cientista da Escola de Economia e Gestão de Zagreb, discute a IA super-inteligente e as analogias entre vida biológica e artificial. Intitulado “A Singularidade da Inteligência Artificial: What It Is and What It Is Not”, o seu trabalho aparece no Guide to Deep Learning Basics, uma colecção de artigos e tratados que exploram vários aspectos históricos, científicos e filosóficos da inteligência artificial.
Jalsenjak leva-nos através da visão antropológica filosófica da vida e como ela se aplica aos sistemas de IA que podem evoluir através das suas próprias manipulações. Ele argumenta que “máquinas pensantes” emergirão quando a IA desenvolver a sua própria versão de “vida”, e deixa-nos com algum alimento para pensar sobre os aspectos mais obscuros e vagos do futuro da inteligência artificial.
AI singularidade
Singularidade é um termo que surge frequentemente nas discussões sobre a IA geral. E como não acontece com tudo o que tem a ver com AGI, há muita confusão e discordância sobre o que é a singularidade. Mas uma coisa chave que a maioria dos cientistas e filósofos concorda que é um ponto de viragem em que os nossos sistemas de IA se tornam mais inteligentes do que nós próprios. Outro aspecto importante da singularidade é o tempo e a rapidez: Os sistemas de IA atingirão um ponto em que se podem auto-aperfeiçoar de forma recorrente e acelerada.
“Dito de uma forma mais sucinta, uma vez que haja uma IA que esteja ao nível dos seres humanos e que a IA possa criar uma IA ligeiramente mais inteligente, e então que se possa criar uma IA ainda mais inteligente, e então a próxima cria ainda mais inteligente e continua assim até que haja uma IA que seja notavelmente mais avançada do que aquilo que os humanos podem alcançar”, escreve Jalsenjak.
Para ser claro, a tecnologia de inteligência artificial que temos hoje, conhecida como IA estreita, está longe de alcançar tal proeza. Jalšenjak descreve os actuais sistemas de IA como “específicos do domínio”, tais como “IA que é óptima a fazer hambúrgueres mas não é boa em mais nada”. Por outro lado, o tipo de algoritmos que é a discussão da singularidade da IA é “IA que não é específica do assunto, ou por falta de uma palavra melhor, é sem domínio e como tal é capaz de agir em qualquer domínio”, escreve Jalsenjak.
Esta não é uma discussão sobre como e quando chegaremos à AGI. Este é um tema diferente, e também um foco de muito debate, com a maioria dos cientistas na crença de que a inteligência artificial a nível humano está, pelo menos, a décadas de distância. Jalsenjack especula bastante sobre como a identidade da IA (e dos humanos) será definida quando lá chegarmos, seja amanhã ou dentro de um século.
É a inteligência artificial viva?
p>Há uma grande tendência na comunidade da IA para ver as máquinas como humanos, especialmente à medida que desenvolvem capacidades que mostram sinais de inteligência. Embora esta seja claramente uma superestimação da tecnologia actual, Jasenjak também nos lembra que a inteligência geral artificial não tem necessariamente de ser uma réplica da mente humana.
“Que não há razão para pensar que a IA avançada terá a mesma estrutura que a inteligência humana se alguma vez acontecer, mas como está na natureza humana apresentar estados do mundo de uma forma que está mais próxima de nós, é difícil evitar um certo grau de antropomorfização”, escreve ele na nota de rodapé do seu ensaio.
Uma das maiores diferenças entre os humanos e a actual tecnologia de inteligência artificial é que enquanto os humanos estão “vivos” (e chegaremos ao que isso significa dentro de momentos), os algoritmos de IA não estão.
“O estado actual da tecnologia não deixa dúvidas de que a tecnologia não está viva”, escreve Jalsenjak, ao qual acrescenta, “O que podemos ter curiosidade é que se alguma vez aparecer uma superinteligência como a que está a ser prevista nas discussões sobre singularidade, talvez valha a pena tentar ver se também a podemos considerar como estando viva.”
embora não orgânica, tal vida artificial teria repercussões tremendas na forma como percebemos a IA e agimos em relação a ela.
O que seria necessário para a IA ganhar vida?
Desenhando de conceitos de antropologia filosófica, Jalsenjak observa que os seres vivos podem agir autonomamente e cuidar de si próprios e da sua espécie, o que é conhecido como “actividade imanente”.”
“Agora, pelo menos, por mais avançadas que sejam as máquinas, elas a esse respeito servem sempre no seu propósito apenas como extensões de seres humanos”, observa Jalsenjak.
Existem diferentes níveis de vida, e como a tendência mostra, a IA está lentamente a fazer o seu caminho para se tornar viva. De acordo com a antropologia filosófica, os primeiros sinais de vida tomam forma quando os organismos se desenvolvem em direcção a um objectivo, que está presente na IA actual orientada para objectivos. O facto de a IA não estar “consciente” do seu objectivo e de, despropositadamente, mutilar os números para o atingir parece ser irrelevante, diz Jalsenjak, porque consideramos as plantas e as árvores como estando vivas mesmo que também elas não tenham esse sentido de consciência.
Outro factor-chave para ser considerado vivo é a capacidade do ser para se reparar e melhorar a si próprio, na medida em que o seu organismo o permita. Deve também produzir e cuidar da sua descendência. Isto é algo que vemos em árvores, insectos, pássaros, mamíferos, peixes, e praticamente tudo o que consideramos vivo. As leis da selecção natural e da evolução forçaram cada organismo a desenvolver mecanismos que lhe permitem aprender e desenvolver competências para se adaptar ao seu ambiente, sobreviver, e assegurar a sobrevivência da sua espécie.
Na criação das crianças, Jalsenjak postula que a reprodução da IA não corre necessariamente em paralelo com a de outros seres vivos. “As máquinas não precisam de descendência para assegurar a sobrevivência da espécie. A IA poderia resolver problemas de deterioração material com a simples existência de peças de substituição suficientes para trocar as peças avariadas (mortas) pelas novas”, escreve ele. “Os seres vivos reproduzem-se de muitas maneiras, pelo que o método actual não é essencial”
Quando se trata de auto-aperfeiçoamento, as coisas tornam-se um pouco mais subtis. Jalsenjak salienta que já existe software capaz de auto-modificação, embora o grau de auto-modificação varie entre diferentes softwares.
Os algoritmos de aprendizagem de máquinas de hoje são, até certo ponto, capazes de adaptar o seu comportamento ao seu ambiente. Eles ajustam os seus muitos parâmetros aos dados recolhidos do mundo real, e à medida que o mundo muda, eles podem ser retrabalhados com novas informações. Por exemplo, a pandemia de coronavírus pode perturbar os sistemas de IA que tinham sido treinados sobre o nosso comportamento normal. Entre eles estão algoritmos de reconhecimento facial que já não conseguem detectar rostos porque as pessoas estão a usar máscaras. Estes algoritmos podem agora ajustar novamente os seus parâmetros através de treino em imagens de rostos com máscaras. Claramente, este nível de adaptação é muito pequeno quando comparado com as amplas capacidades dos seres humanos e dos animais de nível superior, mas seria comparável a, digamos, árvores que se adaptam através do cultivo de raízes mais profundas quando não conseguem encontrar água na superfície do solo.
Uma IA auto-aperfeiçoamento ideal, no entanto, seria aquela que poderia criar algoritmos totalmente novos que trariam melhorias fundamentais. A isto chama-se “auto-aperfeiçoamento recursivo” e levaria a um ciclo interminável e acelerado de IA cada vez mais inteligente. Poderia ser o equivalente digital das mutações genéticas que os organismos passam ao longo de muitas gerações, embora a IA fosse capaz de a realizar a um ritmo muito mais rápido.
Hoje em dia, temos alguns mecanismos tais como algoritmos genéticos e pesquisa em grelha que podem melhorar os componentes não treináveis dos algoritmos de aprendizagem de máquinas (também conhecidos como hiperparâmetros). Mas o âmbito da mudança que podem trazer é muito limitado e ainda requer um grau de trabalho manual por parte de um revelador humano. Por exemplo, não se pode esperar que uma rede neural recursiva se transforme num Transformador através de muitas mutações.
Auto-melhoria recursiva, no entanto, dará à IA a “possibilidade de substituir completamente o algoritmo que está a ser usado”, observa Jalsenjak. “Este último ponto é o necessário para que a singularidade ocorra”
Por analogia, olhando para características determinadas, as IAs superinteligentes podem ser consideradas vivas, conclui Jalsenjak, invalidando a alegação de que a IA é uma extensão dos seres humanos. “Eles terão os seus próprios objectivos, e provavelmente também os seus direitos”, diz ele, “Os humanos partilharão, pela primeira vez, a Terra com uma entidade que é pelo menos tão inteligente como eles e provavelmente muito mais inteligente”
Poderia ainda ser capaz de desligar o robô sem sentir culpa?
Estar vivo não é suficiente
No final do seu ensaio, Jalsenjak reconhece que a reflexão sobre a vida artificial deixa muitas mais perguntas. “Serão as características aqui descritas sobre seres vivos suficientes para que algo seja considerado vivo ou são apenas necessárias mas não suficientes?” Ele pergunta.
P>Lendo apenas I Am a Strange Loop do filósofo e cientista Douglas Hofstadter, posso definitivamente dizer não. Identidade, autoconsciência e consciência são outros conceitos que discriminam os seres vivos uns dos outros. Por exemplo, é um robô construtor de clips de papel sem mente que está constantemente a melhorar os seus algoritmos para transformar todo o universo em clipes de papel vivos e merecedores dos seus próprios direitos?
A vontade livre é também uma questão em aberto. “Os humanos são co-criadores de si próprios num sentido em que não se dão inteiramente a si próprios, mas fazem com que a sua existência seja intencional e cumprem esse propósito”, escreve Jalsenjak. “Não é claro se os futuros IA terão a possibilidade de um livre arbítrio”
E finalmente, há o problema da ética da IA superinteligente. Este é um tópico amplo que inclui os tipos de princípios morais que a IA deve ter, os princípios morais que os humanos devem ter em relação à IA, e como as IAs devem encarar as suas relações com os humanos.
A comunidade da IA frequentemente rejeita tais tópicos, apontando para os limites claros dos actuais sistemas de aprendizagem profunda e a noção rebuscada de alcançar a IA geral.
Mas como muitos outros cientistas, Jalsenjak lembra-nos que o momento de discutir estes tópicos é hoje, e não quando é demasiado tarde. “Estes tópicos não podem ser ignorados porque tudo o que sabemos neste momento sobre o futuro parece indicar que a sociedade humana enfrenta mudanças sem precedentes”, escreve ele.
No ensaio completo, disponível em Springer, Jalsenjak fornece detalhes profundos sobre a singularidade da inteligência artificial e as leis da vida. O livro completo, Guide to Deep Learning Basics, fornece material mais aprofundado sobre a filosofia da inteligência artificial.