Questo articolo fa parte delle nostre recensioni dei documenti di ricerca sull’AI, una serie di post che esplorano le ultime scoperte nel campo dell’intelligenza artificiale.
Dovete sentirvi male a staccare la spina a un robot o a spegnere un algoritmo di intelligenza artificiale? Non per il momento. Ma che dire quando i nostri computer diventeranno intelligenti – o più intelligenti di noi?
I dibattiti sulle conseguenze dell’intelligenza artificiale generale (AGI) sono vecchi quasi quanto la storia dell’AI stessa. La maggior parte delle discussioni descrive il futuro dell’intelligenza artificiale come un’apocalisse alla Terminator o un’utopia alla Wall-E. Ma ciò che è meno discusso è come percepiremo, interagiremo e accetteremo gli agenti di intelligenza artificiale quando svilupperanno tratti di vita, intelligenza e coscienza.
In un saggio recentemente pubblicato, Borna Jalsenjak, scienziato della Zagreb School of Economics and Management, discute di IA super-intelligente e delle analogie tra vita biologica e artificiale. Intitolato “La singolarità dell’intelligenza artificiale: What It Is and What It Is Not”, il suo lavoro appare in Guide to Deep Learning Basics, una raccolta di articoli e trattati che esplorano vari aspetti storici, scientifici e filosofici dell’intelligenza artificiale.
Jalsenjak ci porta attraverso la visione filosofica antropologica della vita e come si applica ai sistemi AI che possono evolvere attraverso le loro stesse manipolazioni. Sostiene che le “macchine pensanti” emergeranno quando l’IA svilupperà la propria versione della “vita”, e ci lascia con alcuni spunti di riflessione sugli aspetti più oscuri e vaghi del futuro dell’intelligenza artificiale.
AI singolarità
La singolarità è un termine che viene fuori spesso nelle discussioni sull’IA generale. E come succede con tutto ciò che ha a che fare con l’AGI, c’è molta confusione e disaccordo su cosa sia la singolarità. Ma una cosa fondamentale che la maggior parte degli scienziati e dei filosofi concordano è che è un punto di svolta in cui i nostri sistemi di IA diventano più intelligenti di noi stessi. Un altro aspetto importante della singolarità è il tempo e la velocità: I sistemi di IA raggiungeranno un punto in cui potranno auto-migliorarsi in modo ricorrente e accelerato.
“Detto in modo più succinto, una volta che c’è un’IA che è al livello degli esseri umani e quell’IA può creare un’IA leggermente più intelligente, e poi quella può creare un’IA ancora più intelligente, e poi la prossima crea un’IA ancora più intelligente e continua così finché c’è un’IA che è notevolmente più avanzata di quella che gli umani possono raggiungere”, scrive Jalsenjak.
Per essere chiari, la tecnologia di intelligenza artificiale che abbiamo oggi, conosciuta come IA ristretta, non è affatto vicina a raggiungere tale impresa. Jalšenjak descrive gli attuali sistemi di IA come “dominio-specifici”, come “l’IA che è grande nel fare gli hamburger ma non è brava in nient’altro”. D’altra parte, il tipo di algoritmi che è la discussione della singolarità dell’IA è “IA che non è soggetto-specifica, o per mancanza di una parola migliore, è senza dominio e come tale è capace di agire in qualsiasi dominio”, scrive Jalsenjak.
Questa non è una discussione su come e quando raggiungeremo l’AGI. Questo è un argomento diverso, e anche un punto di grande dibattito, con la maggior parte degli scienziati convinti che l’intelligenza artificiale a livello umano sia almeno lontana decenni. Jalsenjack specula piuttosto su come sarà definita l’identità dell’IA (e degli esseri umani) quando ci arriveremo davvero, che sia domani o tra un secolo.
L’intelligenza artificiale è viva?
C’è una grande tendenza nella comunità dell’IA a considerare le macchine come esseri umani, specialmente quando sviluppano capacità che mostrano segni di intelligenza. Mentre questa è chiaramente una sopravvalutazione della tecnologia di oggi, Jasenjak ci ricorda anche che l’intelligenza artificiale generale non deve necessariamente essere una replica della mente umana.
“Non c’è motivo di pensare che l’IA avanzata avrà la stessa struttura dell’intelligenza umana, se mai accadrà, ma poiché è nella natura umana presentare gli stati del mondo in un modo che è più vicino a noi, un certo grado di antropomorfizzazione è difficile da evitare”, scrive nella nota del suo saggio.
Una delle maggiori differenze tra gli esseri umani e l’attuale tecnologia di intelligenza artificiale è che mentre gli esseri umani sono “vivi” (e arriveremo a ciò che significa tra un momento), gli algoritmi di AI non lo sono.
“Lo stato della tecnologia oggi non lascia dubbi sul fatto che la tecnologia non è viva”, scrive Jalsenjak, al quale aggiunge, “Quello che possiamo essere curiosi è che se mai apparirà una superintelligenza come quella che si sta predicendo nelle discussioni sulla singolarità, potrebbe valere la pena provare a vedere se possiamo anche considerarla viva.”
Anche se non organica, tale vita artificiale avrebbe enormi ripercussioni sul modo in cui percepiamo l’IA e agiamo nei suoi confronti.
Che cosa ci vorrebbe perché l’IA diventi viva?
Prendendo spunto da concetti di antropologia filosofica, Jalsenjak nota che gli esseri viventi possono agire autonomamente e prendersi cura di se stessi e della loro specie, ciò che è noto come “attività immanente”.”
“Ora almeno, non importa quanto siano avanzate le macchine, a questo proposito servono sempre nel loro scopo solo come estensioni degli esseri umani”, osserva Jalsenjak.
Ci sono diversi livelli di vita, e come mostra la tendenza, l’IA si sta lentamente facendo strada per diventare viva. Secondo l’antropologia filosofica, i primi segni di vita prendono forma quando gli organismi si sviluppano verso uno scopo, che è presente nell’attuale IA orientata allo scopo. Il fatto che l’IA non sia “consapevole” del suo obiettivo e che macini senza cervello i numeri per raggiungerlo sembra essere irrilevante, dice Jalsenjak, perché consideriamo le piante e gli alberi come vivi anche se anch’essi non hanno quel senso di consapevolezza.
Un altro fattore chiave per essere considerati vivi è la capacità di un essere di ripararsi e migliorarsi, nella misura in cui il suo organismo lo permette. Dovrebbe anche produrre e prendersi cura della sua prole. Questo è qualcosa che vediamo negli alberi, negli insetti, negli uccelli, nei mammiferi, nei pesci e praticamente in tutto ciò che consideriamo vivo. Le leggi della selezione naturale e dell’evoluzione hanno costretto ogni organismo a sviluppare meccanismi che gli permettono di imparare e sviluppare abilità per adattarsi al suo ambiente, sopravvivere e assicurare la sopravvivenza della sua specie.
Sull’educazione dei figli, Jalsenjak sostiene che la riproduzione delle IA non corre necessariamente in parallelo a quella degli altri esseri viventi. “Le macchine non hanno bisogno di prole per garantire la sopravvivenza della specie. L’IA potrebbe risolvere i problemi di deterioramento materiale semplicemente avendo abbastanza parti di ricambio a portata di mano per scambiare le parti malfunzionanti (morte) con quelle nuove”, scrive. “Gli esseri viventi si riproducono in molti modi, quindi il metodo effettivo non è essenziale.”
Quando si tratta di auto-miglioramento, le cose diventano un po’ più sottili. Jalsenjak sottolinea che esiste già un software capace di auto-modificarsi, anche se il grado di auto-modificazione varia tra i diversi software.
Gli algoritmi di apprendimento automatico di oggi sono, in una certa misura, capaci di adattare il loro comportamento al loro ambiente. Sintonizzano i loro numerosi parametri sui dati raccolti dal mondo reale, e quando il mondo cambia, possono essere riqualificati su nuove informazioni. Per esempio, la pandemia di coronavirus ha sconvolto alcuni sistemi di IA che erano stati addestrati sul nostro comportamento normale. Tra questi ci sono algoritmi di riconoscimento facciale che non possono più rilevare i volti perché le persone indossano maschere. Questi algoritmi possono ora risintonizzare i loro parametri allenandosi su immagini di volti con maschere. Chiaramente, questo livello di adattamento è molto piccolo se paragonato alle ampie capacità degli esseri umani e degli animali di livello superiore, ma sarebbe paragonabile, ad esempio, agli alberi che si adattano facendo crescere radici più profonde quando non riescono a trovare l’acqua sulla superficie del terreno.
Un’IA ideale che si auto-migliora, tuttavia, sarebbe quella che potrebbe creare algoritmi totalmente nuovi che porterebbero miglioramenti fondamentali. Questo si chiama “auto-miglioramento ricorsivo” e porterebbe a un ciclo infinito e accelerato di IA sempre più intelligenti. Potrebbe essere l’equivalente digitale delle mutazioni genetiche che gli organismi subiscono nell’arco di molte, molte generazioni, anche se l’IA sarebbe in grado di eseguirle a un ritmo molto più veloce.
Oggi, abbiamo alcuni meccanismi come gli algoritmi genetici e la ricerca a griglia che possono migliorare le componenti non addestrabili degli algoritmi di apprendimento automatico (noti anche come iperparametri). Ma la portata del cambiamento che possono portare è molto limitata e richiede ancora un certo grado di lavoro manuale da parte di uno sviluppatore umano. Per esempio, non ci si può aspettare che una rete neurale ricorsiva si trasformi in un Transformer attraverso molte mutazioni.
L’auto-miglioramento ricorsivo, tuttavia, darà all’IA la “possibilità di sostituire del tutto l’algoritmo che viene utilizzato”, nota Jalsenjak. “Per analogia, guardando alle caratteristiche determinate, le IA superintelligenti possono essere considerate vive, conclude Jalsenjak, invalidando l’affermazione che le IA sono un’estensione degli esseri umani. “Gli esseri umani, per la prima volta, condivideranno la Terra con un’entità intelligente almeno quanto loro e probabilmente molto più intelligente.
Sarebbe ancora in grado di staccare la spina al robot senza sentirsi in colpa?
Essere vivi non è abbastanza
Alla fine del suo saggio, Jalsenjak riconosce che la riflessione sulla vita artificiale lascia molte altre domande. “Le caratteristiche qui descritte riguardo agli esseri viventi sono sufficienti perché qualcosa possa essere considerato vivo o sono solo necessarie ma non sufficienti?” Si chiede.
Ho appena letto I Am a Strange Loop del filosofo e scienziato Douglas Hofstadter, posso decisamente dire di no. L’identità, l’autocoscienza e la coscienza sono altri concetti che discriminano gli esseri viventi gli uni dagli altri. Per esempio, un robot costruttore di graffette senza cervello che migliora costantemente i suoi algoritmi per trasformare l’intero universo in graffette è vivo e merita i propri diritti? “Gli esseri umani sono co-creatori di se stessi, nel senso che non si danno interamente l’esistenza, ma rendono la loro esistenza propositiva e la realizzano”, scrive Jalsenjak. “Non è chiaro se le future IA avranno la possibilità di un libero arbitrio.”
E infine, c’è il problema dell’etica delle IA superintelligenti. Questo è un argomento ampio che include i tipi di principi morali che le IA dovrebbero avere, i principi morali che gli umani dovrebbero avere verso le IA, e come le IA dovrebbero vedere le loro relazioni con gli umani.
La comunità AI spesso respinge tali argomenti, sottolineando i chiari limiti degli attuali sistemi di apprendimento profondo e la nozione inverosimile di raggiungere l’AI generale.
Ma come molti altri scienziati, Jalsenjak ci ricorda che il momento di discutere questi argomenti è oggi, non quando è troppo tardi. “Questi argomenti non possono essere ignorati perché tutto quello che sappiamo al momento sul futuro sembra indicare che la società umana affronta un cambiamento senza precedenti”, scrive.
Nel saggio completo, disponibile presso Springer, Jalsenjak fornisce dettagli approfonditi sulla singolarità dell’intelligenza artificiale e le leggi della vita. Il libro completo, Guide to Deep Learning Basics, fornisce materiale più approfondito sulla filosofia dell’intelligenza artificiale.