Tornò a voltarsi verso la macchina: «C’è Dio?».
L’immensa voce rispose senza esitazione, senza il minimo crepitìo di valvole o condensatori.
«Sì: adesso, Dio c’è».
Il terrore sconvolse la faccia di Dwar Ev, che si slanciò verso il quadro di comando. 
Un fulmine sceso dal cielo senza nubi lo incenerì, e fuse la leva inchiodandola per sempre al suo posto.
[tratto da "La risposta", racconto breve di Fredrick Brown]

 

 Premessa: per approfondire il significato di "Grande Filtro" e dei correlati argomenti "Paradosso di Fermi" e "Equazione di Drake", si rimanda il lettore a questo articolo da me pubblicato 4 anni fa.

 L’Intelligenza Artificiale (AI)  ha fatto progressi ad un ritmo sorprendente negli ultimi anni; le prime applicazioni, note ormai a tutti, sono però ancora esempi di "AI debole", nel senso che hanno campi di applicazione limitata e richiedono un lungo apprendimento "guidato" dagli esseri umani; inoltre, esse non sembrano manifestare una reale autoconsapevolezza. D'altro canto, oggi si sente parlare sempre più spesso di "agenti" con Intelligenza Artificiale forte o Intelligenza Artificiale Generale (AGI), caratterizzata della capacità di apprendere e capire un qualsiasi compito intellettuale che può imparare un essere umano, mostrando di essere senziente e di avere una coscienza; secondo gli esperti, siamo molto vicini a questo traguardo e forse ci sono casi in cui lo abbiamo già raggiunto. Alcuni scienziati stanno ora guardando allo sviluppo della superintelligenza artificiale (ASI), una forma di intelligenza che non solo supererebbe l’intelligenza umana ma non sarebbe vincolata dalle velocità di apprendimento degli esseri umani, rendendosi completamente autonoma.

 E se questo traguardo non fosse solo un risultato scientifico straordinario? E se rappresentasse anche un formidabile collo di bottiglia nello sviluppo di tutte le civiltà, così impegnativo da ostacolarne la sopravvivenza a lungo termine? L'idea dell'esistenza di "Grandi Filtri", che impediscano a forme di vita intelligenti di sviluppare una tecnologia che permetta di espandersi oltre il proprio pianeta d'origine, si arricchisce ora di un nuovo possibile minaccia, lo sviluppo di Intelligenze Artificiali. Questa almeno è la teoria recentemente esposta da Michael Garrett, titolare della cattedra di Astrofisica di Sir Bernard Lovell e direttore del Jodrell Bank Centre for Astrofisica, Università di Manchester.

Durer

Una immagine generata dall'autore usando il programma "Dream Studio", dando la descrizione "Artificial Intelligence by Durer" 

 Questa idea è al centro di un articolo di ricerca recentemente pubblicato su Acta Astronautica. Essa potrebbe spiegare perché la ricerca dell’intelligenza extraterrestre (SETI) non abbia ancora rilevato le firme di civiltà tecnicamente avanzate nella galassia, nonostante le probabilità sembrino giocare a favore di una loro comparsa. L'ipotesi del "Grande Filtro" cerca di rispondere a questo paradosso, suggerendo che ci siano ostacoli insormontabili nella linea temporale evolutiva di ogni civiltà; questi filtri impedirebbero di fatto la transizione da specie monoplanetaria a specie multiplanetaria, espressione resa celebre da Elon Musk che ne ha fatto lo scopo ultimo del mitico progetto Starship.

 È proprio sulla creazione di Intelligenze Artificiali avanzate, tanto utili quanto insidiose, che molte civiltà potrebbero vacillare, compresa la nostra. Si tratterebbe di un passaggio evolutivo critico, una singolarità tecnologica dove l’intelligenza artificiale farebbe progressi molto più rapidi della nostra capacità di controllarla o di esplorare e popolare in modo sostenibile il Sistema Solare.

De Chirico

Una immagine generata dall'autore usando il programma "Dream Studio", dando la descrizione "Artificial Intelligence by De Chirico"

 La sfida con l’intelligenza artificiale, e in particolare con l’ASI, risiede nella sua natura autonoma, auto-amplificante e migliorativa. Essa possiede il potenziale per migliorare le proprie capacità con una velocità che supera di gran lunga i nostri ritmi evolutivi, anche se dovessimo fare un ricorso pesante alle tecniche genetiche per accelerarli. Secondo Garrett, il rischio che qualcosa vada storto è enorme e conduce inevitabilmente alla caduta sia delle civiltà biologiche che di quelle basate sull’intelligenza artificiale, prima che esse abbiano la possibilità di diventare multiplanetarie. Ad esempio, per quanto ci riguarda, se le nazioni si affidassero sempre più e cedessero il potere a sistemi di intelligenza artificiale autonomi che competono tra loro, le capacità militari potrebbero essere utilizzate per uccidere e distruggere su una scala senza precedenti, causando la scomparsa della nostra intera civiltà, compresi gli stessi sistemi di intelligenza artificiale.

 In questo scenario, l'autore stima che la longevità tipica di una civiltà tecnologica potrebbe essere inferiore a 100 anni; in effetti, il tempo che intercorre tra la nostra capacità di ricevere e trasmettere segnali tra le stelle (più o meno a partire dal 1960) e l'apparizione stimata dell'ASI (2040) sulla Terra è di soli 80 anni. Questa stima di durata media, se inserita dell’equazione di Drake, suggerisce che, in ogni dato momento, ci siano al massimo solo una o due civiltà intelligenti co-esistenti in tutta la Via Lattea e questo, unito anche alle difficoltà tecniche di ricezione, spiega perchè non siamo ancora riusciti a contattare nessuno in maniera inconfutabile.

 A dire il vero, i modi in cui una specie tecnologica come la nostra può rapidamente autodistruggersi sono parecchi e, tutto sommato, la minaccia della ASI è più ipotetica di altre; si pensi ai cambiamenti climatici e ai conflitti in espansione. Tuttavia, questa ricerca è un campanello d’allarme affinché l’umanità stabilisca solidi quadri normativi per guidare lo sviluppo e l'applicazione dell’intelligenza artificiale nei settori critici, compresi i sistemi militari. Non si tratta solo di prevenire l’uso malevolo dell’intelligenza artificiale sulla Terra, ma anche di garantirne una evoluzione  in linea con la sopravvivenza a lungo termine della nostra specie. 

Escher

Una immagine generata dall'autore usando il programma "Dream Studio", dando la descrizione "Artificial Intelligence by Escher"

 Come ha osservato lo storico Yuval Noah Harari, nulla nella storia ci ha preparato all’impatto dell’introduzione di entità non coscienti e super-intelligenti sul nostro pianeta. Recentemente, le implicazioni del processo decisionale autonomo sull’IA hanno portato a richieste da parte di importanti leader del settore per una moratoria sullo sviluppo dell’IA, fino a quando non sarà possibile introdurre una forma responsabile di controllo e regolamentazione. Ma anche se tutti i paesi accettassero di rispettare norme e regolamenti rigorosi, sarebbe difficile tenere a freno le organizzazioni canaglia.

 L’integrazione dell’IA autonoma nei sistemi di difesa militare deve essere un’area di particolare preoccupazione. Esistono già indicazioni del fatto che gli esseri umani cederanno volontariamente un potere significativo a sistemi sempre più capaci, perché potranno svolgere compiti utili molto più rapidamente ed efficacemente senza l’intervento umano, come è stato fatto recentemente e in maniera devastante nei territori di Gaza.. I governi sono quindi riluttanti a regolamentare questo settore, dati  i vantaggi strategici offerti dall’intelligenza artificiale 

 Ciò significa che siamo già pericolosamente vicini al precipizio in cui le armi autonome operano oltre i confini etici e aggirano il diritto internazionale. In un mondo del genere, cedere il potere ai sistemi di intelligenza artificiale per ottenere un vantaggio tattico potrebbe inavvertitamente innescare una catena di eventi altamente distruttivi in ​​rapida escalation. In un batter d’occhio, l’intelligenza collettiva del nostro pianeta potrebbe essere annientata.

 L’umanità, conclude Garrett, si trova a un punto cruciale della sua traiettoria tecnologica. Le nostre azioni ora potrebbero determinare se diventeremo una civiltà interstellare duratura o soccomberemo alle sfide poste dalle nostre stesse creazioni. Usare SETI come una palla di vetro attraverso cui esaminare il nostro sviluppo futuro aggiunge una nuova dimensione alla discussione sul futuro dell’IA. Spetta a tutti noi garantire che quando raggiungiamo le stelle, lo facciamo non come un ammonimento per le altre civiltà, ma come un faro di speranza: una specie che ha imparato a prosperare insieme all’intelligenza artificiale.

 In chiusura, vorrei fare un paio di considerazioni personali. In un certo senso, la comparsa di una ASI equivale al primo contatto con una intelligenza "aliena" poiché, anche se non si tratta di una entità extraterrestre ed è stata creata comunque dall'uomo, mostrerà capacità logiche e creative inedite e sovrumane, con un effetto sconvolgente sulla nostra società (cosa che in parte sta già accedendo). Inoltre, non è affatto scontato che una AI realmente avanzata causi la propria distruzione, oltre a quella della razza umana; in tal caso, il testimone dell'evoluzione passerebbe a questa super-intelligenza artificiale, magari supportata da un esercito di robot a sua disposizione, una distopia cara a tanta fantascienza! In tal caso, però, il Paradosso di Fermi rimarrebbe insoluto, a meno di non supporre che tutte le AI superstiti nell'Universo siano disinteressate a comunicare tra loro oppure abbiano trovato il modo di farlo senza che noi possiamo accorgercene. Ma questa sarebbe una ipotesi vagamente "complottista", con possibili risvolti mistici che preferisco evitare!