“I rischi dell’intelligenza artificiale generale: come dovrebbero rispondere le comunità di fede?”
Il Consiglio ecumenico delle Chiese ha ospitato il 25 febbraio una tavola rotonda sul tema
Il 25 febbraio il Consiglio ecumenico delle chiese (Cec) ha organizzato un seminario da remoto che si può considerare un approfondimento, parte del monitoraggio della IA di cui una tappa rilevante è stata la consultazione sulla nuova architettura finanziaria ed economica internazionale (NIFEA), tenutasi dal 27 al 29 agosto nella Corea del Sud e organizzata congiuntamente dal Consiglio ecumenico delle Chiese e dai partner ecumenici, sul tema della quarta rivoluzione industriale e la IA – impatti sulla disuguaglianza e risposte basate sulla fede, Serve una “rivoluzione spirituale”.
La tavola rotonda riuniva quattro voci all’intersezione tra scienza, etica e teologia interpellate dalle applicazioni di questa tecnologia anche alla corsa agli armamenti tra le potenze globali mentre i quadri internazionali si domandano se possono limitare questi sviluppi e le comunità religiose si chiedono quale ruolo concreto possono svolgere.
Max Tegmark, fisico cosmologo al MIT, è stato invitato in quanto Presidente e co-fondatore del Future of Life Institute (www.futureoflife.org ) fondato nel 2015 per orientare la tecnologia trasformativa verso il beneficio della vita, allontanandola dai rischi estremi su larga scala. Siamo ancora in tempo?
Se la tecnologia, infatti, è costitutiva della impronta umana sul pianeta, negli ultimi decenni con lo sviluppo della biotecnologia e dell’intelligenza artificiale l’umanità ha il potere di influenzare, e persino distruggere, ogni forma di vita sulla Terra. Siamo entrati in un’era in cui la vita sarà progettata dall’intelligenza, piuttosto che dall’evoluzione, con riferimento alla intelligenza artificiale generale detta anche IA forte.
L’AGI si differenzia dalle applicazioni di IA debole o ristretta (specializzata e limitata ai parametri della sua programmazione e ai dati di addestramento che ha assimilato con architetture neurali) proprio perché mira a riprodurre in autonomia abilità cognitive generali, come il ragionamento, la pianificazione, l’adattamento a scenari complessi e la comprensione del linguaggio naturale in maniera dinamica. Non esiste ancora una definizione universalmente accettata, ma in termini ampi può essere descritta come “la capacità di un sistema intelligente di comprendere o apprendere qualsiasi compito intellettuale che un essere umano è in grado di svolgere”.
Il rapido aumento del potere di queste tecnologie è associato ad una ipotesi trans umana per lo sviluppo fisico e cognitivo di una umanità che trascende se stessa e controlla il suo processo evolutivo in modo profondo, irreversibile e incerto: lo sviluppo di sistemi sempre più autonomi sta procedendo più rapidamente della capacità di governi e istituzioni di comprenderne e governarne gli effetti.
Chi sta lavorando veramente ad una IA pro-umana e con quale sistema regolatorio?
Max Tegmark è tra i promotori di una campagna pubblica che ha raccolto oltre 130 mila firme su un appello ‘Fraternità nell’era della IA’ presentato a settembre 2025 e rivolto al papa, a tutti i leader globali e a tutte le persone di buona volontà a favore di una moratoria sullo sviluppo dei sistemi di AI avanzata, sostenendo la necessità di fermare la corsa ai modelli più potenti finché non saranno disponibili garanzie adeguate sul loro controllo e sulla loro sicurezza.
Antje Jackelén ex Arcivescova a Uppsala della Chiesa di Svezia, opinionista, ha scritto diversi libri articoli, testi scientifici, di divulgazione scientifica, articoli di dibattito e sermoni soprattutto sul rapporto tra natura, credo e ruolo della religione nella società. Nello specifico le è stato chiesto quali sono le implicazioni della IA per il nostro senso di spiritualità.
Nel suo intervento a favore di misure regolatorie e di precauzione ha presentato la IA come la quarta ferita narcisistica inflitta dalla scienza alla coscienza umana, con riferimento ad un saggio di Freud del 1917 (apparso sulla rivista viennese “Imago” con il titolo “Una difficoltà della psicoanalisi” tradotto da Cesare Musatti nel 1949) in cui vengono presentate le tre allora già inferte: la prima cosmologica da Nicolò Copernico (non siamo al centro dell’universo), la seconda biologica da Charles Darwin (non siamo il coronamento della creazione), e la terza psicologica dallo stesso Freud (non siamo sovrani su noi stessi in seguito alla scoperta del potere dell’inconscio). La quarta aggiunge anche la componente intellettuale in quanto l’IA infligge un colpo fatale alla nostra autocomprensione umana che nell’occidente è permeata da individualismo, consumismo e secolarismo
Oscillare tra tecno-messianismo (l’IA salverà noi e il pianeta) e tecno-distopia (l’IA è la fine dell’umanità) è una reazione comprensibile a questo insulto intellettuale. Tuttavia, un’accettazione acritica e socialmente irresponsabile e il panico spesso portano ad azioni irrazionali o all’apatia. Al contrario, qualità umane come relazionalità, trascendenza, fallibilità e responsabilità sono fondamentali.
Pertanto si propone di cambiare il linguaggio dell’IA ridefinendola co-intelligenza, mettere in discussione la stessa intelligenza dell’IA che alcuni ricercatori definiscono “un pappagallo stocastico”, e parlare di “intelligenze” piuttosto che di intelligenza,
perché gli umani dispongono di una varietà di intelligenze: artistica, personale e morale che si fondono in un’intelligenza intuitiva, socialmente radicata e di particolare importanza per la spiritualità.
Gli esseri umani cercano e trovano un significato anche oltre la realtà ordinaria, mentre l’intelligenza artificiale è bloccata nel qui profano. Quando un modello linguistico di grandi dimensioni crea output insensati o inaccurati, si parla di allucinazione . L’intelligenza artificiale ha allucinazioni, l’intelligenza umana trascende.
Anche lei ribadisce che lo sviluppo dell’intelligenza artificiale è più rapido dell’adattamento dei sistemi sociali e giuridici, soprattutto quando la legge segue i principi democratici. Nella confusione di questo dilemma, la trasparenza si perde, i confini delle responsabilità si confondono, le conseguenze si abbattono in modo inaspettato e disomogeneo. L’intelligenza artificiale cambierà il nostro modo di pensare alla conoscenza, al lavoro, alla comunicazione e all’integrità. Creerà vincitori e vinti nel mercato del lavoro. Potrebbero sorgere disordini sociali. Senza una riflessione critica e umanistica, è possibile che la IA non riesca a contribuire a una società migliore per tutti.
In risposta, tutti i settori della società devono cooperare. Le competenze tecniche e giuridiche non sono sufficienti. È nella società civile che si pongono interrogativi esistenziali e le risposte si cercano non solo nei calcoli di potere ed economia o nelle complessità legali e tecniche, ma anche da risorse culturali, filosofiche e teologiche da cui l’umanità ha tratto orientamento nel corso dei secoli.
Kenneth Mtata, Direttore del programma Cec, Vita, Giustizia e Pace, autore tra l’altro di “Artificial intelligence and Afrocentric Biblical Hermeneutics crossroads in Zimbabwe (Col 2:8)” è stato tra gli organizzatori dell’evento NIFEA dello scorso agosto
Ha ricordato che alla Conferenza di Stoccolma su vita e lavoro del 1925, “gli anziani della Chiesa si confrontarono con la natura dirompente della tecnologia. Si riteneva che le macchine stesse stessero rimodellando il lavoro, le città e i sistemi economici. La capacità tecnologica senza responsabilità morale potrebbe minacciare l’intera civiltà umana”.
Brian Green, Direttore dell’etica tecnologica, Markkula Centre sull’etica applicata insegna etica dell’intelligenza artificiale ed etica spaziale presso la Graduate School of Engineering della Santa Clara University. Il suo lavoro si concentra su intelligenza artificiale ed etica, etica tecnologica nelle aziende, etica dell’esplorazione e dell’utilizzo dello spazio, etica della manipolazione tecnologica degli esseri umani, etica della mitigazione e dell’adattamento alle tecnologie emergenti rischiose, e vari aspetti dell’impatto della tecnologia e dell’ingegneria sulla vita umana e sulla società, incluso il rapporto tra tecnologia e religione.
Nel suo intervento ha espresso una istanza di cautela considerando che la tecnologia non è moralmente neutrale e sfida la giustizia in termini di disuguaglianza sociale, genere ed etnico.
Molte le domande lasciate aperte a partire dal nocciolo tecnologico che sostiene la struttura della IA e cioè l’algoritmo.
Questo percorso di discussione merita una diffusione nelle chiese sia per le implicazioni di utilizzo bellico e di controllo sociale che sembrano trainare la ricerca che per la ubriacatura scientista al limite della idolatria manifestata dalla sedicente cultura laica particolarmente negli ultimi anni in ogni ambito della società.
Photo: Ivars Kupcis/WCC