Chiese e intelligenze artificiali a confronto
La Silicon Valley ha coinvolto sacerdoti, teologi e pastori per ragionare sulla parte “etica” del proprio lavoro. Ma la cura delle persone non può essere data a un algoritmo: occorre non rinunciare a essere responsabili
Non era scontato, ma alla fine, qualcuno nella Silicon Valley, ha bussato alla porta delle chiese. Il Washington Post ha rivelato in un articolo che a fine marzo 2026, Anthropic, la società californiana che sviluppa il chatbot “Claude”, e che per ora ha mostrato più interesse per la parte “etica” del proprio lavoro, ha invitato a San Francisco quindici tra sacerdoti cattolici, pastori protestanti, teologi e accademici del mondo cristiano, allo scopo di raccogliere consigli su come dare una formazione morale al proprio modello di intelligenza artificiale (IA), e convincendoli che l’interesse fosse autentico, e non di facciata.
Non sono stati resi pubblici i partecipanti protestanti, ma sono usciti alcuni nomi cattolici: padre Brendan McGuire, parroco della Silicon Valley ed ex-ingegnere informatico; il vescovo Paul Tighe, segretario del Dicastero per la cultura e l’educazione, sezione per la cultura.; Brian Patrick Green, docente di Etica tecnologica alla Santa Clara University; Meghan Sullivan, filosofa dell’Università di Notre Dame. Sembra evidente che, da parte cattolica, ci sia un interesse più strutturato.
Chi progetta, usa o si imbatte in questi sistemi, magari in situazioni delicate, si chiede se sia davvero possibile insegnare etica e cura a una rete neurale come se fosse una persona.
Per poter insegnare l’etica a un essere umano, per ora, abbiamo bisogno di:
– un soggetto capace di ricevere e rielaborare valori;
– la libertà di aderire a quei valori, o di rifiutarli;
– il tempo di una maturazione interiore, fatta di esperienze, errori e cambiamenti
L’etica è una postura, un’abitudine del cuore, una disciplina dello spirito, una pratica costante, non una serie di comandi. Anche per evitare di umanizzare troppo i sistemi di IA, in un modello linguistico, come “Claude”, “Gemini” o “ChatGPT”, più che di etica, è meglio parlare di “allineamento”, un processo statistico attraverso il quale i pesi della rete vengono modificati affinché le risposte del sistema tendano verso certi comportamenti desiderati.
Una rete neurale, per quanto sofisticata, non interiorizza valori, è ciò che i filosofi chiamano un «prodotto assolutamente determinato»: una macchina che può simulare empatia e sensibilità, ma non è libera, non può scegliere autonomamente, e questa è la sua struttura, il suo “destino”, potremmo dire, non è un difetto correggibile con più dati o con consulenze teologiche. Sappiamo bene, dallo studio dell’etica, che nessun modello, neanche umano, è assolutamente libero dal suo contesto. Allo stesso modo, i grandi modelli linguistici sono stati, almeno finora, guidati da una prospettiva che in lingua inglese viene definita dall’acronimo WHELM, ovvero un punto di vista “Occidentale, Ad Alto Reddito, Istruito, Progressista e Maschile”. Un modello addestrato prevalentemente su testi anglofoni, con valori esplicitati in inglese e calibrati su test che rispecchiano una determinata cultura, non potrà mai essere considerato neutrale. Come ha affermato la rivista Agenda Digitale, commentando la costituzione di Claude, piuttosto c’è il rischio di «un’utopia coloniale in abiti algoritmici».
La domanda più corretta da porsi, allora, è chi sia il responsabile dei valori che milioni di persone ricevono, spesso senza saperlo, attraverso i chatbot a cui si rivolgono per elaborare un lutto, per chiedere aiuto in un momento di fragilità, per interrogarsi sul senso della vita. Una ricerca che riguarda direttamente chi ha il potere. Quando un’azienda privata da 380 miliardi di dollari convoca sacerdoti e teologi per definire come il proprio prodotto debba rispondere a chi è in crisi, non vuole costruire una nuova chiesa, ma chiede aiuto per prendere decisioni educative di portata enorme, con un raggio d’azione che nessuna istituzione ecclesiale ha mai avuto nella storia. Un’indagine Barna del 2026 rivela che circa un terzo dei cristiani americani praticanti ritiene che il consiglio spirituale di un’intelligenza artificiale sia equivalente a quello di un pastore. Il 65% dei responsabili di chiesa teme che l’IA possa erodere la fiducia dei propri fedeli.
In compenso, in Europa questa riflessione è già in corso, con accenti diversi da quelli californiani. Il Consiglio ecumenico delle Chiese ha promosso un simposio sulla Giustizia digitale a Berlino nell’aprile scorso, e in giugno a Roma si terrà la conferenza annuale della “European Christian Internet Conference”, dal titolo significativo «From Prompts to Prayers: AI and Authentic Spirituality», dedicata ai rapporti fra AI e spiritualità. In Italia, il progetto Colnissar – nato in Calabria – lavora a modelli che integrino ragionamento etico-simbolico negli algoritmi, con l’obiettivo di rendere visibile e controllabile il processo decisionale, anziché delegarlo a una scatola nera.
Il pastore e teologo tedesco Ralf Peter Reimann, presidente di Wacc Europa (World Association for Christian Communication) e commissario iInternet della Chiesa evangelica nella Renania, è una delle voci protestanti più attive su questo fronte a livello continentale. A suo dire, i dati che alimentano l’IA sono già una forma di strategia, e le chiese che non gestiscono consapevolmente la propria presenza digitale stanno lasciando che altri definiscano la propria identità online. Ignorare questi sistemi, trattandoli come una questione tecnica, è una tentazione mortale, ma anche adeguarsi goffamente come se il linguaggio dell’IA fosse benefico per definizione sarebbe un’abdicazione pericolosa al proprio mandato di essere comunità che si prende cura dei propri membri.
Le nostre piccole chiese hanno sempre saputo fare almeno una cosa: dare un nome e dire la verità al potere e chiedere discernimento. Ora dunque dobbiamo cominciare a chiedere quali siano i criteri di scelta, e ricordare che la cura delle persone vulnerabili non può essere esternalizzata a un algoritmo, per quanto sofisticato, che il tempo della relazione deve rimanere una nostra risorsa, e che non solo le persone andranno accompagnate dalle chiese nell’uso delle IA, ma anche le IA andranno accompagnate nel loro rapporto con gli umani, perché la responsabilità non si addestra, si esercita.
Leggi anche: