Il lato nascosto dell’IA. Il colonialismo digitale e il Sud del mondo

Wacc: «L’IA riflette l’input umano – non crea la verità – il che rende la diversità delle voci che la plasmano una questione di urgente importanza»

 

Un recente dibattito dell’Associazione cristiana mondiale per la comunicazione (Wacc) sezione Europa ha promosso la presentazione del libro del giornalista Ingo Dachwitz sulla forza lavoro in gran parte invisibile e spesso concentrata nel Sud del mondo, resa possibile grazie all’intelligenza artificiale e i social media.

 

Il mito dell’intelligenza artificiale

Quando Mark Zuckerberg si presentò davanti al Congresso degli Stati Uniti nel 2018, rispondendo a domande sull’incitamento all’odio e la disinformazione su Facebook, la sua risposta fu questa: l’IA risolverà il problema. Promise che ci sarebbero voluti dai cinque ai dieci anni. Quella scadenza ormai è quasi passata e Ingo Dachwitz, giornalista berlinese e coautore del libro “Digitaler Kolonialismus” (Colonialismo digitale), uscito nel 2025, ha aperto il dibattito della Wacc Europe lo scorso marzo invitando i partecipanti a trarne le conclusioni.

Dachwitz ha sostenuto che l’industria dell’IA in realtà si fondi su un mito accuratamente alimentato: e dunque che i suoi prodotti, non siano una sorta di magia tecnologica. 

La realtà, ha affermato, è molto più umana e molto meno affascinante. 

 

Citando la critica australiana esperta di intelligenza artificiale Kate Crawford, ha osservato che l’IA non è né artificiale né intelligente. 

Dipende, infatti, in ogni fase della sua catena produttiva da enormi quantità di lavoro prodotto dal genere umano.

Al centro di questo lavoro c’è l’annotazione dei dati: il processo manuale e meticoloso di etichettatura di immagini, testi e video in modo che gli algoritmi di apprendimento automatico possano “sapere” tutto in tempo reale. 

L’addestramento dei sistemi di guida autonoma delle principali case automobilistiche richiede ad esempio che le persone si siedano davanti a degli schermi per disegnare precisi riquadri di delimitazione attorno a pedoni, ciclisti e segnali stradali – e questo, migliaia di volte al giorno.

 

Lo sviluppo di ChatGPT ha richiesto ai lavoratori di leggere ed etichettare contenuti profondamente inquietanti – materiale violento, sessuale e altrimenti dannoso – in modo che il modello artificiale potesse imparare cosa non dire. 

Come afferma Dachwitz: “ChatGPT ha successo in gran parte perché sa cosa ‘non’ deve dire. Questa conoscenza è stata acquisita a un costo psicologico elevato per i lavoratori che rimangono quasi completamente invisibili”.

L’esperimento di Amazon con la vendita al dettaglio senza casse ha fornito un altro esempio significativo. 

L’azienda pubblicizzava la sua tecnologia “Just Walk Out” promettendo ai clienti la possibilità di uscire dal negozio semplicemente lasciando che l’intelligenza artificiale addebitasse automaticamente l’importo sul loro conto. Dietro le quinte, tuttavia, circa 1.000 dipendenti in India esaminavano manualmente i filmati e correggevano gli errori che il sistema non era in grado di gestire. Da allora, Amazon ha silenziosamente interrotto il servizio. 

 

Sfruttamento come servizio

Dachwitz ha descritto il settore che fornisce questa manodopera – le aziende di esternalizzazione dei processi aziendali (Bpo) e le piattaforme di micro-lavoro – come un sistema che ha definito “sfruttamento come servizio”.

La Banca Mondiale stima che tra 154 e 435 milioni di persone in tutto il mondo svolgano questo tipo di lavoro digitale nascosto. Le grandi aziende tecnologiche e le case automobilistiche che commissionano il lavoro in genere si rifiutano di rivelare quanti lavoratori fantasma si celino dietro i loro prodotti – perché, come ha osservato Dachwitz, farlo infrangerebbe il mito dell’intelligenza artificiale.

 

Le condizioni di lavoro a cui sono sottoposte queste persone sono estreme. 

Uno studio dell’Organizzazione Internazionale del Lavoro ha rilevato che i lavoratori delle piattaforme di intelligenza artificiale in Kenya guadagnano in media 89 centesimi all’ora. I contratti durano appena un mese, o esistono solo per la durata di un singolo incarico. I lavoratori non hanno assicurazione sanitaria, né previdenza pensionistica, né sicurezza del posto di lavoro.

Chi si occupa di annotare contenuti traumatici riceve scarso o nessun supporto psicologico: William, un team leader che si occupava di annotare contenuti a sfondo sessuale per OpenAI a Nairobi (il cui nome è stato cambiato), ha raccontato di aver partecipato a sessioni di terapia di gruppo in cui 30 persone sedevano in una stanza mentre un terapeuta chiedeva “Come va il lavoro?” – terapia ben lontana da un vero supporto individuale, e di cui il suo team aveva bisogno.

Annunci di lavoro ingannevoli, un monitoraggio incessante delle prestazioni, accordi di riservatezza e la sistematica repressione dell’attività sindacale completano il quadro. 

 

Perché “colonialismo”?

Il termine “colonialismo digitale” non è un’invenzione di Dachwitz, ma ha origini lontane, ha sottolineato Renata Avila, autrice della postfazione al libro Dachwitz, ma il progetto di Dachwitz e il coautore Sven Hilbig è stato quello di portare questa critica al pubblico di lingua tedesca.

Il parallelo tracciato è il modello estrattivista alla base del colonialismo europeo: materie prime e manodopera venivano estratte dai territori colonizzati, lo sviluppo economico in quei territori era orientato interamente verso gli interessi della madrepatria e le potenze coloniali spesso lasciavano dietro di sé stati economicamente non autosufficienti.

Il colonialismo digitale, ha sostenuto Avila, “non rappresenta una nuova forma di colonialismo. È la continuazione e il rafforzamento di un ordine mondiale già esistente, in cui il Nord del mondo accumula profitti e potere a spese del Sud del mondo”.

 

E i numeri confermano l’analisi. In Kenya, il 75% dei lavoratori delle piattaforme di intelligenza artificiale possiede una laurea o la sta conseguendo; in India, la percentuale sale al 96%. Persone altamente qualificate vengono assorbite in lavori precari e mal pagati che avvantaggiano aziende con sede a migliaia di chilometri di distanza, contribuendo in minima parte al gettito fiscale dei paesi in cui si svolge l’attività lavorativa.

La stragrande maggioranza dei finanziamenti di capitale di rischio per l’economia digitale rimane concentrata nel Nord America. 

I costi ecologici del settore – dall’estrazione del cobalto nella Repubblica Democratica del Congo alle montagne di rifiuti elettronici esportati dai paesi ricchi – ricadono in modo sproporzionato sulle comunità del Sud del mondo.

 

Piattaforme, polarizzazione e crisi dell’informazione

La discussione si è estesa oltre la questione del lavoro, toccando il ruolo delle piattaforme social nel plasmare – e distorcere – l’informazione pubblica. 

Una partecipante al gruppo di lavoro ha sollevato la questione di come orientarsi nel flusso ininterrotto di contenuti generati dall’intelligenza artificiale in cui è sempre più difficile distinguere la verità dalla menzogna.

Dachwitz ha sottolineato la logica strutturale di piattaforme come Meta: i loro algoritmi sono progettati per massimizzare l’attenzione e l’interazione, non per servire l’interesse pubblico.

 

Documenti divulgati nel 2021 dalla whistleblower Frances Haugen hanno rivelato che i sistemi di Meta attribuivano un peso cinque volte maggiore a un’emoji di rabbia rispetto a un semplice pollice in su, perché la rabbia stimola l’interazione. Gli stessi documenti mostravano che i post virali contengono quattro volte più informazioni false rispetto a quelli normali.

La premio Nobel per la pace e giornalista Maria Ressa ha descritto Meta come una piattaforma discriminatoria nei confronti dei fatti: la sua stessa architettura premia il sensazionalismo e la divisione.

Jeremy Niyiguha, giornalista ruandese, ha proposto tre risposte alla sfida dell’integrità: controllo editoriale (nessun copia-incolla dall’IA nella pubblicazione), trasparenza con il pubblico sull’utilizzo dell’IA e investimenti costanti nell’alfabetizzazione mediatica. 

Ha inoltre sottolineato che l’IA riflette l’input umano – non crea la verità – il che rende la diversità delle voci che la plasmano una questione di urgente importanza.

 

Leggi l’articolo completo cliccando qui

 

Leggi anche: