
Una frase immaginaria di Heidegger direbbe: “intelligenza artificiale non è pensiero, ma calcolo del pensabile. Essa presenta l’essere come risorsa, non come rivelazione”. Riducendo l’essere umano a funzione, calcolo, efficienza, perdendo il contatto con l’essere autentico. Buona lettura.
IA for dummies Il tema di oggi forse il più bistrattato degli ultimi anni, e meriti particolare attenzione in quanto è a pieno titolo entrato nella nostra realtà quotidiana. In verità nasce negli anni ’50 con le prime teorie di Alan Turing e la conferenza di Dartmouth nel 1956. Dopo fasi alterne di sviluppo, l’intelligenza artificiale ha conosciuto una rapida crescita dagli anni 2000 grazie ai big data e all’aumento della potenza di calcolo. Oggi è impiegata in molti settori, dalla medicina alla tecnologia, e si occupa di creare sistemi in grado di simulare abilità umane come l’apprendimento, il ragionamento e la risoluzione di problemi. Gli algoritmi funzionano come detective: raccolgono dati, li analizzano e trovano connessioni. L’autoapprendimento permette ai sistemi di migliorarsi analizzando grandi quantità di informazioni e riconoscendo schemi in modo autonomo e beneficiando di aggiornare autonomamente i propri parametri interni e le sue prestazioni. Questo sviluppo come per altri nella storia dovrebbe porre l’uomo sempre al centro della vita e della società, dato che nessuna macchina crea dal nulla emozioni, intuizioni e creatività. Siamo noi che eccelliamo nella capacità di adattarci a situazioni nuove e complesse, usando il giudizio morale e l’esperienza personale. Comprendiamo il contesto sociale-culturale fatto di relazioni e decisioni basate su valori etici, morali o ideologici.
Strategie orwelliane sempre più diffuse da cinema, letteratura e beni di consumo, siamo stati gradualmente indottrinati ad accettare l’intelligenza artificiale come una forza autonoma e inevitabile. Questa narrazione, però, è ingannevole: l’IA non è neutrale, ma un artefatto umano progettato con obiettivi precisi e controllato da chi detiene il potere economico e tecnologico. È importante smascherare l’illusione del cosiddetto “win-win” – l’idea che l’uso di tecnologie come ChatGPT sia vantaggioso per tutti – perché in realtà sia i big data sia gli algoritmi sono accuratamente gestiti dalle grandi multinazionali che dominano il settore. Le GAFAM (Google, Apple, Facebook/Meta, Amazon, Microsoft), forti di investimenti da decine di miliardi e sostenute dai mercati finanziari, hanno assunto il ruolo di “meta-nazioni digitali”. Secondo Foreign Affairs, queste entità esercitano un potere sovrano sull’IA, contribuendo a instaurare un nuovo ordine “tecnopolare”, dove le aziende tecnologiche hanno un’influenza geopolitica pari o superiore a quella degli Stati-nazione. Poi abbiamo i Media che vendono l’AI come se fosse una nuova medicina sociale e prodotto quasi a scadenza dato che non si possano prevedere quali saranno gli effetti collaterali e scenari futuri. In questa mega organizzazione tra monopoli politici, Scribi e media tutti fanno da testimonials, sperando di partecipare alla spartizione del ricco banchetto che poi una volta spremuto fino al midollo si trasformerà in bolla speculativa. È questa la società del nichilismo, in cui a cominciare dal cittadino e salendo in alto della classe sociale tutti all’unisono se ne fregano dei nuovi disoccupati che vengono lasciati sul campo, quindi dell’intero sistema pensionistico e degli effetti secondari di tutto ciò, ancora poco conosciuti sebbene già alle viste. Ormai abbiano tutti interiorizzato i sensi di colpa di ogni nostro fallimento. Si chiama l’amplificazione di bias e la concentrazione di potere, con effetti su disuguaglianze sociali, politica e ambiente. Ovviamente anche in Cina esistono i loro equivalenti: si chiamano ByteDance, Tencent e Alibaba, ma giocano una partita diversa, diciamo di “capitalismo di Stato”.
Bias cognitivo Il bias è un pregiudizio o distorsione nei dati e algoritmi che porta a risultati parziali o ingiusti. Può riflettere stereotipi sociali o errori di campionamento, influenzando negativamente l’equità e l’accuratezza delle decisioni dell’IA. Due classici esempi sono: Nel reclutamento lavoro in cui un algoritmo favorisce candidati di un certo genere o etnia essendo stato addestrato su dati storici che riflettono discriminazioni passate. Nelle elezioni politiche, il bias può emergere se i sistemi di targeting pubblicitario mostrano messaggi diversi a gruppi diversi, influenzando il voto in modo parziale o manipolativo. Tramite deepfake che sono video manipolati con IA e mostrano persone fare o dire cose false, usati per diffondere disinformazione o danneggiare reputazioni.
Norme fasulle In forma esclusiva per la storia della rivoluzione digitale, i grandi legislatori mondiali (USA, Cina, UE) hanno anticipato il mercato formulando norme sull’IA, per evitare due minacce: l’uso inappropriato dell’AI per la produzione di armi avanzate potenzialmente incontrollabili e l’uso del “Deepfake”. Il quale si riferisce ai contenuti audiovisivi generati o modificati tramite l’IA, in cui il volto, la voce o i movimenti di una persona vengono imitati in modo estremamente realistico. Pur essendo regole fragili, sia nel sociale (disoccupazione di massa) come nei conflitti di interesse tra investitori e proprietari delle aziende AI, spesso sono coincidenti. Sappiamo che le grandi Companies IA sono controllate da pochi grandi fondi finanziari (Vanguard, BlackRock, State Street, Fidelity), che dominano i mercati globali. Lo stesso vale nel settore farmaceutico, dove le norme sono deboli, tanto che alcuni farmaci ingegnerizzati e progettati con AI sono in fase di test su persone ignare. Sintetizzando, l’AI è progettata per mantenere stabile l’attuale struttura di potere tecno-feudale. L’idea che l’AI possa un giorno sfuggire al controllo è liquidata dai suoi creatori con la promessa di una “super AI” che controllerà tutto, una garanzia che suona più inquietante che rassicurante. Come appaiono fragili e aggirabili, quelle norme che dovrebbero regolare l’ingerenza nel mondo del lavoro. Per gli addetti non a busta paga di nessuno, l’ipotesi realistica che, con l’andar del tempo, l’AI provochi decine di milioni di disoccupati è un dato di fatto. Sentendo alcuni responsabili intervistati da emittenti mainstream subordinate allo stesso padrone, l’ipotesi secondo la quale un giorno l’AI possa prendere il sopravvento sui suoi proprietari e programmatori è attualmente non verificabile. Nel caso dovesse verificarsi tale “sgradevole “situazione i padroni della AI “inventeremo una super AI che controllerà per evitarlo”. Tocchiamo ferro noi utenti di base.
Dominio codificato In una mia ricerca ho capito che in Occidente si sono riformate quattro caste dominanti:
- Politici e scienziati, che controllano la verità (Vero/Falso);
- Mercanti e finanzieri, che gestiscono il commercio (Compro/Vendo);
- Guerrieri e servizi segreti, responsabili della sicurezza (Attacco/Difesa);
- Scribi e media, al servizio delle altre caste, che influenzano l’opinione pubblica
Da questa premessa passiamo alle Considerazioni che ne derivano.
La proprietà per l’AI alle nostre latitudini è una questione gestita interna al settore privato, finalizzata per servire gli interessi dei suoi proprietari o alcuni “attori geopolitici”. Giganti del liberismo anarchico, dogma del profitto e voglia di controllo sociale. In Cina si chiama “capitalismo di Stato”.
L’ Etica dell’AI e la sua narrazione di magnifiche facoltà robotiche e para robotiche, che non saranno mai indipendenti e consapevoli di libero arbitrio. In realtà è un’Etica dei suoi proprietari. Per dirla senza fronzoli in questo caso Etica e Interesse sono indissolubilmente incrociate. Secondo IBM “L’etica è un insieme di principi morali che ci aiutano a distinguere tra giusto e sbagliato. L’etica dell’AI è un campo multidisciplinare che studia come ottimizzare l’impatto benefico dell’IA artificiale (AI) riducendo al contempo i rischi e gli esiti negativi”. Sempre per la narrativa non si possono non elencare i vantaggi dell’IA: L’AI offre numerosi vantaggi in diversi settori e applicazioni. Ecco alcuni dei benefici più frequentemente citati:
- automazione delle attività ripetitive
- Insight più dettagliati e più rapidi dai dati
- Miglioramento a livello di processi decisionali
- Riduzione degli errori umani
- Disponibilità 24 ore su 24, 7 giorni su 7
Una nuova dimensione L’IA, ormai matura e diffusa grazie al Web, ci proietta in una dimensione “superumana”, dove l’Homo Sapiens evolve in Homo Sapiens Digitalis, superando i limiti genetici. In questo spazio infinito il tempo tende a zero e ogni informazione è accessibile ovunque. In questo Web diventato “Stargate” saranno i nuovi sacerdoti del sapere, a gestire corpi e intelligenze digitali capaci di gestire queste nuove condizioni. Con un super-linguaggio auto apprendente, in grado di sintetizzare e memorizzare a velocità impressionanti, che avrà tuttavia un costo altissimo: economico, ambientale ed energetico. I supercomputer dell’AI consumano enormi quantità di energia (fino a 500 MW) e risorse idriche (20 miliardi di litri d’acqua nel 2022, secondo il Sole 24 Ore).
I Dati nello sviluppo dell’AI servono enormi quantità di dati: testi, immagini, audio, video, spesso raccolti da archivi online, biblioteche, social network e il web in generale. Ignoriamo inconsciamente che questi contenuti vengono utilizzati senza chiedere permesso né riconoscere i diritti d’autore. Ma nessuno si chiede come possono sfruttare gratuitamente senza sollevare dubbi etici rilevanti. Seguissero d’avvero i valori etici tanto acclamati nelle loro policy sulla sicurezza, l’intero loro progetto non sarebbe economicamente insostenibile. Non credo in nessuna svolta epocale tramite l’AI e tantomeno che diventi uno strumento per “scrivere una nuova Bibbia” (come Harari). Mi chiedo criticamente se siamo davvero certi che questo futuro disegnato dall’AI sarà migliore di quello che conosciamo?
I costi Planetari L’intelligenza artificiale non è neutrale né immateriale: è il risultato di scelte umane e dipende da un’enorme infrastruttura fisica fatta di data center, server e tecnologie che richiedono risorse come litio, cobalto e rame. La crescente domanda di IA sta intensificando l’estrazione di materiali critici, con gravi impatti ambientali, sociali e politici, soprattutto nel Sud globale. Paesi come Repubblica Democratica del Congo, Madagascar, Sudafrica e il “triangolo del litio” in Sud America stanno subendo devastazioni ambientali e sociali, senza benefici economici reali per le popolazioni locali. L’estrazione e la raffinazione di terre rare causano danni sanitari e ambientali, mentre le grandi corporation occidentali (e la Cina) trasformano territori naturali in aree industriali, spesso senza il consenso delle comunità. Questo processo accentua le disuguaglianze globali, trasferendo i costi della transizione digitale sulle zone più vulnerabili del pianeta. Le polveri tossiche e i radionuclidi danneggiano la salute delle persone, mentre i processi di raffinazione inquinano acqua e suolo, provocando malattie come cancro, problemi respiratori e infertilità. Senza dibattito pubblico sui costi umani ed ecologici dell’estrazione che alimenta l’IA. Tutto avviene lontano dai centri di progettazione e consumo, creando un’illusione di immaterialità del digitale, nascondendo le sue conseguenze reali, impedendone una reale consapevolezza del suo impatto su noi consumatori delle merci che utilizziamo.
La produzione invisibile L’impatto ambientale non si limita all’estrazione, ma segue nella produzione dei semiconduttori, un processo altamente inquinante e dispendioso in risorse. Infatti, la fabbricazione di chip richiede enormi quantità di acqua purissima ed energia, generando rifiuti chimici e contribuendo allo stress idrico. Ma i detentori del guadagno, con martellanti operazioni di marketing, venderanno tutto come il fascino dell’innovazione. Una volta prodotti i microchip vengono assemblati in grandi impianti asiatici dove si sfrutta la manodopera a basso costo e senza nessuna tutela con condizioni di lavoro dure. Nel passo successivo i dispositivi “intelligenti” passano per hub globali dove vengono testati e confezionati prima della vendita. Ecco il miracolo e prodotto della nostra intelligenza umana: sfruttamento, deregolamentazione e consumo intensivo di risorse, contribuendo alla devastazione ambientale e a profonde ingiustizie sociali. Il tutto sa va sans dire in nome del profitto.
Addestramento delle macchine e il suo c.d. consumo computazionale, che è oggi una delle operazioni più costose e impattanti al mondo. Imparando a riconoscere immagini, comprendere il linguaggio e imitare comportamenti umani. Per addestrare i cosiddetti modelli di linguaggio di grandi dimensioni (LLM), come GPT o PaLM, bisogna elaborare colossali quantità di dati, interi archivi digitali, milioni di siti web, libri, immagini, conversazioni – di cui aziende private si appropriano in maniera indebita, senza alcun limite o consenso. Il tutto viene dato in pasto su enormi cluster di GPU (unità di elaborazione grafica ad alta performance), localizzati in centri dati che consumano enormi quantità di energia e acqua. Acquistiamo tutti la macchina elettrica, usa la bici, compra prodotti sostenibili e tutto il resto in nome della sostenibilità, la nuova bolla speculativa dell’IA, pensata secondo la narrativa, per renderci sempre più comodi e dipendenti consuma in modo massiccio e silenzioso. Un singolo modello linguistico può generare oltre 284 tonnellate di CO₂. Una ricerca pubblicata su Nature Machine Intelligence evidenzia che i consumi elettrici legati all’IA possono superare quelli di intere città europee, soprattutto se l’energia proviene da fonti fossili. Mentre il consumo idrico utilizzato per raffreddare i data center di Google nel 2022, hanno utilizzato oltre 21 Mia di litri d’acqua per mantenere operative le infrastrutture. In nome del progresso, stiamo alimentando una nuova industria ad alto impatto ambientale, che impone al cittadino l’onere della transizione verde.
Il lavoro umano dietro l’automazione, ridimensionato nei centri del capitalismo tecnologico dove si esalta la macchina che pensa viene sistematicamente svalorizzato. Non solo algoritmi e specialisti in camice bianco che generano nuovi algoritmi, ma una forza lavoro globale frammentata e invisibile, che riproduce su scala planetaria le logiche di sfruttamento del capitalismo industriale. I paesi sfruttati nel sud del pianeta, svolgono compiti essenziali per l’addestramento dei modelli: annotano dati, classificano immagini, filtrano contenuti sensibili e forniscono riscontri. Trattasi di un lavoro precario, dequalificato e mal pagato, senza tutele né riconoscimenti, totalmente scollegato dal valore che contribuiscono a generare per le grandi piattaforme dell’IA.
IA e la censura automatica Il “mondo” appreso dagli algoritmi è soggettivo considerando i giudizi e le ideologie dominanti, senza apprende dalla realtà, ma da dati storicamente e culturalmente costruiti. Segnati da disuguaglianze, interiorizzando e automatizzando la visione del mondo della classe dominante e presentandola come neutra e universale. Chi decide i criteri di una macchina che decide? L’IA non automatizza solo processi cognitivi, ma anche pregiudizi, esclusioni e visioni del mondo. Altro che razionalità tecnica, ma scelte politiche nascoste o se preferiamo una forma di dominio codificata in cui emerge come l’ennesima forma in cui il capitale mercifica e sussume il lavoro umano. Ecco tre esempi di criteri manipolati dove il lavoro cognitivo, la capacità di decidere, valutare, adattarsi viene progressivamente trasferito alle macchine.
1) Non è più l’operaio, il rider o l’operatrice di call center a gestire la propria attività, riducendo il lavoratore a un esecutore silenzioso.
2) Dal 7 ottobre 2023, oltre 90.000 post propalestinesi sono stati rimossi direttamente dai social su richiesta del governo israeliano, mentre altri 38 milioni sono spariti a causa degli algoritmi di Meta. ICW denuncia come l’IA sia stata manipolata per censurare contenuti, “avvelenando” i dati per favorire interessi specifici. Non più l’IA neutrale, ma distorta per influenzare informazioni e opinioni, mettendo in dubbio l’imparzialità degli algoritmi usati da Meta, YouTube e altre Big Tech.
3) In Europa emergono usi distorti dell’IA, nel controllo dei flussi informativi durante campagne elettorali, dove gli algoritmi favoriscono certi partiti o temi, o nella gestione delle notizie su crisi migratorie, con rischi di amplificare stereotipi o pregiudizi come il patriarcato o certe etnie nei messaggi di cronaca del crimine. Ultimo tra i tanti esempi è l’uso dell’IA nei sistemi di videosorveglianza sociale, sollevando preoccupazioni su privacy e discriminazioni, specialmente verso gruppi già emarginati.
L’IA ci semplifica la vita? Se da un lato può essere manipolata per censurare contenuti e influenzare l’opinione pubblica, come per recenti casi legati ai social, dall’altro è ormai insostituibile in settori cruciali come sanità, trasporti, finanza, ricerca scientifica ed energia. Una migliora efficienza, sicurezza e qualità della vita è irrinunciabile. Mentre non si presta attenzione all’effetto silenzioso ma invadente subito dal nostro cervello, quando delega troppo all’IA. Non sono contro il progresso, ma ad un uso consapevole. Affidarsi troppo all’IA rischia di indebolire ciò che ci rende umani: il pensiero autonomo, l’emozione autentica, la decisione responsabile. Senza stimoli i neuroni si atrofizzano; a livello sociale, ci isoliamo dietro simulazioni di relazione. L’IA è utile, ma se ci sostituisce, smettiamo di diventare ciò che potremmo essere. Come direbbe Nietzsche, non si cresce nell’agio, ma nella sfida: e l’intelligenza va esercitata, non delegata.
Mario Pluchino
Le lettere nella rubrica “Scrive chi legge” riflettono l’opinione dell’autore e non necessariamente il parere della redazione. Gli articoli impegnano solo la responsabilità degli autori.