Il 2040, tra soli quindici anni, è il termine entro cui gli studiosi oggi prevedono il definitivo cambiamento dei modelli socio-economici con cui oggi conviviamo.
A guidare queste innovazioni sarà lo sviluppo della Intelligenza artificiale-AI, che in tal modo influenzerà anche lo sviluppo delle preferenze di consumo e l’orientamento delle pubbliche amministrazioni.
È una previsione che sta mobilitando la comunità scientifica affinché questo cambiamento avvenga in modo responsabile, ovvero eviti rischi come la disinformazione e le manipolazioni dei sistemi informatici in forma nascosta, come vedremo fra breve.
Si tratta di osservazioni solo apparentemente astratte, ma che diventano di pubblico e concreto interesse non appena ci si rende conto che l’odierno sviluppo delle applicazioni digitali da un lato avviene grazie alla interconnessione fra le competenze umane, la globalizzazione delle comunicazioni mediatiche e delle metodiche industriali, ma al medesimo tempo ha proprio la intelligenza artificiale-AI come comune denominatore.
Il problema risiede nel fatto che le priorità della coscienza artificiale sono aperte ad ogni possibile evoluzione e quindi parimenti sensibili ad alterazioni che è sempre più complicato intercettare.
Questo il tema del report “Affidabile, sicura ma gestita in modo responsabile: sono i presupposti della informatica nel 2040”, allestito dagli esperti della Lancaster University, fra i più autorevoli centri di ricerca del Regno Unito, e condiviso anche dai canali informativi dal World Economic Forum di Ginevra.
Opinione concorde fra i “futuristi” che sono stati intervistati, opinion-leaders in ambito mediatico, economico ed accademico, è che lo sviluppo della AI nel prossimo quindicennio debba avvenire in modo responsabile, evitando che alcuni stati possano avvantaggiarsene in modo competitivo a danno delle economie e delle società più deboli.
“Nessuno mette in dubbio” ha osservato il Professor Charles Weir, docente in Computing & Communications presso la Lancaster University ed a capo del team dei ricercatori che hanno allestito lo studio, “che il progresso tecnologico anche in futuro porterà notevoli benefici, ma sarà anche portatore di problematiche i cui effetti oggi fatichiamo persino a prevedere, e che invece dovremo imparare a controllare per evitare evoluzioni poi difficili da risolvere.”
Fra i principali accusati, segnala il report, c’è la disinformazione, la alterazione strutturale e non percepibile di quella che la pubblica opinione può considerare come verità attendibile. Semplificando, questa non è che la evoluzione di quelle che oggi conosciamo come fake news, la manipolazione della cronaca di giornata.
Con la disinformazione, avverte il report, invece sarà difficile che la pubblica opinione distingua la verità da una interpretazione verosimile dei fatti, quest’ultima ancor più pericolosa non appena si iniziano a prevederne le alterazioni sul dialogo democratico e la convivenza sociale.
“Constatiamo”, aggiunge il Professor Weir, “che effettivamente la disinformazione è già presente nella comunicazione dei social media e di alcuni stati sovrani. Ma prevediamo che entro i prossimi 15 anni le digitalizzazione renderà ancora più facile la diffusione di contenuti informativi alterati”.
A favorire la disinformazione poi arriverà anche il quantum computing, per il quale è opportuna una breve spiegazione. Mentre la odierna intelligenza artificiale esamina in modo globale una tematica specifica, i computer quantistici invece sono in grado di elaborare in parallelo e contemporaneamente ogni e qualsiasi altro argomento collegato ed attinente a quello iniziale.
Muovendo da queste premesse, come anticipavamo, gli esperti anticipano l’arrivo di nuove problematiche.
Innanzitutto va evitato che le nazioni più avanzate utilizzino il potenziale delle loro attività digitali per imporsi a livello globale, sfruttando capacità tecniche che altri stati sovrani non sono in grado di individuare e quindi neppure di contrastare.
Al medesimo tempo, la intelligenza artificiale renderà ancor più difficile separare la realtà dalla apparenza, ed in particolare farsi una opinione su ciò che può essere considerata una semplice notizia di cronaca dall’inizio di una strategia di propaganda. Già oggi, ad esempio, ce ne rendiamo conto quando cerchiamo di interpretare le breaking news che riferiscono dei conflitti militari in varie parti del mondo.
In futuro, questa difficoltà a riferire e parimenti ad interpretare le notizie sarà accresciuta dal moltiplicarsi di basi informative provenienti da fonti decentralizzare, complesse, tutte perfettamente verosimili, ma in altrettanto perfetto e reciproco contrasto.
Per risolvere questi problemi, le pubbliche amministrazioni internazionali sono già oggi chiamate a regolamentare l’accesso e l’utilizzo delle competenze digitali, oltre che predisporre basi normative più severe a contrastarne gli abusi.
Ma anche il mondo accademico può svolgere un ruolo importante.
In particolare, insegnare alle nuove generazioni che le competenze informatiche debbono essere finalizzate al progresso sociale, e non allo sviluppo di una coscienza artificiale fine a se stessa.
Anche in futuro questi potenziali abusi, come già oggi accade, è infatti necessario debbano confrontarsi con normative adeguate a garantire il regolare ordine delle nostre società.
Sia pure nella forma evoluta che vivremmo nei prossimi anni.
di Andreas Grandi e Nicoletta Tomei