“Lo sviluppo dell’intelligenza artificiale completa potrebbe significare la fine della razza umana… Decollerebbe da sola e si riprogetterà a un ritmo sempre crescente. Gli umani, che sono limitati dalla lenta evoluzione biologica, non potrebbero competere e verrebbero superati». Così Stephen William Hawking, fra i più autorevoli e conosciuti fisici teorici al mondo, scomparso nel 2018, metteva in guardia l’umanità sui possibili rischi in caso di avvento dell’intelligenza artificiale (in sigla IA, AI nell’acronimo inglese, ndr). Da allora sono trascorsi diversi anni e quello che sembrava essere un argomento idealmente ancora lontano è diventato, invece, di grande attualità. Ovviamente, come spesso accade, ci sono “due scuole di pensiero”: alcune paventano negatività e addirittura disastri, altre, invece, nutrono giudizi assolutamente positivi per le tante applicazioni e sviluppi che potrà generare.
Nel 1955 per la prima volta l’aggettivo artificiale fu accostato all’intelligenza da John MacCarthy, un informatico e scienziato cognitivo americano, uno dei fondatori della disciplina dell’intelligenza artificiale. Sul grande schermo, invece, il tema è stato portato nel 2001 da Steven Spielberg con la pellicola A.I. – Artificial Intelligence, dove racconta il conflitto causato dall’ingresso dei Robot all’interno della società. Addirittura, ancor prima, in una visione più “casereccia”, nel film Io e Caterina del 1980, Alberto Sordi, un uomo d’affari di mezza età dominato da una forma di maschilismo, decide di mettersi in casa un robot tuttofare dalle fattezze femminili che sbriga le faccende domestiche meglio di una persona in quanto non dorme e non ha bisogno di nutrirsi… Nel 2016, invece, nel Forum economico mondiale si parlò di quarta rivoluzione industriale e quindi in maniera seria e approfondita si pose l’attenzione sull’intelligenza artificiale.
Ma è veramente possibile che un supercomputer possa sostituire completamente l’essere umano in ogni sua funzione? Inizialmente il primo piano nazionale sull’intelligenza artificiale lo ha proposto il Canada, mentre la Cina ne ha fatto una strategia in continua evoluzione. Successivamente si sono aggiunti un’ottantina di Paesi. Potrebbe essere una svolta non solo tecnologica, ma anche culturale, importantissima. Ovviamente, però, andrebbe soppesato bene ogni tipo di ricaduta.
Quanti di noi, ad esempio, sceglierebbero di fare un viaggio in aereo senza il pilota? Chi salirebbe tranquillamente su un autobus o una macchina guidata da un computer? Quali compiti andrebbero delegati all’intelligenza artificiale? Che dire, poi, della sua applicazione in campo militare? C’è da essere tranquilli? I droni kamikaze li consideriamo un progresso tecnologico o un inquietante pericolo?
Gli interrogativi sono tanti e sicuramente le risposte non appaiono tutte semplici e completamente rassicuranti. Naturalmente in tutto questo, come spesso accade, un ruolo fondamentale lo gioca la politica e quindi i governi. Deve partire da loro, infatti, la volontà di mettere a terra i progetti che abbiano solamente ricadute positive a livello globale. Occorre sviluppare delle regole politiche in grado di proteggere i cittadini da rischi molto alti. I favorevoli all’intelligenza artificiale ne parlano in maniera entusiasta. Affermano che con il giusto sviluppo sarà possibile simulare il mondo fisico e quindi studiare l’impatto dei disastri e le eventuali soluzioni. Tra queste anche quella per la crisi climatica.
Sarà così? I temi sul tavolo sono molteplici, a iniziare dalla sorte dei lavoratori destinati a essere sostituiti dall’intelligenza artificiale. Sicuramente parliamo di una grande innovazione, ma come ci insegna la storia, non sempre il progresso produce solo effetti positivi. C’è bisogno, pertanto che le nazioni e le aziende trovino sviluppi e soluzioni che possano apportare solo benefici ai cittadini. Altrimenti, con un’applicazione sbagliata e un utilizzo senza le giuste cautele, l’intelligenza artificiale potrebbe diventare un’arma letale, fisica e sociale. Ci vogliono regole politiche adottate da ogni singolo Paese in grado di proteggere l’essere umano. Essendo quella attuale una fase di sviluppo e di allenamento degli algoritmi, anche se procede a ritmi incalzanti si fa ancora in tempo a intervenire su metodologie comuni e dati omogenei, in modo da avere solo effetti che abbiano al centro il rispetto della vita di ogni essere umano.
Insomma, l’argomento è senza dubbio complesso e delicato, direi scivoloso… Certamente non mancano ombre e interrogativi. I robot, e torniamo alla previsione di William Hawking, soppianteranno integralmente l’essere umano sul lavoro e nel privato? L’intelligenza artificiale, potrebbe trasformarsi in un fiume che s’ingrossa sempre più travolgendo ogni argine?
A questo punto, dunque, c’è bisogno di un cervello veramente scintillante per cercare di dare una risposta a dubbi e paure. E chi meglio della professoressa Rita Cucchiara, una delle massime esperte della visione artificiale, potrebbe aiutarci? Insegna Computer Vision al Dipartimento di Ingegneria dell’università di Modena e Reggio Emilia. Ha diretto il Laboratorio nazionale di intelligenza artificiale e sistemi intelligenti del Consorzio interuniversitario per l’informatica (Cini) ed è coordinatrice del panel di esperti in “Intelligenza Artificiale” del Pnr (Piano nazionale delle ricerche) del ministero dell’Università e della Ricerca. Una vera e propria autorità. Non a caso nel 2018 il suo nome è comparso nella prestigiosa classifica internazionale delle 25 donne più geniali della robotica, stilata da RoboHub, la maggiore comunità del mondo di esperti di robotica. Nonostante l’apprezzata disponibilità e cortesia, non è stato semplice “inseguirla” nelle sue frenetiche giornate, fatte di lezioni universitarie, convegni internazionali, impegni istituzionali, ricerca e tanto altro, mentre le lancette dell’orologio sospingono velocemente il tempo… Alla fine, però, ci siamo riusciti, naturalmente con grande soddisfazione, sia per la complessità dell’argomento, sia per lo spessore del personaggio.
Professoressa Cucchiara, cosa s’intende per intelligenza artificiale?
L’Intelligenza artificiale è una consolidata disciplina informatica che si occupa di definire e progettare sistemi intelligenti, la cui definizione è assai vasta e non univoca Si riferisce a sistemi che mostrano un comportamento intelligente analizzando l’ambiente e compiendo azioni per obiettivi specifici e con un certo grado di autonomia. Parliamo di sistemi capaci di acquisire informazioni dal mondo (dati, documenti, testo, video, eccetera), di ragionare e prendere decisioni, con azioni fisiche come robot, o azioni digitali, come raccomandare un acquisto su Amazon, esibendo un generico comportamento intelligente.
Quali sono i limiti e quali, invece, i benefici?
Parlo prima dei benefici, che sono molteplici. Grazie a nuovi modelli di ragionamento computazionale, realizzati da software su computer, oggi possiamo meglio interpretare i dati incorporando l’esperienza appresa da altri dati supervisionati dalla conoscenza umana. Osservando ad esempio i dati medici e le diagnosi di esperti, si possono replicare simili comportamenti in modo automatico, ma mentre un medico esperto può conoscere un numero limitati di casi e di eventi, un sistema artificiale può elaborare milioni di dati e incorporare l’esperienza di migliaia di esperti. Ugualmente nella finanza, nella manifattura (dove questi sistemi sono utilissimi, ad esempio per predire i guasti o tracciare le modalità di produzione), nella difesa, nell’agricoltura o nell’analisi climatica e nella previsione di disastri ambientali.
Fin qui i benifici. E i limiti?
Ovviamente questi sistemi hanno un limite intrinseco, essendo basati su modelli statistici e dipendenti dai dati con cui sono stati addestrati: non possono, per definizione, essere oracoli esatti, né essere esenti da deviazioni (pregiudizi o bias) a seconda di come sono stati addestrati, esattamente come lo sono gli esseri umani. Ma il limite ancora maggiore è che questo intrinseco comportamento statistico non è compreso e spesso i sistemi sono usati come oracoli esatti. Per negligenza, disinformazione o addirittura per dolo. O ancora peggio, sono usati come sistemi autonomi. I sistemi di IA sono strumenti, non sono un fine e non sono nati per essere totalmente autonomi, come la definizione europea suggerisce, ma per essere a supporto della decisione umana e della nostra vita. Per questo esistono pericoli concreti che sistemi di IA, estremamente utili e sempre più precisi, possano essere considerati in modo acritico come dispensatori di verità.
Esagera chi parla di pericolo che cambierà l’umanità e l’umanesimo?
Credo assolutamente sia una esagerazione. La calcolatrice, che pure fa calcoli meglio di noi, intacca un aspetto profondo della nostra intelligenza, quella logica-matematica, ma non ha cambiato il nostro umanesimo; invece ci ha permesso, grazie ai calcolatori, di esplorare lo spazio, andare su Marte, sconfiggere forme di cancro, creare vaccini o predire eventi catastrofici ambientali. Così può fare l’intelligenza artificiale. Il problema è che ci adeguiamo spesso alla tecnologia ed è facile fidarci di un sistema esterno, ma il nostro umanesimo non sarà intaccato se manterremo il nostro senso critico e i nostri fondamenti morali, e porremo i paradigmi della nostra eticità all’interno dei sistemi stessi, nel definire obiettivi e modelli di verifica del loro comportamento. È possibile farlo.
Quali sarebbero le categorie lavorative più a rischio di sostituzione?
È ovvio che la tecnologia rimpiazza il lavoro automatico, poco critico e ripetitivo. Il telepass, ad esempio, ha tolto lavoro agli addetti ai caselli, oppure ha cambiato il loro lavoro. L’ IA farà lo stesso. È possibile che i call center, gli addetti a risponditori automatici saranno da una parte agevolati e in parte sostituiti da sistemi conversazionali evoluti. Penso che tutte le professioni, soprattutto quelle intellettuali, saranno intaccate e dovranno adeguarsi e non potranno prescindere dalla conoscenza di questa tecnologia. Spesso abbiamo assistito con un minimo di supponenza all’ipotesi di poter trascendere dalla tecnologia, ma il Covid ci ha insegnato quanto l’informatica sia stata importante per la nostra vita. Ad esempio a lavorare da remoto.
Secondo lei quali campi di indagine più interessanti andrebbero esplorati nello sviluppo dell’intelligenza artificiale?
Sono coinvolti tutti i campi del sapere: anche la strategia italiana sull’IA, approvata dallo scorso governo nel 2021, parla di 11 priorità strategiche:
Industria e manifatturiero
Sistema educativo
Agroalimentare
Cultura e turismo
Salute e benessere
Ambiente, infrastrutture e reti
Banche, finanza e assicurazioni
Pubblica amministrazione
Città, aree e comunità intelligenti
Sicurezza nazionale e Tecnologie dell’informazione
Spero che in Italia e in Europa si sviluppi davvero l’IA su tutti questi ambiti. Credo, infatti, che tutti i campi applicativi siano necessari. Pensiamo, se si volesse, quanto potrebbe essere utile al nostro Paese per far emergere l’evasione fiscale… Stiamo applicando l’IA ai documenti storici e religiosi, anche per aiutare gli esperti a comprendere meglio la correlazione tra testi e tra testi e immagini, dando strumenti sofisticati agli archivisti. Io, però, sono interessata allo sviluppo scientifico, perché i modelli di IA del 2023 si sono evoluti molto velocemente e con un relativo supporto limitato dal punto di vista teorico. Abbiamo bisogno di ricerca informatica fondazionale per comprendere i fenomeni, spiegarli e progettarli in modo più robusto. Penso, ad esempio, agli studi attualmente in atto su problemi di interpretabilità e di efficienza dell’apprendimento automatico. I fondi sulla ricerca sono aumentati con il PNRR, ma in Italia sono ancora una goccia nel mare rispetto agli investimenti americani o cinesi.
Nel mondo crescono appelli e petizioni di ingegneri, accademici, scrittori, ricercatori e imprenditori del settore tecnologico per una moratoria su tutte le nuove ricerche che riguardano l’intelligenza artificiale. Ritiene sia giusto?
Ritengo fondamentale che ci sia una concertazione di intenti e una regolamentazione internazionale, così come fu fatta una moratoria sulle armi nucleari, perché questi strumenti sono davvero potenti e se impegnati, ad esempio per le armi letali autonome (cosa che si sta verificando, purtroppo) oppure per disinformazione o per minare la sicurezza e la cyber sicurezza, potrebbero creare conseguenze catastrofiche. L’Europa sta lavorando a una regolamentazione, ma con la lentezza della legislazione, che contrasta sempre più con la velocità dei risultati tecnologici. L’Europa non è del tutto allineata con l’America, anche se molto è stato fatto nell’Ocse, anche grazie all’Unesco. E men che meno è allineata con il mondo asiatico e quello russo. Anche i Paesi arabi stanno sviluppando tecnologia IA sofisticata, grazie agli investimenti ingentissimi in Arabia Saudita e negli Emirati. Abbiamo bisogno di un coordinamento internazionale anche se, nella situazione geopolitica attuale, è indubbiamente complesso. Anche a causa della terribile esperienza bellica che la Russia ha intrapreso recentemente. Coordinarsi e regolare non vuol dire bloccare la tecnologia, io sono contraria a ogni limitazione aprioristica del progetto. Serve però la consapevolezza comune che i principi etici della democrazia e dei fondamenti umani siano sempre rispettati.
Da una parte l’importanza dello sviluppo tecnologico e quindi del progresso, dall’altra il rischio di una deriva sociale ed economica, compromettendo dignità e libertà personali. Come trovare, allora, il giusto compromesso?
La concorrenza selvaggia tra i colossi industriali internazionali e l’atavica lotta tecnologica tra America e Cina quanto rendono difficile se non impossibile un accordo sulle regole del gioco? Come ho detto, oggi il problema è concreto, ancor di più con il conflitto russo in atto. Di fatto vediamo cosa sta causando l’assenza di volontà di collaborazione per il controllo climatico.
In parole semplici ci spiega cos’è Chat GPT?
Chat GPT è un modello di IA, una rete neurale supervisionata (Generative Pre-trained Transformer), ossia addestrata su miliardi di dati, testi e anche immagini, e di tipo generativo. Ossia capace di generare dati, in caso specifico testi anche molto lunghi, sinteticamente corretti in molte lingue e semanticamente verosimili. Rielabora i documenti che ha imparato e crea nuovi testi che, non necessariamente, corrispondono alla verità. Il sistema non comprende i documenti, come noi definiamo la comprensione, ma li conosce, nel senso che li ha imparati in modo molto efficiente e rielaborati. È utilissimo per molti campi, incredibilmente utile per scrivere codici software, riassumere testi o descrivere concetti generici. Non può essere usato per altro, ad esempio per rimpiazzare fonti certe di conoscenza. Considero Chat GPT e tutti gli altri sistemi generativi una magnifica invenzione che sorprende per le sue capacità. Questo è il mio lavoro e conosco bene lo sforzo economico e di forza umana impiegati. Milioni di ore di calcolo per ottenere questi risultati.
Ma come possiamo accorgerci, ad esempio, che un testo che stiamo leggendo non sia frutto dell’intelligenza artificiale?
Questo problema di trasparenza è un fatto concreto. Solo in alcuni casi, e solo attraverso sistemi sofisticati, è possibile accertarlo. Purtroppo, però, non riguarda noi poveri umani che crediamo a ogni cosa letta su Facebook…
A suo avviso, dunque, ci sarà un giorno in cui la “macchina” prenderà il sopravvento sull’uomo? Tenendo sempre presente che la capacita di pensare dell’essere umano è combinata con le emozioni, la passione e le aspirazioni, le paure…
Come ho già detto, i sistemi di IA non sono progettati per prendere “il sopravvento”, ma per risolvere problemi. E naturalmente spero siano sempre più problemi che aiuteranno a vivere meglio. Nessuno di noi sa in che direzione si muovono la scienza e la tecnologia, fatta da milioni di uomini e ora da macchine che cooperano insieme. Invece di chiederci se dobbiamo avere paura, però, credo dovremmo suggerire ai nostri giovani di conoscere, studiare e comprendere la matematica per progettare strumenti informatici sempre più potenti, sicuri e rispettosi dei nostri principi.