L’era dell’intelligenza artificiale

Dalle prime macchine alle sfide etiche

La vita dell’uomo, da sempre, fin dall’Homo habilis, è stata accompagnata dalla interdipendenza con gli utensili: elementi fondamentali che hanno determinato, e continuano a determinare, le varie fasi evolutive.

Durante l’età cacciatori-raccoglitori-nomadi, l’uomo utilizzava utensili di legno, di ossa o pietra capaci, successivamente, di accendere e controllare il fuoco. In seguito, l’età del metallo ha determinato i cambiamenti nelle strutture sociali dell’umanità: l’evoluzione degli utensili si è trasformata in evoluzione delle tecnologie e, in particolare, nel tentativo dell’uomo di moltiplicare e velocizzare le proprie capacità o impadronirsi, copiandole, delle capacità del regno animale (si pensi agli uccelli e alla riproduzione del volo con gli aerei, oppure all’utilizzo degli ultrasuoni dei pipistrelli e alla costruzione dei radar, …).

Indubbiamente, il tentativo di aumentare, velocizzare e riprodurre alcune funzioni del cervello umano è la frontiera più avanzata dello sviluppo tecnologico attuale, iniziato oltre 500 anni fa.

Dalle ruote dentate ai meccanismi di moltiplicazione e divisione

Nella storia dello sviluppo tecnologico, per migliaia di anni, gli utensili per il calcolo manuale sono stati gli unici strumenti usati a causa della incapacità ad automatizzare il “riporto”. Si è dovuto arrivare al XVII secolo affinché si potesse intuire che i complessi meccanismi degli orologi, costituiti da ruote dentate, potevano essere utilizzati per velocizzare le operazioni basiche di calcolo.

Blaise Pascal nel presentare la “Pascalina”, una macchina di calcolo capace di eseguire addizioni e sottrazioni e, quindi, moltiplicazioni e divisioni come ripetizioni di addizioni e sottrazioni, scriveva “Tu mi sarai grato dell’impegno di cui mi son fatto carico per fare in modo che tutte le operazioni che con i metodi precedenti erano penose, complicate, lunghe e mai sicure diventassero ora facili, semplici, veloci e affidabili”.

Nello stesso secolo, successivamente, Gottfried von Leibniz, che riuscì a migliorare i meccanismi per le moltiplicazioni e le divisioni, scriveva “Non è degno di un uomo eminente perdere tante ore, come uno schiavo, in lavori di calcolo che chiunque potrebbe risolvere se venisse utilizzata una macchina”: è proprio questo concetto che continua ad essere lo stimolo dell’attuale evoluzione tecnologica.

Le schede perforate

Bisogna, però, attendere il XIX secolo per la prima teorizzazione di una macchina, concettualmente simile al computer attuale, da parte di Charles Babbage, che, con l’utilizzo delle schede perforate, rappresentavano gli attuali programmi.

Poco dopo, negli Stati Uniti, Hermann Hollerith, realizzò una macchina, adottata dall’Ufficio del Censimento Americano, per velocizzare l’analisi del Censimento del 1880 basandosi sempre sull’applicazione delle schede perforate ma gestite in modo completamente diverso da quanto progettato da Babbage. Con l’arrivo dell’elettricità si rese finalmente disponibile la tecnologia di base per l’attuazione materiale di quanto teorizzato da Babbage perché gli elementi meccanici potevano così essere sostituiti da circuiti elettrici e interruttori. Bisogna però arrivare a metà del XX secolo, per il primo vero sistema di elaborazione non basato su relè ed interruttori, bensì su valvole termoioniche.

Eniac e Edvac

La nuova macchina, chiamata Eniac, fu in grado di eseguire 500 operazioni al secondo. I dati e le istruzioni non venivano più memorizzati, nel sistema di elaborazione, con schede perforate ma con una serie di interruttori aperti o chiusi. Le sue dimensioni erano enormi, 30 tonnellate di materiale e, in particolare, ventimila valvole termoioniche (la stessa capacità di memoria, attualmente, è invisibile all’occhio umano) sviluppavano temperature così elevate che, insieme ai relè, richiedevano costantemente un intervento manuale di una squadra di 10 manutentori.

I principali progettisti dell’ENIAC, successivamente, progettarono un nuovo sistema, l’Edvac, con memoria a lettura e scrittura (quella dell’Eniac era a sola lettura) basato sul sistema di numerazione binario. Nella storia dello sviluppo dei computer, l’importanza dell’Edvac è rilevante perché concettualmente basato sullo schema architettonico disegnato da von Neumann (fondamentalmente lo stesso modello su cui sono basati la maggior parte dei computer moderni). È doveroso ricordare che l’esigenza generatrice dell’Edvac fu la necessità di dover eseguire il più velocemente possibili calcoli balistici per artiglieria pesante.

Il computer prima del computer

Nella metà degli anni ’30 del XX secolo, Alan Turing pubblicò l’articolo On computable numbers, in cui descriveva una macchina ideale che illustrava esattamente limiti e possibilità del computer, prima che questo venisse effettivamente costruito: una “macchina astratta” che ha costituito la base teorica del moderno computer. Anche in questo caso, lo stimolo bellico della Seconda Guerra Mondiale relativamente alla necessità di decifrare i codici segreti nazisti offrì a Turing l’opportunità di verificare concretamente le proprie idee (la necessità di decifrare il funzionamento di ENIGMA, la macchina che i tedeschi usavano per mettere in cifra tutte le loro comunicazioni radio di servizio). La base fondamentale della teorizzazione di Turing e della macchina universale (contrariamente ai sistemi dedicati che utilizzavamo e utilizziamo ogni giorno, lavatrice, ascensore, …), supporto degli attuali sistemi di elaborazione, è data dalla possibilità di cambiare programma che permette alla macchina di trasformarsi e dare risposte differenti.

Dalla metà del XX secolo ad oggi, i progressi dal punto di vista tecnologico sono stati notevoli. Dalle valvole si è passati alla ferrite, poi ai circuiti a base di silice e alla loro microminiaturizzazione, fino ad arrivare alla maggiore efficienza degli ossidi di metalli di transizione e ai materiali quantistici.

Cibernetica e automazione dei processi

Lo sviluppo evolutivo di tali macchine ha rivelato l’estrema capacità di “imitare il comportamento umano, gettando, quindi, una nuova luce sulla possibile natura di questo comportamento. Essi hanno anche rivelato una terrificante attitudine a sostituire la macchina-uomo in tutti quei casi in cui essa è relativamente lenta ed inefficace”[1]. Così, negli anni 50 del XX secolo, comincia a svilupparsi la cibernetica, cioè una scienza, pura e applicata, che ha lo scopo di studiare e realizzare dispositivi e macchine capaci di simulare le funzioni del cervello umano, autoregolandosi per mezzo di segnali di comando e di controllo in circuiti elettrici ed elettronici o in sistemi meccanici.

L’automazione dei processi, attraverso delle macchine, è portatrice, nella visione diffusa non scientifica, di una sorta di “elemento magico” dal momento che il suo funzionamento è nascosto o non immediatamente comprensibile dall’utente umano (si pensi al fatto che un computer è capace di effettuare centinaia di milioni di operazioni in un solo secondo): da un punto di vista psico-sociale tende, quindi, a produrre un’immagine dai connotati magici.

La magia della lavatrice

Gilbert Simondon, in Psychosociologie de la technicité, spiega che “l’oggetto domestico è spesso accusato di meccanizzare la vita: ma in realtà è la donna in una situazione domestica che chiede a una lavatrice o ad altre macchine di sostituirla in un compito difficile che ha paura di far male. Le fiabe ritraggono noi ex casalinghe, cariche di lavoro, che ci addormentiamo mentre lavoriamo, prese dallo sconforto; ma le fate le sorvegliano, e le formiche o gli gnomi vengono a lavorare durante la notte. Quando si svegliano, tutto è chiaro, tutto è pronto. La lavatrice moderna è magica in quanto è automatica, e non in quanto è una macchina. È questo automatismo che si desidera, perché la casalinga desidera vicino a sé, per darle coraggio, un’altra casalinga, oscura e misteriosa, che sia lo spirito benevolo della lavanderia, così come il frigorifero è quello della cucina moderna. “Moderno” significa “magico”, per il subconscio individuale dell’utente”[2]. Sulla base di queste affermazioni, i produttori e i venditori cercano di “catturare fame di magia”[3] dei loro potenziali clienti. La complessità, così definita a livello psicosociale, concepisce e genera la sensazione di magia. La capacità ripetitiva dei computer assicura la risoluzione del compito e quindi libera l’uomo dall’ansia da prestazione. L’uomo si aspetta dalla tecnologia l’automazione magica anche se tale esigenza è soddisfatta in modo imperfetto e illusorio: l’automazione di un processo avviene attraverso l’interazione ripetuta di modelli semplici, ma in evoluzione, prendendo in considerazione alcuni feedback (retroazioni) e inserendoli in uno schema esistente.

Un rischio per la democrazia

Il matematico Norbert Wiener, famoso per le sue ricerche sul calcolo delle probabilità, mentre aveva contribuito allo sviluppo della cibernetica (tanto da esserne considerato il padre), allo stesso tempo, aveva sviluppato un profondo pessimismo sull’evoluzione dei sistemi di controllo e comunicazione: razzi, robot, catene di montaggio automatizzate, reti di computer, sono tutti derivati da applicazioni di ingegneria cibernetica. In piena guerra fredda Wiener metteva in guardia sul rischio, per le democrazie, di combattere il totalitarismo con le armi del totalitarismo stesso, costruendo servomeccanismi: sistemi di retroazione in grado di scatenare un’apocalisse nucleare semplicemente premendo un pulsante.

Verso l’Intelligenza Artificiale

L’evento seminariale del Dartmouth College, organizzato da John McCarthy, Marvin Minsky, Nathan Rochester e Claude Shannon nel 1956, fu reso possibile grazie al fatto che McCarthy, uno degli organizzatori, aveva coniato il termine “Intelligenza Artificiale” per ottenere i finanziamenti dell’evento perché voleva distinguersi dalla “vecchia” cibernetica. Tale termine, “intelligenza artificiale”, introduceva, in modo illusorio, un riferimento diretto all’intelligenza anche se, di fatto, si trattava pur sempre di automatizzare sistemi di controllo e comunicazione. Durante il convegno di Darmouth ebbero un ruolo basilare i lavori di Alan Turing, che in quegli anni aveva scritto un articolo intitolato Computing machinery and intelligence, in cui proponeva l’idea che una macchina poteva essere considerata intelligente se il suo comportamento, osservato da un uomo, fosse considerato indistinguibile da quello di una persona (da tutto ciò sono nati i diversi approcci come la “logica matematica” e le “reti neurali”, base del “Deep learning”).

Dal dibattito circa l’IA scaturirono due diverse correnti di pensiero:

  • chi riteneva che le macchine fossero in grado di sviluppare una coscienza di sé (IA Forte), dando origine al campo di ricerca nominato Intelligenza Artificiale Generale (AGI), che studia sistemi in grado di replicare l’intelligenza umana;
  • chi riteneva possibile realizzare sistemi in grado di svolgere una o più funzioni umane complesse senza che le macchine sviluppate avessero coscienza delle attività svolte (IA Debole).

Basandosi proprio sul secondo paradigma che, a partire dagli anni ’80 del XX secolo, è iniziata la realizzazione delle prime applicazioni di Intelligenza Artificiale nell’industria.

Il dibattito oggi

Oggi l’IA è al centro del dibattito e delle ricerche avanzate dell’informatica circa il ragionamento e l’acquisizione della conoscenza, la comunicazione e l’integrazione con oggetti ed esseri viventi, nonché l’apprendimento autonomo. Da ciò sono nati il Machine Learning, l’elaborazione del linguaggio naturale, l’AI Generativa (di cui ChatGPT è un esempio) e la robotica. In base alla teorizzazione di Alan Turing, un sistema di elaborazione deve programmare il linguaggio naturale al fine di essere in grado di comunicare, rappresentare la conoscenza cioè immagazzinare informazioni, ragionare in maniera automatica utilizzando le informazioni immagazzinate per trovare risposte a domande e scoprire nuove specifiche conclusioni, apprendere in maniera automatica al fine di adattarsi alle circostanze e determinare nuovi modelli.

Quindi, l’intelligenza artificiale, o IA, è possibile definirla come una tecnologia che consente a computer e macchine di simulare l’intelligenza e la capacità di risoluzione dei problemi degli esseri umani agendo su una banca dati di comportamenti deterministici.

L’IA simbolica ha tracciato percorsi relativi alla rappresentazione della conoscenza e all’uso di regole e inferenze, mentre il machine learning e il deep learning hanno rivoluzionato l’approccio all’apprendimento automatico, consentendo alle macchine di apprendere da grandi quantità di dati.

L’intrusività dell’IA nella vita quotidiana

La nostra vita quotidiana è ormai permeata da applicazioni che utilizzano l’IA più di quanto noi possiamo pensare:

  • chi possiede un terminale Apple e utilizza Siri, o chi utilizza Alexa di Amazon, o, ancora, chi utilizza Google Assistant, senza saperlo, utilizza l’IA perché essa è la base della comprensione delle domande degli utenti effettuate vocalmente;
  • quando si utilizza un motore di ricerca in internet implicitamente si utilizza l’IA perché essa è alla base del miglioramento della ricerca personalizzata in base alle diverse ricerche effettuate in precedenza;
  • quando utilizziamo un social network e cerchiamo di taggare le persone nelle foto, implicitamente utilizziamo l’IA per il riconoscimento visivo o l’organizzazione delle foto in base al contenuto;
  • quando utilizziamo i network video che ci suggeriscono film, documentari e serie tv in base alle nostre preferenze, implicitamente utilizziamo l’IA che analizza la cronologia memorizzata dell’uso che facciamo di tali prodotti;
  • quando utilizziamo Google Traslate implicitamente utilizziamo l’IA che ottimizza la traduzione dei testi attraverso l’apprendimento dei dati degli utenti;

 Si potrebbe continuare, ad esempio, con i settori della finanza, dei giochi, della sanità, degli assistenti automatici online o vocali.

Gli algoritmi che cambiano la vita

Gli attuali sistemi di IA sono strutturati per acquisire dati e costruire regole al fine di modificare tali dati in informazioni impiegabili. Queste regole non sono altro che gli algoritmi, cioè una descrizione analitica, passo dopo passo, della strategia risolutiva di un’attività, che necessita di tre abilità specifiche: apprendimento, ragionamento, autocorrezione. Quindi, in generale, i sistemi di IA non sono altro che dei sistemi che riescono a processare un’enorme quantità di dati, in tempi relativamente brevi, creando correlazioni e modelli previsionali, impegnati in numerosissime aree del nostro operare.

L’IA, proprio per la sua funzione, di “imitare” il comportamento umano, genera, in modo ambivalente, sia entusiasmo per le opportunità di miglioramento degli strumenti a nostro servizio e sia preoccupazione per le possibili conseguenze, a partire dai possibili problemi di equità tra singoli cittadini, tra ceti sociali, tra nazioni. Come tante altre invenzioni/costruzioni dell’uomo, il rischio è che potrebbe essere usata sia a favore dell’umanità che come “utensile” non benevolo.

Quali sfide etiche

Così, mentre continua lo sviluppo dell’IA, è fondamentale considerare le sfide etiche e sociali che ne derivano. La privacy, la sicurezza, la responsabilità e l’impatto sociale, sono elementi fondamentali per garantirne un utilizzo responsabile e benefico. Come affermava Melvin Krantzberg, uno storico statunitense, “La tecnologia non è né buona, né cattiva, né neutrale”. Uno degli argomenti etici da affrontare è il fatto che l’IA non è sotto il controllo né degli utenti, né dei programmatori, ma dei pochissimi attori che detengono la proprietà della conoscenza immagazzinata, usata dalle procedure di IA: tale proprietà definisce una elevata concentrazione di potere.

Nuovi sentieri e responsabilità educative si affacciano all’orizzonte: educazione allo sviluppo del senso critico tra processi già “confezionati” e libertà identitaria dell’individuo.

La storia dell’uomo è piena di grandi sogni visionari che da “fantascienza” sono divenute, nel tempo, realtà. L’attrazione per l’evoluzione tecnologica, la ricerca e le sfide non hanno mai termine all’interno della nostra umanità. Come afferma Roberto Maragliano, “Fa cambiare atteggiamento nei confronti del mondo e dei nostri modi di pensarlo, indagarlo, temerlo. È un fondamentale ghostbuster“.


[1] Norbert Wiener, Introduzione alla cibernetica, 1966, pag. 16.

[2] Gilbert Simondon, Psychosociologie de la technicité, Presses Universitaires de France, 2014, pp. 76-77.

[3] Ivi, p. 76.