Spopola tra gli adolescenti ChatGpt, ed è inevitabile pensare a come potrà essere usata nelle scuole. Cosa cambierà? Saremo in grado di gestirla? Dobbiamo considerarla un’opportunità, una sfida allettante, un potenziale trasformativo o invece dobbiamo preoccuparci, perché lo scenario che si prospetta potrebbe essere inquietante? Cosa dunque dobbiamo aspettarci per i prossimi anni? Eppure, recenti fatti smentiscono l’infallibilità della tecnologia. Si pensi, per esempio, al crollo del mito dei servizi israeliani. Tutta l’intelligence di Israele si è basata sulla sorveglianza elettronica e su sofisticati sistemi di AI, mentre Hamas ha comunicato col mezzo più antico del mondo, ma risultato il più efficace, i famosi pizzini, tanto cari a Bernardo Provenzano. I pizzini sono sfuggiti al controllo elettronico, e hanno permesso l’avverarsi di un cruento attacco. Esce sconfitta la tecnologia pura, che esclude l’uomo e la sua capacità di analisi. Per sopravvivere all’imperio della tecnologia è, dunque, importante conoscerla e dominarla.
I.A. vs uomo?
Soffermiamoci un attimo su ChatGpt, un software disponibile on line in maniera gratuita che compone testi (articoli, tesi, discorsi, traduzioni) secondo le nostre istruzioni. Basta dargli una traccia (un prompt) e questa crea un testo di senso compiuto, addirittura emulando lo stile letterario di un determinato autore. Per i testi ha bisogno di dati da elaborare, che vengono inseriti dall’uomo. Un libro scritto grazie all’I.A. è già stato pubblicato: “Death of on Author”. Si tratta di un “crime”. L’algoritmo ha preso tutte le costruzioni dei libri gialli e ha riprodotto un testo simile.
Ma la domanda è: ci interessa leggere qualcosa che non ha dietro l’umanità di un pensiero? Siamo sicuri che questa sia un’assoluta novità?
Le macchine pensanti sono già in mezzo a noi da anni, sostituendoci in diverse funzioni. Si pensi, per esempio, ad un filtro di bellezza usato nei social, chiamato Bold glamour: scolpisce il naso, modella il viso e dà bagliori da principessa Disney; ebbene questo filtro è una creatura dell’IA. Un’altra curiosità: la Coca-Cola Company ha posto ai suoi consumatori questa domanda: “Di cosa sa il futuro?” Dalle risposte su gusti, desideri, emozioni, colori delle persone, l’AI ha creato bevanda e lattina del nuovo prodotto, Coca-Cola Y3000 Zero Sugar.
Ma allora perché proprio ChatGpt ha creato uno shock generale? Perché ha invaso le attività di massa come l’insegnamento e la scrittura? Il problema non è tanto legato alla possibilità della perdita di lavoro, tutte le grandi rivoluzioni sono state accompagnate da repentini cambiamenti nel mondo del lavoro. Ciò che è più preoccupante è la scomparsa del confine tra realtà e finzione, verità e menzogna. Le potenzialità di manipolare le nostre credulità potrebbero diventare infinite, se non corriamo ai ripari.
Un futuro già passato
I grandi cambiamenti epocali dovuti all’introduzione di nuovi strumenti e forme di conoscenza portano inevitabilmente a modificare la mente umana e il suo modo di ragionare. Basti pensare al passaggio dall’oralità alla scrittura nel mondo greco e ai conseguenziali cambiamenti antropologici, sociali e storici. La scrittura ha introdotto un nuovo stile cognitivo, ha dato l’avvio al pensiero letterario o alfabetico. Un pensiero “argomentato” che procede per analisi e sintesi e lavora non su oggetti concreti ma su concetti. Eppure, Platone si scaglia contro la scrittura. Il filosofo fa dire a Socrate nel Fedro: “La scrittura erra in cerca di un destinatario è disumana, poiché finge di ricreare al di fuori della mente ciò che in realtà può esistere solo al suo interno”. Strano però che le obiezioni che Platone fa dire a Socrate, le presenta attraverso uno scritto e di fatto avvalora ciò che contesta. Anche in quel caso il passaggio non fu solo di natura tecnico-strumentale, ma una trasformazione profonda di pensiero. La scrittura in sostanza ha modificato la mente umana e il suo modo di ragionare. Eppure, nonostante i giudizi critici di Platone, voce autorevole del pensiero filosofico, la scrittura si è imposta contro i fieri difensori dell’oralità.
Ne “La musa impara a scrivere” Eric Havelock fornisce una visione unitaria del periodo in cui la civiltà orale passò alla scrittura.
Gli interrogativi che aiutano a riflettere
Allora è lecito porsi domande come: Cosa significò per la società del passato l’alfabetizzazione? E per noi oggi: Quale significato attribuiamo alla digitalizzazione? Cosa accade alle nostre strutture quando passiamo al digitale? La mentalità di chi non è digitale risulta diversa rispetto a chi è “digitalizzato”? Pensiamo diversamente da come penseremo fra qualche anno? L’invenzione della stampa di Gutenberg ha rivoluzionato il mondo della conoscenza in senso lato e anche allora il cambiamento fu radicale nell’approccio al nuovo strumento di diffusione culturale. In “Galassia Gutenberg: nascita dell’uomo tipografico”, McLuhan sostiene che l’avvento del libro stampato ha prodotto un cambiamento della coscienza. A suo avviso, si passa da una comunicazione in cui era presente un equilibrio tra tutti i sensi ad una tirannia della componente visiva. I caratteri mobili con la loro capacità di riprodurre testi velocemente hanno portato alla ripetitività. Ma anche per quanto riguarda l’invenzione della stampa, la tecnologia ha seguito i suoi percorsi e l’umanità si è adeguata al cambiamento adattando e adottando nuove forme di conoscenza e di apprendimento.
McLuhan ha, invece, connotato negativamente l’invenzione della stampa, perché a suo dire ha imposto alla mente una regressione. “L’introduzione della scrittura e dell’alfabeto richiede un minor impiego della memoria con conseguente intorpidimento della stessa”. McLuhan a tal proposito parla di “narcosi di narciso” ossia il venir meno di facoltà che prima si utilizzavano e che poi vanno progressivamente scomparendo fino all’estinzione.
La tecnologia ci ha però dimostrato che sono possibili nuovi orizzonti di acquisizione dei saperi e che non necessariamente ciò comporta l’intorpidimento a cui accenna McLuhan, semmai si costruiscono nuove dimensioni, con la consapevolezza che il passato è sempre il punto di partenza per visioni future.
Difficile equilibrio tra innovazione e regolamentazione
Come molti ricorderanno, nella primavera del 2023 il Garante della privacy aveva deciso di bloccare per un certo periodo ChatGpt per capire come procedere e soprattutto per limitare i rischi. L’Authority aveva puntato il dito contro “la mancanza di un’informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da Open AI”, sottolineando “l’assenza di una base giuridica che giustifichi la raccolta e la conservazione di dati personali”. Inoltre, il Garante aveva sottolineato l’importanza di tutelare i più giovani, rilevando come, nonostante il servizio fosse rivolto ai maggiori di 13 anni, mancasse un filtro per verificare l’effettiva età degli utenti, in considerazione anche dal fatto che il 20 di marzo del 2023 ChatGpt aveva subito una perdita di dati riguardanti le conversazioni degli utenti.
Sempre in quel periodo, a lanciare un potente grido d’allarme fu Elon Musk, potente fondatore di Open AI che assieme ad altri firmò una lettera, affermando che: “i sistemi di intelligenza artificiale, possono comportare gravi rischi per la società e l’umanità”.
Bloccare ChatGpt non ha fermato per esempio Midjourney, il software con cui sono state create le finte (ma realistiche) immagini dell’arresto di Trump e quelle di Papa Francesco in Moncler sulla neve.
L’AI Act europeo
Per fortuna è intervenuta l’Europa approvando l’AI Act, il Regolamento Europeo (primo al mondo)[1] che si occupa del settore in modo strutturale con lo scopo di: “promuovere l’adozione di un’intelligenza artificiale antropocentricae affidabile e garantire un elevato livello di protezione della salute, della sicurezza, dei diritti fondamentali”.
Ma a dire il vero già nel maggio del 2019 (precisamente 22 maggio del 2019) l’OCSE (Organizzazione per la Cooperazione e lo Sviluppo Economico) aveva emanato una “Recommendation on the Ethics of Artificial Intelligence”. La Raccomandazione era stata elaborata sotto la guida di 50 esperti e rappresentava la prima serie di linee guida politiche sull’AI, ed individuava 5 principi complementari basati su una gestione responsabile dell’AI:
- crescita inclusiva, sviluppo sostenibile, welfare;
- valori umani e correttezza;
- trasparenza e comprensibilità;
- solidarietà, sicurezza e incolumità;
- responsabilità.
Subito dopo l’Europa, è intervenuta anche l’UNESCO, che il 7 settembre del 2023 ha pubblicato la “Guidance for generative AI in education and research”[2]. Lo scopo della guida è quello di: “Supportare i paesi nell’attuazione di azioni immediate, pianificare politiche a lungo termine e sviluppare la capacità umana per garantire una visione delle nuove tecnologie incentrata sull’uomo”. La guida si divide in sei capitoli che vanno da cos’e l’Ai alle questioni etiche e alle regole circa l’uso creativo nell’educazione. Di particolare interesse l’ultimo capitolo intitolato: “Raccomandazioni per i prossimi scenari” poiché offre spunti per incentivare e creare una cultura dell’apprendimento permanente, equa solidale e della cittadinanza responsabile.
Intelligenza artificiale generativa e il futuro dell’educazione
È questo il titolo di un prezioso documento elaborato dalla Vicedirettrice Generale UNESCO, con delega per l’educazione, Stefania Giannini, sulle nuove sfide ai processi di apprendimento. L’AI, come ha dichiarato la Giannini, pone sicuramente nuove prospettive per l’Educazione, ma nel documento, l’UNESCO ribadisce la necessità impellente di agire al più presto per integrare queste nuove tecnologie secondo un modello umano ben regolamentato da linee guida.
Ultima tappa di questo breve excursus: lo scorso settembre la questione AI è arrivata sul tavolo dell’Assemblea generale dell’ONU. Dopo l’Europa, la politica mondiale, consapevole di avere sbagliato vent’anni fa nel non imporre limiti e attribuire responsabilità alle reti social, intende ora fissare rapidamente dei limiti. La tecnologia dell’AI avanza rapidamente e cambia le regole del gioco in molti campi: dall’informazione (e disinformazione) alla medicina (con la possibilità di arrivare molto più rapidamente a nuove cure o a creare micidiali virus da laboratorio) fino ad un impatto sulla politica ancora da scoprire.
All’unisono è emersa l’esigenza di creare una Governance globale. Il riferimento quasi ossessivo è stato quello delle prossime elezioni presidenziale negli USA 2024 e del rischio che l’IA possa diventare uno strumento per manipolare l’opinione pubblica ed inquinare il dibattito politico.
AI e la sfida educativa
Possiamo fermare il vorticoso ed incessante cammino della tecnologia? Se questo non è possibile, e la storia ce lo insegna, il modo migliore allora è quello di informare su come funzionano gli algoritmi e sui rischi legati agli usi scorretti.
Siamo sicuri che quello della manipolazione sia un problema nuovo? Prima che si affacciasse ChatGpt, si stava da tempo studiando gli effetti devastanti dei social media sui giovani. Successivamente il Covid ha acuito alcune situazioni.
Un’imponente letteratura scientifica documenta i danni dei social sulla socializzazione, sulla capacità di concentrazione e di apprendimento. Ma ciò non è bastato a provocare interventi normativi all’altezza del problema. Sono state adottate alcune restrizioni in due poli opposti: la Cina comunista di XI Jinping e lo stato Usa dello Utah, dove vi è una forte componente mormone.
Per non parlare di uno strumento social: Tik Tok, platea e grancassa di vetrinizzazione di massa di ogni genere di individui, che propone la spettacolarizzazione di sé stessi, molte volte anche con immagini diseducative e con linguaggi scurrili.
Si pone quindi un problema che non è più solo educativo ma anche etico.
Siamo in grado di prevedere se l’AI si appropria o si approprierà anche di frammenti di nostri ricordi emozionali? Se così fosse il rischio sarebbe la creazione di una coscienza artificiale (come nel film Blade Runner del 1984).
Come impara l’intelligenza artificiale?
Per noi umani imparare significa acquisire cognizione di qualche cosa. Imparare per l’intelligenza artificiale significa modificare il proprio comportamento in base ai dati e alle informazioni ricevute. I dati sono frutto delle nostre scelte, e quindi anche dei nostri errori e dei nostri pregiudizi. La domanda “quali saranno i comportamenti dell’AI” si fa etica. Anzi algoretica. Le aziende hanno infatti deciso che questi strumenti devono ricalcare il comportamento umano ed essere quindi anche empatici. Non a caso ChatGpt, nella sua versione 3.5, sottolinea di volere offrire un’esperienza conversazionale il più naturale possibile, dando, per esempio, del tu in modo confidenziale. Questa finta umanità può portare ad una serie di conseguenze: le persone tendono ad aprirsi e a raccontarsi (nel film HERdel 2013, il protagonista, per esempio, si innamora di un sistema operativo, poiché ascoltato e consigliato e riceve un illusorio senso di benessere).
Si tratta di una mera illusione, poiché si provano delle emozioni in base a delle riposte, che sono quelle che ognuno vuole sentirti dire. In fin dei conti ognuno interagisci con sé stesso. I più fragili, le persone sole, gli anziani, gli adolescenti poco attrezzati ed informati, sono le persone più esposte.
Questione di… privacy
I rischi maggiori sono poi relativi alla privacy. Queste chat relazionali riescono a raccogliere in maniera scientifica una grande quantità di dati che non si trovano altrove. L’unica risposta che la persona può dare risiede nel sapere. Siamo obbligati a controllare le conoscenze, quindi a studiare di più. Il sapere è vero motore, la nostra arma. Il modo sicuro per garantire il futuro è un costante investimento su noi stessi.
Le competenze digitali o, pià specificatamente, l’alfabeto digitale riguarda tutti. Ma la vera trasformazione passa attraverso le persone, quindi la sfida più importante sarà di promuovere il cambiamento di rotta, lavorare sulla cultura dell’innovazione, che non vuole dire inseguire gli ultimi tecnicismi, semmai predisporsi costantemente al cambiamento, avere apertura mentale, essere capaci di raccogliere le sfide. È essenziale, quindi, investire sulla formazione di tutti (il Life Long Learning) curando specialmente gli aspetti che ci differenziano dall’AI: dall’informazione al sapere, dal sapere alla conoscenza e, poi, a quella coscienza che indirizza verso azioni responsabili. Il compito della scuola è proprio questo: fornire strumenti per affrontare la sfida del futuro che ci attendono.
Oggi i processi si stanno velocizzando in maniera vertiginosa. Basta poco per capire che quello che si è appreso è già stato superato. Un tempo abbiamo scritto le nostre tesi di laurea con i primi computer Apple, abbiamo usato il Fax per comunicare velocemente. Oggi si parla di Spid, di Identità Digitale, e si parlerà ancora di altri strumenti più sicuri, veloci e sofisticati. L’opzione dunque è quella di tenersi al passo coi tempi, imparare continuamente e non sentirsi alienus. Il rischio è che non tutti ce la faranno, che non tutti saranno in grado di riconoscere e difendere i diritti e doveri da cives.
A scuola si parla sempre di più di soft skills, ma non sempre tali competenze vengono affrontate con cura. Lo spirito critico, la curiosità, la capacità di comunicare, l’imparare ad imparare possono costituire la chiave per arginare il pericolo della manipolazione. È importante che ci sia una leadership sempre più diffusa con una forte propensione al cambiamento, motivante e competente: una leadership distribuita nella comunità scolastica che sapèpia fare rete e superare il limes delle discipline stesse.
IA a scuola: nell’organizzazione e della didattica
Open AI (la società di ricerca e distribuzione dell’IA) ha messo a disposizione una guida per tutti gli insegnanti che utilizzano ChatGpt, ricordando che la missione (della società Open AI) consiste nell’apportare benefici all’umanità.
La Finlandia, per esempio, si è data l’obiettivo di spiegare i fondamenti dell’AI all’1% della popolazione per fare in modo che ogni finlandese abbia nella propria rete sociale qualcuno che conosca i fondamentali dell’intelligenza artificiale. Di recente il Ministro Valditara, in un’intervista, ha sottolineato l’uso dell’AI è stata utilizzata per accelerare le nomine degli insegnanti. Un sistema che si è rivelato veloce e che ha sgravato gli uffici amministrativi di compiti spesso lunghi e faticosi.
Senza dubbio l’AI sarà su questo settore potrà diventare uno strumento prezioso. Potrà anche offrire un tutoraggio intelligente per orientare automaticamente i discenti verso risorse specifiche per le loro esigenze di apprendimento. Utilissimo sarà usare l’IA nei percorsi di apprendimento per le lingue straniere o per creare risorse digitali. Per molti insegnanti di sostegno l’IA e l’utilizzo delle tecnologie digitali in genere, favoriranno una maggiore inclusione dei soggetti più fragili o una personalizzazione dei percorsi di apprendimento. Servirà nella valutazione, poiché potrà aiutarci a migliorare sui nostri errori (punti didebolezza e punti di forza) o nell’organizzare meglio una programmazione. Si potrà utilizzare nella tecnica del debate e nei giochi di ruolo, o nella creazione di quiz o test[3].
Spetta, però, all’uomo guidare con buon senso ed etica le potenzialità che essa offre. Avere accesso ad un numero infinito di dati non è un valore aggiunto, se poi non si è in grado di organizzare ciò che serve e farne buon uso.
Quali competenze digitali della Z generation?
La nostra umanità, come afferma lo studioso Luciano Floridi[4], vive contemporaneamente tre distinte ma integrate realtà: quella fisica, quella virtuale e quella aumentata (uomo e macchina). Purtroppo, a scuola interpretiamo ancora con la mentalità analogica, la realtà cyber. Le nuove generazioni dedicano più tempo e maggiore attenzione alle piattaforme informatiche rispetto al tempo dedicato al dialogo e alle relazioni fisiche. Ciò non significa, tuttavia, che la generazione zeta abbia una forte competente digitale. Anzi. Studi recenti ci segnalano che proprio tra i giovani ci sia un diffuso analfabetismo digitale. I nostri ragazzi, anche se definiti nativi digitali, spesso non sanno usare i software fondamentali, fogli di calcolo, elaboratori di testo, non sanno navigare in rete per cercare informazioni in modo consapevole. Non tutti, hanno chiaro il concetto che social media, motori di ricerca e siti web “vendono” i nostri dati.
Queste considerazioni ci inducono a prestare molta attenzione ed impegno nella cura di buone pratiche educative in una logica sistemica.
Le competenze che servono
Va detto che le principali piattaforme, aderendo alle linee guida, hanno assunto un gran numero di moderatori (purtroppo mal pagati), per cercare di risolvere i problemi legati ad episodi di violenza digitale. Ci sono anche dei software mirati, ma non bastano. Per prendere decisioni importanti e complesse, per valutare immagini e testi occorrono persone vere. Ci sono, comunque, le azioni promosse sia dal Piano Nazionale Scuola Digitale-PNSD (2016), sia, più di recente, quelle promosse dal Piano Nazionale di Ripresa e Resilienza – PNRR (2021), che mirano ad arginare il divario digitale e favorire la transizione digitale.
È importante verificare se i docenti hanno competenze tecnologie digitali non solo per migliorare le pratiche di insegnamento, ma anche per svolgere altre funzioni fondamentali: per interagire a livello professionale con i colleghi, con gli studenti, i genitori e la comunità interessata; per la loro crescita professionale; per contribuire al miglioramento dell’organizzazione in cui operano.
Come suggeriscono anche i documenti europei, le abilità tecniche non bastano. La competenza che conta è quella che permette di cercare, di scegliere, di valutare le informazioni in rete, è quella che crea responsabilità nell’uso dei mezzi, sempre più sofisticati, per non nuocere a sé stessi e agli altri.
Considerazioni finali
In un recente ed interessante articolo di Carlo Petracca, dall’emblematico titolo, “Essere insegnante oggi”, lo studioso ribadisce che non dobbiamo dimenticare che la scuola è soprattutto educazione, non dicotomia tra istruzione e educazione, ma perfetta armonizzazione. Oggi abbiamo ancora più bisogno di ricostruire insieme una nuova Paideia. Sempre Petracca fa riferimento alla paideia del mondo greco, intrisa di humanitas e philantropia, ed intesa come attenzione da rivolgere ai nostri simili. Concetti, questi, ripresi poi in epoca rinascimentale e successivamente dall’Illuminismo. Ma andando ai nostri tempi, si interroga sempre Petracca, c’è una paideia?
Oggi assistiamo all’avanzare di quello che potremmo definire post umano[5]. Allora, per dirla con Petracca, bisogna recuperare un “forte respiro educativo”. Il rischio, a cui assistiamo, è legato all’avanzare del cosiddetto analfabetismo funzionale o di ritorno. Ad esempio, l’Italia è ultima a livello europeo nella comprensione del testo. Quale antidoto allora?
- Valorizzare la flessibilità: il genere umano è sopravvissuto grazie alla sua capacità di adattarsi velocemente alle mutate condizioni ambientali. Quindi va valorizzato tutto quanto ci rende adattabili.
- Lavorare sull’istruzione di base: ovvero sulla capacità di leggere, scrivere, comprendere e fare di conto.
- Ripensare a come si trasmette il sapere: non significa informatizzare tutto, ma lavorare sulle leve psicologiche che aiutino bambini, adolescenti, ma anche adulti, ad aver voglia di imparare. Lavorare sulla motivazione, sulla gestione della noia, sulla dimensione creativa dell’apprendimento.
[1] Vedi R. Seccia, AI Act dell’Unione Europea Un regolamento per armonizzare la diffusione dell’IA, in Scuola7-393, 29 luglio 2024,
[2] Vedi M. Spinosi, Una nuova frontiera per l’educazione. I temi dell’IA affrontati alla Summer School di Ischia, in Scuola7-393, 29 luglio 2024,
[3] Vedi G. Benassi, IA potenzialità per la didattica. Strumenti di lavoro e riflessioni sui processi educativi, in Scuola7-393, 29 luglio 2024,
[4] Luciano Floridi, Luciano Floridi è un filosofo italiano naturalizzato britannico, professore ordinario di filosofia ed etica dell’informazione presso l’Oxford Internet Institute dell’Università di Oxford, dove è direttore del Digital Ethics Lab, nonché professore di Sociologia della comunicazione presso l’Università di Bologna. È conosciuto per il suo lavoro di ricerca filosofica riguardante: la filosofia dell’informazione, la filosofia dell’informatica e l’etica informatica. È anche conosciuto per avere coniato il termine “onlife”.
[5] Il termine post-umano è stato coniato da Edgard Morin nel suo libro “Conoscenza, ignoranza, mistero”. Morin afferma che la tecnologia richiede di essere accompagnata, regolata, guidata da una metamorfosi etica, culturale e sociale.