Algoritmi della memoria: Intelligenza artificiale, sapere storico e informazione digitale. Intervista a Federico Mazzini
Abstract
Federico Mazzini, professore di Digital History e History of Media and Communication all’Università di Padova, riflette in questa intervista su come l’intelligenza artificiale stia modificando l’approccio al sapere storico. A partire da strumenti consolidati come Google e Wikipedia fino ai modelli generativi più recenti, l’IA apre nuove modalità di accesso, organizzazione e interpretazione dell’informazione storica, basandosi su fonti esclusivamente digitali. Questa evoluzione solleva interrogativi, ma anche opportunità, su come oggi costruiamo, trasmettiamo e interroghiamo il passato attraverso le tecnologie.
______________________
Federico Mazzini, Professor of Digital History and History of Media and Communication at the University of Padua, reflects in this interview on how artificial intelligence is changing the approach to historical knowledge. Starting from established tools such as Google and Wikipedia to more recent generative models, AI is opening up new ways of accessing, organising and interpreting historical information, based on exclusively digital sources. This evolution raises questions, but also opportunities, about how we construct, transmit and interrogate the past through technologies today.
Negli ultimi anni l’intelligenza artificiale sta progressivamente trasformando il modo in cui si produce, si conserva e si analizza l’informazione in molti settori, incluse le discipline umanistiche. In ambito storico, si affacciano nuove possibilità legate all’elaborazione automatica delle fonti, all’analisi di grandi quantità di dati testuali e visivi, alla generazione di narrazioni e persino alla valorizzazione della memoria pubblica. Alla luce di queste trasformazioni, quale ritiene possa essere – oggi e in prospettiva – il ruolo dell’intelligenza artificiale nella ricerca storica, sia in termini di strumenti utili che di rischi o limiti da tenere in considerazione?
Iniziamo da un distinguo. In questa intervista quando dirò IA intenderò Intelligenza Artificiale generativa – quella basata su Large Language Models (LLM) che ha avuto una esplosione negli ultimi dieci anni e un largo uso da parte di non specialisti negli ultimi tre. GPT, per intenderci, o modelli rivali quali Gemini, Claude o Llama. Se intendessi intelligenza artificiale tout court – comprendendo ogni forma di machine learning, natural language processing e machine vision – le mie risposte sarebbero molto diverse: ad esempio in questo caso le risponderei che la IA ha già un ruolo nella storiografia, nella digitalizzazione e nell’archiviazione delle fonti, e in svariati strumenti di trascrizione, text mining, analisi di network, metadatazione…
Riguardo alla IA generativa è invece molto difficile fare previsioni. Allo stato attuale delle cose i chatbot hanno un’utilità molto limitata per la ricerca. Il problema delle “allucinazioni”,[1] difficilmente risolvibile senza interventi radicali dal lato sviluppo, rende ogni risposta un tiro di dado. Questo è in qualche modo accettabile per domande triviali ma diventa cruciale per risposte che possono dirigere la ricerca storica e magari essere trasposte in una pubblicazione scientifica. Spesse volte il tempo impiegato a scovare eventuali “bugie” è di poco inferiore a quello che si sarebbe impiegato con metodi di ricerca di informazioni più tradizionali.
Anche guardando al futuro non vedo alcuna applicazione realmente utile dei LLM a livello di scrittura e narrazione della storia. Tutti gli usi potenziali che mi vengono in mente riguardano la gestione delle informazioni. Primo tra questi è probabilmente quello archivistico. Nel momento in cui gli archivi digitali diventano sempre più grandi e difficili da percorrere, un LLM può aiutare sia nell’attribuzione di metadati che nell’individuazione di campi semantici che possono in parte sostituire i metadati. Questo è particolarmente vero per gli archivi di pagine web, che così importanti saranno per gli storici del futuro ma che, per le loro dimensioni e per le modalità automatizzate della raccolta delle pagine, sono ad oggi molto difficili da consultare.
Un secondo uso, ben più affascinante e difficile, è l’analisi delle fonti. La IA potrebbe diventare un assistente al quale chiedere di individuare informazioni o pattern all’interno di un corpus da noi definito, rendendo alcune tecniche di storia digitale (network analysis, text mining, sentiment analysis…) molto più facili e accessibili. Ovviamente per arrivare a un risultato del genere occorre minimizzare le allucinazioni. E per farlo occorrono strumenti di intelligenza artificiale pensati appositamente per la ricerca storica. Strumenti, cioè, che abbiano almeno le seguenti caratteristiche: 1) possibilità di controllare agevolmente l’origine della risposta nei testi che fanno parte del language model. 2) Possibilità di attribuire profondità cronologica ai lemmi che compongono la risposta (per i modelli attuali ogni testo ha lo stesso valore statistico, sia che sia stato scritto nel Settecento sia che sia stato scritto oggi). 3) Possibilità di leggere metadati definiti dal ricercatore (di modo da poter delimitare le fonti della risposta a seconda di parametri quali la tipologia di testo, il periodo di produzione, il medium…). 4) Possibilità di fornire i propri testi (le fonti) e dare loro priorità rispetto a quelli che compongono il LLM.
Avremo mai strumenti di questo tipo? Il punto 4 è già disponibile in piattaforme come Google Notebook LM, ma siamo ben distanti dagli altri. Molto dipende dal destino della tecnologia nel suo complesso. Se, come molti pensano, si troverà un modello economico di successo per la IA (per ora inesistente: gli abbonamenti non sono sufficienti a coprire le enormi spese che ogni risposta di un chatbot comporta o gli investimenti per l’addestramento di modelli sempre più complessi) è probabile che vedremo un proliferare di usi diversi, anche in campi finanziariamente poco allettanti come quello della ricerca storica.
Qual è la sua opinione sull’uso, e talvolta abuso, dell’intelligenza artificiale da parte degli utenti – in particolare degli studenti – che tendono a utilizzarla sempre più frequentemente come se fosse un motore di ricerca tradizionale? (Si consideri, ad esempio, l’integrazione di Gemini nell’interfaccia di Google).
In primo luogo non sono certo di quanto sia per ora diffuso il fenomeno.[2] Google sostiene di non aver visto un calo nell’uso della sua ricerca tradizionale, e la sua scelta di integrare Gemini in Search può essere dovuta alla volontà di pubblicizzare il servizio e promuoverne l’uso a scapito dei concorrenti. La ricerca tramite LLM non specializzati (ChatGPT, Gemini, Claude) lascia ancora molto a desiderare, mentre strumenti specializzati come Perplexity sono ancora poco conosciuti, almeno in Italia. La possibilità che la ricerca web via LLM sostituisca quella per parole chiave via motore di ricerca tuttavia senza dubbio esiste, e presenta anche per gli storici problematiche inedite.
Quando gli accademici di area umanistica si sono accorti di ChatGPT la prima preoccupazione è stata per il plagio. La fine dei compiti a casa e delle tesi di laurea. E’ una preoccupazione certamente legittima, ma allo stato attuale – quando la scrittura dei chatbot è arida, servizievole e senza vita – forse esagerata. Come docenti abbiamo sbagliato, in passato, ad accettare che alcuni nostri studenti scrivessero male. L’arrivo della IA dovrebbe spingerci a chiedere di più, a rimettere la capacità di espressione al centro e a pretendere che gli studenti di storia sappiano sempre scrivere meglio di un chatbot. Più facile a dirsi che a farsi, certo, ma c’è una via d’uscita: essere più esigenti, sapendo che la AI è uno strumento a disposizione degli studenti.
Quello che mi preoccupa di più, come giustamente sottolinea la domanda, è l’uso acritico della IA nella ricerca di informazioni. Come docente di Digital History dedico un modulo a come giudicare la storia online. E’ possibile insegnare lo spirito critico nei confronti delle liste di pagine web che Google Search ci presenta ed è possibile riflettere su quello che sappiamo dell’algoritmo di Google e sui criteri con i quali le pagine ci sono presentate. Insegnare lo spirito critico nei confronti di una risposta univoca, che viene da fonti che perlopiù non possiamo vedere, controllare, criticare, è molto più difficile. Se usiamo la IA per navigare nel web non ci è più necessario leggere la risposta che stiamo cercando all’interno del contesto più ampio della pagina che la contiene e dei link che la accompagnano. Perdiamo tutti quegli indizi che ci suggeriscono l’autorità del testo e dell’informazione, siamo spinti ad affidarci completamente alla IA. Anche quando il LLM diventato motore di ricerca ci presenta le fonti in nota, queste sono solo quelle web, non quelle che provengono dal suo addestramento. Quelle note a piè di pagina sono facilmente ignorabili e, soprattutto, non sappiamo praticamente nulla su come esse siano scelte.
Un altro punto problematico, non solo per gli storici, è legato al traffico. Fin dalla fine degli anni Novanta il web si è retto su un semplice scambio: i siti web concedevano il libero accesso a Google, ai motori di ricerca e a tutti gli utenti in cambio di visibilità. Ma chi legge la risposta di un LLM non va, nella maggior parte dei casi, a cliccare sulla fonte delle informazioni. Il traffico, che era il “compenso” per il creatore di contenuti, scompare. Cosa lo spingerà in futuro a offrire i suoi contenuti in maniera gratuita o a crearne di nuovi?
Con questo non voglio dire che i LLM siano inevitabilmente negativi. Nessuna tecnologia lo è. Come nel caso dell’uso nella ricerca storica è però necessario che le esigenze degli storici e degli umanisti riguardo a una ricerca web affidabile e soprattutto trasparente siano affermate e da qualcuno raccolte, con la creazione di strumenti appositi.
Per quanto detto sopra, l’IA sta portando all’obsolescenza di Wikipedia?
Ho provato a porre il problema ad alcuni membri di Wikipedia Italia, ma non ho ricevuto una risposta univoca. Immagino che non lo sappiano bene neanche loro e che il dibattito sia molto acceso. La minaccia che, da esterno, vedo come più chiara è quella al modello di lavoro: una enciclopedia collaborativa alla quale ognuno può dare il proprio contributo. Cosa motiva gli autori delle voci? Almeno in parte il processo di ricerca e di scrittura, e il piacere di essere letti. O, per i tanti che si limitano a correggere e sistemare, il piacere di offrire un servizio universalmente riconosciuto come utile. Nel momento in cui le voci possono essere scritte o corrette da una IA in pochi secondi questo piacere può essere drenato. Molte più voci forse, ma molti meno autori umani. E forse un graduale passaggio dell’elemento umano da autore a curatore e fact checker di testi scritti da AI – con un probabile impatto sulla qualità della scrittura.
C’è poi, collegato, il problema del traffico che citavo prima. Se le informazioni inserite in Wikipedia sono lette al di fuori di essa, nell’interfaccia del chatbot, digerite e modificate dall’IA, questo può essere un disincentivo alla scrittura delle pagine.
Dal punto di vista dei contenuti non parlerei però di obsolescenza. Al contrario, tutti i LLM si sono addestrati su Wikipedia e a essa rimandano quando si interfacciano con il web. Wikipedia, grazie alla sua natura aperta e dinamica e al suo carattere enciclopedico, sarà senza dubbio un elemento fondamentale di ogni futuro addestramento. Scrivere pagine di Wikipedia di qualità e ben ancorate alle fonti è oggi più importante che mai, anche se forse può essere meno gratificante.
Le fonti da cui la IA attinge sono spesso fonti digitali. Come possiamo quindi addestrare l’IA più efficacemente, sia per gli usi didattici che per la diffusione di un corretto sapere (storico ma non solo) in senso più generale?
Sono convinto che l’innovazione più promettente per gli storici non si chiami IA o LLM, ma RAG: Retrieval Augmented Generation. Si tratta della tecnologia che permette di fornire al modello linguistico un corpus di testi e di far sì che le risposte provengano perlopiù da questi. ChatGPT e affini, nella loro versione base, danno la possibilità di fare domande su un singolo documento, generalmente un pdf. Google Notebook LM, nella sua versione gratuita, permette di caricare fino a trenta testi. Altri strumenti a pagamento permettono di caricare centinaia di pdf, documenti word o pagine web. Facendo domande ai testi forniti, invece che ai testi che compongono il modello linguistico, si risolvono almeno in parte alcuni problemi: sappiamo quali sono le fonti; possiamo risalire ai passaggi che hanno generato le risposte; riduciamo (senza mai eliminarle del tutto) le “allucinazioni” e le rendiamo più facili da smascherare.
Ovviamente non si tratta di uno strumento che possa essere usato acriticamente – sto ora scrivendo un articolo proprio sugli inconvenienti del RAG per la ricerca storica. Non potendo, almeno per ora, leggere metadati, le risposte mancano di profondità cronologica (un testo scritto nel Settecento e uno scritto ieri hanno lo stesso valore informativo e lo stesso peso nelle risposte), e di possibilità di contestualizzare (la voce del testimone vale come la voce dello studioso, le fonti primarie valgono come le secondarie…). Soprattutto deve essere chiaro che si tratta di strumenti di gestione dell’informazione, non di interpretazione dei testi. Il loro vantaggio è la possibilità di riconoscere campi semantici e pattern linguistici, non la possibilità di generare pensieri originali sulle fonti.
Ciò nonostante si tratta di un grande passo avanti rispetto al modello base. Ed è possibile immaginare che in futuro alcuni di questi problemi possano essere risolti. Spingendoci ancora più in là, si può anche pensare che in un futuro non lontano non ci rivolgeremo mai al modello base, ma, a seconda della natura della domanda, a chatbot addestrati su testi di Oxford University Press, sull’opera omnia di Michel Foucault, o su database di fonti storiche.
L’IA impara e cambia le sue risposte a seconda dei feedback degli utenti. E’ possibile quindi “addestrare male” l’IA? Fuorviarla per costringerla a imparare le cose in maniera tendenziosa o parziale?
Penso che il tipo di addestramento a cui fa riferimento, la “memoria” delle interazioni passate con l’utente, sia fondamentalmente inutile, forse persino fuorviante, per la ricerca. In primo luogo perché il controllo su cosa viene “ricordato” è minimo e la possibilità di andare a rileggere i “ricordi” a quanto ne so inesistente. Si tratta a mio modo di vedere di una funzione più da “segretario virtuale”, utile per inserire eventi in calendario e soprattutto a dare l’impressione che il vecchio sogno fantascientifico di una macchina che ci conosce e ci serve si sia finalmente avverato.
Per rispondere alla sua domanda in un’accezione più ampia, invece: certo, è possibile creare modelli linguistici parziali o tendenziosi. Anzi, si potrebbe dire che tutti i LLM sono parziali e tendenziosi: dopotutto si sono addestrati perlopiù su testi reperiti sul web, e il web non è l’espressione dell’umanità tutta, ma di una sua parte specifica (in buona parte occidentale e di sesso maschile): va da sé che essi riproducono i gusti, i giudizi e i pregiudizi di questa porzione della popolazione mondiale.
Per evitare che il diffuso razzismo e sessismo del web percolasse nelle risposte dei chatbot, gli sviluppatori hanno in genere imposto dei filtri, che hanno aggiunto diversità e correttezza politica nelle risposte. Dopo qualche figuraccia (Gemini produceva fino a un anno fa immagini di soldati nazisti dalla pelle nera, perché il filtro imponeva la diversità etnica e il modello non era in grado di comprendere il contesto storico), il risultato è oggi spesso accettabile: i chatbot più diffusi sono molto abili nell’aggirare le domande controverse. Questo però solleva problemi più sottili e forse più profondi: chi ha il potere di imporre filtri al modello linguistico ha il potere di deviare il flusso delle informazioni, di decidere quali posizioni possono essere espresse e quali no. Finché questo potere è usato per ripulire i modelli dal razzismo e dal sessismo siamo (quasi) tutti d’accordo. Ma come verrà usato questo potere in futuro? Come sapremo quali filtri sono stati applicati alle nostre risposte?
L’IA è però un potentissimo strumento di supporto creativo: quali usi didattici in tal senso?
Personalmente non faccio un grande uso della IA in classe. Ne parlo molto nel mio corso di Digital History, ovviamente, e cerco di far sì che gli studenti sappiano usarlo in maniera critica, a partire dalle riflessioni che ho menzionato nelle risposte precedenti. L’uso dei chatbot come sostituto della scrittura è dannoso, poiché priva gli studenti e le studentesse della possibilità di esercitarsi nella scrittura della storia, che, come sappiamo, non è soltanto un output della ricerca, ma è parte integrante del processo di creazione della conoscenza. Ma al contempo vietare l’uso di IA tout court è inutile e irrealistico. Il mio consiglio agli studenti e alle studentesse è quello di usare i chatbot come sponda creativa, su argomenti che si conoscono e che si sono già studiati. Una volta scritto un paper, ad esempio, lo si può inserire in ChatGPT e chiedere di trovare i punti deboli o se ci sono argomenti che potrebbero essere meglio sviluppati. Il bot fornirà magari cinque critiche e di queste quattro potranno essere fuori luogo o ridondanti. Ma forse una potrà essere utile per sviluppare meglio l’argomento, o per dirigere la ricerca in direzioni che non si erano pensate. L’importante è partire sempre da una posizione di forza, che permetta allo studente di comprendere quali critiche siano appropriate e quali no. Per far questo occorre conoscere sia il funzionamento dei LLM che l’argomento che di volta in volta si sottopone loro.
Si tratta ovviamente di un uso molto limitato dell’intelligenza artificiale nella didattica, e so di esperimenti ben più arditi. Ho letto di colleghi che usano i chatbot per inscenare giochi di ruolo tra gli studenti e un chatbot che, sulla base di testi forniti dal docente, recita la parte di un contadino medievale, o di un cortigiano rinascimentale. Sono certo che gli esperimenti e gli strumenti appositamente pensati per la didattica e la divulgazione si moltiplicheranno nel prossimo futuro. L’importante è che il docente metta sempre gli studenti in una posizione di forza rispetto al chatbot e che questo non sia mai visto come una fonte di conoscenza affidabile e non problematica.
Quali sfide etiche porta con sé l’uso delle IA? Quali cautele? Quali luoghi comuni sono invece da sfatare?
La lista è lunga. Tralascio in questa sede le sfide più importanti, che sono poste all’intera società: il costo energetico e ambientale della IA; la questione cui accennavo prima del controllo sui flussi di informazione; il pericolo di una bolla finanziaria legata ai grandi investimenti in modelli linguistici e data center, in mancanza, per ora, di un modello economico sostenibile; il possibile impatto della IA sul mondo del lavoro e sugli equilibri geopolitici.
Rimanendo nel campo che conosco meglio, quello della storiografia e dell’accademia, credo che la principale sfida etica riguardi i concetti di autorialità e di proprietà intellettuale. Cosa accade all’idea di autore, quando lo stile può essere delegato a una macchina? Se l’idea è mia, ma la sua espressione è in tutto o in parte di ChatGPT, chi è l’autore del testo? Qual è la linea oltre la quale un testo non è più una traduzione o una parafrasi, ma un artefatto nuovo? Si tratta certamente di una grande sfida, ma, come accennavo prima, ho fiducia che sapremo nel tempo adattarci. Non sarà la prima volta che il concetto di autore viene risemantizzato.
La sfida alla proprietà intellettuale è a mio modo di vedere più preoccupante, poiché le soluzioni sono perlopiù al di fuori delle nostre mani. Come utenti non possiamo che lavorare ai margini, fornendo testi affidabili, creando prompt efficaci e tenendoci informati sugli sviluppi della tecnologia. La responsabilità ultima su come la proprietà intellettuale viene trattata nei modelli linguistici riposa nelle mani degli sviluppatori (Google, OpenAI, Meta, Anthropic…). Questi potrebbero, ad esempio, inserire dei watermark nelle risposte dei chatbot, di modo da rendere facilmente e definitivamente provabile, tramite software specifico, quando si è fatto uso di intelligenza artificiale, risolvendo con qualche linea di codice uno dei principali problemi che la tecnologia pone alle discipline umanistiche. Ma dato che non vi è incentivo economico a farlo (ed anzi significherebbe alienare una parte della clientela), vi è poca speranza che gli sviluppatori, in mancanza di imposizioni da parte del legislatore, prendano l’iniziativa.
Google, OpenAI, Meta e Anthropic si sono peraltro finora rivelati tutt’altro che rispettosi della proprietà intellettuale, secondo l’ideologia molto californiana che sia meglio chiedere scusa (e in pochi casi pagare riparazioni) che permesso. Nessuno mi ha mai chiesto se i miei libri potessero essere usati per l’addestramento dei LLM, eppure sono certo che lo siano stati. E se sono ben felice che i miei scritti siano liberamente accessibili a chi è interessato, non sono ugualmente sereno quando questi sono utilizzati per scopi commerciali senza il mio permesso, presentati in una versione banalizzata e senza riferimenti alla fonte originale. Credo che questa posizione sia condivisa da tanti colleghi (e da tanti professionisti della ricerca, della notizia e della creatività) e questo possa portare ad effetti di più larga scala rispetto alla semplice indignazione personale. Il movimento Open Access, che negli ultimi quindici anni ha conosciuto una costante crescita, potrebbe ad esempio essere fortemente danneggiato dal fatto che la maggiore accessibilità ai testi significa una più facile reperibilità per i modelli linguistici. E chi ci rimetterà maggiormente sarà, ovviamente, il lettore (studente, collega, o chi sia per qualsiasi motivo interessato), che troverà meno articoli e libri in libero accesso – e dovrà forse affidarsi in maniera ancora maggiore ai contenuti riassunti e digeriti dalla IA.
Non so indicare un singolo luogo comune che vada sfatato, a parte l’ovvio: i LLM non sono intelligenti. Ovvio sì, ma è facile scordarsene, perché il loro successo è legato alla capacità di simulare il discorso umano. L’antropomorfizzazione è forse inevitabile, poiché è attraverso i concetti di cui abbiamo esperienza che parliamo del mondo che ci circonda – e la maggior parte di noi non è uno specialista di machine learning o di reti neurali. Più che sfatare dei miti dunque, occorre costantemente ricordare, anche contro il nostro istinto, e insegnare ai nostri studenti, che i LLM sono motori per l’individuazione di pattern linguistici o grafici e strumenti per la loro riproduzione su base statistica. Come tali possono essere utili o dannosi, eccellono in alcuni compiti e falliscono in altri, offrono alcune possibilità e ne negano altre, sono portatori di alcuni interessi e, almeno per ora, non di altri. Il loro significato, come quello di ogni tecnologia, può essere negoziato, ma solo attraverso una conoscenza approfondita, un uso consapevole e un dibattito aperto.
Note:
[1] Nel contesto dell’intelligenza artificiale generativa, il termine allucinazione (o confabulazione) indica la produzione di dati falsi o fuorvianti presentati come veri. A differenza delle allucinazioni umane, che derivano da percezioni sensoriali errate, quelle dell’IA nascono da errori nei processi di generazione delle risposte, non da una distorsione percettiva. Si tratta quindi di contenuti costruiti in modo scorretto, pur sembrando plausibili. Si vedano A. Signorelli, Le “allucinazioni” dell’intelligenza artificiale, su aulascienze.scuola.zanichelli.it, Zanichelli. https://aulascienze.scuola.zanichelli.it/multimedia-scienze/come-te-lo-spiego-scienze/allucinazioni-intelligenza-artificiale/ URL consultato il 19 aprile 2025. e Z. Ji, N. Lee, R. Frieske, T. Yu, D. Su, Y. Xu, E. Ishii, Y. J. Bang, A. Madotto e P. Fung, Survey of Hallucination in Natural Language Generation, in “ACM Computing Surveys”, vol. 55, n. 12, Association for Computing Machinery, 3 marzo 2023, DOI:10.1145/3571730.
[2] Si vedano: S. Ovide, Is ChatGPT really the new Google? We dug into the numbers, in “Washington Post” online, 08/07/2025, url https://www.washingtonpost.com/technology/2025/07/08/ai-chatbots-google-search-myth-busting consultata il 22/07/2025 e J. Fisher, Are Chatbots Replacing Google? Here’s What the Data Says, in “Lifewire”, 24/06/2025; url https://www.lifewire.com/chatbot-vs-search-engine-traffic-11760069?utm_source=chatgpt.com consultata il 22/07/2025

Per un abbecedario della cittadinanza democratica: università/scuola/territorio
Svegliarsi adulti di Roberta Mori
Scarpe rotte eppur bisogna andar. Una storia della Resistenza in 30 oggetti, a cura di P. E. Boccalatte e M. Carrattieri
L’affaire Matteotti. Storia di un delitto, di Fabio Fiore
Monte Sole Marzabotto. Il processo, la storia, i documenti, di Marco De Paolis e Paolo Pezzino
Abbiamo strappato la pianta; bisogna strappare la radice
Partigiani presso gli stabilimenti Ercole Marelli
L’arresto degli arlecchini