Federica Collina
Titolo dell'elaborato Information and Communication Technologies (ICT) per il patrimonio culturale “dimenticato”: strategie di valorizzazione e comunicazione attraverso le tecnologie digitali
Abstract Il vasto e complesso panorama museale italiano è caratterizzato da una capillare diffusione di piccole istituzioni che, pur essendo custodi di un patrimonio di immenso valore storico, artistico e identitario, risultano spesso marginali, afflitte da risorse limitate, scarsa visibilità e ridotta affluenza di pubblico. Il presente lavoro di ricerca si inserisce in questo contesto, affrontando la sfida di sviluppare strategie efficaci di comunicazione e valorizzazione per questo patrimonio culturale "dimenticato" attraverso l'impiego mirato delle Information and Communication Technologies (ICT). L'obiettivo generale è stato quello di elaborare un modello operativo replicabile, basato su una solida sinergia tra istituzioni museali ed enti di ricerca, capace di superare i vincoli economici e strutturali tipici delle realtà periferiche. La ricerca si è concentrata su quattro obiettivi specifici: individuare strategie comunicative efficaci tramite le ICT, attuare e analizzare la collaborazione tra musei ed enti di ricerca, valutare l'efficacia delle soluzioni digitali adottate e migliorare le potenzialità comunicative delle collezioni in esame. La metodologia si è articolata nell'analisi e nello sviluppo di strategie digitali per quattro realtà medio-piccole del panorama museale italiano – ciascuna con un afflusso annuo inferiore ai 40 mila visitatori l’anno – e a una realtà estera di maggior rilievo. I casi studio italiani comprendono la Collezione di Antropologia, il Museo Nazionale dell’Età Neoclassica in Romagna in Faenza – Palazzo Milzetti, il Museo del paesaggio dell’Appennino faentino – Rocca di Riolo e il Museo Archeologico Nazionale di Ravenna. A questi si affianca il Parco Nazionale di Butrinto, sito UNESCO con oltre 200 mila ingressi annui, ma il cui oggetto della ricerca (il Tempio di Asclepio) risulta penalizzato da una posizione di marginalità che ne limita la fruizione. Per ciascun caso sono stati sviluppati strumenti digitali ad hoc, sfruttando diverse tecnologie utili alla valorizzazione e comunicazione del patrimonio culturale: Virtual Museum, audioguide narrative e riproduzioni tattili in stampa 3D, Virtual Reality, Virtual Tour 360 e ricostruzioni 3D. L'efficacia degli strumenti è stata valutata attraverso test di User Experience (UX) condotti su campioni divisi per fasce generazionali. I risultati mostrano che le soluzioni digitali adottate si sono rivelate efficaci a migliorare l'attrattività dei musei. In conclusione, la ricerca non solo descrive le criticità dei piccoli musei, ma propone un modello operativo che, grazie a una programmatica collaborazione tra ricerca e istituzioni e all'adozione mirata delle ICT, può offrire nuove e concrete prospettive di comunicazione e valorizzazione per il patrimonio "dimenticato", favorendo l'inclusione di queste realtà nei circuiti culturali più ampi.
Supervisore Alessandro Iannucci
Co-supervisori Chiara Panciroli e Gustavo Marfia
Parole chiave Information and Communication Technologies; Patrimonio culturale dimenticato; Valorizzazione; Comunicazione; Luoghi della cultura
Lucia Giagnolini
Titolo dell'elaborato Rappresentare il digitale d'autore: dal file system al knowledge graph
Abstract La crescente produzione di archivi nativi digitali da parte di autori contemporanei configura ecosistemi documentari complessi, che mettono in crisi gli strumenti descrittivi archivistici tradizionali. Sebbene la comunità archivistica internazionale si stia orientando verso i Linked Open Data (LOD), mancano modelli semantici capaci di rispondere alle specificità del digitale d'autore. La ricerca propone un approccio alla rappresentazione del digitale d'autore articolato su quattro livelli: analisi delle pratiche autoriali; progettazione di un modello semantico; implementazione di processi automatizzati di descrizione; sviluppo di strumenti di analisi e consultazione. L'indagine fenomenologica ha coinvolto cinquanta finalisti dei Premi Strega e Campiello e l'analisi dell'Archivio Valerio Evangelisti, il più esteso caso di studio italiano finora documentato. Sono emersi pattern gestionali ricorrenti, strategie di autorappresentazione digitale e forme di "volontà d'archivio", a fronte di limitata consapevolezza del valore documentario. Dall'analisi empirica sono stati individuati cinque requisiti per la modellazione: rappresentare la stratificazione fisica, logica e concettuale dei materiali digitali; integrare misure di integrità crittografica; rappresentare i metadati nativi; documentare provenance e relazioni contestuali. Su tali basi è stata sviluppata la Born-Digital Ontology (BoDi), estensione della Records in Contexts – Ontology (RiC-O). È stato quindi implementato un workflow automatizzato in cinque fasi che traduce archivi nativi digitali in grafi RDF conformi a BoDi. Testato sull'Archivio Evangelisti, il processo ha generato oltre 60 milioni di triple, rendendo esplicite strutture, metadati e relazioni per convertire una massa documentaria estesa e opaca in una base di conoscenza formalizzata. L'analisi tramite query SPARQL e la visualizzazione mediante un'applicazione dedicata hanno consentito interrogazioni avanzate ed esplorazioni accessibili a vari livelli. La convergenza tra indagine fenomenologica, modellazione ontologica, automazione e visualizzazione delinea un quadro metodologico integrato e replicabile per la rappresentazione e la valorizzazione degli archivi nativi digitali d'autore del patrimonio culturale contemporaneo.
Supervisore Francesca Tomasi
Co-supervisori Paolo Bonora e Paola Italia
Parole chiave Born-Digital Archives; Literary Archives; BoDi; Born-Digital Ontology; Archival Representation; Archival Description; Semantic Web; Linked Open Data; Records in Contexts; Born-Digital Heritage; Valerio Evangelisti
Arcangelo Massari
Titolo dell'elaborato HERITRACE: interfacce su misura per la curatela di dati semantici con provenance e tracciamento delle modifiche
Abstract Le istituzioni del patrimonio culturale stanno adottando sempre più le tecnologie Semantic Web per aderire ai principi FAIR. I dati semantici in questo ambito richiedono l'intervento di esperti di dominio, ma la complessità tecnica impedisce loro di contribuire. Questa tesi affronta il problema attraverso due linee di indagine: come progettare interfacce che permettano agli esperti di dominio senza competenze tecniche di curare dati RDF, garantendo tracciabilità delle modifiche e della provenance; e come consentire ai tecnici di configurare ambienti di curatela per domini specializzati.
Due casi di studio hanno guidato lo sviluppo. OpenCitations Meta, con 124 milioni di entità bibliografiche, ha validato l'esistenza di barriere su larga scala; ParaText ha fornito un ambiente per test con utenti reali. Ne emergono cinque requisiti: gestione della provenance, tracciamento delle modifiche, usabilità per esperti e configuratori, flessibilità nella personalizzazione e integrazione con collezioni RDF esistenti.
HERITRACE risponde a queste domande di ricerca con un framework che utilizza l'OpenCitations Data Model per la provenance e il tracciamento delle modifiche, e la Time Agnostic Library per ricostruire gli stati passati delle entità. I tecnici configurano tipi di entità, vincoli e presentazione usando SHACL e YAML, linguaggi standard già consolidati; il framework genera automaticamente le interfacce. Gli utenti possono creare, modificare, eliminare e unire entità, ripristinare versioni precedenti, senza conoscere l'infrastruttura RDF.
La valutazione con 9 utenti e 10 tecnici ha combinato misure quantitative e qualitative. Gli utenti hanno completato i compiti con successo tra il 67% e il 100%, con un punteggio SUS di 78,9 (sopra la media). I tecnici hanno raggiunto il 90% di successo con SUS di 83,8 (eccellente).
Infine, poiché molte istituzioni gestiscono collezioni in database relazionali, la ricerca esplora l'estensione di RML per trasformazioni inverse, permettendo di adottare i principi FAIR senza modificare l'infrastruttura esistente.
Supervisore Silvio Peroni
Co-supervisore Anastasia Dimou
Parole chiave FAIR; Usabilità; Provenance; Tracciamento delle modifiche; Patrimonio culturale
Margherita Mattioni
Titolo dell'elaborato La biblioteca d’autore come modello epistemologico e laboratorio narrativo. Un’indagine filosofica sulla biblioteca di lavoro e sui libri postillati di Umberto Eco
Abstract Questa tesi di ricerca si propone di esaminare, attraverso un’indagine filosofica, la biblioteca d’autore di Umberto Eco, esplorando in particolare i modi e le pratiche attraverso cui il celebre intellettuale ha interrogato e si è appropriato della propria “memoria vegetale”. Nella prima parte della tesi viene introdotta l’ipotesi della “biblioteca teorica” di Eco, vale a dire l’esistenza di un sistema di principi regolativi e norme procedurali che avrebbero guidato le sue pratiche di lettura e di scrittura. Alla luce di questo presupposto vengono poi analizzate le principali caratteristiche della lettura-modello, della scrittura empirica e della scrittura-modello dell’autore, che mostrano come le tecniche e le strategie messe in atto tanto dall’Eco autore empirico quanto dall’Eco autore modello rispettino i principi elaborati all’interno della sua semiotica letteraria, della sua narratologia e, più in generale, della sua teoria del testo. Particolare attenzione è rivolta agli abiti intertestuali e metanarrativi che caratterizzano la voce testuale dell’autore trasversalmente ai suoi sette romanzi. La prima sezione si conclude con un’analisi dei diversi criteri associativi — topologici e contestuali — che definiscono l’organizzazione fisica e la struttura concettuale della sua biblioteca moderna.
La seconda parte è dedicata alla metodologia e agli orientamenti che hanno guidato l’analisi di un campione di libri postillati della biblioteca, nonché alla presentazione e alla discussione critica della mappa interpretativa attraverso la quale sono state classificate le postille e gli interventi dell’autore sulla base delle loro proprietà spaziali, funzionali, espressive, linguistiche, tematiche e referenziali.
Nella parte conclusiva della tesi si affrontano le potenzialità ermeneutiche e applicative del meta-modello, mostrando i diversi modi in cui esso si rivela utile non soltanto per approfondire le strategie di appropriazione e le pratiche di letto-scrittura dell’autore, ma anche per essere adottato nell’analisi degli interventi annotativi di altri autori.
Supervisore Costantino Marmo
Co-supervisore Riccardo Fedriga
Parole chiave Umberto Eco; Biblioteche d'autore; Postille; Pratiche di lettura; Teoria dell'interpretazione e della classificazione
Andrea Schimmenti
Titolo dell'elaborato Structuring cultural heritage content and context: integrating llms in ontology-driven knowledge graph extraction
Abstract Le istituzioni del patrimonio culturale hanno digitalizzato ampie collezioni e pubblicato i relativi metadati attraverso tecnologie del Web Semantico; tuttavia, il contenuto e la contestualizzazione scientifica dei documenti — entità, relazioni, eventi e interpretazioni — rimane in larga misura inaccessibile tramite interrogazioni semantiche. La creazione manuale di Knowledge Graph si rivela eccessivamente costosa su larga scala, mentre l'estrazione automatica di conoscenza incontra ostacoli critici nei contesti del patrimonio culturale: scarsità di dati di addestramento annotati e complessità linguistica specifica del dominio. Questa dissertazione indaga l'estrazione automatica di Knowledge Graph da testi di patrimonio culturale in scenari di scarsità di dati, affrontando tre domande di ricerca: (1) Quali metodologie e sfide caratterizzano i progetti esistenti di conversione da testo a KG nel dominio CH? (2) Come possono i Large Language Model essere integrati in pipeline di estrazione di conoscenza guidate da ontologie, e con quali limiti e compromessi? (3) I sistemi basati su LLM sono in grado di produrre Knowledge Graph sufficientemente accurati delle interpretazioni scientifiche, preservando al contempo la provenienza e l'incertezza epistemica? Viene condotta una rassegna sistematica di undici progetti CH (2015–2025) con l'analisi di 227 articoli, individuando colli di bottiglia ricorrenti nei task di Named Entity Recognition, Relationship Extraction e Entity Linking. Viene introdotta la metodologia Adaptive Text-to-KG for Cultural Heritage (ATR4CH), articolata in cinque fasi che coordinano l'analisi ontologica, la formulazione di Competency Question, l'annotazione di ground truth, l'estrazione basata su LLM e la valutazione su più livelli. ATR4CH è validata attraverso casi di studio comprendenti dibattiti sull'autenticità, strumenti di corredo archivistico, estrazione di argomenti basata su RAG e generazione di dati di addestramento sintetici per l'Aspect-Based Sentiment Analysis. I risultati dimostrano che gli LLM consentono un'estrazione allineata alle ontologie in condizioni di scarsità di dati, raggiungendo un livello di accuratezza adeguato ai flussi di lavoro accademici. Gli LLM integrano piuttosto che sostituire le pipeline tradizionali, offrendo capacità per l'avvio dello sviluppo e per domini affetti da scarsità di fondi e risorse. Rimane tuttavia necessaria la supervisione umana: gli errori possono propagarsi lungo le pipeline, l'allineamento dei dati costituisce un collo di bottiglia persistente e l'incertezza epistemica richiede ulteriori sviluppi. Questa dissertazione contribuisce allo stato dell'arte fornendo un framework metodologico replicabile e evidenze empiriche che l'estrazione basata su LLM può colmare il divario tra digitalizzazione e accessibilità semantica dei repository di patrimonio culturale.
Supervisore Fabio Vitali
Co-supervisore Maria Godefrida Jacoba Erp
Parole chiave Knowledge Graph; Estrazione di conoscenza; Patrimonio culturale; Large Language Model; Elaborazione del linguaggio naturale