AIUCD2024: METE DIGITALI
PROGRAM FOR THURSDAY, MAY 30TH
Days:
previous day
all days

View: session overviewtalk overview

09:00-11:30 Session 14: Filologia Digitale - con intervento del prof. Andrea Mazzucchi, «Approcci integrati per la filologia digitale: l'esempio dantesco tra testo e paratesti»
09:00
Il progetto Corr<si>Ca: edizione digitale della corrispondenza Canioni

ABSTRACT. Il progetto Corr<si>Ca, portato avanti da docenti e dottorande/i del dottorato in Digital Humanities dell’Università di Genova, consiste nella digitalizzazione di una corrispondenza di circa 300 lettere, quella della famiglia Canioni, originaria di Olmi-Cappella, un villaggio dell’entroterra nel nord dell’isola. La corrispondenza si sviluppa nell’arco temporale 1882-1918. Gli scriventi, uomini e donne, presentano diversi gradi di alfabetizzazione nelle due lingue del carteggio, l’italiano e il francese. Il presente contributo presenterà il progetto, non ancora concluso, e i suoi obiettivi, concentrandosi sulla trascrizione delle lettere e sul protocollo XML-TEI utilizzato.

09:15
Rappresentare la Storia Sacra: un’impresa ieri, una sfida oggi. Proposta di edizione scientifica digitale del “Compendium” di Pietro di Poitiers

ABSTRACT. In questo contributo si presenta e descrive il progetto dedicato all’edizione scientifica digitale del “Compendium historie in genealogia Christi” di Pietro di Poitiers (XII-XIII sec.), un’opera inedita che pone molteplici questioni intorno alla sua rappresentazione. Si introducono inoltre i criteri di edizione delle componenti testuali.

09:30
Progetto di edizione genetica digitale del Canzoniere manoscritto di U. Saba (1919-20)

ABSTRACT. Il «Progetto Saba», avviato su iniziativa della Biblioteca “Attilio Hortis” di Trieste, ha come obiettivo la pubblicazione in forma digitale del manoscritto del Canzoniere 1919-1920 di Umberto Saba (1883-1957). Una volta terminata la fase di definizione del modello di codifica XML/TEI più appropriato, il progetto ha visto una decisa accelerazione nel corso del 2023. Sono stati infatti codificati tutti i testi poetici della raccolta e, in parallelo, è cominciato il lavoro di sviluppo per implementare una vista dedicata alla filologia d’autore nel software EVT 3. Questo paper intende presentare i risultati preliminari del lavoro fin qui svolto in vista della pubblicazione dell’edizione digitale nella sua forma completa prevista in occasione dell’inaugurazione di Museo LETS - Letteratura Trieste.

09:45
Voci dall’Inferno: Dante per dire il Lager - digitalizzare e studiare le testimonianze

ABSTRACT. Il contributo illustra il progetto di ricerca Voci dall’Inferno. L’iniziativa scientifica ha due obiettivi, integrati e correlati: a) la digitalizzazione e la codifica di un corpus, il più ampio possibile di testimonianze non letterarie di sopravvissuti all’olocausto; b) l’individuazione, la quantificazione e la valutazione della presenza di lessico e immagini dantesche all’interno di quelle testimonianze.

10:00
Verismo digitale. Per un’edizione digitale commentata delle opere di Verga, Capuana, De Roberto

ABSTRACT. Il contributo propone una presentazione del progetto, finanziato nell'ambito del PE5 Changes, Spoke 3, Verismo digitale, finalizzato alla creazione di un ecosistema digitale intorno alle opere della letteratura verista. Verga, De Roberto, Capuana si mostrano attraverso edizioni digitali sinottiche, hyperedizioni, concordanze. Si discute di un modello d'uso del digitale che integri gli strumenti di filologia, lessicografia, ermeneutica e didattica, rivolgendosi tanto al lettore occasionale quanto allo studioso.

10:15
Paves-e: Per una Hyperedizione dell’opera di Cesare Pavese

ABSTRACT. L’articolo presenta il progetto Paves-e, finanziato con i fondi PRIN 2022, che intende creare un’edizione-archivio semantica open access, definita Hyperedizione, dell’opera di Cesare Pavese. Essa permetterà a un vasto pubblico di fruire dell’opera pavesiana attraverso un portale nel quale poter consultare le edizioni scientifiche digitali delle poesie e dei romanzi mettendole in relazione con collegamenti semantici all’epistolario e al diario (Mestiere di vivere), fruendo inoltre dei manoscritti, dei vocabolari d’autore e del commento multimediale. Il contributo, dopo aver presentato il progetto (distinguendo analiticamente tutte le sue fasi: DigitalPavese, OntoPavese, PaveseInImmagini, PaveseInTesto, PaveseInParole, AnnotaPavese, BiblioPavese), si sofferma in particolare su PaveseInTesto, discutendo alcune scelte di codifica e di modellizzazione delle edizioni, con alcune proposte sul workflow, sugli editor scelti e sulla interfaccia di visualizzazione.

11:30-11:50Coffee Break

Presso il chiostro di levante

11:50-12:50 Session 15A: Large Language Models tra documenti e testi
Location: Aula 67
11:50
Structuring Authenticity Assessments on Historical Documents using LLMs

ABSTRACT. Given the wide use of forgery throughout history, scholars have and are continuously engaged in assessing the authenticity of historical documents. However, online catalogues merely offer descriptive metadata for these documents, relegating discussions about their authenticity to free-text formats, making it difficult to study these assessments at scale. This study explores the generation of structured data about documents’ authenticity assessment from natural language texts. Our pipeline exploits Large Language Models (LLMs) to select, extract and classify relevant claims about the topic without the need for training, and Semantic Web technologies to structure and type-validate the LLM’s results. The final output is a catalogue of documents whose authenticity has been debated along with scholars’ opinions on their authenticity. This process can serve as a valuable resource for integration into catalogues, allowing room for more intricate queries and analyses on the evolution of these debates over centuries.

12:05
Analisi stilometrica applicata alle capacità emulative di GPT-4

ABSTRACT. La presente ricerca si propone di esplorare la capacità del Large Language Model GPT-4 di emulare lo stile di due riviste culturali italiane attive negli anni ‘60, «Quaderni Piacentini» e «Quindici». Utilizzando un corpus derivato dai primi numeri delle riviste, trascritti attraverso OCR e poi accuratamente rivisti, il lavoro vuole valutare se GPT-4 sia in grado di eludere l’analisi stilometrica, scrivendo un testo che rispecchi la strategia editoriale di una determinata rivista. Dopo aver utilizzato GPT-4 per generare testi che riflettessero lo stile delle riviste grazie a specifici prompt, è stata condotta un’analisi stilometrica per confrontare i testi artificialmente generati con il corpus originale. I risultati evidenziano le sfide e le potenzialità di GPT-4 nella creazione di scritti con stili complessi. Il confronto con metodologie stilometriche tradizionali ha permesso di individuare i punti in cui le due riviste si distanziano e, di conseguenza, i nodi cruciali su cui il modello si concentra per la differenziazione stilistica e tematica. La ricerca intende aprire nuove prospettive sull’utilizzo della stilometria per l’analisi computazionale di testi relativi a specifici contesti culturali: se fino ad ora, infatti, la comunità scientifica si è concentrata sulla capacità degli LLM di riprodurre fedelmente stili di diversi autori o sull’indagine di piattaforme di scrittura, applicare queste metodologie all’ambito ristretto delle riviste consentirebbe più ampie considerazioni sulle strategie editoriali, sulle tendenze di lettura e sui processi di circolazione delle idee

12:20
Gli LLM come lettori modello artificiali

ABSTRACT. Questo paper esplora le potenzialità dei Large Language Models (LLM) nel campo della narratologia, e propone di considerali come lettori modello artificiali, riattualizzando il concetto della narratologia classica e in particolare dal lavoro di Umberto Eco. Attraverso un esame dello stato dell'arte e di esperimentazioni specifiche, il lavoro dimostra che gli LLM dispongono di competenze linguistiche e cognitive che li rendono capaci di comprensione narrativa, inferenza e generazione di ipotesi interpretative. Sebbene l'approccio sia esplorativo, i risultati preliminari suggeriscono che gli LLM potrebbero rappresentare un'innovazione paradigmatica per l'analisi letteraria e la comprensione testuale, promuovendo ulteriori indagini sistematiche sulle loro capacità.

11:50-12:50 Session 15B: Edizioni e archivi digitali integrati
Location: Aula 75
11:50
Towards an integrated digital edition of the "Leges Langobardorum"

ABSTRACT. The "Leges Langobardorum" project, born within the ALIM project (PRIN-2012) and now founded in the framework of PRIN PNRR 2022, builds on the current state-of-the-art to provide an integrated edition of this law texts corpus, handling both separate diplomatic transcriptions and “virtual witnesses” automatically generated thanks to the TEI markup for critical editions. It also aims to provide a seamless navigation between critical text, diplomatic transcriptions and digital facsimiles. Furthermore, the visualisation software EVT will be equipped with accessibility settings, i.e. features that let people with disabilities customise a device for their own needs, which can represent a true life-changer for people with special needs.

12:05
Funzioni e sostenibilità di una piattaforma digitale per le lingue arcaiche

ABSTRACT. Questo contributo, basato sull'esperienza acquisita in un progetto di ricerca triennale dedicato allo sviluppo di tecnologie e risorse digitali nel campo degli studi linguistico-storici su lingue epigrafiche frammentarie, riflette sulla sostenibilità a lungo termine dei risultati digitali ottenuti da piccoli gruppi di ricerca nelle Digital Humanities (DH). In particolare, l'analisi si concentra sulla possibilità di integrare questi risultati nelle infrastrutture di ricerca virtuali, distribuite e federate, come CLARIN(-IT) e la recente iniziativa di federazione delle infrastrutture di ricerca italiane per le Scienze Umane e il Patrimonio Culturale, denominata 'Humanities and Heritage Italian Open Cloud' (H2IOSC).

12:20
Orbis dioecesium. Creating authority data on legal-historical changes of Catholic dioceses

ABSTRACT. In this paper, we address the publishing of authority data on the legal-historical evolution of Catholic dioceses fulfilling FAIR-Principles. The paper discusses the methodology of building the domain-specific ontology model and publishing authority data using the knowledge base Wikibase. The paper is divided into four parts. The first part outlines the aims and goals of the project and the state of the art on semantic modelling of historical data and its implementation as knowledge graph (KG). The second part presents each phase of the project: the elaboration of the data set, the development of an event-based ontology model, and the principles that guided the creation and maintaining of the items and properties in the Wikibase environment. The fourth part describes the pipeline process for data ingestion. The conclusion presents possible scholarly and general uses of the project.

13:00-14:00Lunch Break

Presso il chiostro di levante

14:00-15:20 Session 16A: Semantic Web per archivi e musei
Location: Aula 67
14:00
HERITRACE: Tracing Evolution and Bridging Data for Streamlined Curatorial Work in the GLAM Domain

ABSTRACT. HERITRACE is a semantic data management system tailored for the GLAM sector. It is engineered to streamline data curation for non-technical users while also offering an efficient administrative interface for technical staff. The paper compares HERITRACE with other established platforms such as OmekaS, Semantic MediaWiki, Research Space, and CLEF, emphasizing its advantages in user friendliness, provenance management, change tracking, customization capabilities, and data integration. The system leverages SHACL for data modeling and employs the OpenCitations Data Model (OCDM) for provenance and change tracking, ensuring a harmonious blend of advanced technical features and user accessibility. Future developments include the integration of a robust authentication system and the expansion of data compatibility via the RDF Mapping Language (RML), enhancing HERITRACE's utility in digital heritage management.

14:15
Affinare il contesto: estrazione di informazioni strutturate per l’arricchimento dei contesti archivistici

ABSTRACT. Gli strumenti di corredo archivistici in LOD sono spesso solo parzialmente capaci di esprimere il vero potenziale informativo dei dati, a causa della molteplicità di campi non strutturati presenti nelle descrizioni dei complessi documentari. La presenza di numerose sezioni literal, ovvero a testo pieno, limita da un lato la possibilità di interrogazioni a base semantica e dall’altro non consente l’apertura ai numerosi contesti latenti che tali porzioni di testo non strutturato veicolano. Si intende allora qui presentare una metodologia per acquisire nuova conoscenza dai dati, aprendoli al dialogo con nuovi contesti impliciti. A questo scopo, si è valutato quanto possano essere utili alcuni tool ad oggi disponibili per acquisire e restituire informazione strutturata rispetto alle descrizioni archivistiche. Attraverso un caso di studio del Sistema Archivistico Nazionale in LOD si sono analizzate le potenzialità di Tint, FRED e ChatGPT nell'estrarre informazione morfosintattica, lessicale o semantica dai dati archivistici, riflettendo al contempo sulla possibilità di far dialogare il grafo di conoscenza nativo e il grafo risultante dall’analisi, e documentando gli atti interpretativi emersi.

14:30
Thinking Outside the Black Box: Insights from a Digital Exhibition in the Humanities

ABSTRACT. One of the main goals of Open Science is to make research more reproducible. There is no consensus, however, on what exactly “reproducibility” is, as opposed for example to “replicability”, and how it applies to different research fields. After a short review of the literature on reproducibility/replicability with a focus on the humanities, we describe how the creation of the digital twin of the temporary exhibition “The Other Renaissance” has been documented throughout, with different methods, but with constant attention to research transparency, openness and accountability. A careful documentation of the study design, data collection and analysis techniques helps reflect and make all possible influencing factors explicit, and is a fundamental tool for reliability and rigour and for opening the “black box” of research.

14:00-15:20 Session 16B: Patrimonio culturale e collezioni digitali
Location: Aula 75
14:00
Preserving Culinary Traditions. A Crowdsourced Digital Collection of Cookbooks

ABSTRACT. Recipes of popular origin and handwritten cookbooks are often overlooked by scholars. XXX is a pilot project that tries to fill in this gap by gathering and digitising a collection of cookbooks belonging to the Italian traditional cuisine, and making it accessible via a digital platform. The project aims at contributing to two research lines: a) to identify agile methods for publishing data in a low-cost crowdsourcing project, and b) to devise an effective storytelling journey for the XXX project.

14:15
Preservazione del patrimonio culturale e cloud computing: caratteristiche e criticità

ABSTRACT. Il contributo intende analizzare caratteristiche e criticità dei servizi di cloud computing per la preservazione del patrimonio culturale: l’uso consapevole della tecnologia, orientato al principio della condivisione e della cittadinanza globale, passa anche dalla conoscenza delle caratteristiche tecniche e contrattuali dei servizi di cloud computing, nonché dalla consapevolezza delle criticità (es. sicurezza dei dati. etc.). Attualmente la preservazione dei dati digitali del patrimonio culturale - così come l’intero processo di digitalizzazione della Pubblica Amministrazione in genere - vede il cloud computing come strumento cardine, secondo il paradigma “Cloud first” definito dal Piano nazionale di ripresa e resilienza (PNRR). Le istituzioni della memoria - archivi e biblioteche in particolar modo - hanno da sempre avuto il ruolo di garantire accesso ai beni culturali anche nel lungo periodo, per cui sono direttamente coinvolte nel dibattito in corso su metodi e strumenti di conservazione ed accesso permanente al patrimonio culturale in formato digitale.

14:30
Nuove interazioni con collezioni digitali: l’“Archivio digitale del Capitolo di Laterza”

ABSTRACT. Il paper presenta i risultati intermedi di una ricerca finalizzata a rigenerare in ambiente digitale una serie documentale relativa a una plurisecolare vertenza sugli Usi Civici originariamente conservata presso l’Archivio del Capitolo di Laterza, poi smembrata in seguito agli eventi storici e giuridici succedutisi nel corso di circa quattro secoli dal XVII al XX. La parte più consistente della serie è confluita nel tempo nell’Archivio Privato della Famiglia dell’Aquila, mentre una porzione residuale di documenti è oggi conservata presso l’Archivio della Chiesa Matrice di S. Lorenzo di Laterza. Il progetto ha previsto originariamente la digitizzazione di entrambi gli insiemi documentali e la ricomposizione in ambiente digitale della primigenia organizzazione archivistica dei documenti nell’antico Archivio Capitolare. Tuttavia, l’analisi diretta degli originali ha evidenziato alcune caratteristiche che hanno aperto una nuova prospettiva di fruizione della collezione digitale. Sono state rilevate 2 fascicolazioni e 6 diverse cartulazioni riferentesi a insiemi di documenti aggregati per riusarli nelle diverse fasi del contenzioso giuridico. Si è, inteso, dunque, rendere disponibili agli utenti gli aspetti storico-giuridici connessi con ciascuna aggregazione, rielaborando una soluzione di metadati in formato open data già utilizzata per la digital library Open Memory, di modo da gestire ed esporre le varie aggregazioni clusterizzandole per ambito cronologico di riferimento. Questa seconda fase è attualmente in corso, in quanto si stanno studiando le possibili soluzioni atte a facilitare l’accesso degli utenti alle aggregazioni tramite interfaccia di interrogazione.

14:45
Libri e biblioteche tra museabilità e musealizzazione digitale: sogno o realtà?

ABSTRACT. Questo studio approfondisce il concetto di museabilità e musealizzazione digitale, con particolare attenzione al patrimonio analogico non convenzionalmente considerato museabile né fisicamente, né digitalmente. Nello specifico, si considerano i beni librari e documentali esplorando la possibilità di utilizzare soluzioni digitali che favoriscano la transizione di questi patrimoni verso nuovi scenari che ne considerano prioritari gli aspetti di valorizzazione presso un ampio pubblico. A riguardo, la riflessione prende in considerazione quali potenziali soluzioni atte a superare la situazione attuale i recenti approcci creativi di entità phygital, che integrano nei beni e nelle collezioni analogiche soluzioni digitali ideate, progettate e realizzate in prospettiva user-oriented, espandendo interattivamente l’esperienza di fruizione degli utenti. Questo approccio, infatti, consente di trasformare i beni e le collezioni originali sia fisiche, che digitali in reti di relazioni articolate e dinamiche, che di fatto ne ampliano il valore informativo e cognitivo in misura incrementale senza limiti di spazio, favorendo nel contempo il coinvolgimento partecipativo degli utenti nell’interazione con le entità di loro interesse. Il metodo è stato sperimentato in alcuni progetti svolti in biblioteche scolastiche con risultati che, allo stato dell’arte, consentono di rivalutare biblioteche, libri e documenti quali beni pienamente museabili, se opportunamente gestiti con soluzioni digitali che espandono oltre il contenuto le funzioni informative e cognitive.