Skip to main content
  • ASN (Habilitation) in Latin 2023-34. Researcher (RTDA) in Latin and DH (Digital Humanities) at Sapienza University of... moreedit
  • Tito Orlandi (UAN), Giorgio Di Maria (Univ. of Palermo), Franz Fischer (Ca' Foscari), Michela Rosellini (La Sapienza)edit
The PDF version of the book is available in open access at https://store.streetlib.com/it/paolo-monella/metodi-digitali-per-linsegnamento-classico-e-umanistico Abstract: Il volume propone una riflessione critica di carattere... more
The PDF version of the book  is available in open access at https://store.streetlib.com/it/paolo-monella/metodi-digitali-per-linsegnamento-classico-e-umanistico

Abstract:
Il volume propone una riflessione critica di carattere metodologico su alcuni strumenti e tecniche digitali per l'insegnamento scolastico ed universitario in ambito umanistico, con un'attenzione particolare alla didattica delle lingue, letterature e culture classiche. Per ciascuno strumento digitale, si valuta se esso comporti un effettivo miglioramento dal punto di vista dei metodi, alla luce di alcuni obiettivi e principi educativi generali: sono presentate e discusse solo innovazioni digitali che, in chiave costruttivista, rendano l'apprendimento più attivo, più critico, più creativo e più orientato verso un contributo positivo alla società. Alla riflessione sui metodi viene affiancata una serie di proposte didattiche, in cui tali metodi vengono incarnati in esempi concreti di attività per l'insegnamento delle discipline classiche.

Sinossi:
Nell'"Introduzione" vengono presentati, insieme agli obiettivi e all'organizzazione interna delvolume, i principi pedagogici di riferimento.
Il capitolo "Strumenti e infrastrutture locali" offre qualche considerazione preliminare sulla cassetta degli attrezzi di cui ogni scuola o università dovrebbe dotarsi per rendere possibile la didattica digitale: computer, proiettori (più che LIM), software open source (non proprietario) ed una buona connessione.
Il capitolo "Condivisione di materiali didattici tra docenti" discute problemi e prospettive per la creazione di repository condivisi per lo scambio e il riuso di materiali didattici.
Nel capitolo "Imparare online: i learning management system", dopo aver esaminato le principali modalità di rapporto tra insegnamento in presenza e uso della rete (corsi blended e MOOC, ovvero interamente online), l'autore introduce le potenzialità offerte dai learning management system (LMS), i sistemi di gestione dell'insegnamento online.
I capitoli successivi, dedicati all'uso della rete per l'insegnamento classicistico, sono stati profondamente ripensati dopo l'emergenza sanitaria del 2020 legata al Covid-19: in essi, partendo da un bilancio dell'esperienza diffusa di didattica a distanza dei mesi del lockdown del 2020, vengono presentati e discussi metodi digitali di apprendimento attivo, in un quadro pedagogico costruttivista.
In "Dalla lezione (ultra)frontale alla flipped classroom" l'autore avanza la proposta di usare gli strumenti della didattica online, a partire dagli LMS, per applicare il metodo della flipped classroom, potenziando tra l'altro i sempre più necessari laboratori di traduzione dal greco e dal latino.
Il capitoletto "Mesta digressione: la versione al tempo di Internet" è dedicato alla questione specifica della copiatura delle versioni dal web, che rende di fatto inefficace la tradizionale pratica di assegnare versioni e frasi da tradurre a casa.
Il capitolo "Nuove forme di interazione: tutoraggio, forum, cloud e social media" esplora i modi in cui è possibile usare la rete per integrare e arricchire - non impoverire - l'interazione tra docente e studenti, e degli studenti tra di loro.
In "Valutazione ed esercizi online" l'autore suggerisce di integrare i questionari strutturati che proliferano in ambiente digitale, utili per esercitare e valutare solo i livelli più bassi dei processi di apprendimento, con strumenti di verifica 'aperta' con cui valutare le competenze più importanti, e si esamina il possibile uso ludico di quei questionari.
Nel capitolo "Politiche della formazione digitale: inclusione e istruzione pubblica" vengono affrontati due problemi resi evidenti proprio dalle pratiche didattiche del lockdown del 2020: ci si chiede chi rischia di rimanere escluso dalla didattica digitale e perché, e si discutono le ragioni per cui si rende ormai necessaria la creazione di infrastrutture digitali pubbliche per l'insegnamento, per evitare il rischio che i giganti della rete monopolizzino le infrastrutture dell'istruzione.
Gli ultimi due capitoli propongono metodi didattici basati rispettivamente sull'uso dei corpora testuali greco-latini e delle piattaforme wiki.
A monograph on the saga of Procne and Philomela from Homer to Ovid, surveyed first from a mythological point of view - taking into account the development of the myth's different versions -, then from a metaliterary one, following the... more
A monograph on the saga of Procne and Philomela from Homer to Ovid, surveyed first from a mythological point of view - taking into account the development of the myth's different versions -, then from a metaliterary one, following the path of the poet-nightingale metaphor from archaic Greek literature to augustan Latin literature (ISBN - 88-555-2798-3).
A scholarly digital edition of the Chronicon by Romualdus Beneventanus (XII Century), edited by Paolo Monella within the ALIM Project.
An experimental scholarly digital edition of section De nomine (folia 1r-11r) of the Adbreviatio artis grammaticae by Ursus from Benevento from codex Casanatensis 1086 (IX century), edited by Paolo Monella within the ALIM Project (2017).
Come si insegna oggi l'informatica umanistica (DH) nei corsi di studio, triennali e magistrali, nei master, nei corsi di dottorato, nelle summer school e negli altri percorsi di formazione per studenti e ricercatori in Italia? La... more
Come si insegna oggi l'informatica umanistica (DH) nei corsi di studio, triennali e magistrali, nei master, nei corsi di dottorato, nelle summer school e negli altri percorsi di formazione per studenti e ricercatori in Italia?

La questione formativa è strettamente intrecciata a quella disciplinare e a quella istituzionale, ovvero da un lato alla definizione delle DH (come disciplina, trans-disciplina, semplice comunità legata a pratiche professionali), dall'altro al loro ruolo istituzionale nel nostro paese, anche in relazione alle politiche culturali della transizione digitale. Discuteremo qui separatamente, per pura comodità dialettica, dei corsi singoli e dei percorsi formativi.

(A) I singoli corsi DH -- dalle materie (o laboratori) all'interno di corsi di laurea, ai seminari per dottorandi, alle summer school -- stanno utilmente disseminando competenze digitali nel mondo degli studi umanistici.  Se però tali iniziative vengono concepite nel quadro di una concezione puramente strumentale delle DH, esse rischiano di trasformarsi in un mero addestramento all'uso degli strumenti attuali, che sono peraltro destinati ad essere rapidamente sostituiti. Quando ciò accade, si perde l'occasione di offrire una formazione ai principi specifici delle DH, formazione che sola permette di fare DH in modo consapevole, ripensando criticamente i processi di ricerca e generando vera innovazione metodologica e culturale.

(B) D'altra parte, è tornato a crescere il numero dei percorsi formativi (laurea, master, dottorato) specificamente centrati sulle DH, anche in seguito all'istituzione della classe di lauree magistrali LM-43, "Metodologie informatiche per le discipline umanistiche". Tali iniziative costituiscono probabilmente il laboratorio più promettente per un'informatica umanistica che apra nuove prospettive culturali e di ricerca. Qui la questione disciplinare e quella istituzionale si pongono con ancor maggiore evidenza, almeno a due livelli:

(B.1) Nella progettazione e nella gestione di tali percorsi.  Se si ritiene che non esista un proprium disciplinare o metodologico delle DH, sarà sufficiente realizzare una 'fusione a freddo' tra docenti e insegnamenti provenienti da un dipartimento umanistico e uno scientifico. Se invece si ritiene che tale specificità esista, e se su di essa si vuole centrare il percorso di studio, sarà necessario reclutare stabilmente un certo numero di docenti che siano specialisti DH.  In Italia, però, ciò è assai problematico, perché l'assenza di un settore scientifico disciplinare (SSD) per le DH rende difficile l'accesso all'abilitazione scientifica nazionale (ASN) e a posizioni stabili a quanti abbiano fatto delle DH il fulcro del proprio profilo scientifico.  L'intero sistema di reclutamento (ASN, concorsi) e valutazione (ANVUR) è infatti saldamente -- e rigidamente -- ancorato al sistema degli SSD.

(B.2) Nella fase dell'inserimento nel mondo del lavoro. Chiedersi quale sia il ruolo dell'umanista informatico -- ad esempio di un laureato in una LM-43 -- nel gruppo di lavoro di un progetto di ricerca umanistico, in una start-up che operi nell'ambito dei beni culturali, nella pubblica amministrazione, negli organigrammi della scuola o in quelli dell'università, equivale a chiedersi -- solo in una chiave più pratica -- quale sia il ruolo delle DH nel quadro complessivo degli studi umanistici e sociali, e anzi nel quadro ancora più ampio della transizione digitale.
Since schools and universities in Italy still have an instrumental, rather than a transformative, vision of information technology, they are outsourcing, as mere 'services', two key functions: scholarly publication and digital... more
Since schools and universities in Italy still have an instrumental, rather than a transformative, vision of information technology, they are outsourcing, as mere 'services', two key functions:  scholarly  publication  and  digital  teaching.  Today,  the  digital  transition  provides  research  institutions  and  funding  agencies  with  a  chance  to  'reinternalize'  publication.  This  would enhance both Open Access as well as innovative and open forms of communication and exchange in the academia (Open Data/Science). During the Covid-19 pandemic, schools and universities have been using platforms for digital teaching belonging to the multinationals of digital  mass  profiling.  Teaching  and  assessment  techniques  have  hardly  been  renovated  and  adjusted to the new medium. As digital practices arisen during emergency distance learning become a permanent integration of blended education, schools and universities urgently need to  tackle  issues  such  as  student  and  teacher  personal  data  protection,  constructivist  digital  learning methods and social inclusion policies.
The new collation of manuscripts for the new edition of Priscians’ Ars grammatica, which is the main aim of the PAGES ERC project, allows us to improve Hertz’s text in four passages of the eleventh book, dealing with the participle: in GL... more
The new collation of manuscripts for the new edition of Priscians’ Ars grammatica, which is the main aim of the PAGES ERC project, allows us to improve Hertz’s text in four passages of the eleventh book, dealing with the participle: in GL II 557, 8, from Hertz’s illae autem minime to illae autem eam minime; in GL II 562, 4-5 derivativa [vel composita], quorum primitiva [vel simplicia] in usu non sunt → derivativa [vel simplicia], quorum primitiva in usu non sunt; in GL II 562, 11-12 conspicio a specio [non est in usu] → cum spicio in usu non est. In GL II 560, 5, the reading of the archetype aestuo luo does not seem acceptable: some conjectures are proposed for this passage.

La collazione dei manoscritti condotta in vista della nuova edizione dell’Ars grammatica di Prisciano prevista dal progetto ERC PAGES permette di migliorare il testo di Hertz in alcuni punti dell’undicesimo libro, dedicato al participio: in GL II 557, 8, da illae autem minime di Hertz a illae autem eam minime; in GL II 562, 4-5 derivativa [vel composita], quorum primitiva [vel simplicia] in usu non sunt → derivativa [vel simplicia], quorum primitiva in usu non sunt; in GL II 562, 11-12 conspicio a specio [non est in usu] → cum spicio in usu non est. In GL II 560, 5, inoltre, la lezione d’archetipo aestuo luo non appare accettabile: si avanza qualche ipotesi di congettura.
Durante la pandemia COVID-19, la didattica a distanza d’emergenza in Italia, sia a scuola sia all’università, è stata realizzata quasi esclusivamente tramite infrastrutture e piattaforme proprietarie appartenenti alle grandi... more
Durante la pandemia COVID-19, la didattica a distanza d’emergenza in Italia, sia a scuola sia all’università, è stata realizzata quasi esclusivamente tramite infrastrutture e piattaforme proprietarie appartenenti alle grandi multinazionali informatiche, soprattutto Google (G-Suite for Education), Microsoft (Teams), Facebook (Whatsapp) e Zoom. Questo apre problemi di tutela dei dati degli studenti ampiamente sottovalutati nel dibattito pubblico. In altri paesi, tra cui ad esempio la Francia, il Ministero dell’Istruzione ha messo a disposizione infrastrutture pubbliche e fondate su protocolli aperti. La comunità scientifica ha la responsabilità di elaborare e proporre un bilancio ragionato di quanto è avvenuto nel fuoco dell’emergenza per costruire alternative realizzabili nell’immediato del secondo anno di pandemia, e per evitare che pratiche deteriori diventino sistematiche nella formazione scolastica e universitaria del futuro. D’altra parte, è auspicabile che le istituzioni formative (MIUR, USR, Atenei e loro consorzi) si assumano la responsabilità di costruire infrastrutture per la didattica digitale che siano pubbliche, condivise e fondate su tecnologie aperte.
Durante la pandemia COVID-19, la didattica a distanza d’emergenza in Italia, sia a scuola sia all’università, è stata realizzata quasi esclusivamente tramite infrastrutture e piattaforme proprietarie appartenenti alle grandi... more
Durante la pandemia COVID-19, la didattica a distanza d’emergenza in Italia, sia a scuola sia all’università, è stata realizzata quasi esclusivamente tramite infrastrutture e piattaforme proprietarie appartenenti alle grandi multinazionali informatiche, soprattutto Google (G-Suite for Education), Microsoft (Teams) e Facebook (Zoom e Whatsapp). Questo apre problemi di tutela dei dati degli studenti ampiamente sottovalutati nel dibattito pubblico. In altri paesi, tra cui ad esempio la Francia, il Ministero dell’istruzione ha messo a disposizione infrastrutture pubbliche e fondate su protocolli aperti. La comunità scientifica ha la responsabilità di elaborare e proporre un bilancio ragionato di quanto è avvenuto nel fuoco dell’emergenza per costruire alternative realizzabili nell’immediato del secondo anno di pandemia, e per evitare che pratiche deteriori diventino sistematiche nella formazione scolastica e universitaria del futuro. D’altra parte, è auspicabile che le istituzioni formative (MIUR, USR, Atenei e loro consorzi) si assumano la responsabilità di costruire infrastrutture per la didattica digitale che siano pubbliche, condivise e fondate su tecnologie aperte.
This talk discusses three key methodological aspects of a possible model for a digital critical edition of Priscian's Ars grammatica: 1. the glossae found in manuscripts and their relationship with the manuscript text; 2. the presence of... more
This talk discusses three key methodological aspects of a possible model for a digital critical edition of Priscian's Ars grammatica:
1. the glossae found in manuscripts and their relationship with the manuscript text;
2. the presence of Greek text and its importance for the recensio and the construction of a stemma codicum;
3. literary quotations from classical works.
Such research is connected with the project of a new edition of the Ars, initiated by Michela Rosellini with her 2015 edition of the second part of the XVIII book of the work.
1. Glossae. Their inclusion in the edition poses specific modelling challenges, since they bear a complex relationship with Priscian's text: a glossa lives in a manuscript's page, so it refers to the text of that specific witness, not to the abstract text proposed by the editor, and as such it must be modelled in the edition. This can be achieved in the TEI XML encoding by linking each glossa to the manuscript it belongs to, and to the specific manuscript reading it comments upon.
2. Greek text. As Rosellini pointed out, while contamination is very common in Priscian's manuscripts, it is much less frequent for the Greek portions of the text, so the latter become key for the recensio. In the proposed edition model, Greek passages will be encoded on two layers, i.e. with both a normalized and a palaeographic transcription. As a consequence, not only "substantial" readings, but also "palaeographic" and "orthographic" variants will be recorded for those textual portions, thus providing scholars of Priscian's text with additional philological evidence.
3. Literary quotations. They will be marked with formal (machine-readable and processable) citations of their sources through the newly-developed Distributed Texts Services (DTS) protocol.
This paper aims at showing how integrating the Archive of the Italian Latinity of the Middle Ages (ALIM) into the ILC4CLARIN repository can provide mutual benefits. Making ALIM available to a large community of scholars and researchers,... more
This paper aims at showing how integrating the Archive of the Italian Latinity of the Middle Ages (ALIM) into the ILC4CLARIN repository can provide mutual benefits. Making ALIM available to a large community of scholars and researchers, on the one side, represents the first step to reduce the lack of resources for Medieval Latin in CLARIN and, on the other side, constitutes an unprecedented contribution to not only linguistic investigations, but also to the studies of the culture and science at the basis of the Western European society. The paper describes the adopted approach aiming to keep intact the structure of the archive and its metadata, which are both accurately mirrored into the ILC4CLARIN repository in order to maintain existing access practices of the users. This structure can be found in exactly the same state within the CLARIN VLO. Finally, the paper illustrates the advantages of experimenting with some ALIM data, once introduced within the CLARIN Language Resource Switchboard service: first results are shown from the analysis of some texts with the UDPipe tool suite and the distant reading tool Voyant.
The article discusses two examples of how current digital encoding technologies misrepresent non-Western scripts, namely the graphical systems of India (Devánāgarī) and the Middle East (Arabic). Digital encodings such as Unicode inherit... more
The article discusses two examples of how current digital encoding technologies misrepresent non-Western scripts, namely the graphical systems of India (Devánāgarī) and the Middle East (Arabic). Digital encodings such as Unicode inherit three rigid principles from print: (A) 1 ↔ 1, one grapheme corresponds to one letter; (B) 1 = 1, all graphemes (e.g. vowels, consonants) have the same status; (C) 1, 2, 3…, writing is a sequence of elements all on the same "level".

These principles, however, did not apply to handwritten medieval European graphic systems and do not apply today to non-western ones, including their print version. In Devánāgarī, some vowels are written before the consonant that they represent; in European medieval writing systems and in Arabic, diacritics orbit around (above, under or after) base graphemes. In order to provide a digital encoding of those writing systems accordingly to the cultures they belong to, such diacritics should be provided with a special status, distinguishing them from (and linking them to) their base graphemes.

In the case of Arabic, ḥarakāt are added above or below a consonant to specify the short vowel with which it should be pronounced. Since in Arabic a word is identified by its consonants and long vowels only, ḥarakāt are optional diacritics.

The pronunciation of vowels varies largely in time and space among the Arabic-speaking world. A word is the same word from Morocco to Iraq only as long as one only writes its consonants and long vowels, i.e. only within the structure of the Arabic script. Current text encoding technologies fail to represent the optional and relative nature of ḥarakāt. Thus, they make short vowels semiotically pertinent at the same level of consonants. This has potential practical, cultural and social implications in the self-representation of the cultural unity of the Arabic-Islamic world.
Current digital scholarly editions (DSEs) have the opportunity of evolving to dynamic objects interacting with other Internet-based resources thanks to open frameworks such as IIIF and LOD. This paper showcases and discusses two new... more
Current digital scholarly editions (DSEs) have the opportunity of evolving to dynamic objects interacting with other Internet-based resources thanks to open frameworks such as IIIF and LOD. This paper showcases and discusses two new functionalities of EVT (Edition Visualization Technology), version 2: one improving the management of named entities (f.i. personal names) through the use of LOD resources such as FOAF and DBpedia; the other, providing integration of the published text with digital images of the textual primary sources accessed from online repositories (e.g. e-codices or digital libraries such as the Vaticana or the Ambrosiana) via the IIIF protocol.

Le edizioni critiche digitali oggi hanno l’opportunità di diventare sistemi dinamici che interagiscono con altre risorse su Internet grazie a framework aperti come IIIF e LOD. Questo saggio mostra e discute due nuove funzionalità della versione 2 di EVT (Edition Visualization Technology): il primo migliora la gestione delle named entities (ad es. i nomi di persona) attraverso l’uso di risorse LOD come FOAF e DBpedia; il secondo integra il testo pubblicato con le immagini digitali delle fonti testuali, recuperate da server online (ad es. e-codices o le biblioteche digitali Vaticana e Ambrosiana) tramite il protocollo IIIF. The workshop focusses on some teaching methods for classics based on the following digital technologies: cloud platforms (Google Drive/Documents, Framasoft/Framapad); Greek and Latin textual corpora (TLG and PHI 5.3 on cd-rom with Diogenes and online, Perseus); Wikimedia Foundation projects (such as Wikipedia, Wikisource and Wikibooks).
Fascicolo monografico: Textual Philology Facing ‘Liquid Modernity’: Identifying Objects, Evaluating Methods, Exploiting Media a cura di Andrea Chegai, Michela Rosellini, Elena Spangenberg Yanes Indice Preliminary Remarks 1. Aggiornamento... more
Fascicolo monografico: Textual Philology Facing ‘Liquid Modernity’: Identifying Objects, Evaluating Methods, Exploiting Media
a cura di Andrea Chegai, Michela Rosellini, Elena Spangenberg Yanes

Indice
Preliminary Remarks
1. Aggiornamento metodologico e riflessioni critiche sui procedimenti ecdotici / Methodological Enhancement in the Digital Era: New Questions about Critical Editing
Michela Rosellini

2. La singolare natura della testualità musicale / The Peculiar Nature of Musical Textuality
Andrea Chegai

3. Textual Critical Challenges in the Digital World
Elena Spangenberg Yanes

I. Sorting Methods in Critical (Digital) Editing

Nove tesi e mezza per la filologia nell’era della liquidità digitale / Nine and a Half Theses for Philology in the Liquid Digital Age
Lorenzo Tomasin

Il futuro dell’edizione critica (cioè lachmanniana), più o meno digitale. Riflessioni (in)attuali / Critical (Lachmannian) Editions - a More or Less Digital Future? Reflections, New and Old
Ermanno Malaspina

L’edizione critica digitale: la critica del testo nella storia della tradizione / The Critical Digital Edition: Textual Criticism within the History of the Tradition
Paolo Monella

The Genesis of the Arnamagnæan Method
Matthew James Driscoll

The Critical Edition in Old Norse Philology: Its Demise and Redefinition
Odd Einar Haugen

La filologia dell’opera italiana fra testo ed evento / Philology of the Italian Opera between Text and Event
Fabrizio Della Seta

II. Editing Texts with a Complex Transmission

Critical Digital Editions of Christian Apocryphal Literature in Latin and Greek: Transcription and Collation of the Acts of Barnabas
Caroline Macé, Maïeul Rouquette, Violeta Seretan, Frédéric Amsler, Patrick Andrist, Cecilia Antonelli

The Study of codices descripti as a Neo-Lachmannian Weapon Against the Notions of variance and Textual Fluidity.
A Few Words to Introduce the Theme
Paolo Trovato
The Use of codices descripti to Determine Scribal Habits
Federico Marchetti

Di chi è la Penelope? Sull’autorialità di un melodramma di tardo Settecento / Who Composed the Penelope? On the Authoriality of a Late-18th-Century Melodrama
Eleonora Di Cintio

Edizioni genetiche e strategie di visualizzazione digitale. Un prototipo per il quartetto op. 59, nr. 3 di Beethoven / Genetic Editions and Strategies of Digital Visualization. A Prototype for Beethoven’s Quartet Op. 59, No. 3
Federica Rovelli

III. Textual Criticism Applied to the Internet

Classics into Code: Latin Texts in the Digital Space
Dániel Kiss

Dalla stampa al digitale, dal digitale alla stampa. Tradizione indiretta dei classici latini in Rete / From Print to Digital Texts, from Digital Texts to Print. Indirect Tradition of Latin Classics on the Web
Claudio Giammona, Elena Spangenberg Yanes

Un progresso obsoleto? Vicende digitali della Chanson de Roland e del Cantar de Mio Cid / Obsolete Progress? Digital Ups and Downs of the Chanson de Roland and the Cantar de Mio Cid
Claudio Lagomarsini

Fake texts e Wiki edizioni. Per una filologia digitale sostenibile / Fake Texts and Wiki Editions. For a Sustainable Digital Philology
Paola Italia

La narrazione della storia in Wikipedia: pratiche, ideologie, conflitti per la memoria nell’Enciclopedia Libera / The Narration of History in Wikipedia: Practices, Ideologies, Conflicts about Memory in the Free Encyclopedia
Benedetta Pierfederici, Salvatore Talia (Gruppo di ricerca “Nicoletta Bourbaki”)
This collection gathers the essays by eight scholars from disparate areas of textual criticism, addressing a general main topic, that is philology and digital humanities, and dealing with old and new-Lachmannian approaches,... more
This collection gathers the essays by eight scholars from disparate areas of textual criticism, addressing a general main topic, that is philology and digital humanities, and dealing with old and new-Lachmannian approaches, anti-Lachmannian responses, treatments of varia lectio, stemmatology, qualitative and quantitative methods of textual inquiry, and the establishment of standards for digital scholarly editions. The investigated data sets comprise canonical ancient traditions (Paolo Monella), Byzantine scriptural Greek (Barbara Crostini), the dawn of vernacular literacy, with Old Saxon (Marina Buzzoni), the still variable poetic and narrative corpora from the 12th century onwards (Thomas Bein, Anna Cappellotto), French and German epics (Luca Cadioli, Adele Cipolla), the reassessment of neo-Lachmannian procedures to Old French vernacular traditions, as that of the Bédierian Lai de l’ombre (Paolo Trovato). Every author dealt with a given issue from his or her own field of study, searching for and testing the performance of specific digital solutions. All of them touched on and suggested answers to often quite old but still sensitive critical issues.
Research Interests:
The traditional output of philological work aiming at the constitutio textus is the print critical edition with apparatus footnotes showing select variant readings. The digital scholarly edition, instead, is not constrained by the space... more
The traditional output of philological work aiming at the constitutio textus is the print critical edition with apparatus footnotes showing select variant readings. The digital scholarly edition, instead, is not constrained by the space limits of the printed page, so it can encode and visualize synoptically many versions of a text, as found in different textual witnesses. This opportunity has often been exploited by New Philology editions, in which textual versions are juxtaposed without any attempt to reconstruct an "original" text. However, the digital critical edition can constitute a "third way" between constitutio textus and New Philology: the digital editor can provide different versions of a text from individual witnesses and add a further version, the editor's own textus constitutus, thus putting Giorgio Pasquali's "critica del testo" in the framework of the "storia della tradizione".
Nella prima parte dell'articolo (paragrafi 1-3), Edoardo D'Angelo ha scritto sulla storia e gli obiettivi di ALIM. La seconda parte dell'articolo (paragrafi 4-10), scritta da Paolo Monella, discute gli aspetti informatico-umanistici... more
Nella prima parte dell'articolo (paragrafi 1-3), Edoardo D'Angelo ha scritto sulla storia e gli obiettivi di ALIM. La seconda parte dell'articolo (paragrafi 4-10), scritta da Paolo Monella, discute gli aspetti informatico-umanistici della transizione del progetto ALIM da una codifica procedurale (HTML) e proprietaria dei testi e dei loro metadati a standard descrittivi (TEI XML) e open source, e propone in chiusura una riflessione sui modelli di collaborazione tra umanisti, umanisti informatici e informatici all'interno del progetto.

In the first part of this article (paragraphs 1-3), Edoardo D'Angelo wrote about the history and goals of ALIM. In the second part (paragraphs 4-10), Paolo Monella wrote a reflection on the digital humanities aspects of the transition of the ALIM project from HTML to TEI XML (both for the texts and the metadata of the archive); he also discusses issues raised by collaboration between humanites, digital humanists and IT specialists in the ALIM project.
[English abstract] This article reflects on the modelization of texts of our cultural heritage in the current very early phase of Digital Philology by asking the question: what "form" are we forcing upon our texts? I explore three ways in... more
[English abstract] This article reflects on the modelization of texts of our cultural heritage in the current very early phase of Digital Philology by asking the question: what "form" are we forcing upon our texts? I explore three ways in which our textual models reflect our cultural and technologicalbias: first, the OHCO hierarchical model behind TEI XML; second, the sequential alphabetical model based on Western print, lying behind Unicode. A third aspect has been less explored in the scholarly discussion: citation protocols such as CITE/CTS are based on specific corpora. For example, the canonic corpora for classical Greek and Latin texts are TLG and PHI 5.3. Each of those corpora freezes author identification, authorship attribution, text boundaries, paragraph and line numbering in a specific canonic form. A dilemma arises: on the one side, interoperability requires that CTS URIs are based on a fixed textual canon, which hinders scholarly modifications of that canon; on the other side, the principles of philology suggest that URIs point to specific versions of texts, which in its turn cripples the interoperability potential of the protocol.

[Italian abstract] L'articolo costituisce una riflessione sulla modellizzazione dei testi appartenenti alla nostra tradizione culturale in questa fase aurorale della Filologia Digitale e parte dalla domanda: che "forma" stiamo dando ai nostri testi? Vengono asplorati tre aspetti per cui i nostri modelli testuali riflettono i nostri presupposti culturali e tecnologici: in primo luogo, il modello gerarchico OHCO che sta alla base di TEI XML; in secondo luogo, il modello sequenziale alfabetico basato sulla stampa delle lingue occidentali, che sta alla base di Unicode. Un terzo aspetto, poi, è il meno esplorato nella ricerca: protocolli per la citazione testuale come CITE/CTS sono basati su corpora specifici. Per esempio, i corpora canonici per i testi greci e latini classici sono il TLG e il PHI 5.3. Ciascuno di questi corpora fissa in una forma canonica l'identificazione degli autori, l'attribuzione delle opere, la delimitazione dei testi, la numerazione di porzioni testuali come paragrafi e versi. Ne scaturisce un dilemma: da una parte, l'interoperabilità richiede che gli URI CTS siano basati su un canone testuale fisso, il che tende ad ostacolare le modifiche al canone da parte dei filologi; d'altra parte, i principi della filologia suggeriscono che gli URI puntino a versioni specifiche dei testi, il che però riduce il potenziale di interoperabilità del protocollo.
Research Interests:
Digital humanists so far have been reluctant to analyse the socio-political nature (and impact) of their “technical” choices, so a conference on social sciences seems the ideal venue for starting to debate these issues. We will focus on... more
Digital humanists so far have been reluctant to analyse the socio-political nature (and impact) of their “technical” choices, so a conference on social sciences seems the ideal venue for starting to debate these issues. We will focus on three encoding tools widely used in the Humanities and Social Sciences communities: HTML, the de facto standard for encoding Web documents and pages, Unicode, an industry standard designed to allow text and symbols from all of the writing systems of the world to be consistently represented and manipulated by computers, and XML, which defines a set of rules for encoding documents.
Research Interests:
Currently, no 'canonical' classical text with a multi-testimonial tradition has a digital scholarly edition based on a complete digital transcription of all primary sources, and on the automated collation of those transcriptions. Most... more
Currently, no 'canonical' classical text with a multi-testimonial tradition has a digital scholarly edition based on a complete digital transcription of all primary sources, and on the automated collation of those transcriptions. Most classicists simply do not feel that they need such editions. I argue that this is ultimately due to the 'canonization' of the corpus of classical texts. Classicists are more focussed on the 'Text' than on the documents (manuscripts) and their texts: they tend not to consider the textual variance in the manuscripts as culturally meaningful in itself, but merely instrumental in view of the constitutio textus. I suspect that we will not have 'comprehensively digital' editions of 'canonical' classical texts with a multi-testimonial tradition until classical philology broadens its research agenda.
Tre caratteri salienti dello sviluppo attuale dell’Informatica umanistica sono la sua crescita quantitativa, la sua istituzionalizzazione e la sua definizione disciplinare. Nella prima parte di questo articolo (2. Institutional models)... more
Tre caratteri salienti dello sviluppo attuale dell’Informatica umanistica sono la sua crescita quantitativa, la sua istituzionalizzazione e la sua definizione disciplinare. Nella prima parte di questo articolo (2. Institutional models) vengono passati in rassegna alcuni modelli istituzionali emergenti nel quadro internazionale. In questo quadro vengono dunque discussi (3. Tools) alcuni concetti chiave nella riflessione sulla disciplina, come quelli di pratica, ‘building’, centro, progetto, prodotto e strumento. In particolare, si contesta che la creazione di strumenti digitali ‘user-friendly’ costituisca il nodo fondamentale per lo sviluppo della disciplina. Bisogna infatti evitare che da un lato un approccio strumentale all'Informatica umanistica, dall'altro strategie di ricerca esclusivamente fondate su singoli progetti e sullo sviluppo di strumenti ‘friendly’, distolgano dal lavoro metodologico necessario per elaborare metodologie informatiche dotate di un reale valore aggiunto rispetto alle pratiche tradizionali della ricerca.
"Paolo Monella, Centro Linceo Interdisciplinare “B. Segre” , Accademia dei Lincei, Rome Many witnesses, many layers: the digital scholarly edition of the Iudicium coci et pistoris iudice Vulcano by Vespa (Anth. Lat. 199 Riese) Original... more
"Paolo Monella, Centro Linceo Interdisciplinare “B. Segre” , Accademia dei Lincei, Rome
Many witnesses, many layers: the digital scholarly edition of the Iudicium coci et pistoris iudice Vulcano by Vespa (Anth. Lat. 199 Riese)
Original title: Più testimoni, più livelli: l'edizione critica digitale del Iudicium coci et pistoris iudice Vulcano di Vespa (Anth. Lat. 199 Riese)

During my post-doc scholarship at the Centro Linceo Interdisciplinare “B. Segre” of the Accademia dei Lincei, I have been working to a digital scholarly edition of the Iudicium coci et pistoris iudice Vulcano by Vespa (Anth. Lat. 199 Riese), a Latin text in verse from Late Antiquity with a multi-testimonial textual tradition.
This edition aims to apply concepts of Semiotics, Linguistics and Graphology, especially derived from the theoretical and methodological work of Tito Orlandi (see Informatica testuale, Laterza: Roma 2010). It also aims to use XML/TEI markup, while customising it.
In my edition, each primary source (medieval Latin manuscripts) will be encoded at three layers:
* the graphical layer, whose minimal units are the graphemes of a specific witness' graphical system, its paragraphematic signs (like punctuation, word breaks, line breaks etc.) and its systematic abbreviations;
* the alphabetic layer, whose minimal units are the “alphabemes” (by which word Raul Mordenti means alphabetical letters; alphabemes are different from graphemes, in that the latter represent the former);
* the 'linguistic' layer, whose minimal units are inflected words, regardless of the graphical system and even of the alphabet used in specific witnesses.
The digital edition will include a module for automatic collation of witnesses at different layers. For textual criticism, collation will happen at the 'linguistic' layer, but more complex collation systems can by devised to compare the graphical and alphabetical layers of different manuscripts.
This edition aims to be a proof-of-concept to test whether a more sophisticated model of encoding of primary textual sources and of digital scholarly edition can be implemented with a 'sustainable' workflow. Its main innovations are:
* the distinction of different textual layers within each witness;
* the declaration of a 'table of signs' for the graphical and the alphabetical layers of each witness;
* a collation process carried out ad different layers.
A major challenge will be to adapt XML/TEI to fit the purposes of this model of edition. Related issues include the encoding:
* of primary sources generally;
* of so-called 'characters' (including paragraphematic signs);
* of systematic abbreviations."
The connection between the themes of money and death is widespread in Petronius' Satyricon, and is definitely not limited to the Cena Trimalchionis, where it has been widely examined. The aim of my paper is to consider the peculiar form... more
The connection between the themes of money and death is widespread in Petronius' Satyricon, and is definitely not limited to the Cena Trimalchionis, where it has been widely examined. The aim of my paper is to consider the peculiar form that the motif takes in the Crotonian section of Petronius' Satyricon, and its connections with the mythical memory of the Procne and Philomela story.
The theme of corpses dismemberment appears at the end of the episode of the shipwreck, the one immediately preceding the Crotonian section, through Encolpius' reflections on the sepultura practice and the destiny of human bodies after our death (Petronius, Satyricon 115, 6-19); the same theme closes the introductory speech of the farmer on the city of Croton (Sat.116, 9: Adibitis, inquit, oppidum tanquam in pestilentia campos, in quibus nihil aliud est nisi cadavera quae lacerantur aut corvi qui lacerant). The connection between 'eating' heritages and eating human bodies is made explicit in the final paragraphs of the extant text of the novel (Sat. 140 and 141), not only through Eumolpus' testament dispositions, but also through a net of symbols identifying man (or, more precisely, his objectified body) with his patrimony, including the bait metaphor in Sat. 140, 15, and the suggestion to the aspiring cannibal heredipeta in Sat. 141, 7: Operi modo oculos, et finge te non humana viscera, sed centies sestertium comesse.
In this net of narrative and symbolic elements, a significant role is played by the allusion to the mythological figure of Philomela through the character of the greedy matrona who offers her children to the sexual desire of Eumolpus. In paragraph 140 of the Satyricon, the language used to describe the woman and her acts seems to allude to the mythical background of the Procne and Philomela legend (especially to the narrative in the sixth book of Ovid's Metamorphoses), but paradoxically, in the petronian novel, it is the flesh of the sexually greedy Eumolpus which should eventually be eaten - together with his (imaginary) substances - by Philomela's children and the other Crotonian heredipetae.
Three key features of the Digital Humanities today are its quantitative growth, its institutionalisation and its definition as a discipline. In the first part of this article (2. Institutional models) I shall pinpoint some models of... more
Three key features of the Digital Humanities today are its quantitative growth, its institutionalisation and its definition as a discipline.

In the first part of this article (2. Institutional models) I shall pinpoint some models of institutionalisation that are emerging in the international scenario. Against this background, I shall then discuss (3. Tools) some concepts central to Digital Humanities’ self-definition, such as those of practice, ‘building’, centre, project, product and tools, particularly questioning the opinion that the creation of friendly digital tools is the key issue in the future of the field.

I shall finally suggest that ‘instrumentalism’, ‘project fever’ and an excessive focus on friendly tools should not get the upper hand over the methodological work necessary to build digital applications which possess real added value by comparison with traditional research practices.

---

Tre caratteri salienti dello sviluppo attuale dell’Informatica umanistica sono la sua crescita quantitativa, la sua istituzionalizzazione e la sua definizione disciplinare.

Nella prima parte di questo articolo (2. Institutional models) vengono passati in rassegna alcuni modelli istituzionali emergenti nel quadro internazionale. In questo quadro vengono dunque discussi (3. Tools) alcuni concetti chiave nella riflessione sulla disciplina, come quelli di pratica, ‘building’, centro, progetto, prodotto e strumento. In particolare, si contesta che la creazione di strumenti digitali ‘user-friendly’ costituisca il nodo fondamentale per lo sviluppo della disciplina. Bisogna infatti evitare che da un lato un approccio strumentale all'Informatica umanistica, dall'altro strategie di ricerca esclusivamente fondate su singoli progetti e sullo sviluppo di strumenti ‘friendly’, distolgano dal lavoro metodologico necessario per elaborare metodologie informatiche dotate di un reale valore aggiunto rispetto alle pratiche tradizionali della ricerca.
This article shows how the‭ few,‭ ‬but significant‭ negative aspects of the figure of Numa in the‭ historiographical tradition are dealt with in the‭ ‬Fasti. The ideological and broadly cultural implications of the ovidian treatment of... more
This article shows how the‭ few,‭ ‬but significant‭ negative aspects of the figure of Numa in the‭ historiographical tradition are dealt with in the‭ ‬Fasti. The ideological and broadly cultural implications of the ovidian treatment of the Numa character are explored, ‬especially in relation with his discourse on the‭ ‬Einzelherrschaft in the late Augustan age‭.
In the textual tradition of a literary work, our sources (manuscripts, printed books etc.) commonly bear, together with the "main text", different kinds of "paratexts" commenting on it (including interlinear annotations, glosses, scholia,... more
In the textual tradition of a literary work, our sources (manuscripts, printed books etc.) commonly bear, together with the "main text", different kinds of "paratexts" commenting on it (including interlinear annotations, glosses, scholia, footnotes, modern scholarly introductions and commentaries, and many others). This article proposes a unified model for a document-based digital critical edition including both the main texts and the paratexts as they appear in different single sources. The problematic aspects of such an "enlarged" digital edition are discussed, including the relations between the different paratexts and the main text they refer to within each single textual source, as well as the "alignment" of different main texts and paratexts in different sources.
Sul carattere metateatrale dell'accostamento del coro, o del personaggio sulla scena, all'usignolo, dalla tragedia greca ai cori senecani, nonché sul rapporto, ancora in chiave metaletteraria, fra l'Atreus senecano e l'episodio ovidiano... more
Sul carattere metateatrale dell'accostamento del coro, o del personaggio sulla scena, all'usignolo, dalla tragedia greca ai cori senecani, nonché sul rapporto, ancora in chiave metaletteraria, fra l'Atreus senecano e l'episodio ovidiano di Procne e Filomela.
On the opposition, to be found both in Plautus' dramatic production and in augustan elegy, between a city that becomes the site of meretricious love, and therefore of dissolution and deceit, and a rus where traditional moral values survive.
The precepts of Ars 2, 223-250 on the lover's 'dynamic' attitude are read as a conscious reversal, from within, of the elegiac spatial cathegories.
An inquiry on the relations between etymological discourse and etiological narration in the Lara episode of Ovid's Fasti, and a new proposal on the connections linking this ovidian story with Roman religion and mythology.
A post-structuralist reading of the episodes of Ovid's Metamorphoses where men are turned into stone, and vice versa.
On the metaliterary aspects of the nightingale metaphor in Catullus' c. 65.
A presentation of the ERC-2019-AdG Project PAGES (Nr. 882588), focussing on how its research infrastructure addresses specific research goals.
La presentazione è divisa in due parti. La prima suggerisce che l'integrazione di metodi digitali nell'insegnamento umanistico sia ispirata non a 'nuovismo' ma ad un approccio sperimentale e critico. Si propongono e discutono a questo... more
La presentazione è divisa in due parti. La prima suggerisce che l'integrazione di metodi digitali nell'insegnamento umanistico sia ispirata non a 'nuovismo' ma ad un approccio sperimentale e critico. Si propongono e discutono a questo riguardo quattro esempi: l'uso di video registrati, l'interazione online con gli studenti, l'uso di piattaforme wiki e di corpora testuali. La seconda parte riflette invece sui possibili risvolti didattici della ricerca nell'ambito DH. Tale tipo di ricerca presenta spesso l'opportunità di coinvolgere gli studenti nel lavoro 'artigianale' richiesto da attività come la marcatura, l'addestramento di sistemi di intelligenza artificiale o la correzione del loro output. Tale coinvolgimento va pensato però sempre nei termini di un'esperienza formativa, soprattutto nella chiave dell'acquisizione dei metodi che informano l'attività di ricerca.
An online lesson to students of the MA program in Digital Humanities and Digital Knowledge (DHDK) of the University of Bologna on how to write a thesis or other research outputs. Outline: 1. Organizing your work; 2. Structure (Parts of a... more
An online lesson to students of the MA program in Digital Humanities and Digital Knowledge (DHDK) of the University of Bologna on how to write a thesis or other research outputs. Outline: 1. Organizing your work; 2. Structure (Parts of a thesis; Argumentative structure; Abstract); 3. Writing (Strategies; Workflows, including Word processors, LaTeX, MarkDown, Online collaborative editing environments; Word processor advanced functions); 4. Bibliography (Finding bibliography; Getting bibliography; Bibliographic archives, including Zotero, Zotero integration with other workflows, The BibTeX format, JabRef, BibTeX / LaTeX integration, BibTeX integration with other workflows; Managing your bibliography); 5. Citations (Why do we cite?; When do we cite?; Citation styles).
The talk discusses the DH aspects of the inclusion of glosses to Greek portions of the text in the digital critical edition of Priscian’s Ars grammatica, under preparation within the ERC PAGES project (Grant n. 882588). It presents the... more
The talk discusses the DH aspects of the inclusion of glosses to Greek portions of the text in the digital critical edition of Priscian’s Ars grammatica, under preparation within the ERC PAGES project (Grant n. 882588). It presents the data model, focussing on the relationship between the “main” (i. e. Priscian’s) text in the individual manuscripts and the glosses, as we modelled it within the Cadmus software framework.

Our project is devoting particular attention to the Greek portions of the Ars (Priscians’ Graeca): only for them, (a) we are encoding diplomatic transcriptions of the readings of all manuscripts, even those including only minor or merely orthographic variants; and (b) we are recording all glosses commenting on them.

In our data model, each reading of a Graecum and each gloss have two properties (among others): a reference to a location in the main text (identified through word offsets), and the manuscript ID.

Software can thus connect a specific gloss in a manuscript with the specific reading of that manuscript. It can also identify relations between glosses commenting on the same text location.

However, a number of issues arise from the data model described above.

1. Textual variability. The main text varies among the manuscripts, so using the critical text as base for anchors is not trivial. Think, for example, on a case in which a manuscript has extra text not present in the critical text, and a gloss in that manuscript comments on it. For example, in Ars 13, 22, 3 Hertz’s text is ut eadem sit et agens et patiens, potest significare ἑαυτοῦ sui, but manuscripts have ut eadem sit et agens et patiens, quae ιδιοπαθιαν potest significare ἑαυτοῦ sui. If the editor decides not to include the words quae ιδιοπαθιαν in the critical text, we will not be able to anchor the glosses on ιδιοπαθιαν to a location in the main text.

2. Granularity. In this model, the formal connection gloss/MS variant, as well as the connection between glosses of different manuscripts commenting on the same Graecum, require that they all point to the same main text offset. This is more easily done with MS variants. However, if a Graecum is constituted of many words (e.g. ἐμαυτοῦ σαυτοῦ in Ars 12, 25, 2), it is often the case that different glosses specifically point to different portions of the main text. In our example, MSS ZTbNWMko have glosses on ἐμαυτοῦ; bWMko on σαυτοῦ, NvIYk on both words; please note that most MSS have one gloss on a specific word, and another one on the whole Graecum (with k having three glosses, one for each word plus one on both). Even word boundaries may be challenged: the reading of Z is εμαιτοι ϲ.υτοι (εμοιτοι ϲουτοι post corr.), and it interestingly has four clearly distinguished glosses commenting on four groups of letters identified as separated words: mei (on εμαι/εμοι), huius (on τοι), tui (on ϲου), huius (on τοι).
POGO (Philology-Oriented Graphematics Ontology, https://github.com/vedph/graphematics) is an ontology including key concepts of graphematics (such as Grapheme, Allograph, Glyph, Brevigraph). It is oriented towards digital philology: it... more
POGO (Philology-Oriented Graphematics Ontology, https://github.com/vedph/graphematics) is an ontology including key concepts of graphematics (such as Grapheme, Allograph, Glyph, Brevigraph). It is oriented towards digital philology: it includes the concepts/objects that a philologist needs to create a digital diplomatic transcription of a textual document (such as European and Near Eastern medieval manuscripts, inscriptions, papyri) written with pre-modern handwritten writing systems.
I analyze two passages of the Ars Prisciani from the books on the pronoun (XII and XIII) in which the relationship between a citation and its grammatical context is problematic. Frg. Coel. hist. 37 Peter is cited in four passages of the... more
I analyze two passages of the Ars Prisciani from the books on the pronoun (XII and XIII) in which the relationship between a citation and its grammatical context is problematic. Frg. Coel. hist. 37 Peter is cited in four passages of the Ars: three times including the words "alius modi", once with "alii modi". I propose to print "alius modi" in the editions of Coelius Antipater, but I argue that the only occurrence of the fragment with "alii modi" is due to an authorial error. I then discuss Plin. Dubius sermo frg. 7, in which a verbatim citation is wrongly attributed to Cicero's Orator.  I discuss the possible origin of this confusion and conclude that this is another authorial error, that likely originated through an intermediate grammatical source of Priscian, possibly Caper.
Seminario di ricerca, Cesena, Biblioteca Malatestiana, 22-28 gennaio 2023
Research Interests:
Presentation of the literary curriculum in the newly launched MA program in Digital Humanities (Corso di laurea magistrale in Digital Humanities - Beni culturali e materie letterarie) of University Suor Orsola Benincasa of Naples, Italy.
Due lezioni introduttive sull'Informatica umanistica per studenti di liceo di Udine e Gorizia, tenute online il 15 e il 29 novembre 2022 su invito dell'Università degli Studi di Udine. I materiali della lezione del 15 sono in... more
Due lezioni introduttive sull'Informatica umanistica per studenti di liceo di Udine e Gorizia, tenute online il 15 e il 29 novembre 2022 su invito dell'Università degli Studi di Udine. I materiali della lezione del 15 sono in https://doi.org/10.5281/zenodo.7556041; quelli della lezione del 29 sono in https://doi.org/10.5281/zenodo.7556051
Introduction: are digital scholarly edition worth it? What is the added value of the computational technologies in a critical digital edition? Why should a textual scholar choose digital over print in this specific field? The drawbacks... more
Introduction: are digital scholarly edition worth it?

What is the added value of the computational technologies in a critical digital edition? Why should a textual scholar choose digital over print in this specific field? The drawbacks of the digital choice include additional training and costs, slower workflow, less interoperability and durability. Do its 'pluses' balance them out, or even surpass them?

1. Funding

The additional funding that research funding agencies seem eager to pour on projects involving digital aspects is producing an (etymologically) preposterous situation: instead of inquiring whether digital methods can help their research, many applicants first decide that some digital must be involved, they try to find out how.

But I think that we can all agree that, if we want to be intellectually honest, we should not take the economic metaphor of the 'added value' so literally as to consider increased funding opportunities per se a 'plus' for the Humanities. Otherwise, the digital contribution to our research will be mostly cosmetic today, and the relative funding will eventually dry out – as it happens with shallow trends.

2. Availability

The availability of large textual corpora is compensated, on the negative side, by the interoperability and durability issues I mentioned above.

Also, the goal of creating and making comprehensively textual corpora available has long been achieved, and hardly complex digital models and formats such as plain text or PDF are sufficient for the purpose of browsing and reading them, while plain text is sufficient for simple, Boolean or lemmatised searches.

3. Annotation and analyis

The advantages of digital (also semantic) text annotation and analysis software are apparent. Such features arguably make an edition more 'scholarly', since commentary and analysis are part of the editorial work at large, but do they make it more 'critical'?

4. Witness facsimiles

A quite common feature of such editions is the linking of the text to the facsimiles of witnesses: this is contributing to the success of digital philology in those sub-fields of textual editing in which information about the document itself is key – papyrology, epigraphy, codicology, editions of texts with meaningful text-image interaction such as Leonardo’s notebooks or of unique textual historical sources such as the Old Bailey or the Codex Sinaiticus.

5. 'Plural' texts

Another such feature of digital scholarly editions is the possibility of recording an extensive amount of variants or parallel versions from a textual tradition, potentially much more than that which would find place in a print edition.

These features, however, can not only improve the visualisation (the human reading) of additional philological data: they can also allow for further processing (computation by algorithms) of such data.

Digital philology thus provides a clear added value in research fields in which textual variants or even parallel versions of a text are considered culturally significant per se – medieval textual mouvance, genetic editions and filologia d’autore of contemporary authors, New Philology.

6. Popperian falsifiability

While the value of 4 is perceived only by specific areas of the Humanities and 5 does not appeal the philologists who are interested in the constitutio textus of a canonical' work, a third advantage does apply to all editions: an increased availability of philological data would greatly improve the falsifiability of the edition in a Popperian sense, thus its scholarly value.

This, however, raises the issue of the sustainability of the open research data that a project makes available to the scholarly community.
La prima parte della lezione traccia un quadro delle questioni generali relative all'integrazione di metodi digitali nell'insegnamento umanistico e suggerisce alcuni metodi: si usano qui a supporto dell'argomentazione le slide pubblicate... more
La prima parte della lezione traccia un quadro delle questioni generali relative all'integrazione di metodi digitali nell'insegnamento umanistico e suggerisce alcuni metodi: si usano qui a supporto dell'argomentazione le slide pubblicate in https://zenodo.org/record/7208135.
La seconda parte esemplifica alcuni di questi metodi con proposte didattiche concrete che riguardano l'uso di Wikipedia, Wikibooks e dei corpora testuali di testi latini classici; l'editing collaborativo nel cloud; l'interazione asincrona online tra docente e studenti; video registrati nell'ottica della flipped classroom. Per questa parte si usano le slide qui allegate.
Come si insegna oggi l'informatica umanistica (DH) nei corsi di studio, triennali e magistrali, nei master, nei corsi di dottorato, nelle summer school e negli altri percorsi di formazione per studenti e ricercatori in Italia? La... more
Come si insegna oggi l'informatica umanistica (DH) nei corsi di studio,
triennali e magistrali, nei master, nei corsi di dottorato, nelle
summer school e negli altri percorsi di formazione per studenti
e ricercatori in Italia?

La questione formativa è strettamente intrecciata a quella disciplinare e a
quella istituzionale, ovvero da un lato alla definizione delle DH (come
disciplina, trans-disciplina, semplice comunità legata a pratiche
professionali), dall'altro al loro ruolo istituzionale nel nostro paese, anche
in relazione alle politiche culturali della transizione digitale. Discuteremo
qui separatamente, per pura comodità dialettica, dei corsi singoli e dei
percorsi formativi.

(A) I singoli corsi DH -- dalle materie (o laboratori) all'interno di corsi di
    laurea, ai seminari per dottorandi, alle summer school -- stanno utilmente
    disseminando competenze digitali nel mondo degli studi umanistici.
    Se però tali iniziative vengono concepite nel quadro di una concezione
    puramente strumentale delle DH, esse rischiano di trasformarsi in un mero
    addestramento all'uso degli strumenti attuali, che sono peraltro destinati
    ad essere rapidamente sostituiti. Quando ciò accade, si perde l'occasione
    di offrire una formazione ai principi specifici delle DH, formazione
    che sola permette di fare DH in modo consapevole, ripensando criticamente
    i processi di ricerca e generando vera innovazione metodologica e culturale.

(B) D'altra parte, è tornato a crescere il numero dei percorsi formativi
    (laurea, master, dottorato) specificamente centrati sulle DH, anche in
    seguito all'istituzione della classe di lauree magistrali LM-43,
    "Metodologie informatiche per le discipline umanistiche". Tali iniziative
    costituiscono probabilmente il laboratorio più promettente per
    un'informatica umanistica che apra nuove prospettive culturali
    e di ricerca. Qui la questione disciplinare e quella istituzionale
    si pongono con ancor maggiore evidenza, almeno a due livelli:

(B.1) Nella progettazione e nella gestione di tali percorsi.
    Se si ritiene che non esista un proprium disciplinare o metodologico
    delle DH, sarà sufficiente realizzare una 'fusione a freddo'
    tra docenti e insegnamenti provenienti da un dipartimento umanistico
    e uno scientifico. Se invece si ritiene che tale specificità esista,
    e se su di essa si vuole centrare il percorso di studio, sarà necessario
    reclutare stabilmente un certo numero di docenti che siano specialisti DH.
    In Italia, però, ciò è assai problematico, perché l'assenza di un settore
    scientifico disciplinare (SSD) per le DH rende difficile l'accesso
    all'abilitazione scientifica nazionale (ASN) e a posizioni stabili
    a quanti abbiano fatto delle DH il fulcro del proprio profilo scientifico.
    L'intero sistema di reclutamento (ASN, concorsi) e valutazione (ANVUR)
    è infatti saldamente -- e rigidamente -- ancorato al sistema degli SSD.

(B.2) Nella fase dell'inserimento nel mondo del lavoro. Chiedersi
    quale sia il ruolo dell'umanista informatico -- ad esempio di un laureato in
    una LM-43 -- nel gruppo di lavoro di un progetto di ricerca umanistico,
    in una start-up che operi nell'ambito dei beni culturali, nella pubblica
    amministrazione, negli organigrammi della scuola o in quelli
    dell'università, equivale a chiedersi -- solo in una chiave
    più pratica -- quale sia il ruolo delle DH nel quadro complessivo
    degli studi umanistici e sociali, e anzi nel quadro ancora più ampio
    della transizione digitale.
On the possibility of creating tables of signs and abbreviations in digital epigraphy to represent the graphic system of an inscription or of a corpus of inscriptions, especialy to encode allographs, brevigraphs and abbreviation... more
On the possibility of creating tables of signs and abbreviations in digital epigraphy to represent the graphic system of an inscription or of a corpus of inscriptions, especialy to encode allographs, brevigraphs and abbreviation combinations.
Patrick Sahle wrote that a scholarly digital (not digitized) edition (SDE) "cannot be given in print without a significant loss of information or functionality". Daniel Kiss argued that with enough pages, every quantity of information... more
Patrick Sahle wrote that a scholarly digital (not digitized) edition (SDE) "cannot be given in print without a significant loss of information or functionality". Daniel Kiss argued that with enough pages, every quantity of information might be "given in print" too. This talk tackles the general question of the "digital added value" in a SDE -- compared to print -- from the perspective of the information/functionality hendyadis.

We can perform Hjelmslev's "analyis" on raw character data and formally identify "entities" both on the syntagmatic axis (textual structures and relations) and on the paradigmatic axis (tokens, lemmas, stylistic features, named entities). In the Italian tradition of Digital Humanities this operation is commony called "formalizzazione" or "codifica". In the English/international terminology, the key terms for it are "markup" or, more generically, "annotation".

1. On this basis, the first possible added value of a SDE is that we can formalize and visualize complex relations within the text (structure, syntax, metatext), at its threshold (paratext) and beyond a monolithic/abstract concept of "Text" (versions, text/document). An important issue arises with the information itself: once the concept of text "explodes" and includes metatext, paratext, parallel versions and material philology, the quantity of information grows exponentially, in a "fractal" way (one paragraph, two versions, four glosses -- one for each version -- and so on). Is it worth to encode it digitally? Also, visualization is the only function commonly applied here, which exposes these digital philology applications to Kiss's argument. Ultimately, the question is: how much does each area of textual studies (papyrology, epigraphy, classical/medieval/genetic philology etc.) want to invest on the digital recording of such "fractal" information, with the sole purpose of visualizing it? It depends on how much each area is focussed on the plural nature of the text (versions) and on the documents bearing the texts.

2. The second possible added value lies in the semiotic concept of "isotopy", defined by Greimas as "un ensemble redondant de catégories sémantiques". If we formally identify entities on the paradigmatic axis (tokens, lemmas, stylistic features, named entities/Linked Open Data), algorithms can identify isotopies throughout a text -- that is, they can track the recurrence of entities of the same class, such as lemmas of the same lexical field, similar linguistic and stylistic features, place names etc. The question now becomes: what do we do with those isotopies?

2.1  We can apply simple algorithms to create a linear visualization of the isotopy, i.e. of the recurrence of elements of the same class (highlighting, search, indices, maps). A possible objection here regards both information and functionality: print editions might theoretically record/visualize trivial information (such as the linguistic annotation of a morphologic category) through formatting, but they do not do so because the mere visualization of such basic information would not bring any strong scientific advantage. If, instead, the information is more meaningful (e.g. people, names, concepts), also print indices in a book may track it throughout the text. Which suggests that mere linear visualization of isotopies does not necessarily provide a compelling added value of SDEs over print editions.

2.2 In addition, we can apply more complex algorithms to further process an isotopy (the recurrence of some elements) and produce secondary data with non-linear outputs. Examples of such algorithms include topic modelling, stylometry, word vectors or, if we use entities/Linked Open Data entities as input, social network analysis (for people) and network analysis (for places and other concepts). Outputs include tables, graphs and other forms of complex data visualization. In this case, the added value is apparent both in terms of information (the data produced is new, meaningful, and it is not encoded manually, but produced by software, thus removing the issue of limited time/human resources) and in terms of functionality (data is produced dynamically based on analysis algorithms and their adjustable parameters).

3. A third category of fairly apparent added values regards the social dimension of SDEs: the very availability of large plain text corpora (with the connected basic functions of browse and string matching search); social editing (based on shared research infrastructures such as papyri.info); Open Science (resource interoperability based on APIs, data reuse based on Open Data repositories).

In conclusion, compelling arguments for the added value of SDEs certainly come from the functionalities in the third category above (3. social dimension) and from the information and functionalities of category 2.2 (complex algorithms that process isotopies and produce a non-linear output). The advantage produced by category 2.1 (simpler algorithms that produce a linear visualization of isotopies) is less compelling. This suggests that the development of computational text analysis methods (2.2) is a key challenge for digital philology. As for category 1 (visualization of textual relations), only those areas of textual studies which are more deeply concerned with "plural" texts and with the text/document relation currently find it convenient to invest vast resources (in terms of time, training and funding) to encode that kind of potentially "fractal" information.
Presentazione degli aspetti informatico-umanistici del progetto ERC PAGES - Priscian’s Ars Grammatica in European Scriptoria (AdG 2019 n° 882588), costruiti intorno al software Cadmus. Sezioni del seminario: (A) I progetti: A1. Tre... more
Presentazione degli aspetti informatico-umanistici del progetto ERC PAGES - Priscian’s Ars Grammatica in European Scriptoria (AdG 2019 n° 882588), costruiti intorno al software Cadmus. Sezioni del seminario: (A) I progetti: A1. Tre progetti che coinvolgono Sapienza sulla tradizione grammaticale latina; A2. Il progetto PAGES; (B) Il trattamento computazionale: B1. Formalizzazione/modellizzazione; B2. Tecnologie: XML-TEI vs Cadmus; B3. Cadmus in pratica; (C) Riflessioni: C1. Riflessioni teoriche e metodologiche; C2. Cosa vuol dire “pubblicare” in digitale? C3. …e poi? Sostenibilità delle "pubblicazioni" digitali.
Before the COVID-19 pandemic, Italian schools and universities were behind in terms of digital learning practices. The sanitary emergency forced instructors to enter the digital realm, but the lack of previous methodological reflection on... more
Before the COVID-19 pandemic, Italian schools and universities were behind in terms of digital learning practices. The sanitary emergency forced instructors to enter the digital realm, but the lack of previous methodological reflection on digital learning produced negative consequences: distance learning mostly coincided with synchronous transmissive lectures with hardly any student interaction.

During the seminar we will discuss digital teaching methods that make learning more active, critical, society-oriented; assessment practices that can evaluate learning processes, complex skills, critical thinking; strategies to create learning platforms that, unlike Big Tech videoconference and learning management systems, comply with the GDPR (EU General Data Protection Regulation).

As digital learning, introduced as an emergency solution, gets integrated in school and university, the educational community needs to come together to thoughtfully design this integration.
Una introduzione critica alla filologia digitale per gli studenti del Dottorato in Scienze del testo dal Medioevo alla modernità, in cui partendo dalla domanda chiave di quale sia il valore aggiunto dei metodi computazionali per... more
Una introduzione critica alla filologia digitale per gli studenti del Dottorato in Scienze del testo dal Medioevo alla modernità, in cui partendo dalla domanda chiave di quale sia il valore aggiunto dei metodi computazionali per l'edizione e l'analisi dei testi letterari si pone la domanda ancora più ampia di cosa possiamo intendere per 'edizione' scientifica alla luce delle prospettive nuove aperte dal digitale. Il titolo allude al fatto che le nuove generazioni di studiosi -- a partire dai destinatari di questa introduzione -- sono chiamate non solo a sfruttare le sperimentazioni aurorali già avviate in filologia digitale, ma più di ogni altra cosa a dare il loro contributo nell'immaginare modi nuovi di fare filologia nella società digitale.
## Extended abstract What is the added value of the computational technologies in a critical digital edition in classics? Why should a textual scholar choose digital over print in this specific field? The drawbacks of the digital... more
## Extended abstract

What is the added value of the computational technologies in a critical digital edition in classics?  Why should a textual scholar choose digital over print in this specific field?  The drawbacks of the digital choice include additional training and costs, slower workflow, less interoperability and durability. Do its 'pluses' balance them out, or even surpass them?


### 1. Funding

The **additional funding** that research funding agencies seem eager to pour on projects involving digital aspects is producing an (etymologically) preposterous situation: instead of inquiring *whether* digital methods can help their research, many applicants first decide that some digital must be involved, they try to find out how.

But I think that we can all agree that, if we want to be intellectually honest, we should not take the economic metaphor of the 'added value' so literally as to consider increased funding opportunities *per se* a 'plus' for classical research.  Otherwise, the digital contribution to our research will be mostly cosmetic today, and the relative funding will eventually dry out -- as it happens with shallow trends.

The same, but from the opposite perspective, goes for the individual careers of digital classicists (full disclaimer: like me) and for the destiny of digital humanities (DH) centres and institutions: we should not ask ourselves what Classics can do for the DH (how to find a spot for them in our projects and universities), but what the DH can actually do for Classics.  And this question should be asked by digital classicists and 'classicists at large' together, "tearing the wall" between them -- as Samuel Huskey said in a previous seminar of this series.


### 2. Availability

The **availability** of large textual *corpora* is compensated, on the negative side, by the interoperability and durability issues I mentioned above.

Also, the goal of creating and making comprehensively classical *corpora* available has long been achieved, and hardly complex digital models and formats such as plain text, Beta code or PDF are sufficient for the purpose of browsing and reading them, while plain text is sufficient for simple, Boolean or lemmatised searches.


### 3. Annotation and analyis

The advantages of digital (also semantic) **text annotation and analysis software** are apparent.  Such features arguably make an edition more 'scholarly', since commentary and analysis are part of the editorial work at large, but do they make it more 'critical'?

In Classics, the very definition of a 'critical edition' relies on an original work of *consititutio textus* and on its documentation through an *apparatus criticus*: what is the added value of digital methods in this?


### 4. Phylogenetics

**Phylogenetic** algorithms make a strong claim at providing 'specifically philologic' added value, since they help in the phase of the *recensio*, an important step towards the *constitutio textus*.

Their experimentation is ongoing, amid some diffidence from 'traditional' scholars and a methodological tension between 'counting' and 'weighing' variants.

Also disputed is the cost-benefit analysis of the application of these algorithms, compared to traditional variant evaluation.


### 5. Witness facsimiles and enhanced recording of variants/versions

An important 'plus' of digital scholarly editions, upon which its success in fields outside the critical edition of 'canonical' classical texts, is an increased potential of recording philological data closer to the 'document'
-- papyrus, inscription, manuscript, *incunabulum* etc:

- A quite common feature is the linking of the text to the **facsimiles** of witnesses.
- Another such feature is the possibility of recording an extensive amount of **variants or parallel versions** from a textual tradition, potentially much more than that which would find place in a print edition.

If those variants are tagged and distinguished between 'orthographic', 'substantive', 'stemmatically meaningful' etc., visualisation sofware can sort, show or hide them.

But what is the added value of this enhanced availability of philological data, especially for a classicist?
Let us start by saying that facsimiles and enhanced recording of variants/versions can serve two goals:

- Improving the *visualisation* (the human reading) of additional philological data;
- Allowing the *processing* (computation by algorithms) of such data.

The *visualisation* of facsimiles, parallel versions and non-Lachmannina variants
can produce three scientific advantages:

**5.1 Text/document**
As far as Classics are concerned, only texts with unitestimonial traditions such as inscriptions and papyri have taken advantage of this aspect of digital editing.

**5.2 'Plural' texts**
The added value of digital philology is also apparent in research fields or in which textual variants or even parallel versions of a text are considered culturally significant *per se*.  In Classics, among texts with multi-testimonial traditions, only a few 'non-canonical' ones have digital editions -- including Homeric papyiri, non-literary works with multiple ancient versions -- because for these traditions different versions are considered culturally significative.

**5.3 Popperian falsifiability**
A third advantage applies to all editions, including those of 'canonical' classical author: an increased availability of philological data would greatly improve the *falsifiability* of the edition in a Popperian sense, thus its scholarly value.

A very influential definition by Patrick Sahle (<https://doi.org/10.0.45.127/OBP.0095.02>) says that a digital (not digitised) scholarly edition "cannot be given in print without a significant loss of information or functionality".  The advantages described in 5.1, 5.2 and 5.3, focussed on the mere *visualisation* of additional philological information, can be confuted by an interesting objection raised by Daniel Kiss during his talk in this seminar series: Dr. Kiss argued that with the availability of enough pages, every quantity of information, including facsimiles and myriads of variants, can theoretically be "given in print" too, not only in digital form.

However, digital editions live up to Sahle's definition if we move from *visualisation* to **processing** of formalised philological information, i.e.  if we create algorithms (software) that *process* that wealth of data and produce further information for the consideration of scholars.

Processing produces further potential advantages:

**5.4 Analysis of paleography and orthography**
The scientific advantage is apparent for sciences such as paleography or linguistic history (Latin, Greek and Neo-latin languages alike), but not for the traditional goals of classical studies.

**5.5 Analysis of variants**
Human comparison and study of select variants can be aided by spreadsheet-like technologies.  However, one might wonder whether the added value it provides compared to 'traditional' comparison of variants counterbalance the additional work of populating variant tables.

Points 5.4 and 5.5 fall
within the realm of Sahle's "functionality": the latter, in fact, "cannot be given in print", not even with unlimited abundance of pages.

### Conclusions

In an article that I published in 2018 (<http://hdl.handle.net/10447/294132>) I focussed on point 5 above, and concluded that the potential added value of digital philology would not appeal classicists unless they would open themselves to a new type of edition, in which medieval (secondary) textual variance would be considered meaningful *per se* (see point 5.2 above), for instance to provide materials for the study of the history of Latin and Greek language, orthography and paleography in the Middle Ages.

In another article, published the next year (<http://hdl.handle.net/10447/394714>), I argued, somewhat more optimistically, that digital editions could host *both* the *textus constitutus* *and* additional data on the different stages of the tradition.

After further years of experience, I tend to return to the somewhat gloomy conclusions of 2018 for the application of digital philology in Classics, though with some hope *in cauda*:

- The building of large plain-text *corpora* (point 2 above), as well as annotation and textual analysis (point 3), will likely continue to thrive, but they do not belong to the core of textual criticism, at least as it is conceived in Classics;
- If phylogenetic methods (point 4) will reach such a level of maturity to convince classicists, they might become part of scholarly practices;
- Yet, a wider recording of textual variance, either to increase falsifiability of philological hypotheses (point 5.3) or for further computation and analysis (point 5.4) seems to be very far from penetrating editorial practices in Classics (except, maybe, for point 5.5).
Questo breve contributo offrirà alcuni esempi di applicazione di metodi e strumenti digitali allo studio dei personaggi del teatro antico. Mentre il contributo del digitale all’edizione critica, intesa come mirata alla ricostruzione di... more
Questo breve contributo offrirà alcuni esempi di applicazione di metodi e strumenti digitali allo studio dei personaggi del teatro antico.

Mentre il contributo del digitale all’edizione critica, intesa come mirata alla ricostruzione di un testo il più vicino possibile all’intenzione dell’autore, è ancora oggetto di sperimentazione e dibattito, un altro filone di ricerche informatico-umanistiche è ormai in uno stadio più maturo ed offre numerose realizzazioni: si tratta dell’annotazione digitale di concetti specifici (ad esempio luoghi, persone, ruoli) nei testi.

Tale annotazione, detta “semantica”, si distingue da quella delle semplici partizioni strutturali (titoli, paragrafi, capitoli, versi, strofe, sezioni incipitarie) in quanto collega singole parole o espressioni polirematiche a rappresentazioni formali del loro significato, che si trovano in database distribuiti e aperti in rete. Le tecnologie relative a queste annotazioni e a questi collegamenti, che superano la “parola” digitalizzata in vista del “concetto”, prendono il nome di “web semantico” e, più di recente, di “LOD - Linked Open Data”.

Ad esempio, è possibile marcare in questo modo, in un’edizione digitale di testi del teatro latino di età repubblicana, le espressioni che indicano personaggi e “maschere” della palliata, come il senex, lo iuvenis, la giovane prostituta, il servo. Lo stesso metodo può essere applicato a qualunque genere teatrale in cui il sistema dei personaggi sia in qualche misura standardizzato – l’esempio che viene subito in mente è quello della commedia dell’arte.

Tali annotazioni dovrebbero essere collegate ad un modello digitale del sistema dei personaggi, operazione però non priva di difficoltà.

In primo luogo, sono ancora in gran parte da sviluppare gli strumenti informatico-umanistici per gestire entità come i personaggi teatrali – ovvero ontologie, URI LOD e altri aspetti specialistici su cui non mi soffermo in questa sede.

In secondo luogo, la costruzione di un modello digitale (ovvero fortemente formalizzato) dei personaggi della palliata non è affatto sempice dal punto di vista concettuale perché in essa, come in qualunque genere teatrale, tale sistema non è interamente sclerotizzato e fisso: di opera in opera cambiano non solo i nomi (aspetto assai facilmente gestibile in un modello digitale), ma anche le caratteristiche dei personaggi e le relazioni tra di essi.

Esporrò dunque, a titolo esemplificativo, due strade attraverso le quali un’annotazione semantica digitale dei personaggi teatrali, collegata ad un modello digitale del sistema dei personaggi comune ad un determinato genere, potrebbe dare qualche frutto ermeneutico.

La prima strada presuppone un’edizione digitale di testi teatrali rivolta alla lettura distesa. Se le entità relative ai personaggi (nomi con le loro varianti, epiteti etc.) fossero marcate digitalmente e collegate a risorse LOD, l’edizione digitale potrebbe recuperare automaticamente le informazioni presenti su quel personaggio nel web semantico e permettere al lettore di visualizzarle in schede di commento generate automaticamente.

Questo si fa ormai abbastanza comunemente, in informatica umanistica, per i luoghi e i personaggi storici: ad esempio, il progetto Hestia (https://hestia.open.ac.uk/) è partito da un’annotazione semantica dei luoghi citati nelle Storie di Erodoto e da un loro collegamento a risorse LOD presenti in rete. Nel sito web del progetto, il lettore può leggere il testo erodoteo, cliccare sul nome di un luogo citato ed aprire così una scheda informativa contenenti dati su tale luogo estratti automaticamente da altre risorse scientifiche digitali. Vedrà così non solo la collocazione del luogo su una mappa, ma anche dati tratti dal “gazetteer” scientifico Pleiades (https://pleiades.stoa.org/), come i diversi nomi del luogo in varie lingue, le date in cui è effettivamente stato abitato, gli altri luoghi connessi ad esso, i testi classici e la bibliografia secondaria in cui esso è citato (con relativi link) e altro.

Si realizzerebbe così una forma di ‘edizione scientifica distribuita’, in cui alle note di commento locali si aggiungerebbero informazioni, soprattutto fattuali, estratte automaticamente dall’esterno, ovvero dal web semantico.

Una seconda strada, anch’essa percorsa dal progetto Hestia per i nomi di luogo, è quella dei dati statistici. Non si tratterebbe però di far calcolare al computer frequenze e co-occorrenze di parole, ma di concetti.

Per chiarire: già oggi posso usare strumenti come Voyant Tools (https://voyant-tools.org/) per calcolare quali altre parole ricorrano più frequentemente in prossimità della parola Ilium (frequenza di co-occorrenze, o “collocations”), e trarre da grandi quantità di dati di questo genere ulteriori piste di ricerca o supporto per la verifica di ipotesti ermeneutiche. Tuttavia si tratterebbe di dati relativi alle parole, non al loro significato: una ricerca del genere, ad esempio, ‘perderebbe’ le co-occorrenze relative allo stesso luogo, citato con una parola diversa (ad esempio Troia).

Invece, in un corpus testuale annotato semanticamente, le nostre annotazioni ricollegano sia le occorrenze di Ilium sia quelle di Troia ad un unico concetto, che ha un suo identificativo unico LOD (https://pleiades.stoa.org/places/550595 nel gazetteer Pleiades). A questo punto, ogni ricerca o statistica effettuata su tali annotazioni semantiche prenderebbe in considerazione tutte le effettive occorrenze del luogo Troia nel testo, al di là delle parole o delle espressioni usate per indicarlo.

Per tornare all’esempio del progetto Hestia, i suoi algoritmi di analisi producono risultati di vario genere, anche molto diversi dalle tradizionali ricerche testuali: ad esempio, per ogni luogo antico citato da Erodoto Hestia può produrre dinamicamente un grafo avente al centro il luogo selezionato, e disposti intorno tutti gli altri luoghi citati vicino ad esso nel testo: quanto più un altro luogo è citato spesso in co-occorrenza con quello selezionato, tanto più vicino esso sarà collocato nel grafo stesso. Questo dà un’idea immediata delle co-occorrenze di luoghi nel testo erodoteo.

Pur senza giungere alle raffinate visualizzazioni dei dati statistici offerte da progetti come Hestia, statistiche testuali – anche di co-occorrenze – basate su una marcatura semantica dei personaggi nel teatro antico potrebbero offrire dati interessanti sulla presenza e sulle interazioni di tali personaggi, dati articolati per autore, per opera, e nelle diverse sezioni strutturali delle singole opere (proemi, monologhi, parti cantate etc.), e dunque confrontabili tra autori, opere e sezioni diverse.

Una precisazione, in conclusione: tali dati, di origine formale e quantitativa, non intendono affatto sostituire la lettura e l’analisi ‘umana’. L’auspicio è invece che anche negli studi letterari, come già avviene in ambito scientifico, seppure in modo e misura diversi, tali dati possano costituire un ulteriore supporto al servizio dello studioso: un punto di partenza, una base su cui fondare interpretazioni e ipotesi.
Un bilancio del lavoro svolto da parte del progetto Proteus per la modellizzazione e la rappresentazione digitale dell’informazione relativa alal mitologia classica: bibliografia, fonti letterarie, luoghi, personaggi, tempo, iconografia,... more
Un bilancio del lavoro svolto da parte del progetto Proteus per la modellizzazione e la rappresentazione digitale dell’informazione relativa alal mitologia classica: bibliografia, fonti letterarie, luoghi, personaggi, tempo, iconografia, trame, categorie mitiche.
## Extended abstract What is the added value of the computational technologies in a critical digital edition in classics? Why should a textual scholar choose digital over print in this specific field? The drawbacks of the digital... more
## Extended abstract

What is the added value of the computational technologies in a critical digital edition in classics?  Why should a textual scholar choose digital over print in this specific field?  The drawbacks of the digital choice include additional training and costs, slower workflow, less interoperability and durability. Do its 'pluses' balance them out, or even surpass them?


### 1. Funding

The **additional funding** that research funding agencies seem eager to pour on projects involving digital aspects is producing an (etymologically) preposterous situation: instead of inquiring *whether* digital methods can help their research, many applicants first decide that some digital must be involved, they try to find out how.

But I think that we can all agree that, if we want to be intellectually honest, we should not take the economic metaphor of the 'added value' so literally as to consider increased funding opportunities *per se* a 'plus' for classical research.  Otherwise, the digital contribution to our research will be mostly cosmetic today, and the relative funding will eventually dry out -- as it happens with shallow trends.

The same, but from the opposite perspective, goes for the individual careers of digital classicists (full disclaimer: like me) and for the destiny of digital humanities (DH) centres and institutions: we should not ask ourselves what Classics can do for the DH (how to find a spot for them in our projects and universities), but what the DH can actually do for Classics.  And this question should be asked by digital classicists and 'classicists at large' together, "tearing the wall" between them -- as Samuel Huskey said in a previous seminar of this series.


### 2. Availability

The **availability** of large textual *corpora* is compensated, on the negative side, by the interoperability and durability issues I mentioned above.

Also, the goal of creating and making comprehensively classical *corpora* available has long been achieved, and hardly complex digital models and formats such as plain text, Beta code or PDF are sufficient for the purpose of browsing and reading them, while plain text is sufficient for simple, Boolean or lemmatised searches.


### 3. Annotation and analyis

The advantages of digital (also semantic) **text annotation and analysis software** are apparent.  Such features arguably make an edition more 'scholarly', since commentary and analysis are part of the editorial work at large, but do they make it more 'critical'?

In Classics, the very definition of a 'critical edition' relies on an original work of *consititutio textus* and on its documentation through an *apparatus criticus*: what is the added value of digital methods in this?


### 4. Phylogenetics

**Phylogenetic** algorithms make a strong claim at providing 'specifically philologic' added value, since they help in the phase of the *recensio*, an important step towards the *constitutio textus*.

Their experimentation is ongoing, amid some diffidence from 'traditional' scholars and a methodological tension between 'counting' and 'weighing' variants.

Also disputed is the cost-benefit analysis of the application of these algorithms, compared to traditional variant evaluation.


### 5. Witness facsimiles and enhanced recording of variants/versions

An important 'plus' of digital scholarly editions, upon which its success in fields outside the critical edition of 'canonical' classical texts, is an increased potential of recording philological data closer to the 'document'
-- papyrus, inscription, manuscript, *incunabulum* etc:

- A quite common feature is the linking of the text to the **facsimiles** of witnesses.
- Another such feature is the possibility of recording an extensive amount of **variants or parallel versions** from a textual tradition, potentially much more than that which would find place in a print edition.

If those variants are tagged and distinguished between 'orthographic', 'substantive', 'stemmatically meaningful' etc., visualisation sofware can sort, show or hide them.

But what is the added value of this enhanced availability of philological data, especially for a classicist?
Let us start by saying that facsimiles and enhanced recording of variants/versions can serve two goals:

- Improving the *visualisation* (the human reading) of additional philological data;
- Allowing the *processing* (computation by algorithms) of such data.

The *visualisation* of facsimiles, parallel versions and non-Lachmannina variants
can produce three scientific advantages:

**5.1 Text/document**
As far as Classics are concerned, only texts with unitestimonial traditions such as inscriptions and papyri have taken advantage of this aspect of digital editing.

**5.2 'Plural' texts**
The added value of digital philology is also apparent in research fields or in which textual variants or even parallel versions of a text are considered culturally significant *per se*.  In Classics, among texts with multi-testimonial traditions, only a few 'non-canonical' ones have digital editions -- including Homeric papyiri, non-literary works with multiple ancient versions -- because for these traditions different versions are considered culturally significative.

**5.3 Popperian falsifiability**
A third advantage applies to all editions, including those of 'canonical' classical author: an increased availability of philological data would greatly improve the *falsifiability* of the edition in a Popperian sense, thus its scholarly value.

A very influential definition by Patrick Sahle (<https://doi.org/10.0.45.127/OBP.0095.02>) says that a digital (not digitised) scholarly edition "cannot be given in print without a significant loss of information or functionality".  The advantages described in 5.1, 5.2 and 5.3, focussed on the mere *visualisation* of additional philological information, can be confuted by an interesting objection raised by Daniel Kiss during his talk in this seminar series: Dr. Kiss argued that with the availability of enough pages, every quantity of information, including facsimiles and myriads of variants, can theoretically be "given in print" too, not only in digital form.

However, digital editions live up to Sahle's definition if we move from *visualisation* to **processing** of formalised philological information, i.e.  if we create algorithms (software) that *process* that wealth of data and produce further information for the consideration of scholars.

Processing produces further potential advantages:

**5.4 Analysis of paleography and orthography**
The scientific advantage is apparent for sciences such as paleography or linguistic history (Latin, Greek and Neo-latin languages alike), but not for the traditional goals of classical studies.

**5.5 Analysis of variants**
Human comparison and study of select variants can be aided by spreadsheet-like technologies.  However, one might wonder whether the added value it provides compared to 'traditional' comparison of variants counterbalance the additional work of populating variant tables.

Points 5.4 and 5.5 fall
within the realm of Sahle's "functionality": the latter, in fact, "cannot be given in print", not even with unlimited abundance of pages.

### Conclusions

In an article that I published in 2018 (<http://hdl.handle.net/10447/294132>) I focussed on point 5 above, and concluded that the potential added value of digital philology would not appeal classicists unless they would open themselves to a new type of edition, in which medieval (secondary) textual variance would be considered meaningful *per se* (see point 5.2 above), for instance to provide materials for the study of the history of Latin and Greek language, orthography and paleography in the Middle Ages.

In another article, published the next year (<http://hdl.handle.net/10447/394714>), I argued, somewhat more optimistically, that digital editions could host *both* the *textus constitutus* *and* additional data on the different stages of the tradition.

After further years of experience, I tend to return to the somewhat gloomy conclusions of 2018 for the application of digital philology in Classics, though with some hope *in cauda*:

- The building of large plain-text *corpora* (point 2 above), as well as annotation and textual analysis (point 3), will likely continue to thrive, but they do not belong to the core of textual criticism, at least as it is conceived in Classics;
- If phylogenetic methods (point 4) will reach such a level of maturity to convince classicists, they might become part of scholarly practices;
- Yet, a wider recording of textual variance, either to increase falsifiability of philological hypotheses (point 5.3) or for further computation and analysis (point 5.4) seems to be very far from penetrating editorial practices in Classics (except, maybe, for point 5.5).
- In my 2018 article I suggested that Classics might join forces with scholars of medieval culture and with language historians to create editions that record larger amounts of philological information in medieval manuscripts (points 5.1 and 5.2). This dream has been perceived as utterly unfeasible in the reception of that article of mine.  But some hope may come from projects such as the one I am working on at this time, PAGES (Priscian's *Ars Grammatica* in European Scriptoria, ERC Grant 882588, <https://web.uniroma1.it/pages/>), which aims at taking advantage of the potential of digital philology to produce not only a Lachmannian critical edition (in digital and in print) of Priscian's *Ars*, but also to record and publish an extensive database of transcriptions of Greek passages, Greek hands, glosses, Renaissance interpolations and other philological data which, in fact, broaden the scope of the study of Priscian beyond the classical age.
Prima della pandemia da COVID-19, la scuola e l'università italiane avevano accumulato un grande ritardo nella didattica digitale, sia nella familiarità dei docenti con gli strumenti tecnologici e nell'effettiva diffusione delle pratiche,... more
Prima della pandemia da COVID-19, la scuola e l'università italiane avevano accumulato un grande ritardo nella didattica digitale, sia nella familiarità dei docenti con gli strumenti tecnologici e nell'effettiva diffusione delle pratiche, sia nella riflessione metodologica sui metodi digitali più efficaci dal punto di vista pedagogico. L'emergenza sanitaria ha imposto a tutti i livelli della formazione di confrontarsi con la didattica digitale, si può dire da una settimana all'altra. Questo ha portato un enorme balzo in avanti nella conoscenza degli strumenti e nelle pratiche, che in certe fasi hanno trovato applicazione quasi universale. Ma ha anche messo in evidenza l'enorme ritardo in termini di riflessione metodologica e di sperimentazione didattica: la didattica digitale finisce per coincidere, nella DAD d'emergenza, con videolezioni frontali sincrone, che trasferiscono in ambito informatico il monologo della lezione tradizionale, privato peraltro in gran parte di quella interazione con gli studenti che la presenza in aula in qualche modo imponeva. Le contraddizioni dell'insegnamento trasmissivo sono poi esplose nell'ambito, fondamentale, della valutazione, di fronte ai tentativi di perpetuare forme di verifica nozionistica nonostante l'impossibilità di un controllo sui sensi e il corpo degli studenti. Il seminario si interrogherà su quali metodi didattici, tra quelli resi possibili dagli strumenti informatici, apportino un vero progresso dal punto di vista pedagogico, in un quadro di riferimento costruttivista che favorisca un apprendimento attivo, laboratoriale, orientato alla società. La questione della valutazione verrà dunque affrontata di conseguenza: non chiedendoci come controllare gli studenti in interrogazioni o test nozionistici, ma quali forme di verifica, tra quelle possibili in ambiente digitale, possano valutare processi di apprendimento, competenze complesse, saperi critici. Non tutte le innovazioni tecnologiche nella didattica costituiscono infatti passi in avanti, e la DAD si è arenata in vicoli ciechi e cattive pratiche, dalle videolezioni frontali allo stesso uso di piattaforme di videoconferenza dei Big Tech americani, che non offrono garanzie di tutela dei dati personali nel quadro normativo europeo della GDPR. Mentre la didattica digitale diventa, da emergenziale, strutturale e integrativa nel futuro di scuola e università, diventa urgente attivare una riflessione collettiva e una sperimentazione consapevole sui modi di questa integrazione.
As larger and larger areas of our life go digital, how do our rights change when they ‘migrate’ along? And what new rights shall we shape for the ‘new things’ that are born in that realm? The complex issues that arise are no ‘tech stuff’.... more
As larger and larger areas of our life go digital, how do our rights change when they ‘migrate’ along? And what new rights shall we shape for the ‘new things’ that are born in that realm? The complex issues that arise are no ‘tech stuff’. They are a global challenge for the next generations, starting from the one of students that are listening to my talk.

Mentre aree sempre più vaste della nostra vita ‘migrano’ nel reame digitale, come cambiano i nostri diritti? E che diritti nuovi immaginare per le ‘cose nuove’ nate in questo contesto? Le complesse questioni che si originano non sono ‘roba da ingegneri’. Si tratta una sfida globale che interpella le prossime generazioni, a partire da quella degli studenti che ascoltano questo intervento.
Paper delivered at the conference "Text and Textuality", Durham University, 15 July 2021
Research Interests:
In occasione della presentazione del suo libro “Metodi digitali per l’insegnamento classico e umanistico” (Milano:EDUCatt 2020), disponibile in open access su... more
In occasione della presentazione del suo libro “Metodi digitali per l’insegnamento classico e umanistico” (Milano:EDUCatt 2020), disponibile in open access su https://store.streetlib.com/it/paolo-monella/metodi-digitali-per-linsegnamento-classico-e-umanistico, Paolo Monella discute con Vincenzo Galante dell’attuale esternazionalizzazione dei servizi di didattica digitale (DAD) nelle mani dei grandi della rete (Google e Microsoft in testa). La proposta dell’autore consiste nella creazione di infrastrutture digitali pubbliche che tutelino i dati personali degli studenti.
Durante la pandemia COVID-19, la didattica a distanza d’emergenza in Italia, sia a scuola sia all’università, è stata realizzata quasi esclusivamente tramite infrastrutture e piattaforme proprietarie appartenenti alle grandi... more
Durante la pandemia COVID-19, la didattica a distanza d’emergenza in Italia, sia a scuola sia all’università, è stata realizzata quasi esclusivamente tramite infrastrutture e piattaforme proprietarie appartenenti alle grandi multinazionali informatiche, soprattutto Google (G-Suite for Education), Microsoft (Teams) e Facebook (Zoom e Whatsapp). Questo apre problemi di tutela dei dati degli studenti ampiamente sottovalutati nel dibattito pubblico. In altri paesi, tra cui ad esempio la Francia, il Ministero dell’istruzione ha messo a disposizione infrastrutture pubbliche e fondate su protocolli aperti. La comunità scientifica ha la responsabilità di elaborare e proporre un bilancio ragionato di quanto è avvenuto nel fuoco dell’emergenza per costruire alternative realizzabili nell’immediato del secondo anno di pandemia, e per evitare che pratiche deteriori diventino sistematiche nella formazione scolastica e universitaria del futuro. D’altra parte, è auspicabile che le istituzioni formative (MIUR, USR, Atenei e loro consorzi) si assumano la responsabilità di costruire infrastrutture per la didattica digitale che siano pubbliche, condivise e fondate su tecnologie aperte.
During the COVID-19 pandemic, schools and colleges almost exclusively used proprietary platforms such as Google's G-Suite for Education and Microsoft Teams for Emergency Remote Teaching (ERT). This raises student data protection issues,... more
During the COVID-19 pandemic, schools and colleges almost exclusively used proprietary platforms such as Google's G-Suite for Education and Microsoft Teams for Emergency Remote Teaching (ERT). This raises student data protection issues, largely understated in public debate. In countries such as France, the Ministry of Education provided public infrastructures for ERT, based on Free-Libre Open Source Software (FLOSS). The scientific community must reflect on what has happened during the emergency and must propose possible alternatives for the specific situation of the second year of the pandemic and for the future. It is crucial that bad practices facilitated by the emergency do not become stable and systematic. On the other hand, national and local public educational institutions such as Ministries, Universities, school networks take responsibility for building digital infrastructures for remote teaching that be public, open and FLOSS-based.
The euristic potential of hyperdiplomatic transcription can be fully developed only if the latter is based on a well-designed and shared data model. To make only one example, algorithms for statistics or structured queries should... more
The euristic potential of hyperdiplomatic transcription can be fully developed only if the latter is based on a well-designed and shared data model.

To make only one example, algorithms for statistics or structured queries should consume data in which the distinction between objects such as "grapheme" and "alphabeme" is clearly modelled, since in Latin "vi" we have two graphemes that may represent the corresponding alphabemes ("vi", "with force"), or may represent a number. Similar issues arises, for instance, when dealing with transliterations, abbreviations, non-alphabetic (e.g. alphasyllabic) scripts. Thus, the modelling of concepts such as glyph, allograph, grapheme, grapheme type (alphabetic, diacritic, punctuation etc.), alphabeme, abbreviation, phoneme, word impacts data, algorithms and their euristic value alike.

Since TEI aims to be theory-agnostic, it does not provide a shared model for the concepts listed above (glyph, allograph etc.), but instead suggests a Unicode-based pragmatic approach to the representation of ancient ("non-standard") graphemes. As a consequence, each project produces transcriptional data following its own editorial conventions and, therefore, based on its own data model. The consequent reduction of interoperability is dramatic if we want to step up from mere data visualization for human reading to machine analysis.

Ontologies are one of the best current DH practices to formalize a data model, and Linked Open Data are the best way to share those formalizations as open, reusable and modular objects. In my talk, I will discuss my data model for digital graphematics, oriented towards digital transcription and editing of pre-modern handwritten textual sources. My current project at the Venice Centre for Digital and Public Humanities aims to formalizing that model into a LOD ontology and to implementing it in classes of an object-oriented programming language.

My use case for the hackathon will be my edition of Ursus Beneventanus, built upon that model (http://www.unipa.it/paolo.monella/ursus).
Three examples of application of DH to classics: 1. the distributed edition, integrating LOD (Linked Open Data) and CTS (Canonical Text Services); 2. my recently created POGO (Philology-Oriented Graphematics Ontology,... more
Three examples of application of DH to classics: 1. the distributed edition, integrating LOD (Linked Open Data) and CTS (Canonical Text Services); 2. my recently created POGO (Philology-Oriented Graphematics Ontology, https://github.com/vedph/graphematics), modelling concepts such as Grapheme, Alphabeme, Allograph, Abbreviation, Ligature to foster technological interoperability between digital scholarly editions based on transcriptions of primary sources through a shared theoretical framework; 3. an example of application of distant reading techniques to the myth of Procne and Philomela in classical Latin literature.
The euristic potential of hyperdiplomatic transcription can be fully developed only if the latter is based on a well-designed and shared data model. To make only one example, algorithms for statistics or structured queries should consume... more
The euristic potential of hyperdiplomatic transcription can be fully developed only if the latter is based on a well-designed and shared data model.

To make only one example, algorithms for statistics or structured queries should consume data in which the distinction between objects such as "grapheme" and "alphabeme" is clearly modelled, since in Latin "vi" we have two graphemes that may represent the corresponding alphabemes ("vi", "with force"), or may represent a number. Similar issues arises, for instance, when dealing with transliterations, abbreviations, non-alphabetic (e.g. alphasyllabic) scripts. Thus, the modelling of concepts such as glyph, allograph, grapheme, grapheme type (alphabetic, diacritic, punctuation etc.), alphabeme, abbreviation, phoneme, word impacts data, algorithms and their euristic value alike.

Since TEI aims to be theory-agnostic, it does not provide a shared model for the concepts listed above (glyph, allograph etc.), but instead suggests a Unicode-based pragmatic approach to the representation of ancient ("non-standard") graphemes. As a consequence, each project produces transcriptional data following its own editorial conventions and, therefore, based on its own data model. The consequent reduction of interoperability is dramatic if we want to step up from mere data visualization for human reading to machine analysis.

Ontologies are one of the best current DH practices to formalize a data model, and Linked Open Data are the best way to share those formalizations as open, reusable and modular objects. In my talk, I will discuss my data model for digital graphematics, oriented towards digital transcription and editing of pre-modern handwritten textual sources. My current project at the Venice Centre for Digital and Public Humanities aims to formalizing that model into a LOD ontology and to implementing it in classes of an object-oriented programming language.

My use case for the hackathon will be my edition of Ursus Beneventanus, built upon that model (http://www.unipa.it/paolo.monella/ursus).
Possible strategies for sustainability of the Archivio della Latinità Italiana del Medioevo (ALIM), a digital library of medieval Latin texts of the Italian area now encoded in TEI XML, in the next years.
This talk outlines strategies for a planned connection of my digital scholarly edition of the De nomine by Ursus Beneventanus (http://www.unipa.it/paolo.monella/ursus) and the Linked Open Data (LOD) infrastructure for Latin built by the... more
This talk outlines strategies for a planned connection of my digital scholarly edition of the De nomine by Ursus Beneventanus (http://www.unipa.it/paolo.monella/ursus) and the Linked Open Data (LOD) infrastructure for Latin built by the LiLa-Linking Latin Project (https://lila-erc.eu). This connection should happen at two layers. At the linguistic layer, information on lemmas and morphology encoded in the edition would be linked to existing ontologies embedded into LiLa. However, the current lemmatization/PoS tagging of the Ursus edition should be revised before the connection with the LiLa LOD resources. As far as the graphematic layer is concerned (e.g. palaeographic information relative to graphemes, abbreviation marks, punctuation etc.), no ontology currently exists for this domain. My current research project at the Venice Centre for Digital and Public Humanities of Ca' Foscari University, Venice, consists precisely in the creation of this ontology. When it will be created and published, and Lila will integrate it, a joint project can be devised to create a prototypical integration of the Ursus edition in the LiLa LOD ecosystem based on graphematic/palaeographic information.
For digital philology based on pre-modern handwritten witnesses, interoperability and reuse of textual data and software is an open issue. This talk illustrates the ongoing work for the creation of a LOD ontology to formalize concepts... more
For digital philology based on pre-modern handwritten witnesses, interoperability and reuse of textual data and software is an open issue. This talk illustrates the ongoing work for the creation of a LOD ontology to formalize concepts such as glyph, allograph, grapheme (alphabetic grapheme, brevigraph, abbreviation mark, punctuation, logograph, ideogram), alphabeme, abbreviation, word, lemma. Since TEI aims to be theory-agnostic, it does not provide a shared model for those entities. As a consequence, each project produces transcriptional data following its own editorial conventions and, therefore, based on its own data model. The goal of the proposed LOD ontology is to facilitate both the exchange of textual data deriving from (hyper)diplomatic transcriptions and the development and reuse of modular open source software modules in the field.
The "Chronicon" by Romualdus from Salerno is a universal chronical of the XII century in Latin that constitutes an important source for the early stages of the Norman conquest of Southern Italy. I am working on a new digital critical... more
The "Chronicon" by Romualdus from Salerno is a universal chronical of the XII century in Latin that constitutes an important source for the early stages of the Norman conquest of Southern Italy. I am working on a new digital critical edition of this texts based on the main manuscripts (A, B, C, Aa/D in Schwarz's siglum). It will be based on full transcriptions of the texts of those witnesses, encoded in TEI/XML, and on their semi-automatic collation with CollateX and ad hoc Python software. This digital methodology will provide richer evidence of the textual variance in the manuscripts, especially since the apparatus criticus of Garufi's 1914 edition seems to omit a number of readings. The numerous textual additions differentiating the "long" and the "short" version of the work and the possible transpositions of those passages pose a specific technological challenge because they make computational collation particularly complex. Another challenging task is the distinction between orthografic and substantial variants, since they can serve different research interests of different readers
The talk discusses a model of scholarly digital edition going beyond the dichotomy between diplomatic and interpretative edition. It constitutes a proof of concept of methodological innovations introduced by Tito Orlandi. I experimentally... more
The talk discusses a model of scholarly digital edition going beyond the dichotomy between diplomatic and interpretative edition. It constitutes a proof of concept of methodological innovations introduced by Tito Orlandi. I experimentally implemented this edition model in my edition of the De nomine by Ursus Beneventanus (http://www.unipa.it/paolo.monella/ursus). It is especially fit for textual traditions based on handwritten sources.  The text of the witnesses is encoded in layers, defined on the basis of semiotic considerations. The Ursus edition includes three layers: (1) A graphematic layer, whose minimal units are graphemes, including paragraphematic signs (such as punctuation) and systematic one-glyph abbreviations (such as ꝑ for per). All graphemes identified by the editor are listed in a Graphematic Table of Signs (GToS), a functional part of the edition. (2) An alphabetic layer, whose minimal units are alphabetic letters. The GToS provides the standard alphabetic meaning of graphemes. The editor encodes the alphabetic transcription explicitly (within <expan>) only when the software cannot generate it based on the graphematic transcription through the grapheme/alphabetic letter mapping in the GToS. (3) A linguistic layer, whose minimal units are inflected words (<w>), identified through a lemma/morphology combination: the lemma (e.g. lupus, -i) is encoded with the attribute @lemma; morphological information (e.g. genitive singular), with the attribute @ana. This layer is for interpretative visualization, textual analysis, interoperability and collation.
In principle each textual document features a specific writing system. This applies very clearly to handwritten documents: medieval manuscripts, modern handwritten notes, diaries and drafts such as those left by Saussure or Wittgenstein.... more
In principle each textual document features a specific writing system. This applies very clearly to handwritten documents: medieval manuscripts, modern handwritten notes, diaries and drafts such as those left by Saussure or Wittgenstein. Peculiar features include the very composition of the graphematic and alphabetic systems (u/v, i/j), allographs (s/ſ, u/v, i/j, c/σ/ς), abbreviation systems, punctuation and other conventional marks.

Let us assume that manuscript A has two distinct graphems 'u' and 'v', while manuscript B has only one 'u' grapheme. If we identified both the 'u' of the first manuscript and the 'u' of the second manuscript with the same Unicode codepoint (U+0075), our encoding would imply that they are the same grapheme, while they are not. Each of them, instead, is defined contrastively by the net of relations in the context of its own writing system, as Saussure taught us, and the net of contrastive relations of manuscript A is different from that of manuscript B, because the latter does not have a 'u/v' distinction. This is even more evident with other graphic signs such as punctuation, whose expression (shape) and content (value) varied enormously through time.

Tito Orlandi ("Informatica testuale", 2010) suggests to create a "table of signs" to declare and define formally, for each document, each graphic sign that the encoder decides to distinguish, identify and encode in his or her digital edition.

After discussing this issue at the 2013 TEI yearly conference, I came to the conclusion that the very nature of XML, which is the current technological framework of TEI, requires that the encoder formally declares only "non-standard" graphemes that are not already declared in Unicode.

So in my prototypal critical digital edition of the "De nomine" by Ursus from Benevento (IX century), I implemented a GToS ("Graphematic table of signs") as an independent CSV file, probably the simplest digital format for a table. I then created software (in JavaScript) that processes the GToS as an essential component of the edition model.
An experiment in distant reading on the texts that tell the myth of Procne and Philomela in classical Latin literature and on the section of book VI of Ovid's Metamorphoses telling the story, in comparison with the whole of the... more
An experiment in distant reading on the texts that tell the myth of Procne and Philomela in classical Latin literature and on the section of book VI of Ovid's Metamorphoses telling the story, in comparison with the whole of the Metamorphoses and the whole of classical Latin literature.
The talk discusses two examples of how current digital encoding technologies misrepresent non-Western scripts, namely the graphical systems of India (Devánāgarī) and the Middle East (Arabic). Digital encodings such as Unicode inherit... more
The talk discusses two examples of how current digital encoding technologies misrepresent non-Western scripts, namely the graphical systems of India (Devánāgarī) and the Middle East (Arabic). Digital encodings such as Unicode inherit three rigid principles from print: (A) 1 ↔ 1, one grapheme corresponds to one letter; (B) 1 = 1, all graphemes (e.g. vowels, consonants) have the same status; (C) 1, 2, 3…, writing is a sequence of elements all on the same "level".

These principles, however, did not apply to handwritten medieval European graphic systems and do not apply today to non-western ones, including their print version. In Devánāgarī, some vowels are written before the consonant that they represent; in European medieval writing systems and in Arabic, diacritics orbit around (above, under or after) base graphemes. In order to provide a digital encoding of those writing systems accordingly to the cultures they belong to, such diacritics should be provided with a special status, distinguishing them from (and linking them to) their base graphemes.

In the case of Arabic, ḥarakāt are added above or below a consonant to specify the short vowel with which it should be pronounced. Since in Arabic a word is identified by its consonants and long vowels only, ḥarakāt are optional diacritics.

The pronunciation of vowels varies largely in time and space among the Arabic-speaking world. A word is the same word from Morocco to Iraq only as long as one only writes its consonants and long vowels, i.e. only within the structure of the Arabic script. Current text encoding technologies fail to represent the optional and relative nature of ḥarakāt. Thus, they make short vowels semiotically pertinent at the same level of consonants. This has potential practical, cultural and social implications in the self-representation of the cultural unity of the Arabic-Islamic world.
La lezione fornirà un'introduzione iniziale alle questioni metodologiche legate all'edizione scientifica e critica digitale. Si affronterà quindi più specificamente la questione dei livelli di rappresentazione del testo in edizioni... more
La lezione fornirà un'introduzione iniziale alle questioni metodologiche legate all'edizione scientifica e critica digitale. Si affronterà quindi più specificamente la questione dei livelli di rappresentazione del testo in edizioni fondate su fonti primarie come i manoscritti, dal livello paleografico a quello "normalizzato".

Nella seconda parte della lezione, si esporrà la risposta fornita a tali questioni di ricerca nell'edizione critica digitale del De nomine di Orso Beneventano (http://www.unipa.it/paolo.monella/ursus).

Il modello sperimentato nell'edizione di Orso intende superare la dicotomia tra edizione diplomatica e critica grazie ad un ripensamento profondo, semioticamente fondato, dei livelli di trascrizione e di edizione di un testo. I livelli scelti per questa edizione sono:

1. Livello grafematico, le cui unità minime sono i grafemi, inclusi i segni paragrafematici e le brachilogie sistematiche. Tutti i grafemi individuati dall'editore sono elencati nella "Graphemic Table of Signs" (GToS), che costituisce parte integrante dell'edizione.

2. Livello alfabetico, le cui unità minime sono le lettere alfabetiche. La GToS riporta, per ogni grafema, un significato alfabetico standard. La codifica a livello alfabetico è fornita esplicitamente dall'editore all'interno di un elemento <expan> solo quando essa non sia desumibile dalla codifica grafematica tramite la tabella di corrispondenze fornita nella GToS.

3. Livello linguistico, le cui unità minime sono le parole flesse, identificate tramite la combinazione di un lemma ("lupus, -i": attributo @lemma) e di informazioni morfologiche ("genitivo singolare": attributo @ana). Questo livello di codifica è utile per la visualizzazione (edizione "critica"), l'analisi testuale, l'interoperabilità e la collazione.
L'annosa questione sull'esistenza di una (trans)disciplina "Informatica umanistica" assume aspetti molto concreti per chi definisca un progetto di ricerca informatico-umanistico, e ancor più per chi progetti di istituire un centro di... more
L'annosa questione sull'esistenza di una (trans)disciplina "Informatica umanistica" assume aspetti molto concreti per chi definisca un progetto di ricerca informatico-umanistico, e ancor più per chi progetti di istituire un centro di ricerca o un corso di studi in tale ambito.

In ultima analisi, la questione si incarna nella figura stessa dell'umanista informatico. Esiste, serve, e quindi bisogna formare l'"umanista informatico" come profilo specifico? Se sì, quali sono le sue competenze e quale il suo ruolo?

In più di vent'anni di ricerca nel campo, si è ampiamente praticata la modalità organizzativa che prevede, all'interno di un progetto scientifico, una cooperazione tra umanisti "puri" con competenze informatiche limitate e puramente strumentali, e ricercatori (ma più spesso tecnici) informatici senza competenze umanistiche. Tale configurazione si è ripetutamente dimostrata fallimentare, innanzitutto per le inaspettate difficoltà di comunicazione tra persone che si sono formate su paradigmi radicalmente diversi. Il mio parere è che sia spesso mancata, in tali gruppi interdisciplinari, proprio la figura e la centralità dell'umanista informatico, ovvero di uno studioso che abbia approfondito gli aspetti metodologici che stanno al cuore dell'Informatica umanistica e che possa dunque impostare le questioni di ricerca umanistiche tenendo presente l'impostazione formale/algoritmica imposta dall'informatica, e adattare ad esse metodi e strumenti informatici tenendo presenti le questioni e gli obiettivi umanistici.

La stessa questione si proietta sull'organizzazione di un centro di ricerca informatico-umanistico. Escludiamo in partenza l'ipotesi di un centro di servizi che fornisca pura assistenza tecnica senza alcun profilo scientifico (ad es. database e siti web), per la quale attività basteranno le strutture già esistenti, costituite da informatici "puri" e spesso da tecnici. L'attività principale di un vero centro di Informatica umanistica consisterà dunque nell'elaborazione e nello svolgimento di progetti di ricerca con tale impostazione, con le sue sole forze o, più probabilmente, in collaborazione con altri studiosi (umanisti) dell'Ateneo. Per ogni progetto curato dal centro si riproporrà dunque la questione, delineata sopra, delle figure coinvolte in un gruppo collaborativo di ricerca.

Più specificamente, dal punto di vista degli organizzatori della nuova struttura: al centro dovrà afferire personale stabile? Se sì, con che profilo? In che modo dovranno configurarsi le collaborazioni tra il personale del centro e il resto dell'Ateneo? Un primo vicolo cieco va purtroppo menzionato: quello di una struttura che abbia una pura esistenza giuridica, cui di fatto non afferisca nessuno. Un secondo scenario, non meno insidioso, è quello di una struttura il cui personale stabile sia costituito da informatici "puri", cui gli umanisti strutturati dei vari dipartimenti dell'Ateneo "esternalizzino" gli aspetti "tecnici" dei progetti di ricerca informatico-umanistici: dei rischi connessi ho già detto sopra.

Un centro di informatica umanistica dovrebbe invece includere degli umanisti informatici. Ma dove trovarli? L'Ateneo dovrebbe avere al suo interno, o reperire sul mercato del lavoro, strutturati con un solido profilo specifico nel campo.

Qui la questione si sposta però ad un altro livello: negli anni Novanta l'Italia ha decretato che l'Informatica umanistica non esistesse. Il Ministero competente ha scelto di non istituire per essa uno specifico SSD (Settore Scientifico Disciplinare), cioè di non considerarla una disciplina ma un insieme di strumenti e pratiche che costituiscano parte della formazione degli umanisti dei vari settori. Una scelta che oggi porta ad esiti assai problematici. Per ottenere l'ASN (Abilitazione Scientifica Nazionale), ed ai fini di ogni ulteriore valutazione della sua ricerca, un umanista informatico oggi in Italia deve pubblicare il doppio di qualunque altro umanista: da una parte deve studiare, realizzare progetti e pubblicare quanto è specifico dell'Informatica umanistica, se vuole raggiungere competenze serie in materia; dall'altra, deve pubblicare saggi di contenuto, impostazione e modalità di diffusione più tradizionali. E sarà valutato solo sulla base di questi ultimi. Questo necessariamente comprime, nell'attività di ogni umanista informatico, lo spazio dedicato agli aspetti informatico-umanistici, e fa sì che abbiano più probabilità di "entrare all'università" quanti abbiano più compresso tali aspetti. Il risultato paradossale è che quando un'università italiana lanci un centro di ricerca e corsi di studio in questo ambito, e cerchi studiosi che abbiano un solido profilo informatico-umanistico, abbia difficoltà a trovarli in Italia, e debba cercarli all'estero -- semplicemente perché gli umanisti informatici italiani non si abilitano, mentre nelle assunzioni dall'estero i rigidi confini delle SSD non si applicano.
The traditional output of a constitutio textus is the print critical edition with apparatus footnotes. The digital scholarly edition, instead, can provide a synoptic view of the different manuscript versions of a text, since it is not... more
The traditional output of a constitutio textus is the print critical edition with apparatus footnotes. The digital scholarly edition, instead, can provide a synoptic view of the different manuscript versions of a text, since it is not constrained by the space limits of the printed page. To implement this visualization, alternative encoding and processing strategies can be used, including (a) the TEI XML P5 module "textcrit: Critical Apparatus" with software such as TEI Critical Apparatus Toolbox) and (b) an automatic collation (with software such as Juxta o CollateX) of full transcriptions of each witness with the TEI module "transcr: Transcription of primary sources". Synoptic editions often reflect a New Philology approach, in which textual versions are juxtaposed without any textual critical reconstruction of an "original" text. However, the synoptic digital scholarly edition can constitute a new "third way" between constitutio textus and New Philology: the digital editor can provide the reader with individual versions of a text, thus better presenting the "history of the tradition" (G. Pasquali), and also attach a further version to them, the editor's textus constitutus, conceived as a "working hypothesis" (G. Contini) adding itself to the textus constituti of each previous scribe-scholar (L. D. Reynolds and N. G. Wilson).
On the encoding of metadata on medieval texts included in the ALIM digital archive through intergration between the teiHeader of the TEI XML files of the works and ALIM2, the new Wordpress-based version of the ALIM digital library... more
On the encoding of metadata on medieval texts included in the ALIM digital archive through intergration between the teiHeader of the TEI XML files of the works and ALIM2, the new Wordpress-based version of the ALIM digital library (http://alim.unisi.it).
My experimental scholarly digital edition of the De nomine by Ursus Beneventanus tested the feasibility of the edition model theorized by Orlandi 2010, based on three different layers of text representation (graphematic, alphabetic and... more
My experimental scholarly digital edition of the De nomine by Ursus Beneventanus tested the feasibility of the edition model theorized by Orlandi 2010, based on three different layers of text representation (graphematic, alphabetic and linguistic) and on a table of all graphemes having distinctive value in the graphic system of a specific manuscript (“graphematic table of signs”). Its work flow, however, proved to be very time-consuming. This talk analyzes the specific practices of the Ursus edition that mostly slowed down the work flow and outlines possible solutions to be applied in my ongoing digital edition of the Chronicon by Romualdus Salernitanus. Those aspects include (a) the markup of abbreviations, which can be expedited by taking advantage of the systematic nature of ancient abbreviations, (b) the markup of ancient punctuation, which will be omitted altogether, and (c) the representation of the linguistic layer. The minimal units of the latter are inflected words regardless of any specific spelling. In the Ursus edition, each word was represented at this layer by a combination of lemma and morphological information (e.g.: ablative plural of lemma “praepositio, -onis”), by means of @lemma and @ana attributes of <w>. The values of those attributes were populated by the lemmatizer/PoS tagger TreeTagger, but needed to be reviewed manually. The Romualdus edition will initially include no representation of the Linguistic Layer. If time will suffice, a simplified representation of it will be added, falling back on the common practice of representing words at the linguistic layer by means of their “normalized” spelling. Lastly, while in the Ursus project the TEI-to-HTML transformation was performed dynamically by JavaScript, in the Romualdus edition a Python script will perform this task statically.
Digital Editions. Academia, Society, Cultural heritage. II DiXiT Convention, 16 March 2016, Cologne University, Germany.
http://dixit.uni-koeln.de/convention-2-abstracts/
Research Interests:
The diplomatic scholarly edition has the potential of going beyond the old distinction between diplomatic and interpretative edition. The prototypal edition of Ursus from Benevento's De nomine encodes the text at three different layers... more
The diplomatic scholarly edition has the potential of going beyond the old distinction between diplomatic and interpretative edition. The prototypal edition of Ursus from Benevento's De nomine encodes the text at three different layers (graphematic, alphabetic, linguistic). This talk outlines the methodology and technology behind this edition.
The diplomatic scholarly edition has the potential of going beyond the old distinction between diplomatic and interpretative edition. The prototypal edition of Ursus from Benevento's De nomine encodes the text at three different layers... more
The diplomatic scholarly edition has the potential of going beyond the old distinction between diplomatic and interpretative edition. The prototypal edition of Ursus from Benevento's De nomine encodes the text at three different layers (graphematic, alphabetic, linguistic). This talk outlines the methodology and technology behind this edition.
Two lessons delivered on May 3 and May 31 to DEMM students at the University of Siena, Italy on how to build digital scholarly editions with XML-TEI.
The diplomatic scholarly edition has the potential of going beyond the old distinction between diplomatic and interpretative edition. The prototypal edition of Ursus from Benevento's De nomine encodes the text at three different layers... more
The diplomatic scholarly edition has the potential of going beyond the old distinction between diplomatic and interpretative edition. The prototypal edition of Ursus from Benevento's De nomine encodes the text at three different layers (graphematic, alphabetic, linguistic). This talk outlines the methodology and technology behind this edition.
A general introduction to the Digital Humanities for senior high school students, showcasing applications of digital technologies to the humanities for everyday use (such as speech recognition automatic translation) and for specialistic... more
A general introduction to the Digital Humanities for senior high school students, showcasing applications of digital technologies to the humanities for everyday use (such as speech recognition automatic translation) and for specialistic research (such as literary text analysis).

And 18 more

In this workshop, students enrich a TEI XML digital edition with LOD (Linked Open Data), harvesting information on entities such as people, places and organisations from the Semantic Web.
English: The workshop primarily targets school and college instructors specializing in the humanities. It comprises two main parts. (1) A presentation on digital teaching methods tailored to the humanities. This segment will emphasize the... more
English:
The workshop primarily targets school and college instructors specializing in the humanities. It comprises two main parts. (1) A presentation on digital teaching methods tailored to the humanities. This segment will emphasize the utilization of digital tools and platforms to promote active learning, critical thinking, and social engagement. (2) Following the presentation, participants will engage in a hands-on workshop. Here, attendees will acquire the skills necessary to guide their students in creating and editing Wikipedia articles related to humanities subjects, as well as annotated editions of literary texts on Wikibooks.

Italiano:
Il workshop è pensato per docenti, di scuola e università, di materie umanistiche. Si compone di due parti. (1) Una presentazione su alcuni metodi didattici digitali per le discipline umanistiche, e in particolare sull'uso di strumenti e piattaforme digitali per promuovere l'apprendimento attivo, il pensiero critico e l'impegno sociale. (2) Un workshop pratico, in cui i corsisti acquisiranno le competenze necessarie per guidare i loro studenti nella creazione o nell'editing di articoli Wikipedia su argomenti umanistici, e di edizioni commentate di testi letterari su Wikibooks.
Course attendants will learn how to enrich their scholarly digital edition in the direction of the "distributed edition" with two advanced features: (1) linking to the source document images through IIIF; (2) linking concepts and named... more
Course attendants will learn how to enrich their scholarly digital edition in the direction of the "distributed edition" with two advanced features: (1) linking to the source document images through IIIF; (2) linking concepts and named entities (including places and persons) to LOD entities They will explore strategies to visualize these features in EVT (Edition Visualization Software).
The session will provide an overview of digital philology methods, based on the case study of manuscript Bodleian Library 264, including an illustrated copy of the travel report of the Venetian explorer Marco Polo. After a presentation of... more
The session will provide an overview of digital philology methods, based on the case study of manuscript Bodleian Library 264, including an illustrated copy of the travel report of the Venetian explorer Marco Polo. After a presentation of the manuscript, students will discuss which of its features should be included in a digital model. Then an actual digital edition of the manuscript will be shown and discussed. Based on the latter, the instructors will introduce: the basics of TEI XML textual markup; issues related with the intersection of the document material structure and the abstract textual structure; the TEI Guidelines; the encoding of named entities (people and places).
A hands-on workshop for PhD students in Classics on the use of CTE (Classical Text Editor), a word processor for the production of print critical editions.
A hands-on workshop for humanities students of the University of Pavia on textual markup, ranging from charsets to structural and semantic annotation in TEI XML. Un workshop pratico per studenti di discipline umanistiche dell'Università... more
A hands-on workshop for humanities students of the University of Pavia on textual markup, ranging from charsets to structural and semantic annotation in TEI XML.
Un workshop pratico per studenti di discipline umanistiche dell'Università di Pavia sul markup testuale, dai charset alla marcatura strutturae e semantica in TEI XML.
Italian: Il seminario presenterà l’idea di un’edizione scientifica digitale ‘distribuita’ che, oltre al testo, comprenda - link dinamici alle immagini del documento (manoscritto, graffito, manufatto archeologico con iscrizione) che si... more
Italian:

Il seminario presenterà l’idea di un’edizione scientifica digitale ‘distribuita’ che, oltre al testo, comprenda

- link dinamici alle immagini del documento (manoscritto, graffito, manufatto archeologico con iscrizione) che si trovino su server IIIF (come ad es. quello della Biblioteca Vaticana);
- riferimenti a informazioni distribuite nel Web semantico (ad esempio coordinate geografiche e mappe di luoghi da progetti come Pelagios).

English:

The seminar will introduce the idea of a 'distributed' scholarly digital edition, which includes, in addition to the text:

- dynamic links to facsimiles of the source document (manuscript, archeological manuscript with inscription) located  in IIIF servers (such as that of the Vatican Library);

- connections with information distributed in the Semantic Web (such as geographic coordinates and maps of places drawn from projects such as Pelagios).
During the workshop, students will mark up either the texts that they are working on for their own research project, or texts presenting the same research questions, provided by the instructor. The workshop will thus provide them with... more
During the workshop, students will mark up either the texts that they are working on for their own research project, or texts presenting the same research questions, provided by the instructor. The workshop will thus provide them with hands-on experience on textual markup, as well as with an opportunity to reflect on possible applications of digital methods to their own research.
I contenuti e le competenze del workshop sono complementari a quelle di altri due moduli del corso: 1. "Edizioni critiche digitali usando EVT" (R. Rosselli Del Turco) ha fornito un'introduzione pratica alla produzione di edizioni... more
I contenuti e le competenze del workshop sono complementari a quelle di altri due moduli del corso:

    1. "Edizioni critiche digitali usando EVT" (R. Rosselli Del Turco) ha fornito un'introduzione pratica alla produzione di edizioni digitali fondate sulla codifica TEI XML, visualizzate tramite il software EVT;
    2. "Digital libraries: dai metadati ai dati" (M. Cassella) ha introdotto i corsisti all'uso del framework IIIF (International Image Interoperability Framework) e dei LOD (Linked Open Data) per la metadatazione.

Nel presente workshop i corsisti:

    1. proseguiranno il lavoro iniziato durante il modulo di R. Rosselli Del Turco arricchendo la loro edizione digitale TEI XML, visualizzata con EVT, con due caratteristiche più avanzate: il collegamento con le immagini del documento-fonte tramite il framework IIIF, e la marcatura di entità definite nel Web semantico (LOD) come persone, luoghi, concetti;
    2. applicheranno le tecnologie IIIF e LOD al testo delle loro edizioni, dopo avere già esplorato la loro applicazione ai metadati all'interno del modulo di M. Cassella.
A workshop on how to link a digital scholarly edition based on TEI XML with images on a IIIF (International Image Interoperability Framework) server.
A workshop how to transform the TEI XML files of your digital scholarly edition to HTML for visualization, using XSLT, Oxygen or other technologies
Students will create a digital (formal, machine-actionable) model of a portion of a brief text in verse. They will follow a inductive path, moving from the elementary structures of the computer (a sequence of binary states, "on/off",... more
Students will create a digital (formal, machine-actionable) model of a portion of a brief text in verse. They will follow a inductive path, moving from the elementary structures of the computer (a sequence of binary states, "on/off", "yes/no", often represented by "0" and "1") to binary and decimal numbers and CharSets (ASCII and Unicode). At this point, the hands-on experience will begin: students will create their own textual markup language based on symbols of their choice and will be asked to reflect on the theoretical and methodological issues arising from inline markup. They will then be introduced to the SGML/XML syntax and to the TEI XML vocabulary and will encode a brief poem. Two lectures will provide an overview of digital philology applications and a methodological reflection on its potential of integrating the history of textual traditions and textual criticism.

I corsisti saranno guidati in un percorso induttivo e laboratoriale a creare un modello digitale (formale, gestibile dal computer) di una poesia, a partire dalle strutture elementari del funzionamento del computer (una sequenza di stati binari, "aceso/spento", "sì/no", spesso rappresentati con "0" ed "1"), fino ai numeri binari, a quelli decimali, ai CharSet (tabelle di caratteri come ASCII o Unicode), per arrivare, sempre induttivamente, a creare un loro linguaggio di markup. Infine, sarà loro presentata la sintassi SGML/XML e poi specificamente il linguaggio TEI XML. I corsisti quindi codificheranno un testo in versi in TEI XML. Due brevi lezioni, ricollegandosi all'esperienza laboratoriale, faranno il punto sulla filologia digitale: la prima presenterà una panoramica delle sue principali realizzazioni; la seconda, di carattere metodologico, rifletterà sulla sua potenzialità di integrare storia della tradizione e critica del testo.
Students will create a digital (formal, machine-actionable) model of a portion of a brief text in verse and will edit a simple script in JavaScript to visualize and analyze the text. They will follow a inductive path, moving from the... more
Students will create a digital (formal, machine-actionable) model of a portion of a brief text in verse and will edit a simple script in JavaScript to visualize and analyze the text.

They will follow a inductive path, moving from the elementary structures of the computer (a sequence of binary states, "on/off", "yes/no", often represented by "0" and "1") to binary and decimal numbers and CharSets (ASCII and Unicode). At this point, the hands-on experience will begin: students will create their own textual markup language based on symbols of their choice and will be asked to reflect on the theoretical and methodological issues arising from inline markup. They will then be introduced to the SGML/XML syntax and to the TEI XML vocabulary and will encode a brief poem.

At this point, we shall move from the concept of (digital textual) model to that of algorithm (procesing that model). The students will be asked to edit, by filling in the gaps, some JavaScript code, in order to visualize the text in a browser and to perform simple textual analysis on it (word count and average verse length).

The goals of the workshop are to gain some hands-on experience on textual markup, but more importantly to understand the basic concepts of the Turing Machine (formalization, formal model, input, output, software, programming).
English abstract: In the first part of the workshop, led by Paolo Monella and centered on digital textual modelling and TEI XML, students will create a digital (formal, machine-actionable) model of a portion of a text from a medieval... more
English abstract:
In the first part of the workshop, led by Paolo Monella and centered on digital textual modelling and TEI XML, students will create a digital (formal, machine-actionable) model of a portion of a text from a medieval manuscript, both gaining hands-on experience and reflecting on the methodological and theoretical foundations and issues of textual modelling. They will follow a inductive path, moving from the elementary structures of the computer (a sequence of binary states, "on/off", "yes/no", often represented by "0" and  "1") to binary and decimal numbers and charsets (ASCII and Unicode). At this point, the hands-on experience will start: students will create their own textual markup language based on symbols of their choice and will be asked to reflect on the theoretical and methodological issues arising from inline markup. They will then be introduced to the SGML/XML syntax and to the TEI XML vocabulary and will encode a brief textual portion taken from a medieval manuscript, based on its digital images and using the TEI module for the transcription of primary sources. The students will then be presented, and will practice, two alternative strategies for combining TEI XML, the current standard for scholarly text encoding, with IIIF, the rising standard for online image metadata and annotation: (A) the first approach consists in linking to the digital images of the manuscript from within the TEI XML source, for example with the TEI attribute @facs; (B) with the second approach, the whole TEI XML transcription is included in the IIIF metadata as an "Annotation". This will constitute a bridge with the second part of the workshop, led by Fabio Cusimano, focussed on IIIF.

Abstract in italiano:
Nella prima parte del workshop, condotta da Paolo Monella e centrata sulla modellizzazione digitale del testo e su TEI XML, gli studenti creeranno un modello (formale, machine-actionable) di una porzione di testo tratto da un manoscritto medievale, da un lato ottenendo esperienza diretta e dall'altro riflettendo sulle basi teorico-metodologiche e sulle questioni aperte della modellizzazione del testo. I corsisti saranno accompagnati in un percorso induttivo e laboratoriale che partirà dalle strutture elementari del funzionamento del computer (una sequenza di stati binari, "aceso/spento", "sì/no", spesso rappresentati con "0" ed "1"), fino ai numeri binari, a quelli decimali, ai CharSet (tabelle di caratteri come ASCII o Unicode). A questo punto, inizierà l'esperienza diretta: gli studenti creeranno un loro linguaggio di markup basato su simboli scelti da loro, e saranno portati a riflettere sulle questioni teoriche e metodologiche legate all'inline markup. Saranno dunque introdotte la sintassi SGML/XML e il vocabolario TEI XML. Gli studenti codificheranno una breve porzione testuale tratta da un manoscritto medievale, partendo dalle sue riproduzioni digitali e usando il modulo TEI per la trascrizione delle fonti testuali. Infine, si presenteranno agli studenti due strategie alternative di integrazione tra TEI XML (lo standard attuale per la codifica testuale nel mondo della ricerca umanistica) e IIIF (lo standard emergente per la metadatazione e l'annotazione di immagini nel Web): (A) il primo approccio consiste nel creare nel codice TEI XML (ad esempio tramite l'attributo TEI @facs) link che puntino alle immagini digitali del manoscritto; (B) col secondo approccio, l'intera trascrizione TEI XML è incusa all'interno dei metadati IIIF come "Annotation". Gli studenti praticheranno entrambe le strategie. Ciò costituirà un ponte verso la seconda parte del workshop, condotta da Fabio Cusimano e centrata su IIIF.
A 4-days winter school in digital philology including talks and four workshops (EpiDoc, TEI XML, Python and visualization). I co-organized the winter school with Luciano Longo and Tiziana Mancinelli and taught the 7-hour workhop on Python.
A one-day workshop to train the contributors of the ALIM project (Archivio della Latinità Italiana del Medioevo) in the TEI XML encoding of medieval Latin texts. The workshop was led by Edoardo Ferrarini, Paolo Monella and Roberto... more
A one-day workshop to train the contributors of the ALIM project (Archivio della Latinità Italiana del Medioevo) in the TEI XML encoding of medieval Latin texts. The workshop was led by Edoardo Ferrarini, Paolo Monella and Roberto Rosselli Del Turco.
Training course for high school Latin and Greek teachers, on how to use Google Drive/Docs in the classroom.
Research Interests:
An introduction to XML/TEI for graduate students. I haven't uploaded any file because I did not use a slideshow for this talk.
The initial lecture provided a theoretical-methodological introduction to Digital Philology, focused on the possible role of the critical text of the editor within the framework of a digital scholarly edition based on a complete... more
The initial lecture provided a theoretical-methodological introduction to Digital Philology, focused on the possible role of the critical text of the editor within the framework of a digital scholarly edition based on a complete representation of the text of each primary source. The second part was a hands-on workshop on the TEI XML encoding of textual variants and JavaScript, providing a practical introduction to the core aspects of digital scholarly editing (modelling, visualization and analysis) and an exemplification of methodological issues discussed in the first part.
My PhD Thesis scrutinized with the symbolic aspects of space in Latin Augustan love elegy and particularly with two main topics: urban space, related with 'urbanitas' as a cultural and literary model, and travel, often related to warfare... more
My PhD Thesis scrutinized with the symbolic aspects of space in Latin Augustan love elegy and particularly with two main topics: urban space, related with 'urbanitas' as a cultural and literary model, and travel, often related to warfare and greed for money.
Proceedings of the conference Arte perennat amor. Riflessioni sull'intertestualità ovidiana. IV - L'Ars Amatoria.
Proceedings of the conference which took place in Palermo on December 5 and 6, 2005.
Proceedings of the conference which took place in Palermo on January 27 and 28, 2003.
Review of the second edition (2021) of A. Balbo's monograph on digital tools for Latin teaching.
Research Interests:
Corso di formazione per docenti di discipline umanistiche tenuto in presenza presso il Liceo S. Savarino di Partinico (PA), organizzato in collaborazione tra l’AIUCD (Associazione Italiana per l’Informatica Umanistica e la Cultura... more
Corso di formazione per docenti di discipline umanistiche tenuto in presenza presso il Liceo S. Savarino di Partinico (PA), organizzato in collaborazione tra l’AIUCD (Associazione Italiana per l’Informatica Umanistica e la Cultura Digitale), la delegazione di Palermo dell’AICC (Associazione Italiana di Cultura Classica) e il Liceo Santi Savarino di Partinico (PA). Il corso comprende dapprima una presentazione sui metodi digitali per la didattica umanistica; quindi un workshop in cui i docenti imparano a usare Wikibooks per la didattica del latino (con applicazione ai Carmina di Catullo). Nell’applicazione didattica in classe, i docenti chiederanno poi ai loro studenti di creare un commento digitale ai Carmina su Wikibooks.
In occasione dell'avvio del nuovo Corso di Laurea telematico in Digital Humanities per l'Industria culturale, Paolo Monella e Maurizio Lana conversano su "Testo e cultura al tempo dell'AI: uomo e macchina nella mediazione culturale",... more
In occasione dell'avvio del nuovo Corso di Laurea telematico in Digital Humanities per l'Industria culturale, Paolo Monella e Maurizio Lana conversano su "Testo e cultura al tempo dell'AI: uomo e macchina nella mediazione culturale", riflettendo sulle potenzialità e i rischi che essa comporta e sull'impulso positivo che le DH possono dare alle scienze umanistiche.
Corso di formazione per docenti di discipline umanistiche tenuto in presenza presso il Liceo G. A. De Cosmi di Palermo, organizzato in collaborazione tra l'AIUCD (Associazione Italiana per l'Informatica Umanistica e la Cultura Digitale),... more
Corso di formazione per docenti di discipline umanistiche tenuto in presenza presso il Liceo G. A. De Cosmi di Palermo, organizzato in collaborazione tra l'AIUCD (Associazione Italiana per l'Informatica Umanistica e la Cultura Digitale), la delegazione di Palermo dell'AICC (Associazione Italiana di Cultura Classica) e il Liceo De Cosmi. Il corso comprende dapprima una presentazione sui metodi digitali per la didattica umanistica; quindi un workshop in cui i docenti imparano a usare Wikibooks per la didattica del latino (con applicazione ai Carmina di Catullo). Nell'applicazione didattica in classe, i docenti chiederanno poi ai loro studenti di creare un commento digitale su Wikibooks ai Carmina.
Online training course for school teachers. How should we change our school assessment methods in the in a world in which students can use generative AI for humanities projects and test essays?
Online training course for school teachers, on how to teach students how to create or edit Wikipedia articles or Wikisource/Wikibooks commented editions of literary texts or historical sources.
The workshop focusses on some teaching methods for classics based on the following digital technologies: cloud platforms (Google Drive/Documents, Framasoft/Framapad); Greek and Latin textual corpora (TLG and PHI 5.3 on cd-rom with... more
The workshop focusses on some teaching methods for classics based on the following digital technologies: cloud platforms (Google Drive/Documents, Framasoft/Framapad); Greek and Latin textual corpora (TLG and PHI 5.3 on cd-rom with Diogenes and online, Perseus); Wikimedia Foundation projects (such as Wikipedia, Wikisource and Wikibooks).
Il laboratorio è rivolto a docenti di scuola di ogni ordine e grado sulle piattaforme, "chiuse" e "aperte", di condivisione dei materiali didattici. L'enfasi, a livello concettuale, è sulla differenza: (A) tra piattaforme proprietarie e... more
Il laboratorio è rivolto a docenti di scuola di ogni ordine e grado sulle piattaforme, "chiuse" e "aperte", di condivisione dei materiali didattici. L'enfasi, a livello concettuale, è sulla differenza: (A) tra piattaforme proprietarie e sui cui materiali, pur creati e condivisi gratuitamente da una comunità, vige il copyright dell'azienda o del soggetto proprietario (come ad esempio TES o Kahoot) e (B) piattaforme open source e open access come quelle della Wikimedia Foundation (Wikibooks, Wikiversity, Wikisource, Wikipedia etc). L'impostazione del corso, però, è pratica e l'assetto è laboratoriale: dopo una introduzione 'teorica' su questi aspetti, i corsisti vengoo guidati a: condividere materiali didattici (file di testo, fogli di calcolo, file di altro genere e cartelle) tramite Google Drive; trovare, usare, creare e condividere risorse didattiche su Kahoot; Wikibooks; Wikiversity. Il focus dell'attività laboratoriale è costituito da esercitazioni pratiche e progetti per gruppi su Wikibooks.
Training course for high school Latin and Greek teachers of Liceo Classico Garibaldi of Palermo, Italy, how to teach students how to create or edit Wikipedia articles or Wikisource/Wikibooks commented editions of literary texts or... more
Training course for high school Latin and Greek teachers of Liceo Classico Garibaldi of Palermo, Italy, how to teach students how to create or edit Wikipedia articles or Wikisource/Wikibooks commented editions of literary texts or historical sources.
Training course for high school Latin and Greek teachers, on how to use Google Drive/Docs in the classroom, on how to teach students how to create or edit Wikipedia articles or Wikisource/Wikibooks commented editions of literary texts or... more
Training course for high school Latin and Greek teachers, on how to use Google Drive/Docs in the classroom, on how to teach students how to create or edit Wikipedia articles or Wikisource/Wikibooks commented editions of literary texts or historical sources.
Research Interests: