Il presente numero della rivista Umanistica Digitale propone una selezione di contributi presentati al convegno AIUCD 2019 che si è tenuto ad Udine dal 23 al 25 gennaio 2019 ed il cui tema principale è stato Didattica e ricerca al tempo delle Digital Humanities
. Il convegno annuale dell’Associazione, giunto nel 2019 all’ottava edizione, sta diventando negli anni sempre più un punto di riferimento per il vasto settore delle Digital Humanities, come dimostrato dalle numerose proposte presentate e dalla presenza internazionale assai nutrita. Gli articoli presenti in questo numero, tutti sottoposti a double peer review ai fini della loro accettazione, sono una testimonianza dell’ampio dibattito multidisciplinare svoltosi durante il convegno e che ha visto un’ampia partecipazione da parte della comunità degli studiosi che si riconosce nelle tematiche dell’Associazione.
This issue of the journal offers a selection of contributions discussed at the AIUCD 2019 conference which was held in Udine from 23 to 25 January 2019 and whose main theme was Pedagogy, teaching, and research in the age of Digital Humanities
. Over the years, the Association’s annual conference, which has reached its eighth edition in 2019, is increasingly becoming a point of reference for the vast sector of Digital Humanities, as demonstrated by the numerous proposals presented and by the very large international presence. The articles in this issue, all subjected to double peer review for their acceptance, are an evidence of the wide multidisciplinary debate held during the conference by the community of scholars who recognize themselves in the Association’s topics.
L’ottava edizione del Convegno nazionale dell’Associazione per l’Informatica Umanistica e la Cultura Digitale, si è svolta per la prima volta ad Udine, una città del nord-est d’Italia, segno questo da una parte della crescente attenzione che l’Associazione riscuote e di una sua presenza più omogeneamente diffusa sul territorio nazionale, dall’altra dell’interesse dell’Ateneo friulano, ed in particolare del Dipartimento di Studi umanistici e del Patrimonio culturale (DIUM), verso le tematiche delle Digital Humanities.
Il tema principale dell’ottava edizione è stato la Didattica e ricerca al tempo delle Digital Humanities
: si tratta di un argomento vasto che accomuna pratiche e settori di studio interdisciplinari e multidisciplinari ed ha stimolato una approfondita riflessione sulle nuove possibilità rappresentate dal digitale per la didattica e la ricerca scientifica. Nell’ambito del convegno sono state fornite risposte a domande del tipo: come il digitale sta cambiando l’insegnamento delle materie umanistiche? Quale contributo può dare la critica culturale di stampo umanistico alla rivoluzione digitale? Quale relazione sussiste con il piano di digitalizzazione dell’Università lanciato dal Ministero? Si è voluto però riflettere anche sulle Digital Humanities come nuovo ambito disciplinare, facendo emergere nuovi interrogativi: come formare la nuova figura del digital humanist? Quali saperi sono chiamati a definire le Digital Humanities come ambito di studio, di ricerca e di formazione? Come riconoscere, classificare, descrivere e valutare la ricerca nel settore delle Digital Humanities?
Nonostante il tema principale del convegno potesse, a prima vista, sembrare meno tradizionale
del consueto, sono stati presentati 75 contributi da parte di 172 tra autori e co-autori¸non solo italiani ma anche europei ed extraeuropei. I 75 contributi erano così distribuiti: 31 long papers, 33 short papers, 3 panel, 2 workshop, 6 poster. La valutazione delle proposte è stata condotta mediante double-blind peer review da studiosi competenti in discipline umanistiche, informatiche e in Digital Humanities. Ciascun contributo è stato sottoposto di norma a 3 valutazioni. In alcuni casi (ad esempio nel caso di contributi border-line o di valutazioni contrastanti tra loro) il numero di revisioni è aumentato fino a 6. In totale le valutazioni assegnate sono state ben 258, ovvero una media di 3,44 revisioni per ciascun contributo. Per svolgere tali valutazioni sono stati coinvolti 122 valutatori provenienti non solo dall’Italia ma anche da numerosi Stati esteri (33 su 122, ovvero il 27%). Dopo il processo di review, dei 75 contributi presentati, 59 sono stati accettati nella stessa tipologia in cui erano stati presentati (long paper o short paper), 7 sono stati accettati secondo una tipologia differente (poster), mentre 9 (pari al 12,2% del totale) non hanno superato la valutazione. In totale sono stati accettati 66 contributi su 75, una percentuale di accettazione molto alta (88%) a testimonianza della qualità delle proposte presentate.
Alla fine il processo di revisione ha portato ad avere 26 long paper, 28 short paper, 10 poster, 3 panel, 1 preconference workshop. A questi vanno aggiunti la tavola rotonda sul riconoscimento accademico delle Digital Humanities e le relazioni presentate dal keynote speaker, Dino Buzzetti, e dai tre invited speakers, Øyvind Eide, Marieke Van Erp e Paul Spence.
Le proposte presentate hanno coperto moltissimi ambiti delle ricerche di Informatica Umanistica, facendone emergere al meglio l’aspetto caratteristico e ineliminabile dell’interdisciplinarità. In questo modo, collocandosi nel solco delle precedenti edizioni, il convegno ha costituito uno dei più importanti momenti di incontro tra studiosi delle diverse discipline che - a vario titolo - fanno capo alle cosiddette Digital Humanities: umanisti digitali, informatici, linguisti, storici, archeologi, musicologi, filologici e non solo. La ricchezza e la varietà dei contributi presentati al convegno AIUCD 2019 è testimoniata nel volume AIUCD 2019 Book of Abstracts
Didattica e ricerca al tempo delle Digital Humanities
, a cura di Stefano Allegrezza, Firenze, AIUCD, 2019, pp. 365, ISBN 978-88-942535-3-5, http://aiucd2019.uniud.it/book-of-abstracts.
I contributi proposti in questo numero della rivista Umanistica Digitale sono una testimonianza dell’ampio dibattito multidisciplinare che si è svolto durante il convegno. Sono stati selezionati otto contributi che per gli argomenti trattati, il rigore scientifico e il livello di innovazione sono stati ritenuti meritevoli di pubblicazione dopo esser stati sottoposti al processo di double-blind peer review.
Nel primo contributo, dal titolo “Students of humanities and digital skills: a survey on Italian university students”, Floriana Sciumbata presenta i risultati di una indagine sulle conoscenze digitali di studenti universitari nativi digitali di ultima generazione, iscritti a corsi in materie umanistiche, in cui le competenze digitali e l’informatica rischiano spesso di passare in secondo piano sia per quanto riguarda l’interesse da parte degli studenti che per la presenza nel piano dell’offerta formativa. Lo studio, basandosi sulla somministrazione di un sondaggio, ha cercato di comprendere come gli studenti percepiscono il proprio livello di competenza digitale e se esista una discrepanza tra il livello percepito tramite autovalutazione e la conoscenza effettiva. I risultati hanno evidenziato che i partecipanti tendono a sopravvalutare le proprie competenze e che le loro conoscenze presentano diverse lacune anche su aspetti basilari, spesso dati per assodati anche da docenti e istituzioni, e che dovrebbero, invece, essere potenziati per fornire agli studenti strumenti adeguati non solo ad affrontare il loro percorso accademico e, più avanti, quello professionale, ma anche per l’utilizzo quotidiano degli strumenti digitali.
Nel secondo contributo, dal titolo “Digital Autoethnography & Connected Intelligence: Two Qualitative Practice-Based Teaching Methods for the Digital Humanities”, Stefano Calzati discute la concezione, la progettazione e i risultati di due esperienze di insegnamento practice-based mirate a esplorare le tensioni implicite nell’uso quotidiano delle tecnologie digitali, nonché nella tecno-società odierna nel suo insieme. Entrambe le esperienze nascono da una duplice constatazione: da una parte, il fatto che gli studenti che frequentano i corsi universitari costituiscono la prima generazione ad essere cresciuta in un mondo completamente digitale; dall’altra, il fatto che i docenti, pur essendo cresciuti e aver studiato in un mondo ancora in gran parte analogico, hanno assistito all’evoluzione della tecno-società odierna sin dal suo inizio. La prima esperienza è una autoetnografia digitale
sviluppata presso la City University di Hong Kong; la seconda è collegata al corso Anthropology of Communication
– tenuto al Politecnico di Milano – nella quale è stato adottato l’approccio dell’intelligenza connessa per stimolare gli studenti a riflettere collaborativamente sulla tecno-società di domani.
Con il terzo contributo, “Progettare, realizzare e promuovere contenuti culturali digitali. Un esempio di didattica integrata: il progetto “Filosofia & Migrazioni”, Cristina Marras e Ada Russo presentano il progetto di didattica integrata , Cristina Marras e Ada Russo presentano il progetto di didattica integrata Filosofia & Migrazioni. Progettare, realizzare e promuovere contenuti culturali digitali
nato nel 2017 dalla collaborazione tra ricercatrici di Storia e di Filosofia del Consiglio Nazionale delle Ricerche (CNR) e della Società Filosofica Italiana (SFI) - Sezione Romana. Tale progetto è stato il frutto di un lavoro congiunto di ricercatori, docenti e studenti come esempio di integrazione dei programmi curriculari con lo studio delle migrazioni contemporanee e lo sviluppo di competenze e contenuti digitali. Il contributo si concentra sulle molteplici connessioni tra il mondo della ricerca e quello della scuola; sulla complementarietà e l’integrazione fra conoscenze e competenze; sull’importanza di un uso critico e consapevole degli strumenti e delle metodologie digitali. Vengono evidenziati i diversi elementi di criticità, soprattutto quelli legati al processo di alfabetizzazione digitale di docenti e studenti (in molti casi ancora allo stato embrionale), all’inadeguatezza delle infrastrutture e della cultura digitale nelle scuole, alla difficoltà di utilizzare in modo critico le tecnologie.
Con il quarto contributo, dal titolo “LiLa: Linking Latin. Risorse linguistiche per il latino nel Semantic Web”, Francesco Mambrini, Flavio Massimiliano Cecchini, Greta Franzini, Eleonora Litta, Marco Carlo Passerotti e Paolo Ruffolo presentano il progetto , Francesco Mambrini, Flavio Massimiliano Cecchini, Greta Franzini, Eleonora Litta, Marco Carlo Passerotti e Paolo Ruffolo presentano il progetto LiLa: Linking Latin
che si pone l’ambizioso obiettivo di creare una knowledge base di risorse linguistiche (corpora, lessici digitali e strumenti di trattamento automatico del linguaggio) per lo studio del latino secondo il modello dei Linked Open Data. L’articolo descrive approfonditamente gli obiettivi e le motivazioni del progetto, in particolare soffermandosi sulla centralità del lemma come forma che consente di creare la rete di informazioni linguistiche. Illustra, inoltre, le strategie impiegate per creare una banca dati di lemmi latini che possa supportare tale progetto, e i primi esperimenti volti a connettere risorse testuali alla raccolta dei lemmi.
Nel successivo contributo, dal titolo “A Manual for Web Corpus Crawling of Low Resource Languages”, Armin Hoenen, Cemre Koc e Marc Daniel Rahn, sulla scia del progetto , Armin Hoenen, Cemre Koc e Marc Daniel Rahn, sulla scia del progetto Under Resourced Language Content Finder (URLCoFi)
, descrivono un approccio sistematico alla compilazione di corpora for low (or under) resource(d) languages (LRL). Il caso concreto riguarda un corso gratuito, finanziato da studiumdigitale presso la Goethe University di Francoforte ed erogato in modalità eLearning nell’estate 2019 presso la stessa università, durante il quale gli studenti di linguistica, in particolare quelli che studiano lingue minori, si sono cimentati nella compilazione di corpora dal web al fine di una loro utilizzazione in saggi o in tesi sugli LRL. Tale corso ha permesso di evidenziare alcune difficoltà insite nella natura stessa del mezzo digitale: ad esempio se qualcuno volesse raccogliere tutti i documenti in una certa lingua presenti sul web, tale raccolta potrebbe essere solo uno snaphshot, dato che i contenuti sul web cambiano continuamente; in secondo luogo, non esisterebbe alcun modo per accertarne la completezza. L’articolo mostra come sia possibile affrontare questo genere di difficoltà e fornisce alcuni suggerimenti.
Federico Meschini, con il suo contributo dal titolo “Testi e conversazioni. Il racconto collettivo dei social network”, si sofferma sulla diffusione del cosiddetto , si sofferma sulla diffusione del cosiddetto social web
e sulla conseguente declinazione della testualità digitale in processi conversazionali. Data la diffusione sempre più vasta di questo fenomeno, è necessario individuare le caratteristiche indispensabili per un uso proficuo e consapevole, sulla base di un’analisi in cui vanno inclusi tutti quei casi, e le relative riflessioni, trasversali tra il paradigma tipografico e quello computazionale e tra la comunicazione testuale e quella visiva, con lo scopo di bilanciare l’aspetto performativo/narrativo da un lato e quello logico/strutturale dall’altro, all’interno di un contesto di partecipazione attiva. Nel suo articolo Meschini prende in considerazione in particolar modo Facebook, che, tra i tre principali social media (insieme con Twitter ed Instagram), è quello caratterizzato da una maggiore dimensione testuale strutturata – nonostante nella sua versione originaria fosse orientato essenzialmente alla condivisione di foto – e che inoltre è l’unico tra i tre in grado di includere i contenuti degli altri due.
Il contributo di Marta Materni dal titolo “Complessità della codifica ed ergonomia strumentale nel contesto XML-TEI: dove siamo? (Bilancio a partire da un nuovo progetto di edizione digitale medievale)” nasce dall’esperienza di un progetto di edizione digitale finanziato da una Marie Curie Fellowship (DigiFlorimont, grant n° 745821) e intende fare il punto sulla questione, ancora problematica, della produzione di file nella codifica XML-TEI. A tutt’oggi gli strumenti disponibili sono ben lontani dall’essere nasce dall’esperienza di un progetto di edizione digitale finanziato da una Marie Curie Fellowship (DigiFlorimont, grant n° 745821) e intende fare il punto sulla questione, ancora problematica, della produzione di file nella codifica XML-TEI. A tutt’oggi gli strumenti disponibili sono ben lontani dall’essere ergonomici
e tale lacuna strumentale ha una grossa influenza sia sulla diffusione della pratica editoriale digitale, sia sulla qualità della codifica proposta, con il rischio di continuare a produrre codifiche semplici con strumenti complessi
quando ormai la norma dovrebbe essere la produzione di codifiche complesse con strumenti semplici
. Il progetto DigiFlorimont ha condotto alla creazione di un prototipo di editor XML-TEI capace di generare il codice in modo automatico a partire da una sintassi simbolica (sul modello Markdown) applicata a un file .txt associato con un .csv. In questo modo è possibile realizzare una codifica complessa pronta per essere utilizzata per altre analisi anche al di là degli obiettivi specifici del contesto di produzione, e si precisa così il ruolo del filologo digitale
come responsabile della diffusione all’interno della comunità accademica di un testo filologicamente e informaticamente corretto, pronto all’uso
, secondo un modello di capitalizzazione progressiva del lavoro di analisi.
Chiude il volume il contributo “The Use of Blockchain for Digital Archives: a comparison between Ethereum and Hyperledger”, nel quale Angelica Lo Duca, Clara Bacciu ed Andrea Marchetti affrontano il tema della tecnologia blockchain che si sta diffondendo sempre più e che trova applicazione nei contesti più disparati, incluso quello dei Beni Culturali. In particolare, nel contributo viene proposto un confronto tra due tecnologie blockchain molto diverse tra di loro, Ethereum e Hyperledger, allo scopo di individuare quale delle due sia più adatta per l’archiviazione degli archivi digitali. Dopo una breve descrizione delle due tecnologie, viene ipotizzato un possibile scenario generico di applicazione per poter individuare quale delle due tecnologie soddisfi meglio i requisiti. Viene, quindi, effettuato il confronto tra le due tecnologie sulla base di vari fattori; dal risultato del confronto, emerge che la tecnologia Hyperledger si adatta meglio al contesto degli archivi digitali.
I contributi proposti in questo numero della rivista Umanistica Digitale sono una testimonianza dell’ampio dibattito multidisciplinare che si è svolto durante il convegno. Sono stati selezionati otto contributi che per gli argomenti trattati, il rigore scientifico e il livello di innovazione sono stati ritenuti meritevoli di pubblicazione dopo esser stati sottoposti al processo di double-blind peer review.
Nel primo contributo, dal titolo “Students of humanities and digital skills: a survey on Italian university students”, Floriana Sciumbata presenta i risultati di una indagine sulle conoscenze digitali di studenti universitari nativi digitali di ultima generazione, iscritti a corsi in materie umanistiche, in cui le competenze digitali e l’informatica rischiano spesso di passare in secondo piano sia per quanto riguarda l’interesse da parte degli studenti che per la presenza nel piano dell’offerta formativa. Lo studio, basandosi sulla somministrazione di un sondaggio, ha cercato di comprendere come gli studenti percepiscono il proprio livello di competenza digitale e se esista una discrepanza tra il livello percepito tramite autovalutazione e la conoscenza effettiva. I risultati hanno evidenziato che i partecipanti tendono a sopravvalutare le proprie competenze e che le loro conoscenze presentano diverse lacune anche su aspetti basilari, spesso dati per assodati anche da docenti e istituzioni, e che dovrebbero, invece, essere potenziati per fornire agli studenti strumenti adeguati non solo ad affrontare il loro percorso accademico e, più avanti, quello professionale, ma anche per l’utilizzo quotidiano degli strumenti digitali.
Nel secondo contributo, dal titolo “Digital Autoethnography & Connected Intelligence: Two Qualitative Practice-Based Teaching Methods for the Digital Humanities”, Stefano Calzati discute la concezione, la progettazione e i risultati di due esperienze di insegnamento practice-based mirate a esplorare le tensioni implicite nell’uso quotidiano delle tecnologie digitali, nonché nella tecno-società odierna nel suo insieme. Entrambe le esperienze nascono da una duplice constatazione: da una parte, il fatto che gli studenti che frequentano i corsi universitari costituiscono la prima generazione ad essere cresciuta in un mondo completamente digitale; dall’altra, il fatto che i docenti, pur essendo cresciuti e aver studiato in un mondo ancora in gran parte analogico, hanno assistito all’evoluzione della tecno-società odierna sin dal suo inizio. La prima esperienza è una autoetnografia digitale
sviluppata presso la City University di Hong Kong; la seconda è collegata al corso Anthropology of Communication
– tenuto al Politecnico di Milano – nella quale è stato adottato l’approccio dell’intelligenza connessa per stimolare gli studenti a riflettere collaborativamente sulla tecno-società di domani.
Con il terzo contributo, “Progettare, realizzare e promuovere contenuti culturali digitali. Un esempio di didattica integrata: il progetto “Filosofia & Migrazioni”, Cristina Marras e Ada Russo presentano il progetto di didattica integrata , Cristina Marras e Ada Russo presentano il progetto di didattica integrata Filosofia & Migrazioni. Progettare, realizzare e promuovere contenuti culturali digitali
nato nel 2017 dalla collaborazione tra ricercatrici di Storia e di Filosofia del Consiglio Nazionale delle Ricerche (CNR) e della Società Filosofica Italiana (SFI) - Sezione Romana. Tale progetto è stato il frutto di un lavoro congiunto di ricercatori, docenti e studenti come esempio di integrazione dei programmi curriculari con lo studio delle migrazioni contemporanee e lo sviluppo di competenze e contenuti digitali. Il contributo si concentra sulle molteplici connessioni tra il mondo della ricerca e quello della scuola; sulla complementarietà e l’integrazione fra conoscenze e competenze; sull’importanza di un uso critico e consapevole degli strumenti e delle metodologie digitali. Vengono evidenziati i diversi elementi di criticità, soprattutto quelli legati al processo di alfabetizzazione digitale di docenti e studenti (in molti casi ancora allo stato embrionale), all’inadeguatezza delle infrastrutture e della cultura digitale nelle scuole, alla difficoltà di utilizzare in modo critico le tecnologie.
Con il quarto contributo, dal titolo “LiLa: Linking Latin. Risorse linguistiche per il latino nel Semantic Web”, Francesco Mambrini, Flavio Massimiliano Cecchini, Greta Franzini, Eleonora Litta, Marco Carlo Passerotti e Paolo Ruffolo presentano il progetto , Francesco Mambrini, Flavio Massimiliano Cecchini, Greta Franzini, Eleonora Litta, Marco Carlo Passerotti e Paolo Ruffolo presentano il progetto LiLa: Linking Latin
che si pone l’ambizioso obiettivo di creare una knowledge base di risorse linguistiche (corpora, lessici digitali e strumenti di trattamento automatico del linguaggio) per lo studio del latino secondo il modello dei Linked Open Data. L’articolo descrive approfonditamente gli obiettivi e le motivazioni del progetto, in particolare soffermandosi sulla centralità del lemma come forma che consente di creare la rete di informazioni linguistiche. Illustra, inoltre, le strategie impiegate per creare una banca dati di lemmi latini che possa supportare tale progetto, e i primi esperimenti volti a connettere risorse testuali alla raccolta dei lemmi.
Nel successivo contributo, dal titolo “A Manual for Web Corpus Crawling of Low Resource Languages”, Armin Hoenen, Cemre Koc e Marc Daniel Rahn, sulla scia del progetto , Armin Hoenen, Cemre Koc e Marc Daniel Rahn, sulla scia del progetto Under Resourced Language Content Finder (URLCoFi)
, descrivono un approccio sistematico alla compilazione di corpora for low (or under) resource(d) languages (LRL). Il caso concreto riguarda un corso gratuito, finanziato da studiumdigitale presso la Goethe University di Francoforte ed erogato in modalità eLearning nell’estate 2019 presso la stessa università, durante il quale gli studenti di linguistica, in particolare quelli che studiano lingue minori, si sono cimentati nella compilazione di corpora dal web al fine di una loro utilizzazione in saggi o in tesi sugli LRL. Tale corso ha permesso di evidenziare alcune difficoltà insite nella natura stessa del mezzo digitale: ad esempio se qualcuno volesse raccogliere tutti i documenti in una certa lingua presenti sul web, tale raccolta potrebbe essere solo uno snaphshot, dato che i contenuti sul web cambiano continuamente; in secondo luogo, non esisterebbe alcun modo per accertarne la completezza. L’articolo mostra come sia possibile affrontare questo genere di difficoltà e fornisce alcuni suggerimenti.
Federico Meschini, con il suo contributo dal titolo “Testi e conversazioni. Il racconto collettivo dei social network”, si sofferma sulla diffusione del cosiddetto , si sofferma sulla diffusione del cosiddetto social web
e sulla conseguente declinazione della testualità digitale in processi conversazionali. Data la diffusione sempre più vasta di questo fenomeno, è necessario individuare le caratteristiche indispensabili per un uso proficuo e consapevole, sulla base di un’analisi in cui vanno inclusi tutti quei casi, e le relative riflessioni, trasversali tra il paradigma tipografico e quello computazionale e tra la comunicazione testuale e quella visiva, con lo scopo di bilanciare l’aspetto performativo/narrativo da un lato e quello logico/strutturale dall’altro, all’interno di un contesto di partecipazione attiva. Nel suo articolo Meschini prende in considerazione in particolar modo Facebook, che, tra i tre principali social media (insieme con Twitter ed Instagram), è quello caratterizzato da una maggiore dimensione testuale strutturata – nonostante nella sua versione originaria fosse orientato essenzialmente alla condivisione di foto – e che inoltre è l’unico tra i tre in grado di includere i contenuti degli altri due.
Il contributo di Marta Materni dal titolo “Complessità della codifica ed ergonomia strumentale nel contesto XML-TEI: dove siamo? (Bilancio a partire da un nuovo progetto di edizione digitale medievale)” nasce dall’esperienza di un progetto di edizione digitale finanziato da una Marie Curie Fellowship (DigiFlorimont, grant n° 745821) e intende fare il punto sulla questione, ancora problematica, della produzione di file nella codifica XML-TEI. A tutt’oggi gli strumenti disponibili sono ben lontani dall’essere nasce dall’esperienza di un progetto di edizione digitale finanziato da una Marie Curie Fellowship (DigiFlorimont, grant n° 745821) e intende fare il punto sulla questione, ancora problematica, della produzione di file nella codifica XML-TEI. A tutt’oggi gli strumenti disponibili sono ben lontani dall’essere ergonomici
e tale lacuna strumentale ha una grossa influenza sia sulla diffusione della pratica editoriale digitale, sia sulla qualità della codifica proposta, con il rischio di continuare a produrre codifiche semplici con strumenti complessi
quando ormai la norma dovrebbe essere la produzione di codifiche complesse con strumenti semplici
. Il progetto DigiFlorimont ha condotto alla creazione di un prototipo di editor XML-TEI capace di generare il codice in modo automatico a partire da una sintassi simbolica (sul modello Markdown) applicata a un file .txt associato con un .csv. In questo modo è possibile realizzare una codifica complessa pronta per essere utilizzata per altre analisi anche al di là degli obiettivi specifici del contesto di produzione, e si precisa così il ruolo del filologo digitale
come responsabile della diffusione all’interno della comunità accademica di un testo filologicamente e informaticamente corretto, pronto all’uso
, secondo un modello di capitalizzazione progressiva del lavoro di analisi.
Chiude il volume il contributo “The Use of Blockchain for Digital Archives: a comparison between Ethereum and Hyperledger”, nel quale Angelica Lo Duca, Clara Bacciu ed Andrea Marchetti affrontano il tema della tecnologia blockchain che si sta diffondendo sempre più e che trova applicazione nei contesti più disparati, incluso quello dei Beni Culturali. In particolare, nel contributo viene proposto un confronto tra due tecnologie blockchain molto diverse tra di loro, Ethereum e Hyperledger, allo scopo di individuare quale delle due sia più adatta per l’archiviazione degli archivi digitali. Dopo una breve descrizione delle due tecnologie, viene ipotizzato un possibile scenario generico di applicazione per poter individuare quale delle due tecnologie soddisfi meglio i requisiti. Viene, quindi, effettuato il confronto tra le due tecnologie sulla base di vari fattori; dal risultato del confronto, emerge che la tecnologia Hyperledger si adatta meglio al contesto degli archivi digitali.