Il riconoscimento e la datazione delle stratigrafie correttorie, nello studio delle scritture manoscritte, è fondamentale nell'allestimento di edizioni critiche, per la filologia d'autore e la critica delle varianti, e in casi di authorship. L'analisi delle diverse "campagne correttorie" di un testo può ora essere effettuata con alcune tecniche di imaging, dall'RTI, agli interferometri, al photometric stereo, che permettono di ricostruire la terza dimensione: "Z", quella del tempo: una tecnologia molto utilizzata nei beni culturali, ma ancora poco diffusa nello studio dei testi. Il contributo illustra alcuni casi di ricostruzione 3D di manoscritti, da Dante a Leopardi, e propone un protocollo per la condivisione degli standard di riproduzione digitale.
The recognition and dating of corrective stratigraphies, in the study of manuscript writings, is fundamental in the preparation of critical editions, for authorial philology and variant criticism, and in cases of authorship. The analysis of the different "corrective campaigns" of a text can now be carried out with some imaging techniques, from RTI, to interferometers, to photometric stereo, which allow to reconstruct the third dimension: "Z", that of time: a technology widely used in cultural heritage, but still not very widespread in the study of texts. The contribution illustrates some cases of 3D reconstruction of manuscripts, from Dante to Leopardi, and proposes a protocol for sharing digital reproduction standards.
Se li consideriamo da un punto di vista paleografico e filologico (ovvero multidisciplinare), i testi, manoscritti e a stampa, non hanno solo due dimensioni, lunghezza e larghezza, "X" e "Y, ma hanno anche una terza dimensione: "Z", quella del tempo. Un addendum cruciale, che solo da poco non viene considerato immateriale o non valutabile scientificamente, ma materiale e misurabile, grazie a una proficua combinazione di fotonica e filologia.
Ogni testo, infatti, cresce nel tempo e su di esso si deposita la serie di correzioni apportate dall'autore stesso, in diversi momenti e con penne diverse, dalla prima stesura, attraverso le successive varianti, fino all' "ultima volontà", o da parte di chi è intervenuto sul testo: copisti, glossatori e annotatori, e, dopo l'invenzione della stampa, da revisori, editori, editor.
Se la fotonica ci permette di indagare i supporti (l'analisi fisica e chimica dei materiali scrittori) e gli inchiostri (il loro colore, riconoscibile con l'analisi spettroscopica, e la loro composizione chimica, effettuabile con l'analisi Raman), la filologia, e in particolare la filologia d'autore, fornisce la prospettiva teorica per decifrare e interpretare le correzioni e le annotazioni, e ha sviluppato un metodo di analisi e riproduzione delle stratigrafie correttorie in edizioni critiche digitali di libero accesso e interoperabili.
Sin dalla sua "fondazione", nel 1927, con l'edizione critica dei Canti di Leopardi di Moroncini, la filologia d'autore è stata il terreno privilegiato per lo studio della dimensione "Z", quella del tempo, sviluppata successivamente, in prospettiva critica, grazie alla critica delle varianti, del 1937, che Gianfranco Contini ha esercitato sui principali casi di manoscritti d'autore: il Canzoniere di Petrarca, i Canti di Leopardi, i Promessi sposi, e che ha portato alla definizione di un testo-processo, che ha superato le precedenti definizioni di un testo-dato. È per questo che, proprio nell'ambito della filologia d'autore, sono stati sviluppati progetti di tipo multidisciplinare, tesi a sviluppare tecnologie di indagine sempre più sofisticate, sia nella riproduzione dettagliata dei manoscritti, nel restauro digitale, e nel riconoscimento delle diverse mani e penne che si sono succedute nel tempo.
In anni recenti, l'analisi spettrometrica ha permesso di riconoscere la diversa caratterizzazione degli inchiostri, partendo dall'assunto che inchiostri simili emettono una medesima risposta spettrale, e che inchiostri diversi possono essere trattati diversamente, esponendo il testo a diverse bande di luce polarizzata – dall'ultravioletto all'infrarosso –, per aumentare o diminuire la visibilità.
È un fatto, però, che tali metodologie, e in particolare modo la ricostruzione tridimensionale, sono state applicate molto più frequentemente ai beni culturali, come dipinti, sculture, bassorilievi, reperti archeologici, che non a testi manoscritti o a stampa, come se la bidimensionalità del testo non stimolasse gli studiosi a pensarlo dotato di una terza dimensione. L'unico ambito in cui si è assistito a un'applicazione sistematica delle più avanzate tecnologie di analisi, è stato quello forense, in cui l'analisi dei supporti, delle grafie, delle stratigrafie correttorie, è funzionale all'individuazioni di falsi, censure, contraffazioni, come l'aggiunta di una cifra in un assegno, di una clausola in un testamento, la falsificazione di una firma, la confezione di falsi d'autore.
È proprio grazie alla strumentazione sviluppata in questo ambito, che è stato possibile risolvere alcuni casi filologici intricati, sia nell'ambito della filologia d'autore, che in quello dell'authorship. Il progetto THESMA, ad esempio, sviluppato presso l'Università La Sapienza dal 2014 al 2018, e che ha portato alla creazione del Laboratorio Photonics for Humanities, ha permesso di combinare l'analisi spettrometrica di imaging a quella – effettuata con onde Teraherz – del supporto scrittorio, per sperimentare le possibilità di lettura di pergamene e manoscritti che, su singole pagine o per cartigli, per danneggiamento dovuto al tempo, o ad agenti atmosferici, risultano incollate e impossibili da staccare. L'analisi con la strumentazione realizzata dal progetto THESMA sull'inedito Quaderno di Campagna 2 e sul manoscritto originario di Eros e Priapo di Gadda, ha permesso di leggere alcune pagine completamente sbiadite del Diario tenuto dallo scrittore durante la guerra, illeggibili con la lampada di Wood perché restaurate con carta giapponese, e di riportare alla luce alcune scrizioni sotto cassatura. Nell'ambito dell'authorship, invece, il caso del Diario postumo di Montale, al centro di un progetto di ricerca condotto da Federico Condello del Dipartimento di Filologia Classica e Italianistica dell'Università di Bologna, ha rappresentato un ambito di indagine proficuo che ha dato risultati dirimenti nel disconoscimento dell'autografia del testo, e ha permesso di sviluppare tecniche di indagine multidisciplinari, attualmente in corso di ulteriore sviluppo nel campo dell'Intelligenza Artificiale, con un progetto svolto dal Gruppo di ricerca Manus-Creative sempre del Dipartimento di Filologia Classica e Italianistica, da me coordinato, con alcuni studenti del Summer Camp del MIT di Boston, progetto relativo all'applicazione di analisi di imaging (HWR: Hand Writing Recognition) e di authorship (NLP: Natural Language Processing) sui presunti autografi montaliani.
Sebbene dall'avvento dell'era digitale, i testi manoscritti e a stampa siano stati riprodotti e conservati in formato digitale (.giff, .tiff, .jpg), l'alta definizione e la sempre migliore qualità delle riproduzioni non ha migliorato la possibilità di decifrazione della dimensione temporale, dell'asse "Z", l'addendum rappresentato dalla serie di stratigrafie correttorie. Né, l'adozione del protocollo IIIF ha modificato le risoluzioni di acquisizione delle immagini, dal momento che il consorzio IIIF garantisce la condivisione dei protocolli di meta-datazione e uso, ma non riguarda le immagini tridimensionali, per le quali non esiste ancora uno standard condiviso. Standard, che dovrebbe tenere conto di diverse tipologie di stratigrafia: 1. su supporto singolo, 2. su supporti diversi per apposizione di cartiglio o perché. Vediamo la differenza:
Stratigrafie su supporto singolo. Si tratta di correzioni apportate dall'autore all'atto stesso della scrittura (varianti immediate) o successivamente, con la stessa penna (e differente grafia) o con penna diversa (varianti tardive); oppure apportate da altra mano, con effetto di alterazione o di censura del testo (si veda qui l'esempio di preso dal manoscritto di Gadda della versione originaria di Eros e Priapo, scritta in diversi momenti, con strati correttori successivi e apportati con penne diverse e correzioni autografe e apocrife).
Stratigrafie su differenti supporti. Cartigli o cartolini, ritagliati da altri testi (a volte riutilizzando manoscritti di testi precedenti) di piccole dimensioni, che nascondono testi sottostanti, e che possono essere incollati al supporto inferiore con punti di colla o ceralacca (e quindi facilmente distaccabili), oppure con strati di colla che impediscono il distacco senza danno della scrittura inferiore (si veda qui l'esempio di preso dalla prima minuta dei Promessi sposi, dove un cartiglio è stato utilizzato per riscrivere il testo in una fase successiva alla correzione del testo base, che viene completamente nascosto dal cartiglio stesso).
Stratigrafie su carte incollate a causa di danni provocati dal tempo, da allagamenti, allluvioni, e danneggiamenti che rendono impossibile il distacco delle due pagine, tanto da impedire la lettura del testo sottostante (si veda qui l'esempio di , preso da una cartolina scritta da Gadda e incollata ad altra cartolina, a causa dell'alluvione del 4 novembre 1966, che danneggiò gravemente i manoscritti lasciati da Gadda all'amico Bonsanti).
Come si può vedere, i tre casi di stratigrafia scrittoria, nella loro diversità, implicano uno studio analitico che non può basarsi sulla rappresentazione bidimensionale, ma che richiede la rappresentazione dell'asse "Z", la tridimensionalità, che – applicando, come nel modello THESMA, l'analisi spettrometrica con l'analisi con raggi Terahertz – permetterebbe di risolvere il problema della contiguità delle carte, della lettura sotto cartiglio o sulla carta inferiore, mantenendo intatto il supporto scrittorio, e senza alcun danno per il manoscritto. La rappresentazione tridimensionale permetterebbe di superare le criticità dell'analisi Terahertz, in quei casi in cui l'inchiostro non sia ferrogallico, oppure in cui il danno atmosferico abbia provocato la caduta del pigmento scrittorio, rendendo invisibile il testo, se non attraverso l'analisi del solco lasciato dalla penna sulla pagina, messo in rilievo, a luce radente, nella sua tridimensionalità.
I vantaggi di una ricostruzione tridimensionale nello studio filologico delle stratigrafie scrittorie sono evidenti, e porterebbero all'adozione di un nuovo protocollo di standard conservativo, rendendosi necessario, per alcuni manoscritti particolarmente preziosi, affiancare alla riproduzione digitale, anche quella tridimensionale.
Ma quali sono le tecniche attualmente adottate nella acquisizione tridimensionale? Come abbiamo visto, è dai beni culturali che vengono le tecnologie più diffuse, che – adottate proficuamente nella conservazione e valorizzazione del patrimonio artistico e archeologico, possono essere estese anche ai testi pergamenacei e cartacei.
Da un costante lavoro sui manoscritti leopardiani e la stretta collaborazione con la Biblioteca Nazionale di Napoli, che li custodisce, nasce il progetto Leopardi 3D, il cui focus è proprio il quaderno cosiddetto napoletano (AN C.L. XIII.22). È alle sue pagine a righe che Leopardi ha consegnato la prima redazione che conosciamo degli Idilli.
Nonostante l’autore ebbe l’intenzione di attribuire alle sei composizioni poetiche contenute nel manoscritto la data univoca del 1819 – che infatti compare sotto il titolo di Idilli nel manoscritto vissano – in realtà, attraverso la ricostruzione di quello che è diventato un vero e proprio caso filologico grazie agli studi di Moroncini ( ), Peruzzi ( , ), De Robertis ( , ), Gavazzeni ( , ), Italia ( , ), sono distinguibili tre momenti di composizione, distribuiti nell’arco di tre anni, dal 1819 al 1821. La stesura del manoscritto è il frutto di una stratificazione di molteplici serie correttorie, legate ai tre momenti diversi di stesura: dopo ogni fase, caratterizzata da una penna distinta, infatti, Leopardi apporta correzioni e varianti immediate a quanto ha appena scritto e torna indietro, con la medesima penna, a correggere i testi precedenti.
A complicare ulteriormente il quadro di elementi che si sovrappongono sul quaderno, bisogna considerare i dettagli di parentela che intercorrono tra AN e gli altri autografi e le stampe successive, come la copia descripta di Paolina o il manoscritto vissano AV.
Con l’intento di enfatizzare le differenti fasi di stesura e di rendere accessibile anche ai non addetti ai lavori la conoscenza del peculiare metodo leopardiano di creazione degli illustri componimenti, nasce l’idea di un sito dedicato allo storytelling del Quaderno Napoletano che individui strumenti di presentazione e narrazione pensati e disegnati su misura.
Il punto di vista adottato nella costruzione del sito è stato quello della tridimensionalità, intesa sia materialmente, come effetto di visualizzazione dell’oggetto manoscritto, sia metaforicamente, dove la terza dimensione è proprio quella del tempo che attraversa e si deposita sulla carta. La rappresentazione di una tridimensionalità materiale è stato il primo passo nella creazione del progetto: si è utilizzato il metodo RTI (Reflectance Transformation Imaging), grazie alla collaborazione tra il Dipartimento di Filologia e Italianistica dell’Università di Bologna, il Frame Lab di Ravenna e la già citata Biblioteca Nazionale Centrale Vittorio Emanuele II di Napoli. Attraverso questa semplice, ma preziosa tecnologia di imaging e post-imaging, si schiudono all’osservatore gli strati che si depositano sulla carta, ci si fa largo nell’officina leopardiana, tentando di portare in superficie i processi compositivi sottesi alla formazione del quaderno.
La rilevazione ad alta definizione delle immagini e la ricomposizione e visualizzazione con il software RTIviewer permettono uno studio ‘immersivo’ del manoscritto. Il metodo, sviluppato in seno all’organizzazione no profit Cultural Heritage Imaging [pagina consultata il 21.08.2021], nasce come strumento di analisi nell’ambito dei beni culturali: viene utilizzato inizialmente per lo studio di manufatti artistici e archeologici, ma può essere applicato sui manoscritti pergamenacei e cartacei, in modo da consentire allo studioso una definizione analitica dell’oggetto che, sfruttando la riflessione della luce su di esso, disvela la sua stratigrafia compositiva.
È bene specificare che, anche se tecnicamente ci troviamo davanti a un «2D recording approach», esso è stato definito più spesso come «2 ½D» ( : 2) proprio grazie all’alto livello di informazioni che si riesce a ricavare dalla superficie dell’oggetto.
L’applicazione di tale tecnica sul Quaderno napoletano permette, infatti, di individuare i diversi tempi che si depositano su di esso ( ), enfatizzando la visualizzazione del solco che la penna crea sulla pagina. Tali tracce rappresentano l’oggetto del nostro studio attraverso il metodo RTI.
RTI prevede tre fasi di lavoro per ottenere il risultato desiderato:
acquisizione delle immagini del manoscritto. La campagna di acquisizione – condotta nell’ottobre 2019 presso la Biblioteca Nazionale di Napoli – prevede una serie di scatti con camera digitale tenuta in posizione fissa, con posizionamento della luce ad altezze e posizioni differenti.
Ricomposizione delle immagini attraverso il software OA RTI builder.
Visualizzazione e navigazione dell’immagine attraverso il software OA RTI viewer, in diverse modalità a seconda delle necessità di visualizzazione. Nel nostro caso si sono rivelate particolarmente utili le modalità ‘diffuse gain’ e ‘specular enhancement’ ( ); il primo migliora la percezione della superficie dell’oggetto, in particolare le inscrizioni – e dunque, per i manoscritti, del solco sulla pagina –, incrementando localmente la curvatura della superficie; un effetto conseguente di questa modalità di rendering potrebbe essere il falso colore nel risultato. ‘Specular enhancement’ aggiunge un falso effetto speculare che consente di rendere più leggibili le iscrizioni. A titolo esemplificativo si dà un dettaglio ( ) dell’autografo de L’Infinito, visualizzato con il software RTI viewer in modalità Diffuse gain.
L’autografo de L’Infinito, che è il secondo idillio all’interno del quaderno, ha rappresentato il nostro caso di studio per il progetto. Sulla carta si riconoscono tre strati differenti ( : 165-166): il primo è quello della scrittura base, realizzata con la penna A, ascrivibile al 1819, il primo tempo degli Idilli; vi è poi un secondo strato, a cui appartiene una serie di correzioni a inchiostro più scuro e dal tratto spesso, realizzata nell’anno successivo, in fase di scrittura del ‘secondo tempo’ degli Idilli. Infine vi è un ulteriore gruppo di correzioni, effettuate con una penna con «inchiostro rosseggiante» ( : 165-166), probabilmente risalente alla preparazione del manoscritto per la stampa del 1826.
Tale stratificazione viene magnificata nella visualizzazione RTI, che migliora la percezione della superficie dell’oggetto e accentua le differenze tra gli inchiostri.
Il lavoro sul più famoso testo leopardiano ha costituito il punto di inizio del progetto, ma rappresenta anche l’approdo del percorso creato all’interno del contenitore multimediale. Questo, sviluppandosi attraverso l’uso dello storytelling digitale, mette a sistema le conoscenze finora acquisite sul quaderno degli Idilli - con l’ausilio di diverse modalità di visualizzazione e rappresentazione delle informazioni.
Il sito imposta un percorso coerente, presentando un menù che, da sinistra verso destra, conduce l’utente dal generale al particolare, fino cioè – come si è accennato – al ‘3D’ vero e proprio sul manoscritto. Si parte da un inquadramento temporale degli Idilli e dell’opera poetica leopardiana, costruito su un percorso interattivo che va dal 1819 della prima redazione alla cosiddetta "Starita corretta" (N35c), contenente l’ultima volontà dell’autore. La visualizzazione di queste informazioni avviene su una linea del tempo, dando la possibilità, a colpo d’occhio, di rendere conto della strada che i testi leopardiani fanno per arrivare ad essere quelli che leggiamo oggi ( ). A livello macrotestuale, se ci si addentra nella seconda pagina che la piattaforma mette a disposizione, si ha la possibilità di seguire il percorso degli Idilli dagli autografi alle stampe e di visualizzare come essi si inseriscano nel macrotesto fino a formare il libro dei Canti ( ).
In entrambi i casi sottolineerei la natura interattiva delle visualizzazioni, generata attraverso i software Knightlab e Flourish. I due grafici possono essere definiti come mappe orientative, un metodo che – come è stato scritto per Atlante Calvino - «partendo dai testi e dalla loro analisi critica, trasforma i dati e le informazioni che ne emergono in una rappresentazione visuale, talora anche interattiva, per poi tornare a usarla come strumento d’interpretazione» ( : 16).
L’ulteriore livello che si offre all’utente è quello dello storytelling vero e proprio del Quaderno napoletano che ricostruisce e racconta – in stile divulgativo – l’intero processo creativo di Leopardi, seguendo l’evoluzione del testo variante dopo variante, penna dopo penna, e insieme l’evoluzione del quaderno, delle vicende sottese alla composizione degli Idilli.
L’ultima sezione della piattaforma permette all’utente di immergersi nella materialità del testo: grazie alla tecnica RTI il quaderno napoletano può essere esplorato in maniera interattiva, pagina per pagina, accendendo a un livello maggiore di definizione e vicinanza virtuale. Così, lo studioso, insieme a un pubblico di non addetti ai lavori, potrà analizzare autonomamente la superficie dell’autografo, studiandone i dettagli della carta e i solchi lasciati dalle penne, aprendo a nuovi e ulteriori lavori su queste carte che possono ancora rivelare molto del loro autore.
Tra le tecniche di imaging tridimensionale utilizzabili in filologia per l’analisi della superficie dei supporti testuali, come pergamene, codici, libri e manoscritti, esiste una tecnica di computer vision chiamata Photometric Stereo.
Si tratta di una tecnica sviluppata e presentata intorno agli anni ’80 da R. J. Woodham ( ), che viene solitamente utilizzata in molti ambiti di ricerca dei Beni Culturali, soprattutto negli studi archeologici e nell’esposizione museale ( ). Lo scopo è quello di realizzare accurati modelli tridimensionali di un oggetto attraverso l’elaborazione di immagini multiple acquisite con differenti condizioni di luminosità, che permettano di condurre analisi approfondite della superficie e di ogni sua componente stratificata nel tempo, in modo da poterne valutare lo stato di conservazione e ricostruirne molto dettagliatamente la genesi.
Acquisire l’immagine di un oggetto in photometric stereo significa poter analizzare le caratteristiche della sua superficie secondo tre diverse scale: la macroscala, dimensione degli oggetti visibili a occhio nudo e nella loro interezza, la microscala, dimensione dei dettagli non visibili a occhio nudo, e la mesoscala, di livello intermedio. Prendendo come caso di studio quello di un supporto cartaceo, la macroscala è la dimensione dell’intera carta, la microscala quella dei dettagli invisibili in un ordine di grandezza che va dai millimetri ai micrometri, come la grana della carta o le porzioni con inchiostri che riflettono la luce in maniera differente per la loro diversa natura e spessore, mentre la mesoscala è la scala dei dettagli come incisioni e solchi, apparentemente invisibili ma ancora percepibili ad occhio nudo con determinate circostanze favorevoli di luminosità.
Operazioni fondamentali su cui si basa questa tecnica sono: la misura della distribuzione della riflettanza (Bidirectional Reflectance Distribution Function), la costruzione della cosiddetta mappa delle normali alla superficie per ogni pixel dell’immagine digitale, ovvero un reticolo geometrico tridimensionale della superficie dell’oggetto acquisito, la visualizzazione RTR (Real Time Rendering).
In occasione della mostra su Dante Alighieri organizzata dall’Università di Bologna
per la ricorrenza del settecentenario dalla morte del poeta e prevista nell’autunno
del 2021, la BUB - Biblioteca Universitaria di Bologna ha messo
a disposizione per lo studio e la ricerca i suoi cinque codici contenenti commenti
danteschi ( ; ). Tra
questi si è scelto di valorizzare, attraverso analisi e acquisizioni finalizzate
all’esposizione reale e virtuale delle carte, in particolare il codice 589 (già 134
aula II A), meglio conosciuto come Dante Lambertino
, poiché proveniente dalla
biblioteca personale di Benedetto XIV, al secolo Prospero Lorenzo Lambertini, tra
tutti il manoscritto più importante e prezioso.
Grazie ad una collaborazione nata con un team di ricercatori del Dipartimento di Architettura dell’Università di Bologna guidati dal Prof. Marco Gaiani è stato possibile applicare lo speciale lavoro di adattamento del photometric stereo messo a punto dal team stesso nel corso degli ultimi dieci anni, a partire dall’analisi dei disegni di Leonardo Da Vinci nell’ambito del progetto ISLe (InSightLeonardo), presentato nel 2015 ( ) e di nuovo nel 2019 dopo ulteriori miglioramenti ( ).
Ripercorrendo le operazioni di un workflow ormai consolidato, il progetto in corso ha lo scopo di offrire agli utenti della mostra una fruizione immersiva di alcune carte del Dante Lambertino ed esaltarne i dettagli più importanti come la sovrapposizione delle diverse grafie, le glosse, i fregi e le rubriche, le iniziali dei canti filigranate e le preziose miniature.
Il manoscritto è integro e in buono stato di conservazione. Non è datato né
sottoscritto, ma è ricondotto alla seconda metà del XIV secolo dalla grafia del
copista (mano A), una bella littera textualis, volgarmente detta
gotica
. La stessa mano, questa volta in gotica cancelleresca, grafia che
veniva utilizzata solitamente per i commenti che affiancavano il testo, riporta
alcune delle glosse a Inferno e Purgatorio tratte dal commento di
Iacomo (o Iacopo, variante fiorentina) della Lana, il cui
commento è il primo integrale e continuo alla Commedia, ebbe enorme fortuna
diretta e indiretta e fu anche il primo dantesco a finire a stampa a Venezia nel 1477
per Vindelino da Spira (seppur attribuito erroneamente a Benvenuto da Imola). Inoltre, almeno altre tre mani si aggiungono nel secolo
successivo, per glossare, correggere ed emendare il testo con varianti o aggiungere
chiose e annotazioni in latino, come quella che riprende interventi del commento
dell’Anonimo Latino. Tre magnifiche miniature impreziosiscono alcune carte di questo
codice in corrispondenza dell’inizio delle tre cantiche, proprio le carte oggetto
delle acquisizioni in photometric stereo: alla c. 1r, Dante è raffigurato
all’interno di quattro medaglioni agli angoli della pagina, alle prese con le insidie
della selva oscura descritte nelle prime terzine; alla c. 69r troviamo
raffigurati Catone con barba bianca e manto rosso, che leva le mani in atto di saluto
verso Dante e Virgilio, raffigurati dentro una navicella a due vele, che si muove
verso Catone; alla c. 137r, dove inizia il Paradiso, troviamo invece Dio in
gloria, San Pietro con le chiavi del Paradiso, Dante e Beatrice e figure di angeli
che suonano trombe e altri strumenti musicali.
La campagna di acquisizione in photometric stereo è caratterizzata da tre fasi operative principali, a loro volta distinte in specifiche azioni di controllo, test, esecuzione ed elaborazione delle informazioni di volta in volta acquisite.
Pre-acquisizione:
Preparazione della strumentazione e degli accessori utili ai test preliminari di acquisizione, che prevede il montaggio del piano di ripresa e delle luci secondo una perfetta altezza e inclinazione e l’allineamento tra l’oggetto da acquisire, lo stativo e la macchina fotografica disposta quanto più possibile perpendicolare al piano di posa, per consentire al quadro di ripresa di non avere inclinazioni rispetto all’oggetto. Tra le luci, è consigliato scegliere delle luci LED di alta qualità, che rispetto ad altri tipi di sorgenti luminose hanno la caratteristica di avere uno spettro di emissione continua e una potenza limitata. Il numero e il posizionamento dei led è variabile e dipendente da una valutazione sui tempi e i costi di esecuzione: la tecnica perfezionata dal team prevede quattro gruppi di illuminanti LED, ognuno a propria volta composto da quattro lampade disposte in forma quadrata, equidistanti dal centro dell’oggetto, ognuno posto su uno dei lati del piano e ad un angolo di 45° rispetto ad esso, scelta dovuta ad alcuni fattori come la semplicità nell’individuazione del punto di baricentro da parte dei software di elaborazione o il proposito di minimizzare i potenziali danni all’oggetto dovuti a una prolungata esposizione alle radiazioni luminose. La fedeltà dei risultati è garantita dal fatto che la documentazione dell’oggetto e delle sue caratteristiche avvengono all’interno di un ambiente controllato: il più possibile buio per non influenzare la ripresa con dominati cromatiche provenienti dal contesto, con comportamenti noti della strumentazione e a condizioni note.
Test della risoluzione, fondamentale per poter riconoscere la risoluzione della fotocamera utilizzata e di conseguenza i dettagli nella microscala, poiché per poterli osservare la risoluzione del sistema di acquisizione deve essere di un ordine di grandezza comparabile. Infatti, più aumenta la risoluzione della macchina fotografica e quindi diminuisce la grandezza del pixel, più ci si potrà spingere successivamente nella scoperta dei dettagli. Questo test prevede il controllo di tutte le caratteristiche della macchina fotografica che possono influenzare la risoluzione, come ad esempio il diaframma, che regola la quantità di luce che può attraversare l’obiettivo. Per le misurazioni vengono utilizzati alcuni accessori come lo strumento Enhanced Digital Camera Resolution Chart, che serve a misurare la minima risoluzione, ovvero la distanza minima a cui la macchina riesce a riconoscere due pixel differenti. Tra i parametri da registrare durante queste misurazioni si tiene conto non soltanto dei problemi di ottica, ma anche di quelli legati al contesto, come la luminosità dell’ambiente o le caratteristiche di stabilità del piano e dello stativo. Per poter calibrare tutto perfettamente c’è bisogno, infatti, che le acquisizioni abbiano luogo in condizioni controllate di bassa luminosità, senza alcun movimento e senza alcun riflesso.
Poiché si vogliono analizzare modelli credibili sia dal punto di vista geometrico che cromatico, si cerca di limitare gli interventi automatici della fotocamera, soprattutto in relazione all’anti-aliasing, algoritmo che ammorbidisce i contorni degli oggetti fotografati introducendo sfumature che portano ad abbassamenti di precisione. Un’altra operazione di controllo è quella che riguarda il cosiddetto sharpening automatico dell’immagine, ovvero il cambiamento del colore e di spazio-colore che può determinare un problema chiamato over-sharpening, da cui possono derivare effetti di rumore come contorni duri o aloni intorno al bordo degli oggetti. È necessario, dunque, disattivare tutte le possibili variazioni che vengono introdotte automaticamente dagli algoritmi di miglioramento attivi nei software delle macchine fotografiche, in modo da assicurare quanto più possibile la veridicità di tutti i parametri di acquisizione, come colore, grana o nitidezza dell’immagine.
Test colorimetrico, che attraverso lo strumento del color checker serve ad assicurare la fedeltà dei colori e a catturare le variazioni di tonalità delle ombreggiature, grazie al processo del bilanciamento del colore (color balance) e del bilanciamento del bianco (white balance). L’unità di misura principale per calcolare le differenze di colore tra due colori è chiamata Delta E (∆E): più il delta è piccolo più la fedeltà è accurata, più è grande più è distante il colore misurato da quello reale.
Calcolo dell’angolo di incidenza delle luci tramite una sfera riflettente nera, operazione fondamentale per poter ottenere successivamente la mappa delle normali alla superficie. Le normali sono una rappresentazione geometrica di come punto per punto, pixel per pixel, quella superficie sia orientata rispetto al piano orizzontale: grazie alla relazione che possiamo stabilire tra i tre valori di RGB e le direzioni x, y e z, che ci permettono di capire come sia orientato quel vettore in quel punto, in un’immagine raster 2D si possono definire i valori di normale per ogni pixel e ottenere così un’informazione sulla tridimensionalità.
Correzioni in post produzione del risultato dei test, come ad esempio il processo di correzione del flat fielding, attraverso una misurazione del decadimento della luce, volta a correggere digitalmente le differenze di luminosità. Il flat fielding è una mappa di diffusione di un oggetto incurvato privo delle ombre proprie, che si ottiene in postproduzione dopo aver prima acquisito l’immagine dell’oggetto con al di sopra una superficie perfettamente bianca e aderente come quella di un foglio di carta non acida.
Acquisizione: finalizzata ad ottenere una quantità sufficiente di scatti che dipende dal numero e dall’orientamento delle luci. Ad esempio, nel caso di 4 led posti a 45° sono sufficienti cinque acquisizioni: quattro con luce radente, emessa da ognuno dei led usati singolarmente, e una quinta con luce diffusa, tenendo tutti e quattro i led accesi contemporaneamente. L’acquisizione con luce diffusa, ovvero con irradiamento uniforme dell’oggetto da ogni angolazione, permette di studiare le caratteristiche di riflessione degli elementi della superficie. La luce radente permette, invece, di far emergere dettagli come pressioni sulla carta, segni nascosti nella scrittura, solchi ciechi, inchiostri scomparsi, segni di cancellatura.
Post-acquisizione e rendering: attraverso appositi software di elaborazione e gestione delle immagini. Tra i software utilizzati nel processo di acquisizione ed elaborazione troviamo:
software per azzerare tutte le correzioni automatiche della macchina fotografica e rendere lo scatto il più neutro possibile, come Shaft (SAT & HUE Adaptive Fine Tuning), programma messo a punto appositamente dal team ( );
software usati per ottenere la mappa delle normali, come 4 LI-S (Four-Light Imaging Simple) ;
software come Unity 3D per il rendering in real time, tecnica sviluppata negli ultimi dieci anni grazie all’espansione del settore dei videogiochi e basata su un approccio chiamato Physically Based Rendering, che mira a creare modelli tridimensionali realistici degli oggetti in base alla simulazione delle geometrie, delle luci e delle ombreggiature. In questo ambiente di visualizzazione vengono predisposti dei modelli in grado di replicare visivamente il comportamento fisico dei materiali, detti shader, che permettono la definizione della microscala di un oggetto rilevato poiché simulano in tempo reale la risposta alla luce di una superficie, in base alla combinazione di quattro mappe: la mappa speculare, delle normali alla superficie, dell’albedo e della profondità. Ciò permette di calcolare in tempo reale quello che realisticamente accade quando la luce colpisce con una certa intensità e un certo colore la geometria di un oggetto con determinate normali alla superficie, specifiche caratteristiche di diffusione e una certa riflessività;
software come Imatest, per misurare la fedeltà del colore, ovvero quanto il colore acquisito dalla macchina fotografica sia fedele a quello misurato con il color checker in base al risultato del ∆E.
Visualizzazione e fruizione dei risultati, attraverso un’interfaccia grafica appositamente progettata per manipolare il modello tridimensionale dell’oggetto acquisito, in questo caso le carte del manoscritto, secondo tutti gli elementi che si sono precedentemente registrati e analizzati: si potrà, dunque, re-illuminare le carte secondo diverse direzioni e intensità per enfatizzare le caratteristiche, ruotarle a 360° dal recto al verso, zoomare, compiere misurazioni, muoversi in punti noti dell’immagine e nelle tre scale per osservare dettagli come increspature della carta, inchiostri sovraimpressi, inchiostri a densità diverse, orientamento del ductus. L’interfaccia si presenta come uno strumento semplice da utilizzare e valido in diversi contesti, sia per lo studio dettagliato che per la fruizione e la divulgazione dei contenuti, grazie ad alcuni servizi di usability integrati come la possibilità di aggiungere didascalie esplicative con link e immagini, la modalità touchscreen, i pulsanti per muoversi agevolmente in avanti e indietro e su ognuna delle funzioni.
Altre tecniche in continuo sviluppo permettono di ottenere risultati simili e confrontabili con photometric stereo, tra cui una delle più comuni è la Reflectance Transformation Imaging (RTI), inizialmente sviluppata dal Cultural Heritage Imaging ( ) e poi perfezionata dall’ISTI CNR ( ). In entrambi i casi, le tecniche sono nate in un contesto diverso dagli studi filologici, come il settore dell’arte o dell’archeologia, e solo recentemente trovano applicazione anche in ricerche inerenti allo studio di disegni, testi, elementi di paratesto e documenti d’archivio.
Esistono, tuttavia, sostanziali differenze tra i diversi approcci che rendono la scelta di ciascuno preferibile sugli altri in base al contesto e all’accuratezza scientifica richiesta dei risultati. RTI, ad esempio, gode di ottima popolarità per i numerosi vantaggi, come quello di essere una tecnica a basso costo, semplice da utilizzare e basata su un equipaggiamento circoscritto a pochi strumenti fondamentali: una sorgente luminosa, una macchina fotografica, una sfera riflettente. D’altra parte, RTI riduce il punto di vista sull’immagine ad un’unica prospettiva predefinita e obbliga a trattare il recto e il verso come immagini separate.
Alcuni di questi limiti possono essere superati con tecniche più sofisticata come il photometric stereo grazie al controllo su ogni fase di acquisizione e rendering, che oltretutto assicura risultati più attendibili in relazione a diversi aspetti tecnici e fisici controllabili in studio e tutti conosciuti in letteratura scientifica, come la riproduzione veritiera dei colori, i disturbi provocati dalle ombreggiature e, in generale, gli errori di interferenza causati dai fenomeni di interazione della luce, problematiche che nemmeno l’utilizzo dell’approccio automatizzato di RTI tramite Dome (geodesic semi-hemisphere) consente facilmente di superare.
RTI, inoltre, non prevede la costruzione di modelli tridimensionali completi manipolabili a 360° con semplici rotazioni, possibilità di analisi che può rivelarsi fondamentale nei casi in cui vi siano delle correlazioni tra elementi del recto e del verso, come tracce di inchiostro, solchi ciechi, segni di cancellature e ripensamenti che, se pure coperti su un lato della carta, possono trapelare ed essere resi visibili sull’altro .
I recenti sviluppi del photometric stereo rivelano, dunque, l’affermarsi di questa tecnica come punto di riferimento versatile, affidabile ed efficace per gli studiosi che vogliano intraprendere indagini scientifiche di alta qualità e mettere in luce persino le tracce più piccole e invisibili di tutte le possibili storie ancora nascoste tra le carte.
Apollonio, Fabrizio I., Filippo Fantini, Simone Garagnani, and Marco Gaiani. 2021. "A Photogrammetry-Based Workflow for the Accurate 3D Construction and Visualization of Museums Assets" Remote Sensing 13, no. 3: 486. https://doi.org/10.3390/rs13030486
Apollonio, Fabrizio I., Riccardo Foschi, Marco Gaiani and Simone Garagnani. 2021.
How to Analyze, Preserve, and Communicate Leonardo's Drawing? A Solution to
Visualize in RTR Fine Art Graphics Established from “the Best Sense
.”
Journal on Computing and Cultural Heritage (JOCCH) 14: 1 - 30. DOI: https://doi.org/10.1145/3433606
Della Lana, Iacomo. 2009. Commento alla ‘Commedia’, a cura di M. Volpi, con la collaborazione di A. Terzi, I-IV. Roma: Salerno Editrice.
Duffy, Sarah M. 2013. Multi-Light Imaging for Heritage Applications , London: English Heritage.
Frati, Carlo. 1923. I codici danteschi della Biblioteca Universitaria di Bologna. Con IV appendici e XIV facsimili, Firenze: L. S. Olschki.
Gaiani, Marco and Andrea Ballabeni. 2018. SHAFT (SAT & HUE Adaptive Fine
Tuning), a new automated solution for target-based color correction.
In
Colour and Colorimetry Multidisciplinary Contributions, XIVB: 69-80.
Rimini: Maggioli Editore.
Gaiani, Marco, Fabrizio I. Apollonio, and Paolo Clini. 2015. Innovative approach to the digital documentation and rendering of the total appearance of fine drawings and its validation on leonardo’s vitruvian man. J. Cult. Herit. 16, 6: 805–812. DOI: https://doi.org/10.1016/j.culher.2015.04.003
Gaiani, Marco, Fabrizio I. Apollonio, Giovanni Bacci, Andrea Ballabeni, Marco
Bozzola, Riccardo Foschi, Simone Garagnani, and Roberto Palermo. 2019. Vedere
dentro i disegni. Un sistema per analizzare, conservare, comprendere,
comunicare i disegni di Leonardo.
In Leonardo a Vinci. Alle Origini Del
Genio, Roberta Barsanti (Eds.). Milano: Giunti Editore: 207–240. doi: https://doi.org/10.1117/12.7972479
Italia, Paola. 2016. Il metodo di Leopardi. Varianti e stile nella formazione delle «Canzoni». Roma: Carocci.
Italia, Paola. 2018. Lo scrittoio
, in Leopardi, a cura di Franco
D’Intino e Massimo Natale: 227-42. Roma: Carocci.
Italia, Paola. 2020. Editing Duemila. Roma: Salerno, 2020.
Leopardi, Giacomo. 1927. Canti. Ed. critica a cura di F. Moroncini, 2 voll., (rist. anast. con Introduzione di G. Folena, 1978). Bologna: Cappelli.
Leopardi, Giacomo. 1978. Canti, a cura di D. De Robertis. Milano: Mondadori.
Leopardi, Giacomo. 1981. Canti, ed. critica a cura di E. Peruzzi, con riproduzione degli autografi. Milano: Rizzoli.
Leopardi, Giacomo. 1984. Canti, ed. critica e autografi a cura di D. De Robertis, 2 voll. Milano: Il Polifilo.
Leopardi, Giacomo. 1998. Canti, Introduzione di F. Gavazzeni, note di F. Gavazzeni, M. M. Lombardi. Milano: Rizzoli.
Leopardi, Giacomo. 1998. Canti. A cura di E. Peruzzi, Rizzoli-Centro nazionale di studi leopardiani, Milano-Recanati, 2 voll.
Leopardi, Giacomo. 2009. Canti, ed. critica diretta da F. Gavazzeni, nuova ed. con le Poesie disperse, coordinata da P. Italia, 3 voll. Firenze: Accademia della Crusca.
Malato, Enrico and Andrea Mazzucchi, eds. 2011. Censimento dei Commenti danteschi. 1. I Commenti di tradizione manoscritta (fino al 1480). 2 vols. Rome: Salerno.
Malzbender, Thoms, Dan Gelb and Hans Wolters. 2001. Polynomial texture
maps.
In Proceedings of the 28
th
Annual Conference on Computer Graphics and Interactive Techniques:
519-528. ACM.
Mudge, Mark, Tom Malzbender, Alan Chalmers, Roberto Scopigno, James Davis,
OliverWang, Prabath Gunawardane, Michael Ashley, Martin Doerr, Alberto Proenca,
and Joao Barbosa. 2008. Image-based empirical information acquisition,
scientific reliability, and longterm digital preservation for the natural
sciences and cultural heritage.
Eurographics (Tutorials) 2, 4. DOI:10.2312/egt.20081050
Ponchio, Federico, Massimiliano Corsini, and Roberto Scopigno. 2018. A compact
representation of relightable images for the web.
In Proceedings of the
23rd International ACM Conference on 3D Web Technology. ACM.
DOI:10.1145/3208806.3208820
Rastelli, Alessia. 2018. Così si disegna il dubbio. Calvino diventa una mappa, in «La lettura», 7 ottobre 2018.
Scarabelli, Luciano. 1870-1873. Esemplare della Divina Comedia donato da papa (Benedetto XIV) Lambertini con tutti i suoi libri allo Studio di Bologna […], I-III. Bologna: Regia Tipografia.
Volpi, Mirko. 2011. Iacomo della Lana, in Censimento dei Commenti danteschi I/1. I commenti di tradizione manoscritta (fino al 1480), a cura di E. Malato, A. Mazzucchi: 290-315. Roma: Salerno Editrice.
Watteeuw, Lieve, Hendrik Hameeuw, Bruno Vandermeulen, Athena Van der Perre, Vanessa Boschloos, Luc Delvaux, Marc Proesmans, Marina Van Bos, and Luc Van Gool. 2016. Light, shadows and surface characteristics: the multispectral portable light dome. Appl. Phys. A 122, 976 DOI: 10.1007/s00339-016-0499-4
Woodham, Robert J. 1980. "Photometric Method For Determining Surface Orientation From Multiple Images," Optical Engineering 19(1), 191139 (1 February 1980).
Nell'ambito di una condivisione del progetto e dei contenuti dell'articolo, le responsabilità sono così suddivise: Par. 1: Paola Italia; Par. 2: Roberta Priore; Par. 3: Sara Obbiso.
Per una descrizione tecnica analitica delle prime due fasi di lavoro cfr. .
Esecutrice della campagna di acquisizione è stata Federica Giacomini, borsista di ricerca presso il FRAME Lab di Ravenna.
Cfr. Guide to RTI viewer, p. 14 (consultato il 12.01.2021).
Responsabile dello sviluppo del progetto, che sarà presto online all’indirizzo https://site.unibo.it/manoscrittidigitali/it, è Sara Obbiso, assegnista del dipartimento FICLIT dell’Università di Bologna e del DBC Ravenna.
Il codice è edito integralmente da Scarabelli (1870-73)
Per un approfondimento sulla figura di Iacomo della Lana cfr. la scheda di M. Volpi ( : 290-315).
Per una disamina dei vantaggi di questo sistema di illuminazione rispetto agli altri cfr. ( : 214-216).
Più precisamente, per queste acquisizioni è stato utilizzato un X-Rite Color Checker Classic target, consistente in 24 target colorati con riflettanza nota. Per ulteriori dettagli sugli algoritmi di color correction cfr. Intensity histogram equalisation, a colour-to-grey conversion strategy improving photogrammetric reconstruction of urban architectural heritage.
https://www.rit.edu/cos/colorscience/mellon/software.php Ultimo accesso: 26 agosto 2021.
https://blogs.unity3d.com/2018/03/16/the-high-definition-render-pipeline-focused-on-visual-quality/ Ultimo accesso 26 agosto 2021.
https://www.imatest.com/ Ultimo accesso: 26 agosto 2021.
Questa feature è attualmente in corso di sperimentazione.
L’Università di Leuven ha recentemente sviluppato il PLD (Portable Light Dome System), approccio derivato da RTI che sfrutta, però alcune tecniche del photometric stereo: cfr. .
Per un confronto più approfondito tra photometric stereo ed RTI e, in generale, con altre tecniche del tipo single camera, multi-light cfr. ( ).