« indietro IN SEMICERCHIO. RIVISTA DI POESIA COMPARATA LXIV (2021/1) pp. 141-142 (scarica il pdf) MICHELANGELO ZACCARELLO (a cura di), Teoria e forme del testo digitale, Roma, Carocci 2019, pp. 231, € 24,00
Il volume, a cura di Michelangelo Zaccarello, raccoglie una serie di testi critici, ora tradotti in italiano, dei principali esponenti della tradizione angloamericana della textual scholarship e della editorial theory, così da aprire un dialogo con l’approccio filologico ‘continentale’ in merito alle dinamiche della testualità di fronte alla svolta digitale. Il libro introduce infatti alle principali questioni relative alle differenti forme della testualità digitale e alla circolazione dei testi letterari nel mondo attuale, così come ai nuovi metodi della didattica e all’inefficacia di alcuni supporti digitali.
Il primo saggio di Jerome J. McGann riguarda la difficoltà dell’editore di fronte alla scelta del testo base per la sua edizione critica di un’opera. Per sciogliere la questione, la filologia ha costruito la cosiddetta ultima volontà dell’autore: ricercarne l’intenzionalità corrisponde al concetto di «originale perduto», ossia alla tensione al testo ideale, non esistente nella realtà. In tal senso la tradizione Lachmann-Greg, che prevede la sistemazione genealogica per individuare la linea di discendenza meno corrotta, risulta valida specialmente per i testi antichi; di fronte alla considerazione di autori di epoche più vicini a noi e alle grandi quantità di materiali collegati, questa infatti entra in crisi dimostrando scarsa affidabilità. McGann porta dunque due esempi di generi di testi per i quali è impossibile affidarsi al principio della volontà autoriale, dimostrando che essa deve sempre andare di pari passo con la funzione sociale del testo se si vuole stabilire l’autorevolezza di quest’ultimo. Segue un intervento di Susan Hockey sull’inadeguatezza delle edizioni digitali, che ancora mancano di strumenti adeguati ad analizzare e manipolare il materiale e che dunque non utilizzano il potenziale tecnologico per aiutare la ricerca scientifica. Si insiste sulla necessità di inserire nelle edizioni elettroniche qualche forma di codifica o marcatura, così da fornire maggiori informazioni e aiutare i programmi del computer a svolgere operazioni più significative. Secondo l’autrice il sistema più efficace risulta il markup ‘descrittivo’, marcatura che, invece di indicare cosa deve fare un dato elemento del testo, dichiara cos’è quell’elemento. Per quanto riguarda i sistemi di codifica, si preferisce il modello SGML/ XML al più comune HTML per le seguenti caratteristiche: un testo così codificato è un semplice file ASCII che può essere letto da qualsiasi programma di video-scrittura; tale linguaggio è una sintassi per la definizione di linguaggi di markup per ogni progetto; qualunque cosa può essere oggetto di codifica SGML/XML. Per l’informatica umanistica, molto utile se pur di difficile apprendimento risulta il TEI (Text Encoding Initiative), che cerca di adattare il sistema SGML al testo letterario. Il terzo saggio di Paul Eggert riguarda l’evoluzione dell’informatica umanistica. La situazione attuale, che corrisponde a una prima fase rudimentale, vede l’utilizzo dell’intelligenza artificiale per la produzione di testi digitalizzati. Una seconda fase auspicata dovrà realizzarsi in precisi obbiettivi teorici e in un’accurata definizione terminologica. Importare documenti a stampa su un supporto tecnologico, infatti, induce inevitabilmente a pensare a cos’è il testo, e allo stesso modo sarà necessaria una teoria per tutti quei testi born digital. In particolare, Eggert propone una teoria dell’edizione con annesso un livello pratico, tracciando un profilo metodologico completo. Nella trattazione affronta il concetto di materialità nel mondo digitale e di «cantiere di lavoro», ossia la possibilità, tramite sistemi come JTM, di avere a disposizione un laboratorio di studio dell’opera letteraria e di costruzione di testi in base alla richiesta di utenti esperti quali editori e lettori. Il quarto capitolo, di Peter Shillingsburg, si concentra sui testi propriamente di letteratura (poesia, teatro, narrativa) e non sui documenti, in quanto questi richiedono degli standard di accuratezza diversi. Il quinto, invece, scritto da Matthew Kirschenbaum, si focalizza sulla letteratura born digital e sulla fase di composizione della videoscrittura. Per una storia di quest’ultima, afferma l’autore, sarà necessario seguire una storia dei singoli individui e delle personalità, osservando la diversità prodotta dai vari strumenti e tecnologie. Nel saggio successivo, di Maurizio Borghi e Stavroula Karapapa, si affrontano i problemi legati alla digitalizzazione di massa, soprattutto di ordine morale e giuridico. Nella fattispecie si intende con digitalizzazione di massa la riproduzione su grande scala con finalità commerciali di opere spesso coperte dal copyright, ribaltando di fatto le norme legate al diritto d’autore. Il caso emblema che ha accelerato fortemente il progetto di costruzione di una biblioteca universale accessibile a tutti è Google Books, che a sua volta ha posto però numerosi problemi tanto da essere oggetto di varie cause legali. Nel rispetto del copyright, dunque, la digitalizzazione può operare in quattro direzioni: la digitalizzazione di opere di pubblico dominio, l’utilizzo di opere autorizzate dai titolari dei relativi diritti, l’uso di opere coperte da copyright ma sottoposte a una gestione collettiva e infine opere coperte da copyright che non soggiacciono ad alcun tipo di autorizzazione da parte dei titolari. Il settimo capitolo di Peter Robinson mira a definire e delineare l’impiego del termine «sociale» nella critica testuale e nell’informatica umanistica. Il termine «testo sociale» nasce negli anni Settanta negli scritti di McGann e McKenzie, entrambi giunti alla conclusione che i testi che leggiamo prendono forma non solo dall’autore ma da molti fattori (aspetti sociali, materiali, le trasformazioni degli editori, critici, docenti). L’«ecdotica sociale» è invece un processo che permette di produrre edizioni da un gran numero di persone non direttamente in contatto tra loro. Infine, il termine «edizione sociale», definito da Siemens, indica un’edizione che impiega strumenti innovativi per attività quali la trascrizione, la bibliografia e attività di convergenza dei social media e dell’edizione scientifica su supporto elettronico. Il saggio seguente di Diana Kichuk ritorna sulla digitalizzazione di massa ma concentrandosi sul problema della qualità e l’accuratezza dei testi in rete, che risulta determinante per la conservazione del patrimonio culturale. L’articolo esamina quindi l’impatto della tecnologia OCR (software di riconoscimento caratteri) sugli e-book e i relativi errori o distorsioni derivanti da una mancanza di affidabilità e accuratezza del sistema (basse percentuali di precisione del software OCR, pagina e testo inclinati, elementi tipografici come paragrafo o corsivo che non si traducono facilmente). Il nono capitolo, di Paul Conway, ritorna sul problema dell’accuratezza della digitalizzazione e sulla necessità di protocolli di qualità per gli archivi virtuali, focalizzandosi su una disamina dell’errore attraverso un modello che, elaborato su vasta scala, permette di generare una tabella di tipologie di imperfezioni verificatesi. L’ultimo saggio di Jerome J. McGann suggerisce e si schiera a favore del ritorno alla filologia, che dovrebbe recuperare un ruolo centrale nel passaggio della cultura umanistica su supporto digitale. Il volume offre, attraverso l’accurata scelta dei saggi e degli autori, una panoramica sullo stato teorico e pratico degli studi in merito alle forme del testo digitale, affrontando le principali problematiche e proponendo nuovi approcci per il futuro. di Sara Vergari ¬ top of page |
|||||
Semicerchio, piazza Leopoldo 9, 50134 Firenze - tel./fax +39 055 495398 |