l`archivio digitale giuliano scabia
Transcript
l`archivio digitale giuliano scabia
UNIVERSITA' DEGLI STUDI DI BOLOGNA FACOLTA' DI LETTERE E FILOSOFIA ________________________________________________________________________ Corso di Laurea in DAMS L'ARCHIVIO DIGITALE GIULIANO SCABIA Tesi di laurea in Relatore: Prof. PierLuigi Capucci Presentata da: Claudio Lamperti Correlatori: Dott. Dario Canè Dott. Fabio Regazzi Sessione III ________________________________________________________________________ Anno Accademico 2004-2005 INDICE Introduzione La nascita del progetto…………………………………………..pag 1 Introduzione all’archiviazione dei documenti………………….. pag 2 I vari tipi di supporto…………….……………………………... pag 5 Fattori generali di conservazione………………………………. pag 6 Capitolo Primo Materiali Magnetici………………………………………….…. pag 9 Dischi Magnetici…………………………………………….…. pag 14 La stabilità dei supporti magnetici………………………………pag 14 Supporti Ottici……………………………………………….…. pag 18 Media ottici riscrivibili…………………………………………. pag 20 La stabilità dei supporti ottici…………………………………... pag 20 Capitolo Secondo Cos’è un codice binario………………………………………… pag 22 Comparazione tra analogico e digitale…………………………. pag 23 Compressione video e codifica MPEG…………………….……pag 29 Sistemi di compressione video • Compensazione di moto…………………………………….. pag 32 • Trasformata discreta Coseno (DCT)………………………... pag 35 • Codifica del colore………………………………………….. pag 36 Specifiche per l’MPEG video……………………………….…..pag 38 Perché il digitale….…………………………………………….. pag 41 Capitolo Terzo Premesse al lavoro di digitalizzazione…………………………..pag 46 I macchinari utilizzati…………………………………………... pag 49 Nutrire Dio………………………………………………………pag 51 • Lavoro svolto sui filmati di Nutrire Dio……………………. pag 52 Il Gorilla Quadrumano……………………..……………………pag 56 • Lavoro svolto sui filmati de Il Gorilla Quadrumano……….. pag 58 Marco Cavallo…………………………………...........................pag 60 • Lavoro fatto sui filmati di Marco Cavallo………………….. pag 62 Il Diavolo e il suo Arcangelo……………………………………pag 63 • Lavoro svolto sui filmati de Il Diavolo e il suo Arcangelo.… pag 64 La creazione dei DVD………………………………………….. pag 66 Conclusioni……………………………………………………. pag 72 Glossario Bibliografia di Riferimento Webgrafia Appendice Fotografica INTRODUZIONE LA NASCITA DEL PROGETTO La nascita del progetto “Archivio Digitale Giuliano Scabia” risale al periodo intercorrente tra il luglio e il settembre del 2003 ad opera di Dario Canè. Motore principale della nascita di questo progetto il rischio di perdere una buona parte dei materiali riguardanti l’attività teatrale di Giuliano Scabia, famoso drammaturgo e scrittore, a partire dal lontano 1973 fino ai giorni nostri. Trattandosi di materiali conservati su supporti eterogenei e deperibili (una gran parte di essi sono nastri VHS), si era palesata la necessità di trasferirli su supporti più duraturi, quali il DVD, così da assicurarne la salvaguardia, poiché si trattava di documenti spesso inediti e dall'indiscusso valore artistico. Scopo non secondario era anche quello di rendere tutto questo materiale video omogeneo e di semplice fruizione, così da consentirne un utilizzo a scopi didattici. Dopo una prima schedatura del materiale, effettuata tra il 15 e il 18 luglio 2003, con la collaborazione del tecnico responsabile del laboratorio, il sig. Frank Baliello, si è proceduto alla redazione di differenti progetti di fattibilità, che prendessero in esame varie ipotesi di lavoro, a seconda delle possibilità tecniche ed umane che il Laboratorio Multimediale sarebbe stato in grado di mettere a disposizione del progetto. Le ipotesi paventate andavano dalla semplice salvaguardia del materiale mediante riversamento del materiale su nastri Dvcam senza ulteriori interventi, alla vera e propria edizione di dischi multimediali, previa digitalizzazione del 1 materiale, con conseguenti interventi di correzione audio e video e la creazione di inserti, menù ed indici nei DVD. In quest'ultimo caso il lavoro avrebbe richiesto la disponibilità e l'utilizzo di macchinari e software piuttosto avanzati, di cui il laboratorio all'epoca ancora non disponeva. Si è così deciso di acquistare un sistema Apple Macintosh G5 doppio processore con scheda di acquisizione, in modo da avere i mezzi per effettuare un lavoro completo, che oltre al salvataggio del materiale dal deperimento mediante il riversamento su supporti digitali unisse interventi di correzione audio e video, ed eventualmente di taglio e montaggio dei filmati stessi, per concludersi poi con la creazione dei DVD. Il progetto ha comunque dovuto attendere più di un anno prima che tutto fosse pronto ed operativo, ed il battesimo ufficiale è stato dato per l'11 di aprile del 2005. INTRODUZIONE ALL’ARCHIVIAZIONE DEI DOCUMENTI Le più significative tracce di tutte le attività culturali ed intellettuali dell'umanità sono contenute nei documenti. È questo un termine molto generico, che all’interno di questo contesto va inteso come semplice testimonianza di una qualsiasi attività umana. Questi documenti possono avere forme diverse, dai formati “tangibili” come i papiri, le pergamene e la carta, fino ai moderni formati elettronici, in cui l'informazione viene tradotta in una serie di impulsi magnetici o elettrici che possono essere letti solo da appositi macchinari. Come tutti gli altri prodotti dell'attività umana, comunque, tutti i documenti sono molto fragili e vulnerabili di fronte all’azione del tempo, anche se a gradi diversi. 2 Il rischio che una parte consistente di memoria collettiva dell'umanità vada perso è dunque reale, per questo è necessario aumentare gli sforzi per assicurare la sopravvivenza dei documenti conservati negli archivi di tutto il mondo. Bisogna infatti tener presente che la conservazione dei documenti non è un'attività fine a se stessa, e che in se stessa trova la realizzazione del proprio scopo ma, anzi, essa è un pre-requisito fondamentale per consentire di accedere al patrimonio comune dell'umanità, e a tutti i vari tipi di informazione, poiché nessuna dimensione storica è possibile senza un’adeguata conservazione delle collezioni e dei documenti che la compongono1. I documenti negli archivi e nelle librerie di tutto il mondo sono fonti indispensabili per molte discipline scolastiche, ma non solo, sono anche indispensabili per chiunque voglia fare ricerche e raccogliere informazioni, divertirsi e coltivare passioni di interesse generale. L'informazione dovrebbe essere resa disponibile a tutti, in maniera libera, rapida ed efficace. La conservazione dei supporti fisici dell'informazione è la base da cui partire per poter garantire un servizio di questo tipo in futuro. Nel pensiero collettivo la conservazione dei documenti viene in genere associata alla salvaguardia di libri ed altri materiali scritti, omettendo i formati nati negli ultimi secoli, vale a dire, quelli nati dopo l'avvento della fotografia e dell'informatica. Ciò probabilmente accade perché le biblioteche hanno più di 4000 anni di storia alle spalle, mentre gli archivi audio-visivi risalgono a pochi decenni fa. Le forme più tecnologiche di documentazione hanno addirittura pochi anni di vita. Ci sono dunque differenti tipi di documenti, da ciò consegue che ci siano anche una serie di differenze. Santoro M. Dall’analogico al digitale: la conservazione dei supporti non cartacei, tratto dalla rivista “Biblioteche oggi”, marzo 2001 1 3 Vediamone alcune. La scrittura rappresenta il pensiero dell'uomo attraverso l'utilizzo di simboli. Un certo margine di ridondanza è quindi insito nel dialogo e nello scritto. Le lettere, ed ogni tanto anche le parole, possono venire omesse senza che a ciò consegua inevitabilmente una perdita di informazione. Per contrasto, i documenti audiovisivi sono una rappresentazione analogica dello stato fisico in cui un evento si presenta: ogni parte dei documenti di questo tipo contiene informazione. Mentre un errore di stampa in un libro non compromette generalmente la corretta comprensione del testo, un equivalente errore nella stampa di una fotografia comporterebbe un cambiamento dell'informazione, e su di un nastro magnetico, potrebbe perfino rendere il nastro illeggibile. Visti dunque sotto quest'ottica, i documenti audio-visivi richiedono un maggior grado di protezione e sicurezza rispetto ai materiali scritti. Lo stesso vale per i documenti digitali. Addirittura i documenti elettronici di ultima generazione non richiedono nemmeno più un supporto fisico tangibile per il fruitore, dato che si manifestano sotto forma di impulsi di energia e solo per un tempo limitato (pensiamo ad esempio al caso dei messaggi e-mail, trasmissibili tramite un comune cavo telefonico). Anche per loro esistono comunque dei parametri di sicurezza in modo da garantirne una corretta trasmissibilità, e qualora si dovesse rendere disponibile un loro accesso in tempi postumi anch'essi richiederebbero il trasferimento su di un supporto fisico che possa garantirne la conservazione. Un fattore invece che molti, se non tutti, i documenti hanno in comune tra loro, è la loro dipendenza dal materiale che ne costituisce il supporto, che sia organico oppure artificiale. I materiali tradizionali (carte, pergamena, pelle...) sono tutti di natura organica. I nuovi materiali, quali cassette, dischi e pellicole appartengono tutti alla stessa famiglia, trattandosi di 4 materiali creati dall'uomo, quali il PVC e il poliestere. Il tempo richiesto dal processo di decomposizione chimica dei vari supporti varia ampiamente a seconda dei vari materiali: alcuni possono durare millenni, altri faticano a durare anche solo pochi anni. Tutti i materiali vanno comunque incontro a decadimento, questo è inevitabile, ma il processo può essere sensibilmente rallentato se il documento viene maneggiato con cura e viene conservato in maniera adeguata. D'altro lato, un utilizzo incurante del materiale può risultare nocivo, accelerando sensibilmente il deperimento. I VARI TIPI DI SUPPORTO Generalmente si usano dividere i vari tipi di documenti in cinque gruppi: • Carta e altri materiali tradizionali (inclusi pergamene, pelle, inchiostri e pigmenti. Questo costituisce il gruppo di documenti più antico e più ampio.) • Fotografie e altri materiali grafici (include tutti i tipi di immagini fotografiche su tutti i tipi di supporti, carta, vetro, celluloide e altri materiali...) • Supporti meccanici (quali supporti per la registrazione di suoni come i dischi e i cilindri fonografici...) • Materiali Magnetici (cassette, dischi rigidi e floppy disc) • Materiali Ottici (CD-ROM, CD-Audio, DVD...) A questi vanno aggiunti i supporti di ultimissima generazione quali i documenti elettronici e le informazioni virtuali (come la e-mail). 5 FATTORI GENERALI DI CONSERVAZIONE Tutti i supporti per documenti, specialmente quelli moderni ad alta densità, sono per loro natura, vulnerabili. Inoltre bisogna considerare il fattore di rischio addizionale che possono comportare un maneggiamento improprio, attrezzature malfunzionanti o incidenti in generale. Per la conservazione a lungo termine di molti tipi di documenti si stanno mettendo a punto miglioramenti nelle tecniche di conservazione. Ad esempio, l'utilizzo di copie per ridurre la frequenza di utilizzi del documento originale ridurrà lo stress di quest'ultimo e ne prolungherà la conservazione. Una strategia finora largamente usata consiste nella creazione delle cosiddette copie di accesso al documento, cioè di copie create appositamente a scopo di consultazione. È di fondamentale importanza, inoltre, avere almeno due copie di ogni documento: una utilizzabile come copia master e l'altra come vera e propria copia di accesso. Queste dovrebbero essere conservate in due luoghi differenti, ed in differenti condizioni climatiche, se possibile. Questa è una politica di grande utilità che molti archivi hanno deciso di adottare. Anche la conservazione dei documenti su microfilm viene spesso usata, sia come espediente per la conservazione del materiale, sia come copia d'accesso ad alta qualità, dato che questa tecnica può servirsi di supporti digitali, mediante dischi ottici, oppure nastri magnetici. Un passo ulteriore è costituito dai sistemi di stoccaggio di massa in grado di autocontrollarsi e di autorigenerarsi. Si tratta di grandi contenitori (silos) in cui vengono conservati i supporti, la cui gestione è interamente affidata a robot, che a scadenze prefissate ne verificano l’integrità sostituendoli periodicamente con nuove copie. Questa potrebbe costituire la soluzione per la conservazione di tutti i 6 documenti elettronici, anche in luoghi dalle condizioni climatiche più sfavorevoli. I costi di queste strutture sono ancora relativamente alti, ma presto diventeranno più accessibili, e potranno essere applicati anche a progetti dalla modesta portata. Un sistema di stoccaggio di massa richiede infatti generalmente poco spazio, permettendo così di risparmiare sui costi di climatizzazione e di controllo dell'umidità. L’evoluzione tecnologica porta ad una obsolescenza precoce dei sistemi di archiviazione: mentre per i formati audiovisivi tradizionali la durata stimata del nastro era di fondamentale importanza, i formati moderni si basano sulla compatibilità di attrezzature di replicazione funzionanti ed appropriate. La situazione è ulteriormente complicata dalla labilità nel tempo dei software dedicati e dei sistemi operativi. Il fatto che i dati vadano continuamente trasferiti su supporti aggiornati non è assolutamente un particolare di poca importanza, poiché richiede una continua attenzione ai nuovi formati immessi in commercio, onde evitare che le informazioni vengano messe su supporti destinati ad uscire presto dal mercato e diventino così inaccessibili per la mancanza di macchinari adatti alla lettura. Un altro fattore centrale nella salvaguardia dei documenti consiste nella corretta manutenzione e nel perfetto funzionamento dei macchinari adibiti alla lettura dei dati ed alla loro replica. Vanno fatti grandi sforzi per mantenere le attrezzature nelle migliori condizioni possibili. Per assicurare inoltre una lunga vita ai materiali che contengono le informazioni, è necessario controllare le condizioni climatiche dei magazzini. I requisiti minimi sono una temperatura ed un livello di umidità costanti. Qualunque variazione (al di fuori di un certo margine “di sicurezza”) di questi due parametri accelererà di molto il processo di decadimento. Per questo gli impianti di condizionamento devono funzionare 24 ore al giorno. L'aria del 7 magazzino deve essere continuamente filtrata attraverso filtri al carbonio e deve essere libera di circolare per sei volte all'interno di tutta l'area, con ricambio di aria fresca pari al 10%. È assolutamente necessario che la circolazione di aria venga mantenuta, se necessario anche con ventagli, così da evitare assolutamente il formarsi di sacche di aria stagnante che potrebbero favorire il formarsi di funghi e muffe. Anche temperature troppo alte possono accelerare il processo di decadimento, mentre le basse temperature hanno l'effetto di rallentarlo. Allo stesso modo, livelli di umidità elevati favoriranno l'idrolisi, incoraggiando la comparsa di muffe e funghi. Questi organismi non solo possono “mangiare” carta e altri polimeri naturali, ma rendono anche gli altri tipi di supporti (nastri magnetici, dischi ottici...) illeggibili da parte delle macchine, o addirittura dannosi per quest'ultime. Mentre è abbastanza risaputo che molti materiali si conservano meglio alle basse temperature, meno diffusa è la conoscenza che anche l'umidità vada controllata. Il problema è che risulta abbastanza facile controllare la temperatura in un luogo, ma regolarne l'umidità risulta essere estremamente più costoso e complicato. 8 CAPITOLO PRIMO MATERIALI MAGNETICI I media magnetici sono stati per lungo tempo i formati a più largo utilizzo e con maggiore diffusione. Sotto forma di nastri per registrare suoni, immagini o dati digitali, sotto forma di hard disk e floppy disk per immagazzinare dati nei computer, quando applicati sotto forma di banda magnetica su tessere, i media magnetici permettono di accedere al conto corrente, possono contenere le nostre generalità, consentire l'accesso attraverso porte e molte altre cose. I principi base per la registrazione su un media magnetico furono esposti per la prima volta da Oberlin Smith nel 1880. L'idea non fu però più ripresa da nessuno fino a quando Valdemar Poulsen introdusse nel 1889 il suo sistema di registrazione con il registratore a filo di acciaio. I primi magnetofoni vennero prodotti in Germania a metà degli anni '30, dei registratori a nastri con velocità di scorrimento di 100 centimetri al secondo. Il loro utilizzo per la registrazione di suoni non arrivò comunque a grande diffusione fino agli anni '50. La BBC, ad esempio, continuò ad utilizzare dischi per le registrazioni fino al 1965. La registrazione di immagini su nastri magnetici arrivò solo in seguito. Come per le registrazioni audio, ci furono vari sistemi prima che il nastro si diffondesse e diventasse di utilizzo comune. La prima registrazione di immagini con un metodo non fotografico fu fatta da John Logie-Baird nel 1924. Le immagini vennero registrate su un 78 giri che è ora conservato al National Sound Archive a Londra. Le prime registrazioni pratiche di programmi televisivi furono fatte 99 utilizzando speciali telecamere puntate su schermi video. La prima macchina per registrazioni video su nastro fu creata dalla BBC nel 1955: utilizzava un nastro da ½ pollice, con una velocità di scorrimento di 3 metri al secondo. Questo sistema venne ben presto soppiantato dall'introduzione di un nastro da 2 pollici da parte della Ampex Corporation. Da allora nuovi formati si sono aggiunti a questi, e con una rapidità sempre maggiore. È stato calcolato che, includendo i differenti standard di emissione e di fornitura elettrica, le immagini sono state registrate in oltre 100 differenti formati nei 40 anni seguenti alla nascita della registrazione video su nastro. La conservazione di dati su supporti magnetici sotto forma di nastri o cartucce è oggi molto diffusa negli archivi di tutto il mondo sia per dati audio che video. Questo perché i nastri sono dei supporti affidabili, a bassa componente di rischio ed anche economici. Se liberi da difetti di produzione, i nastri possono mantenersi in ottimo stato per molti anni. I primi nastri audio hanno ormai più di 50 anni e risultano ancora essere perfettamente riproducibili. I primi nastri magnetici utilizzavano il triacetato di cellulosa come supporto di base, mentre quelli più moderni utilizzano il poliestere. Su tale supporto di base è steso uno strato di polvere magnetica, attaccato grazie ad uno strato intermedio di collante. Il collante ha però in genere la tendenza a diventare fragile a causa dell'umidità presente nell'atmosfera, che favorisce l’idrolisi. Questa fragilità può causare seri problemi durante la riproduzione di nastri audio vecchi. I nastri che presentano casi seri di idrolisi tendono a liberare acido acetato in quantità sempre maggiori creando così un'accelerazione nel processo di decadimento. Per queste ragioni è necessario prendere in considerazione l’ipotesi di trasferire le informazioni su nuovi media. Un altro gruppo di nastri audio che ormai appartiene alla storia sono 10 10 quelli che utilizzano il policloruro di vinile come supporto magnetico. Come i dischi in vinile, questi nastri non hanno ancora manifestato con sistematicità alcun tipo di instabilità dopo un determinato lasso di tempo, e non presentano specifici problemi di conservazione; la loro durata in prospettiva risulta dunque ancora sconosciuta. Le normali cassette invece, sia audio che video utilizzano il poliestere come supporto base. Esso ha una grande resistenza nei confronti dello stress meccanico e dell'umidità. Anche in questo caso non si sono ancora manifestati sistematicamente problemi di stabilità dopo un certo periodo e la longevità è dunque sconosciuta. Per il cosiddetto “rivestimento” (cioè la parte magnetica del nastro su cui viene registrata l’informazione) sono invece stati utilizzati molti tipi diversi di supporti, ma solo le polveri di metallo, usate nei formati ad alta densità, hanno dato fino ad oggi motivi di seria preoccupazione. Infatti i primi nastri con polveri di metallo soffrivano enormemente il problema della corrosione; nonostante oggi questo problema sembri essere sotto controllo, non si hanno ancora informazioni certe sull’arco di tempo in cui le particelle di metallo saranno in grado di mantenere le loro informazioni non distorte e leggibili. Contrariamente a quanto sostenuto inizialmente dai maggiori detrattori di questa tecnologia, bisogna comunque sottolineare che le informazioni magnetiche non scompaiono, se i nastri vengono maneggiati e conservati adeguatamente. Il più grande problema relativo ai nastri magnetici, come ho già accennato, riguarda il collante che mantiene le particelle magnetiche legate al supporto della pellicola. Un numero considerevole dei nastri prodotti tra gli anni Settanta e gli anni Ottanta soffre di idrolisi del collante. Ciò è dovuto all'assorbimento dell'umidità presente nell’aria, che viene così assorbita e causa la perdita delle proprietà proprie del 11 11 collante. I nastri di questo tipo, quando vengono riprodotti, lasciano sulle testine del lettore vere e proprie macchie di particelle magnetiche. In casi estremi, la parte magnetica arriva a staccarsi completamente dal supporto. Esistono vari processi per rendere questi nastri di nuovo leggibili, ma si tratta di processi ingombranti, lunghi, e non efficaci se applicati su nastri che versano in condizioni critiche. In alcuni casi basta mettere il nastro in un forno, a temperatura controllata, in modo da restituire al collante le sue proprietà elastiche e rendere il nastro di nuovo riproducibile. Dopo qualche ora dal raffreddamento però il collante perde l’elasticità acquisita precedentemente con la cottura, e ad ascolti successivi potrebbe riprendere a lasciare residui magnetici sulle testine. Questi problemi derivanti da idrolisi si riscontrano con maggior frequenza nelle aree geografiche più calde e a maggior tasso di umidità, dove molti nastri non durano che pochi anni. I nastri magnetici possono presentarsi sotto forma di: • bobine aperte • cassette • cartucce I nastri conservati in bobine aperte per essere riprodotti sulla macchina devono essere prima montati da un operatore, con conseguente possibilità di danno per il nastro. Le bobine aperte sono state per lungo tempo la forma più diffusa per la registrazione audio in ambito professionale. I nastri in cassetta invece sono più protetti e le due estremità del nastro assicurate su due bobine interne. Anche una cartuccia è completamente chiusa, ma il nastro si presenta sottoforma di un circuito unico, senza alcun avvolgimento. Cassette e cartucce sono facilmente caricabili sui 12 12 macchinari per la loro riproduzione, a differenza delle bobine aperte. Le cartucce vedono il loro utilizzo maggiore nella conservazione di dati informatici, molto più raro è il loro utilizzo per la registrazione di brevi sequenze sonore. Le cassette sono molto diffuse nel mondo del video e dei computer, ma non nell'ambito audio professionale. Si possono prestare a molteplici utilizzi: si può andare dalle comuni musicassette attraverso i vari tipi di videocassette fino ai nastri audio digitali con testine rotanti (DAT), per arrivare fino alle moderne cassette digitali Dvcam e miniDV. Le musicassette sono state per lungo tempo il formato più diffuso nell'ambiente musicale, sia in ambito commerciale che in ambito privato, ma non in ambito professionale. Per la registrazione analogica di video, sia professionalmente che non, sono stati utilizzati molti tipi diversi di cassette. Il più comune è la normale VHS. Altri formati sono il ¾ di pollice U-Matic – un formato semiprofessionale, e il ½ pollice Betacam, utilizzato diffusamente in ambiente televisivo e radiofonico. Tutti questi formati video, sia analogici che digitali, utilizzano una tecnologia a testine rotanti. Una gran varietà di formati su cassetta vengono anche utilizzati nel mondo informatico come back-up per le informazioni contenute sui dischi interni. 13 13 DISCHI MAGNETICI Ci sono due tipi di dischi magnetici: gli hard disk e i floppy disk. Durante le operazioni di lettura e di scrittura il disco viene fatto ruotare, in questo modo i dati vengono registrati lungo tracce circolari, settore dopo settore, rendendo rapidissimo l’accesso ai dati anche in modalità casuale. Su di un nastro invece l’accesso ai dati avviene in modalità lineare, dunque bisogna attendere il riavvolgimento del nastro stesso fino al punto desiderato. I floppy non sono molto adatti per l'archiviazione a lungo termine. Possono essere facilmente deformabili a causa dell'instabilità del materiale plastico, con conseguenze anche per il drive di lettura. Anche per questa ragione i floppy dovrebbero essere utilizzati solo per brevi periodi di tempo. Gli hard disk si trovano solitamente installati in maniera fissa all'interno dei computer e vengono utilizzati per l’immagazzinamento dei dati. Esistono anche hard disk rimovibili, in grado di contenere centinaia di Giga di dati. Gli hard disk sono molto affidabili, tuttavia viene sempre consigliata la creazione di copie di back-up dei dati immagazzinati in essi. LA STABILITA’ DEI SUPPORTI MAGNETICI La storia dei media magnetici è anche la storia del tentativo di ottenere una sempre crescente densità di dati. Questo è diventato possibile grazie alla progressiva riduzione delle dimensioni delle strutture magnetiche elementari e dei drive di lettura, che sono in grado di leggere informazioni sempre più piccole. Grazie a queste scoperte si è potuto registrare una quantità sempre maggiore di informazioni su 14 14 supporti sempre più piccoli. Il pericolo, comunque è che le informazioni diventino sempre più vulnerabili. La corretta lettura e registrazione delle informazioni sui moderni formati magnetici dipende in larga parte dalle condizioni fisiche del macchinario adibito alla registrazione dei dati, dal perfetto funzionamento del macchinario di riproduzione e da un supporto libero da fattori dai disturbo. I principali nemici della stabilità dei supporti magnetici possono essere riassunti in: • umidità e temperatura • deformazioni meccaniche • polvere e sporco in genere • campi magnetici interferenti L'umidità è il fattore più pericoloso, poiché, come abbiamo già visto può favorire il processo di idrolisi. Alti livelli di umidità possono incoraggiare la crescita di funghi e muffe, che intaccando la superficie magnetizzata dei nastri e dei floppy disk, può impedirne la corretta lettura. Le dilatazioni termiche dovute alla temperatura possono creare problemi, soprattutto per i nastri ad alta densità. La temperatura può anche influire sulla velocità dei processi chimici: più è alta, più questi sono rapidi; al contrario, un abbassamento li rallenta. Uno dei fattori più sottovalutati per una corretta conservazione dei dati registrati su media magnetici è l’integrità meccanica: anche deformazioni minime possono causare seri problemi nei processi di playback. Molta attenzione deve essere dedicata, comunque, anche al buon mantenimento dei macchinari di lettura che, se malfunzionanti, possono danneggiare, o addirittura distruggere supporti particolarmente delicati, come ad esempio i nastri DAT. Con tutti i 15 15 formati su nastro è importante che la sua superficie sia uniforme e liscia, così da evitare danneggiamenti ai bordi del nastro. Per questo sia le cassette, che le cartucce, che i floppy disk, dovrebbero essere sempre conservati in posizione verticale. Polvere e sporco possono impedire il contatto diretto tra le testine di lettura ed il nastro, condizione essenziale per una corretta restituzione delle informazioni, specialmente con i formati ad alta densità. Più alta è la densità dei dati, maggiore è l'attenzione che si deve prestare alla pulizia del nastro. Anche il comune fumo di sigaretta è formato da particelle grandi a sufficienza per nascondere informazioni sui moderni formati magnetici. Oltre agli inconvenienti meccanici causati da polvere, impronte digitali e fumo, anche l'inquinamento chimico causato dallo smog industriale può accelerare il deterioramento chimico. L'effettiva prevenzione di polvere ed altri tipi di sporco ed inquinamento è, dunque, un requisito indispensabile ad una corretta conservazione dei media magnetici. Infine, vi sono i campi magnetici interferenti che possono essere generati da sorgenti esterne e che potrebbero spostare l’inclinazione delle particelle magnetizzate sul nastro. Per loro natura, le registrazioni audio analogiche, incluse le tracce audio sulle cassette video, sono le più vulnerabili ai campi magnetici esterni. Le registrazioni video, e quelle digitali sono meno sensibili. Un ultimo fattore di cui tener conto è il cosiddetto “effetto copia”, che consiste nell’involontario trasferimento magnetico di ciò che è registrato in uno strato di nastro sulla spira adiacente. Il segnale che “stampandosi” si aggiunge a quello già presente nel nastro, si manifesta come un’eco della registrazione precedente, o come un’anteprima di quella successiva, entrambi ad un livello molto basso. L’effetto copia può essere dovuto a molti fattori: la temperatura elevata 16 16 può aumentarne gli effetti, che si intensificano pure con il passare del tempo. Anche un nastro sottile sarà più soggetto ad effetto copia rispetto ad uno di maggior spessore, mentre il numero dei riavvolgimenti influisce poiché ad ogni riavvolgimento si riduce questo effetto. 17 17 SUPPORTI OTTICI I supporti ottici sono usati per l'immagazzinamento di suoni digitali, immagini e dati. Esistono tre principali famiglie: • la comune famiglia dei CD di massa, includente i CD audio (sia da 12 che da 8 cm), i CD-ROM, i CD-V e i Video Disc • i dischi ottici e le cassette che possono essere registrati una sola volta • i dischi riscrivibili I dischi di produzione di massa della famiglia dei CD contengono informazioni digitali sotto forma di microscopici buchi su di una base di policarbonato ricoperta da uno strato riflettente. Questo strato riflettente è solitamente costituito da alluminio, ma talvolta vengono anche utilizzati l'argento e l'oro. Su questa superficie viene poi posta una barriera trasparente come protezione. Questa superficie funge anche da targhetta protettiva: una volta che le informazioni vengono impresse sul disco, esse non possono venir modificate o riscritte. Un CD di 12 cm di diametro può contenere in media 650 Mb di dati oppure un'ora di file audio. Per quanto riguarda il tempo di accesso alle informazioni siamo nell'ordine dei millesimi di secondo. Il primo disco di questa famiglia ad essere inventato fu il Laser Vision analogico video da 30 cm. Esso consisteva in due dischi attaccati insieme, così da formare un doppio strato, ognuno dei quali poteva contenere un'ora di video. Presto si aggiunse un sotto-formato in grado di contenere fino a 54000 immagini video per ogni lato. Il disco LV fu, tra molti tentativi fatti, quello più riuscito nel tentativo di aprire a questo genere di formati una strada commerciale, ma era destinato ad 18 18 essere soppiantato dal DVD, che fu lanciato nel 1997. Il DVD è concepito per contenere film o video, oppure testi e dati multimediali, come nel caso dei CD-ROM, di cui ha le stesse dimensioni (12 cm di diametro), ma con capacità di immagazzinamento molto maggiori: utilizzando infatti un laser con una lunghezza d'onda minore, è stato in grado di portare la sua capacità di immagazzinamento di dati fino a 4.7 GB. Inoltre, è compatibile con una struttura a doppio strato, ognuno letto da due laser con lunghezze d'onda differenti, fino ad una capacità di 9 GB. Sono inoltre allo studio formati che prevedono una registrazione a doppio strato su entrambi i lati del disco, portando così la capacità di memorizzazione fino a quasi 18 GB. I dischi scrivibili una sola volta possono essere di vari tipi. Il formato più diffuso è il CD registrabile (CD-R), in commercio sin dal 1993. Poiché ha le stesse dimensioni e capacità dei CD audio e dei comuni CD-ROM, il CD-R può essere letto nei lettori standard per CD. Il corpo del disco è ricoperto da uno strato di materiale organico (phtalocianina) che chimicamente è un polimero pigmentato dal comportamento simile all’emulsione fotografica. È questo lo strato che contiene le informazioni, cosa che nei normali CD è invece affidata ai fori microscopici. In fase di registrazione, gli impulsi ad alta intensità del laser, modificano la composizione molecolare della phtalocianina, variandone la capacità riflettente e simulando così la presenza dei fori. Una volta scritti, i dati non possono più venir modificati. I masterizzatori CD possono scrivere a diverse velocità e il CD-R ha il vantaggio di essere un formato molto diffuso e standardizzato. I CD-R sono i più diffusi esempi dei cosiddetti dischi WORM (Write Once, Read Many – scrivi una volta, leggi molte). 19 19 MEDIA OTTICI RISCRIVIBILI A differenza dei media ottici precedenti, i dati sui dischi ottici riscrivibili possono essere cancellati e riscritti molte volte. I dischi ottico-magnetici sono ancora quelli più diffusi in cui un raggio laser nella fase di scrittura riscalda lo strato interno del disco ottico ed in questo modo modifica la polarità. Un modo di registrazione più recente è il Phase-change, dove il supporto è coperto da una pellicola semimetallica, che può essere sia nello stato amorfo che cristallino. Un raggio laser in modalità di scrittura può cambiare i singoli punti sia da amorfi in cristallini che viceversa, riproducendo così la presenza dei fori dei CD. I dischi magneto-ottici hanno tempi di scrittura relativamente alti, dovuti al processo di riscaldamento della superficie prima di poter effettuare la modifica della polarizzazione dello strato magnetico e tempi di accesso in lettura relativamente brevi, in compenso risultano ad oggi fra i supporti che danno le maggiori garanzie di durata ed affidabilità, perchè protetti da un guscio esterno e esenti dalle interferenze magnetiche esterne. LA STABILITÀ DEI SUPPORTI OTTICI I principali fattori in grado di intaccare la stabilità dei supporti e la restituzione delle informazioni possono essere riassunti in: • umidità e temperatura • deformazioni meccaniche • polvere e sporco di ogni genere 20 20 Per alcuni tipi di supporto si aggiungono altri tipi di fattori: • luce • campi magnetici parassiti L'umidità, come nel caso di tutti gli altri supporti, è il fattore più pericoloso. Nel caso dei media ottici essa provoca l'idrolisi di alcuni componenti, quale ad esempio lo strato protettivo del CD e accelera la corrosione di tutti i componenti metallici, inclusi gli strati di metallo riflettente. Come effetto secondario, livelli di umidità molto alti incoraggiano la crescita di muffe e funghi che possono ostacolare la lettura della informazioni ottiche. La temperatura, come negli altri casi già affrontati, determina la velocità delle azioni chimiche di deterioramento. Inoltre, essa potrebbe provocare mutamenti delle dimensioni del disco, rendendo impossibile la lettura dei dati. L'integrità meccanica è indispensabile. Anche graffi, rigature e impronte digitali possono ostacolare la lettura. Piegature nel disco possono causare crepe microscopiche in grado di deviare il raggio laser. I CD vanno quindi maneggiati con molta cura, cercando di fare bene attenzione alla conservazione dell'integrità fisica. È da evitare infine l’esposizione alla luce del sole. 21 21 CAPITOLO SECONDO COS’È UN CODICE BINARIO Esistono molti codici di numerazione, quello a base 10, quello esadecimale a base 16; quello più piccolo è il binario, che dispone di due sole cifre: 0 e 1. Ogni simbolo viene comunemente identificato in un sistema binario con la parola bit, abbreviazione dall’inglese BInary digiT. Il sistema binario, come quello decimale è “posizionale” cioè la posizione delle cifre, partendo dalla meno significativa (a destra), rappresenta la potenza della base di numerazione: 10 nel caso decimale, 2 nel caso binario. Un numero binario formato da più cifre viene comunemente definito una parola, ed il numero di bit costituisce la lunghezza della parola stessa. Il sistema binario richiede di conseguenza più cifre rispetto ad un sistema decimale. A livello pratico, il sistema binario ben si adatta ad un impiego in campo elettronico dove è molto più semplice avere dispositivi simili ad interruttori, e dove le funzioni di “acceso” e “spento” possono essere rappresentate facilmente dalle sole due cifre da cui è composto il sistema binario stesso. Il grande vantaggio di questo sistema di rappresentazione dei dati sta nel fatto che le informazioni risultano immuni rispetto agli errori interpretativi. In gergo si dice che le informazioni sono più robuste. A spiegazione di ciò, la Figura 1 mostra come in un sistema binario ideale un segnale elettrico sia rappresentato mediante due soli livelli di tensione possibili: tensione alta per rappresentare lo stato 1 e tensione bassa per rappresentare lo stato 0. La B mostra la 22 modificazione subita dalla forma d’onda ideale dopo che è passata attraverso un sistema reale. Essa risulta considerevolmente alterata, ma l’informazione binaria può essere ricostruita paragonando la tensione con un livello di soglia impostato a metà fra i due livelli. In questo modo ogni segnale di livello superiore alla soglia viene interpretato come 1, mentre ogni segnale di livello inferiore come 0. Figura 1 Sistema elettrico binario COMPARAZIONE TRA ANALOGICO E DIGITALE Un segnale si dice analogico (continuo nel tempo) quando la sua rappresentazione nel dominio del tempo è una funzione che può assumere istante per istante uno qualsiasi degli infiniti valori di ampiezza compresi tra un valore minimo ed uno massimo prefissati. In un segnale digitale, invece, la rappresentazione nel dominio del tempo è una funzione che può assumere istante per istante solo alcuni valori di ampiezza compresi tra un valore minimo e uno massimo prefissati (non vi è continuità). 23 Per metterla in termini più semplici la differenza tra analogico e digitale corrisponde alla differenza tra una rappresentazione continua e una rappresentazione discreta di determinate grandezze2. Per comprendere meglio la differenza basterà pensare agli orologi: quelli analogici mostrano il passare del tempo attraverso il movimento continuo delle lancette, quelli digitali attraverso il “salto” da un numero all’altro sullo schermo. FUNZIONE CONTINUA FUNZIONE DISCRETA NEL TEMPO E NELLE AMPIEZZE QUANTO DI AMPIEZZA PERIODO DI CAMPIONAMENTO Figura 2 Rappresentazione di un segnale continuo e di un segnale discreto Il processo di digitalizzazione comporta sempre la suddivisione in unità discrete di un qualcosa che nella realtà è spesso continuo; ciò avviene attraverso la conversione di informazioni analogiche in informazioni numeriche, cioè digitali. I passaggi che conducono dalla rappresentazione continua di una forma d’onda ad una rappresentazione numerica sono due: il primo riguarda la misurazione del segnale ad intervalli regolari, e viene chiamato campionamento. Campionare (discretizzare nel tempo) significa prelevare i valori di un segnale analogico a intervalli di tempo finiti e generalmente uguali; l’intervallo tra due prelievi è il 2 Ciotti F, Roncaglia G. Il mondo digitale. Introduzione ai nuovi media, Roma-Bari, Laterza, 2000 24 periodo di campionamento, il suo inverso è la frequenza di campionamento. Ogni campione misurato viene poi rappresentato con una sequenza di numeri, processo chiamato quantizzazione. Con la quantizzazione si arrivano ad esprimere grandezze che variano in modo continuo attraverso valori discreti, effettuando un’operazione di approssimazione (per difetto o per eccesso) per ricondurre il valore misurato a quello più vicino sulla scala discreta. La Figura 3 mostra come una linea obliqua tocchi un infinito numero di valori di altezza, mentre una rampa a gradini sia in grado di esprimere solamente valori discreti, per quanto piccoli questi possano essere. Figura 3 Differenza tra misurazione analogica e misurazione digitale Nel campo dell’audio e del video i valori da quantizzare non sono altro che tensioni variabili nel tempo provenienti da una sorgente analogica. Per effettuare la quantizzazione di un singolo campione, si considera il segnale come costante all’interno dell’intervallo di campionamento. Le due variabili in gioco sono la frequenza di campionamento ed il numero di bit utilizzati per ogni campionatura. 25 Nell’audio digitale si procede al campionamento di un segnale analogico (misurando le tensioni istantanee di tale segnale, dunque effettuando una misurazione periodica), e convertendo questo segnale in “parole digitali” codificate, cioè in un segnale discreto. Il numero dei campioni audio per ogni secondo si chiama “frequenza di campionamento”, e si misura in Hz. Le schede audio professionali possono campionare a valori differenti, gli standard più diffusi sono i 44,1 kHz, 48 kHz e 96 kHz. Maggiore la frequenza, maggiore il numero dei campioni acquisiti, più ampia è la larghezza del segnale campionato. Un aspetto interessante riguarda la relazione che intercorre tra la frequenza di campionamento di un sistema e la sua banda passante complessiva enunciata nel teorema di Nyquist. Secondo tale teorema è possibile ricostruire correttamente un segnale continuo, variabile nel tempo, da una serie di valori digitali discreti quando questi sono stati presi con una frequenza di campionamento pari o superiore al doppio della massima frequenza contenuta nel segnale in input per codificare digitalmente la banda di frequenza desiderata, la frequenza di campionamento prescelta deve essere almeno due volte la massima frequenza registrata. Ne consegue che un segnale audio con banda passante di 20 kHz richiederà una frequenza minima di campionamento di 40.000 campioni al secondo. Per capire meglio come avviene la digitalizzazione del video bisogna fare una breve digressione sul segnale video analogico. Il segnale analogico video va identificato con una forma d’onda che ha una sua particolare forma ed è divisa in 625 parti3, che sono facilmente 3 Da qui in avanti si parlerà di segnale televisivo riferendosi esclusivamente al PAL. Esiste comunque anche il formato NTSC, fatto da 480 linee con una frequenza di 30 frame al secondo 26 identificabili e quindi si possono contare grazie ad una serie di impulsi di sincronismo che ne segnano l'inizio e la fine. Ciascuno di questi 625 pezzettini di onda (della durata di 64 microsecondi), contiene delle informazioni ed in particolare 576 pezzetti contengono l'informazione di una riga del nostro televisore, un paio contengono dei segnali di test, altrettante le informazioni del televideo, e le altre tutti quei sincronismi che permettono al televisore di sapere dove disegnare quella riga. Lo schermo televisivo analogico viene dunque misurato a linee, e non a punti come nel caso dei video digitali. Quelle che ci interessano, delle 625 righe del segnale Pal solo le 576 che contengono video; queste linee costituiscono un quadro, ma vengono divise in due semiquadri: il primo costituito dalle linee pari, il secondo da quelle dispari. L’aggiornamento del video viene fatto attraverso un pennellino elettronico, che scorre orizzontalmente lungo le linee ad una frequenza di 288 linee ogni 20 millisecondi. Durante il primo passaggio il pennellino effettua l’aggiornamento (detto refresh) delle linee dispari, nel secondo di quelle pari, poi ancora di quelle dispari, e così via. Si ottiene così l’invio di 50 semiquadri ogni secondo, per un totale di 25 frame al secondo; infatti il cambiamento totale delle 576 righe lo si ha ogni 40 ms. Ogni 20 ms cambiano solo la metà delle 576 righe (le 288 pari o dispari) e le altre vengono lasciate immutate; si parla pertanto di visualizzazione a 50 semiquadri al secondo. Il risultato di ciò è che in ciascuna di queste ipotetiche 25 fotografie al secondo del nostro televisore, le righe pari e le righe dispari provengono da istanti distanziati di 20 ms. Se prendiamo ad esempio poco prima dell’istante 40 ms sullo schermo avrò un semiquadro ripreso nell’istante 0 ed uno ripreso nell’istante 20 ms. Le conseguenze sono abbastanza semplici da intuire: tutti gli oggetti che tra gli istanti 0 e 20 ms si sono mossi, 27 lasciano sulle righe pari la loro immagine dell’istante 0 e su quelle dispari la loro immagine dell’istante 20 ms: l’effetto è una discontinuità dei contorni, tanto maggiore quanto maggiore il loro movimento. Ovviamente gli oggetti fermi rimangono nella stessa posizione e non lasciano nessuna discontinuità. Al momento di ricostruire il frame digitale un chip nella ADC converte il segnale analogico della linea in un segnale digitale. Il processo di digitalizzazione avviene come nell’audio, ed anche in questo caso il teorema di Nyquist è da considerarsi valido; ma poiché il video viaggia su frequenze molto più ampie rispetto a quelle su cui viaggia l’audio, si richiederà una frequenza di campionamento molto maggiore. Nel caso si stia campionando il segnale a 288 pixel, le schede digitalizzatrici non fanno altro che ignorare uno dei due semiquadri. Visivamente la differenza non sta tanto nella diminuita risoluzione, quanto nella perdita di fluidità, poiché è ignorata un’immagine su due. La ricostruzione del frame viene poi ottenuta di nuovo effettuando delle interpolazioni, quali ad esempio il deinterlacciamento. Nelle videocamere invece la lettura digitale dell’immagine viene fatta attraverso un sensore, denominato CCD, che “legge” l’immagine e ne analizza la componente cromatica e luminosa per ogni pixel. La successiva riproduzione dei colori avviene tramite il mescolamento additivo sullo schermo dei tre colori primari: il rosso, il verde ed il blu. Il display deve dunque disporre di tre segnali, ognuno corrispondente ad uno di questi tre colori. L’apertura del video al mondo digitale apre una serie di possibilità che erano prima impensabili con la tecnologia analogica. Correzioni di errori, compressioni, interpolazioni, sono concetti difficili o addirittura impossibili da applicare al mondo analogico: 28 una volta che il video è stato acquisito in formato digitale, esso è diventato un insieme di dati, e come tale può essere manipolato. COMPRESSIONE VIDEO E CODIFICA MPEG La compressione video è una specifica applicazione della tecnica di compressione dei dati, secondo cui un segnale che può essere interpretato come una serie di numeri (sia esso un flusso di parole, di numeri o di immagini) viene “schiacciato”, dunque compresso, in un insieme numerico più piccolo. Questa seconda serie di numeri pesa meno, quindi occupa meno spazio su disco ed impiega meno tempo per essere trasferita via rete. La serie di numeri, prima di essere letta deve essere di nuovo decompressa in un segnale simile a quello originale. La compressione video è considerata un algoritmo “con perdita” (lossy, in inglese), in quanto una parte di informazione dell’immagine originaria viene necessariamente scartata: le serie numeriche che vengono ricostruite non combaciano perfettamente con l’originale. Questa perdita di informazione è accettabile finché si tratta di una non perfetta definizione dei dettagli nell’immagine compressa: la misura dell’efficacia di un algoritmo sta quindi nel livello di compressione a cui l’algoritmo può arrivare con la minima perdita o distorsione. Nella loro forma originaria, i video digitali soffrivano molto le grandi quantità di dati a causa del bit-rate eccessivamente alto per i mezzi di memorizzazione e per i canali di trasmissione attualmente disponibili. Nelle telecomunicazioni digitali, il bit-rate è il numero di 29 bit trasmessi in un'unità di tempo – in genere il secondo. Viene quindi misurato in Kbit/s o Kbps. L'informazione video, nella forma digitale, porta però molti vantaggi: affidabilità di trasmissione, alta qualità, notevole flessibilità di applicazioni. Un segnale televisivo PAL, digitalizzato a 8 bit, richiede un bit-rate di quasi 200 Mbit/s, mentre un segnale in alta definizione richiede circa 1 Gbit/s; i mezzi di memorizzazione attualmente disponibili (CD-ROM, DAT) danno invece un bit-rate di circa 1.5 Mbit/sec. Per ottenere un bit-rate a questi livelli si rende necessaria una compressione dei dati video, così da ridurre significativamente il peso dell’informazione cercando di mantenere moderata la perdita di qualità dell’immagine. Proprio a causa della grande importanza che rivestono le tecniche di compressione, la loro standardizzazione è diventata un problema di fondamentale importanza, poiché soltanto in questo modo è possibile ridurre gli alti costi delle apparecchiature di compressione delle immagini e risolvere il problema della connessione tra apparecchiature realizzate da costruttori diversi, favorendo così la diffusione di questo tipo di dati. Per questi motivi l'ISO (International Organization for Standardization) si è assunta il compito di sviluppare uno standard per la memorizzazione di video digitali, e dell'audio ad essi associato, su dispositivi come CD-ROM, DAT, nastri, dischi ottici, ecc. e per la trasmissione di questi video nei vari canali di telecomunicazione (reti ISDN, LAN, MAN, ecc.) ed ha così creato nel 1991 il Moving Pictures Experts Group (MPEG appunto, che fa parte dell'ISO-IEC/JTC1/SC2/WG11). 30 Il problema principale nella realizzazione dell'algoritmo MPEG è la volontà di garantire la possibilità di effettuare un accesso casuale, cosa che si realizza meglio se si codificano le immagini in modo indipendente, ma allo stesso tempo non è possibile raggiungere un'elevata compressione delle immagini che compongono la sequenza video codificandole ognuna in modo indipendente dalle altre. Per conciliare queste due opposte richieste, l'algoritmo MPEG realizza una codifica in cui vengono mantenute alcune immagini codificate in modo indipendente dalle altre, quindi poco compresse ma che garantiscono la possibilità di accesso casuale; le restanti immagini vengono ricavate da queste attraverso una predizione del moto, oppure mediante interpolazione tra più immagini. L'attività dell'MPEG copre la compressione dei dati video, la compressione dei dati audio (in quanto ad una sequenza video è generalmente associato dell'audio) ed inoltre si occupa anche della sincronizzazione audio-video. Per la compressione dei dati è necessario ridurre le informazioni da memorizzare, quelle che devono innanzitutto essere eliminate sono: • I dati ripetuti in uno stesso frame: in un fotogramma pixel vicini hanno caratteristiche di luminosità e colore simili. Il compressore sintetizzerà quindi queste informazioni, eliminando la ridondanza spaziale. • I dati ripetuti in fotogrammi adiacenti: in frame successivi c’è buona possibilità, se non si tratta di scene differenti o particolarmente veloci, di trovare zone d’immagine con colori e luminosità simili (o uguali), per cui il compressore video accorperà questi dati, eliminando la ridondanza temporale. • I dati di componenti del filmato non percepibili dall’occhio umano: i valori di colore e luminosità dell’immagine (che viene 31 elaborata scomponendola in piccoli blocchi quadrati di pixel, solitamente 16x16 o 8x8) vengono convertiti nei corrispondenti valori di frequenza video attraverso una funzione matematica, chiamata DCT. Poiché non sono percepibili generalmente le alte frequenze delle scene animate (ad es. spostamento rapido di fumo, fronde, piccoli oggetti, etc.), queste possono essere eliminate attraverso la quantizzazione; una maggiore quantizzazione causerà più perdita di informazioni e quindi peggiore qualità. SISTEMI DI COMPRESSIONE VIDEO Compensazione di moto I codificatori video sono in genere classificati in base al fatto d'essere o meno predittivi, oppure per il modo in cui eseguono la compressione dei dati. Nel campo delle comunicazioni video digitali il tipo attualmente più usato è il codificatore ibrido, basato sulla tecnica DPCM (Differential Pulse Code Modulation). Il DPCM è uno schema di codifica predittivo, in quanto il frame attuale viene predetto basandosi su quello precedente. La maggior parte dei fotogrammi di una sequenza è in genere molto simile, le differenze fra un fotogramma ed il successivo solitamente sono dovute solo a traslazioni di parti di esso. Ha quindi senso pensare di evitare di trasmettere le parti che non sono cambiate e di trasmettere, per quelle che si sono spostate, solo il verso e l'entità dello spostamento. In genere la predizione coincide con una compensazione di moto (Motion Compensation) del frame precedente: nella compensazione 32 di moto viene utilizzato il vettore di moto (Motion Vector) per trovare lo spostamento tra un'immagine e la successiva. Il vettore di moto è una grandezza bidimensionale che ci fornisce, per ogni punto dell'immagine corrente, lo spostamento rispetto alla posizione di riferimento; tali vettori sono generalmente realizzati sulla base di blocchetti di pixel di dimensione fissa (generalmente 8x8 oppure 16x16). Presumendo dunque in questa tecnica che l'immagine attuale possa essere trovata tramite una traslazione di una immagine precedente; informazioni le informazioni sul necessarie alla moto saranno ricostruzione parte delle dell'immagine in decodifica. In questo caso, l'errore di predizione viene detto differenza di frame spostata (Displaced Frame Difference, DFD); la DFD viene anch'essa codificata, insieme ai vettori di moto. La sequenza da codificare è suddivisa in gruppi di immagini, detti GOP (Group Of Pictures); un GOP è un insieme di immagini in ordine contiguo di visualizzazione e contiene tre tipi di fotogrammi: fotogrammi che vengono codificati singolarmente senza nessun riferimento ad altri (Intraframes o I frames), fotogrammi che vengono predetti sulla base di un frame di tipo I (Forward predicted frames o P frames), e fotogrammi che vengono ottenuti interpolando fra un frame I ed un frame P (Bidirectional frames o B frames). In MPEG quindi la predizione di un fotogramma può essere fatta considerando sia la storia passata (I frames) che quella futura (P frames), il processo è schematizzato nella Figura 4: in sostanza come primo passo viene generato un frame I, considerato come una singola immagine fissa. Per il calcolo del motion vector e la predizione del frame P si considerano i punti all'interno di blocchi 16x16 (macroblock) nel canale di luminanza Y e nei corrispondenti blocchi 8x8 nei canali di crominanza U e V. Per ognuno di questi 33 blocchi si cerca quello che ad esso si avvicina di più nell'ultimo frame I o P inviato, il verso e la direzione fra questi due blocchi identificano il motion vector. Figura 4 Interpolazione MPEG tra più frame Se si riesce ad individuare il motion vector, per specificare il blocco nel frame P che stiamo codificando basterà indicare, oltre ovviamente al motion vector stesso, la differenza fra i punti dei due blocchi in esame. Una volta codificato un frame I ed uno P si possono codificare i frame B compresi fra essi. Allora si esaminano i macroblock dei fotogrammi compresi fra il frame I e quello P cercando per ogni blocco quello a lui più simile nel frame I (quindi indietro nel tempo), quello più simile nel frame P (quindi avanti nel tempo) oppure cercando di fare una media fra il blocco più simile nel frame I e quello più simile nel frame P e sottraendo a questa il blocco da codificare. Se con nessuno di questi tre procedimenti si ottiene un risultato soddisfacente si può sempre codificare il blocco come se facesse parte di un frame I ovvero senza riferimenti ai blocchi precedenti o futuri. Quindi otteniamo logicamente una sequenza di frame del tipo : I B B P B B P B B P B B I B B P B B P B B P B B I ... 34 in cui ci devono essere al massimo 12 frame fra un frame di tipo I ed il successivo, mentre la successione di frame P e B è libera. Naturalmente, visto che per poter decodificare i frame B occorre conoscere già il frame P successivo, la sequenza dei frame che vengono inviati dopo la codifica è diversa da quella logica. Quindi le operazioni che si compiranno leggendo un flusso MPEG saranno sostanzialmente queste : 1)Lettura e decodifica del frame I(t=0) 2)Lettura e decodifica del frame P(t=3) visualizzazione frame I(t=0) 3)Lettura e decodifica del frame B(t=1) visualizzazione frame B(t=1) 4)Lettura e decodifica del frame B(t=2) visualizzazione frame B(t=2) 5)Lettura e decodifica del frame P(t=6) visualizzazione frame P(t=3) 6)Lettura e decodifica del frame B(t=4) visualizzazione frame B(t=4) 7)Lettura e decodifica del frame B(t=5) visualizzazione frame B(t=5) 8)Lettura e decodifica del frame P(t=9) visualizzazione frame P(t=6) 9) ... Trasformata Discreta Coseno (DCT) Dopo la compensazione di moto, per ridurre ancor più le dimensioni del filmato digitale, viene effettuata la Trasformata Discreta Coseno. La DCT è una trasformazione che si adatta particolarmente bene al caso delle immagini, per l'efficienza della compressione ottenibile e per la mancanza di componenti immaginarie nello spettro ottenuto. L'immagine viene divisa in blocchi di dimensione fissa (solitamente blocchi di 8x8 pixel) e la DCT viene effettuata sulla base di tali blocchi. Il vantaggio dell'utilizzo della DCT consiste nel fatto che, per un blocco di un'immagine tipica, l'energia è concentrata alle 35 frequenze più basse; dopo la DCT viene effettuata una quantizzazione e, essendo l'occhio umano meno sensibile alla quantizzazione delle alte frequenze, quest'ultime possono essere quantizzate con un passo più largo, permettendoci così di realizzare una notevole compressione dei dati. In decodifica si utilizza la trasformata inversa IDCT, per passare dai valori quantizzati delle frequenze spaziali ai valori spaziali dei pixel. Codifica del colore Uno dei metodi più usati nella codifica cromatica è l'RGB, in cui ogni colore è espresso additivamente mediante le sue componenti di rosso (R), verde (G) e Blu (B). Ovvero: c=R+G+B per la resa finale del colore vengono sovrapposti i tre differenti livelli di campionamento, aventi ognuno il medesimo spettro. Questa codifica viene utilizzata nei casi in cui è richiesta una qualità elevata, ma è un sistema che richiede una grande quantità di dati. Il pixel non è più un singolo numero rappresentante un valore scalare di luminosità, ma un vettore che descrive la luminosità, la tonalità e la saturazione di quel punto dell’immagine. Il pixel contiene dunque tre numeri rappresentanti le proporzioni di ognuno dei tre colori primari in quel punto dell’immagine. Uno degli svantaggi di questo metodo sta nel non tener conto che l'occhio umano è più sensibile al verde, meno al rosso e ancor meno al blu. Inoltre, la capacità dell'occhio di risolvere i dettagli è maggiore al centro dello spettro visibile, e minore ai lati. Di 36 conseguenza, il sistema RGB riproduce accuratamente dei dettagli che l'occhio umano non è poi in grado di percepire. Per questa ragione conviene utilizzare un altro formato cromatico, come l'YUV, in cui R, G e B vengono uniti in un unico segnale Y (luminanza) che necessita di piena frequenza e due di crominanza (U e V), che ne indicano la tinta e la saturazione. Poiché, come ho già spiegato, gli oggetti verdi producono uno stimolo maggiore, a parità di luminosità, di quelli rossi e ancor più rispetto a quelli blu, è necessario che nel segnale Y le tre componenti R, G e B siano combinate con i dovuti pesi, che vanno attribuiti in base alla risposta visiva dell’occhio umano. Pertanto si ha: Y = 0.299 R + 0.587 G + 0.114 B Le componenti di crominanza possono essere codificate con una risoluzione minore della luminanza senza un degrado apprezzabile delle immagini. Si può risparmiare sull’ampiezza del segnale utilizzando delle differenze di colori: l’occhio umano infatti dipende dalla luminosità per distinguere i dettagli, ciò comporta una necessità minore di informazione per i colori. La matrice produce anche due differenti segnali-colore: R-Y e B-Y. Questi segnali non hanno bisogno della stessa ampiezza di Y poiché l’acutezza dell’occhio non si estende alla visione del colore. In questo sistema, denominato YUV, ogni pixel contiene ancora tre numeri, come nell’RGB, ma uno di questi è un numero rappresentante la luminanza, mentre gli altri due segnali contengono la differenza di colore, e richiedono dunque meno ampiezza; questo si traduce nella possibilità di utilizzo di bande minori. 37 SPECIFICHE PER L’MPEG VIDEO Dato che nella commissione ISO di MPEG sono rappresentati vari segmenti di industrie che si occupano del trattamento dell'informazione, il sistema proposto deve includere diverse applicazioni; per questo si dice che MPEG è uno standard generico. Questo significa che lo standard non dipende dalle particolari applicazioni, anche se non ignora le specifiche che ognuna di queste richiede; uno standard generico possiede tutte le caratteristiche che lo rendono universale, ma ciò non significa che queste caratteristiche debbano essere utilizzate allo stesso tempo da ogni applicazione. Le seguenti applicazioni sono alcune di quelle identificate come necessarie per soddisfare le richieste delle applicazioni di MPEG. • Accesso casuale. Si tratta di una funzione essenziale sia per la memorizzazione su mezzi che permettono l'accesso casuale, come i CD-ROM ed i dischi magnetici, che per la memorizzazione su mezzi ad accesso sequenziale, come i nastri magnetici. L'accesso casuale richiede che i dati video compressi siano accessibili al loro interno e che ogni frame video sia decodificabile in un tempo limitato; questo comporta l'esistenza di punti di accesso, cioè di segmenti di informazione decodificabili in modo autonomo (ad esempio frame video la cui decodifica non richieda le informazioni contenute nei frame precedenti o successivi). L'accesso casuale in circa 0,5 secondi dovrebbe essere possibile senza eccessiva degradazione di qualità. • Avanzamento veloce avanti/indietro. 38 Se il mezzo di memorizzazione lo permette, dovrebbe essere possibile la scansione dei dati compressi e, utilizzando punti di accesso appropriati, mostrare immagini selezionate, per ottenere un effetto di riavvolgimento e di avanzamento veloce. Questa caratteristica è una richiesta più restrittiva di quanto non sia l’accesso casuale, che si adatta bene a mezzi di memorizzazione come i nastri magnetici. • Riproduzione all’indietro. Le applicazioni interattive possono richiedere che il segnale possa essere letto all'indietro. Mentre non è necessario che tutte le applicazioni mantengano alta qualità o che abbiano questa funzione, si considera che la riproduzione all'indietro dovrebbe essere possibile anche senza eccessivo uso di memoria. • Sincronizzazione audio/video. Il segnale video dovrebbe poter essere sincronizzato con una sorgente audio associata. Deve essere previsto un meccanismo per ripristinare il sincronismo tra i due segnali se questi provengono da sorgenti con diverse frequenze di clock. In questo caso si usano dei frame-paletti (i cosiddetti keyframe), utilizzati come punti di aggancio tra audio e video, che, con periodicità sincronizzano le due tracce. • Montaggio. Deve essere possibile costruire unità di montaggio di breve durata, le quali sono codificate solo in riferimento a se stesse, in modo da ottenere un livello accettabile di libertà per il montaggio. • Robustezza. La maggior parte dei mezzi di memorizzazione e dei canali di trasmissione non sono esenti da errori e questo richiede una appropriata codifica di canale in tutte le applicazioni. Allo stesso modo è necessaria una codifica di sorgente abbastanza 39 robusta, in modo da evitare errori che non potranno essere più corretti. Fino ad oggi sono state proposte varie versioni per lo standard MPEG, alcune delle quali sono ancora in via di sviluppo. MPEG-1: progettato per la codifica di immagini in movimento e per l'audio ad esse associato, in forma digitale, con un bitrate che arriva fino a circa 1.5 Mbit/s. (International Standard IS-11172, completato nell'ottobre del 1992). MPEG-2: progettato per la codifica generica di immagini in movimento e audio ad esse associato. Il concetto che sta alla base di MPEG-2 è simile a quello di MPEG-1, ma include estensioni anche per una più ampia varietà di applicazioni. L'applicazione primaria è la trasmissione a qualità televisiva CCIR 601 con un bitrate tra 3 e 10 Mbit/sec, ma successivamente è stato trovato che la sintassi di MPEG-2 può essere efficiente anche per applicazioni che richiedono un bitrate maggiore (come HDTV). (International Standard IS13818, completato nel novembre del 1994). MPEG-3: confluito in MPEG-2. MPEG-4: progettato per la codifica audiovisiva a bassissimo bitrate. Esistono in commercio alcuni apparecchi e programmi che operano con sequenze video digitali, che utilizzano o prevedono la compressione video tramite MPEG; lo sviluppo di nuove tecnologie rende inoltre possibile includere queste funzioni in microprocessori, permettendo così l'elaborazione direttamente da computer. Lo 40 standard MPEG definisce infatti il processo di codifica, non il codificatore; per questo motivo esistono diversi modi possibili per implementare il codificatore e lo standard non ne suggerisce nessuno in particolare. Un codificatore MPEG produce un bitstream MPEG che può essere decodificato da qualunque decodificatore con caratteristiche analoghe. La libertà di implementazione di un codificatore risiede nel modo in cui viene effettuata la stima del moto, in come viene fatta la compensazione di moto ed è in questo ambito che si svolge la competizione tra le maggiori aziende produttrici di codificatori MPEG. PERCHÉ IL DIGITALE Sono vari i motivi che possono spingere a preferire il dominio digitale rispetto a quello analogico. La scelta deve essere fatta in base agli scopi che uno si propone. Nel nostro caso l’utilità della digitalizzazione sta nella possibilità di compiere operazioni che non erano prima possibili in analogico. Una rappresentazione di tipo analogico risponde meglio alla natura di gran parte dei fenomeni, ma il dominio digitale produce una quantità di vantaggi che i mezzi analogici sono ben lontani dal realizzare. Per quanto anche prima fosse possibile applicare filtri di modifica del segnale (come i filtri notch), con il digitale le possibilità di intervenire sul materiale e modificarlo, eliminando rumori e fastidi sono cresciute di molto. 41 I rumori risultavano difficili da isolare, ed eventualmente da eliminare, data l’impossibilità di analizzare lo spettro per identificare su quali frequenze nidificasse il disturbo. Un discorso analogo per le distorsioni. È una caratteristica dei sistemi analogici quella di non permettere di lavorare liberamente e separatamente sulle varie frequenze del segnale originale, con il digitale si possono fare cose che fino a pochi anni fa parevano impossibili. Anche l’accesso ai dati ha subìto importanti modifiche: il nastro è un supporto lineare, ed è necessario attendere che la cassetta si avvolga fino alla parte desiderata del nastro, al contrario, in un hard disk, il tempo di accesso ai dati è decisamente più rapido. Questo viene nominato accesso non lineare, ed il risvolto più interessante riguarda sicuramente il montaggio video, in cui i sistemi non lineari hanno ormai quasi completamente soppiantato i sistemi lineari. Inoltre, quando sottoponiamo un segnale analogico ad una serie di operazioni e trasferimenti, alla fine di tale processo esso presenterà la somma di tutte le impedenze accumulate ad ogni passaggio attraverso cui esso è passato. Di conseguenza il numero di passaggi e di operazioni cui un segnale analogico può essere sottoposto deve essere il più limitato possibile. Se molti passaggi sono obbligatori, bisogna assicurarsi che essi risultino meno distruttivi possibile, ciò comporta una cura particolare per i vari macchinari e per le operazioni da compiere. Nel dominio digitale questo problema non esiste, poiché trasferire il documento non significa altro che “clonare” una sequenza numerica. Se la copia risulta indistinguibile dall’originale, si può facilmente concludere che non è avvenuta alcuna perdita di informazione. E le registrazioni digitali possono essere copiate indefinitamente senza perdita di qualità. 42 Se si è interessati solamente alla qualità delle immagini una buona qualità di conversione è più che sufficiente; tutti gli inconvenienti della registrazione e della trasmissione analogici potranno essere facilmente eliminati. Rumori del nastro, impronte digitali, dropout e simili appartengono ormai alla storia. La realizzazione di filmati analogici non consente infatti di archiviare un numero elevato di animazioni ed accedere in maniera efficiente alla singola animazione o singolo fotogramma. Soprattutto, malgrado le reti di trasmissione abbiano avuto un notevole sviluppo, non è tuttora possibile trasmettere attraverso di esse animazioni e filmati di buona qualità e questo rende difficile la collaborazione fra gruppi di persone in differenti aree geografiche. Lo standard MPEG consente una efficiente compressione di una sequenza di immagini permettendone quindi la memorizzazione, in formato digitale, sugli attuali supporti magnetici ed ottici e la trasmissione attraverso reti digitali. Un altro punto di forza della tecnologia digitale sono i costi piuttosto contenuti: se è vero che l’operazione di replica non comporta cadute di qualità, è anche vero che tale operazione non richiede macchinari particolarmente costosi. Tanto meno occorrono lettori di nastri di grosse dimensioni, come nel caso dei lettori analogici professionali. I computer sono ora disponibili a costi accessibili grazie alla grande produzione di massa, ed i dischi e le memorie utilizzate nei computer possono essere utilizzate anche per prodotti video. Con l’incremento della potenza dei processori è ora possibile effettuare sotto il controllo dei software operazioni che prima richiedevano hardware dedicati. 43 Di conseguenza i computer stanno arrivando sul mercato a competere con i sistemi dedicati professionali, fornendo in molti casi parità di prestazioni a costi minori. Il fatto che l’informazione sia tradotta in una sequenza di numeri discreti, apre alla possibilità di “impacchettarla” su supporti ad alta densità senza intaccare minimamente la qualità dell’informazione. A parità di qualità le registrazioni digitali richiedono molto meno spazio di quelle analogiche, ed i costi sono anche minori. I circuiti digitali hanno costi di produzione minori. E su uno stesso chip possono essere inserite più funzionalità. I circuiti analogici sono costituiti da un insieme di componenti di diverso tipo, dalle forme e dimensioni differenti e che richiedono alti costi per l’assemblaggio e la riparazione. I circuiti digitali usano componenti standardizzati, facili da assemblare ed economici da aggiustare. I macchinari digitali possono contenere al proprio interno programmi di auto diagnosi. Inoltre grazie al digitale si possono trasmettere dati video e audio a distanze indefinite senza alcuna perdita di qualità. Tecnologie come l’ADSL permettono a segnali video compressi di viaggiare attraverso una normale linea telefonica fino al consumatore. Ci sono anche degli inconvenienti, che vanno comunque considerati nel passaggio dal dominio analogico al dominio digitale: nei documenti digitali è più facile che l’informazione diventi fisicamente e logicamente “inaccessibile” rispetto ai documenti analogici. L’informazione digitale può essere sottoposta a forti rischi di scomparsa a causa sia dell’obsolescenza di hardware e software, sia al deterioramento fisico dei contenitori dell’informazione in formato numerico; tra questi, i più comuni sono sicuramente i cd-rom. Basta 44 un piccolo graffio infatti per compromettere totalmente la lettura di un disco, rendendo inaccessibili i dati contenuti al suo interno. È dunque opinione comune che il patrimonio documentario in formato elettronico possa andare disperso, in mancanza di precisi piani di conservazione, e che si arrivi a una perdita di tutto ciò che è stato prodotto in forma digitale, o che è stato convertito dal formato analogico a quello numerico: molti studiosi sono scesi in campo per analizzare questa situazione e trovare i compromessi più idonei ad un problema che appare davvero cruciale per la nostra epoca. 45 CAPITOLO TERZO PREMESSE AL LAVORO DI DIGITALIZZAZIONE Le competenze necessarie ad affrontare un riversamento come quello eseguito all’interno del progetto “Archivio Digitale Giuliano Scabia”, in cui c’è anche un processo di digitalizzazione, vanno dall’aspetto storico, relativo alle tecniche impiegate in passato e ai differenti tipi di supporto, a questioni prettamente tecniche, quali la comprensione dei processi di digitalizzazione e compressione. Sono queste infatti le basi da cui partire per poter affrontare un lavoro in cui non esistono parametri che, se seguiti, garantiscano risultati ottimali: ogni caso determina delle condizioni e delle priorità specifiche, che come tali devono essere affrontate e trattate. Le problematiche maggiori si hanno nel trasferimento di dati dal dominio analogico a quello digitale. Se ci si trova davanti ad un archivio omogeneo si può procedere ad una scelta degli apparecchi adatti a quel tipo di registrazione. Se però l’archivio è disomogeneo occorre una strumentazione differenziata per quante sono le tipologie di supporto, e a volte queste possono essere molto rare e difficilmente reperibili sul mercato. Nei casi più delicati e complessi bisogna essere pronti ad acquisire nozioni e competenze più specifiche che raramente si prendono in considerazione. Una volta scelti i macchinari, occorre stabilire le modalità di acquisizione, che vanno definite in base alla qualità del materiale. Tendenzialmente i filmati si presentano in discreto stato di conservazione se si ha a che fare con registrazioni o documentari professionali, in particolare se recenti; nel nostro caso però una gran 46 46 parte dei documenti risalgono agli anni Sessanta o Settanta, e sono stati girati in analogico, oppure, come nel caso di Baccanti I la registrazione è stata effettuata da mani amatoriali. Queste registrazioni hanno comunque un’importanza documentaria notevole, trattandosi spesso delle uniche testimonianze degli spettacoli del professor Scabia. In questi casi il presupposto principale è quello di salvare il salvabile, laddove il concetto di “salvabile” è da estendersi a tutto ciò che si è in grado di acquisire nella maniera migliore possibile con la tecnologia di cui si dispone in un determinato momento. Dovendo operare sul materiale oggi, bisogna assicurarsi la migliore risoluzione, la migliore qualità e, importantissimo, la migliore replicabilità possibile dell’archivio una volta digitalizzato. È necessario, in sostanza, concepire come definitivo il lavoro di riversamento che ci si appresta a condurre, anche perché non sarebbe economicamente vantaggioso pensare di riacquisire ogni tre o quattro anni un intero archivio e rioperare una duplicazione. Una volta acquisito il materiale bisogna porsi il problema di come rinnovarlo nel tempo, secondo i mutamenti imposti dal mercato e dallo sviluppo. Oggi le tecnologie di memorizzazione digitale stanno subendo notevoli cambiamenti, i tempi con cui si passa da un sistema all’altro si riducono sempre di più; questo compromette la sopravvivenza e la stabilità di supporti e tecnologie che a distanza di pochi anni potrebbero diventare obsolete. L’ambito analogico aveva subìto un’evoluzione tecnica tutto sommato abbastanza lenta; le tecnologie digitali invece seguono un’evoluzione molto più rapida. Inoltre le innovazioni rappresentano un fattore ad alto rischio, poiché spesso occorrono tempi abbastanza lunghi perché una tecnologia diventi efficiente a sufficienza da imporsi sul mercato. Questo si verifica per l’hardware, ma è molto più frequente e repentino per il software, dove il 47 47 mercato è fortemente condizionato da esigenze legate alle tecnologie più in voga in quel momento; tra le conseguenze di questo meccanismo c’è purtroppo la possibilità che sistemi inefficienti siano più diffusi e conosciuti di altri sicuramente migliori. Dovendo scegliere, il fattore di decisione può essere dato dal numero di produttori che aderiscono allo standard considerato. A questo si ricollega l’importanza di una buona acquisizione: digitalizzare i materiali analogici alla migliore qualità possibile e senza compressione permetterà di intervenire sul materiale stesso con algoritmi di restauro o, nel caso dell’audio, di riduzione del rumore di fondo, in un secondo momento, quando questi saranno più efficienti di quanto non siano adesso. Ogni anno aumentano a dismisura le potenzialità e la qualità di questi strumenti; applicazioni migliorative che oggi sembrano scontate erano impensabili solo pochi anni fa. Anche gli algoritmi di compressione sono in continua e rapida evoluzione. Un algoritmo di compressione è una tecnologia che manipola i dati per far sì che questi occupino meno spazio; soprattutto con lo sviluppo e la diffusione delle tecnologie legate a Internet questa operazione diventa sempre più necessaria e irrinunciabile. Termini come Mpeg o di Mp3 sono ormai entrati nel linguaggio comune; essi fanno riferimento a degli algoritmi dei quali si conoscono il funzionamento e le proprietà tecniche, si sa che hanno una perdita di qualità rispetto all’acquisizione ad alta risoluzione e che soprattutto sono dei processi irreversibili. Riversare un archivio utilizzando algoritmi di compressione vuol dire decidere deliberatamente di rinunciare ad una certa quantità di informazioni, questo può rivelarsi utilizzabile nel caso si volesse replicare un archivio per metterlo a disposizione degli utenti, ma per avere una digitalizzazione professionale ed efficiente bisogna evitare quanto più è possibile di comprimere il materiale, anche perché, 48 48 come detto, fra dieci anni potremo sicuramente disporre di algoritmi migliori di quelli che conosciamo adesso. Il rovescio della medaglia sta nel fatto che non comprimendo si presenterà il problema della quantità di spazio che occupano ore e ore di acquisizioni ad alta qualità. Possiamo concludere che in definitiva non si è mai al sicuro con i supporti tecnologici, nel senso che nessun supporto garantisce l’assoluta affidabilità. Si richiedono una serie di operazioni complesse e piene di variabili in cui emerge però un fattore costante e di grande aiuto che è lo studio meticoloso del materiale che si riversa. Conoscere il valore e la destinazione del proprio lavoro è il punto di partenza per la scelta dei metodi, delle attrezzature e per ottimizzare il tempo di lavoro. I MACCHINARI UTILIZZATI Per effettuare il riversamento e l’acquisizione di tutti i materiali del progetto, ci siamo dovuti servire di più macchinari, necessari per riprodurre la quantità di formati differenti su cui erano conservati i materiali. L’acquisizione dei materiali analogici deve essere fatta in tempo reale, poiché il materiale riprodotto deve essere digitalizzato in tempo reale. Per fare ciò tutti i macchinari di riproduzione analogica sono stati collegati con la Canopus ADVC-300, in grado di digitalizzare il segnale analogico, rendendolo così acquisibile dal computer trasmettendolo mediante connessione FireWire. La prima cosa da fare è stata il controllo del cablaggio: i macchinari devono essere collegati correttamente ed in maniera funzionale, poiché ogni malfunzionamento si riflette poi sulla qualità del materiale acquisito. Bisogna assicurarsi che i cavi siano in buono stato, e che, nel dominio analogico, consentano 49 49 una larghezza di banda del segnale che permetta la corretta trasmissione dei dati. Nel dominio digitale questo problema non si è posto, poiché un cavo FireWire consente un bit-rate di trasmissione di 400Mbps oppure di 800Mbps, grandezze che sono entrambe ampiamente maggiori dell’ampiezza del flusso di uscita di un lettore digitale. Per la lettura dei nastri MiniDv e DVCam abbiamo usato una DSR 45/45P della Sony, collegabile direttamente via FireWire con la ADVC-300. Quando è possibile una connessione di questo tipo è sempre preferibile, poiché all’alta qualità di trasmissione del segnale il cavo FireWire aggiunge la possibilità del controllo remotato della macchina. Per la riproduzione dei nastri VHS ed Hi8 ci siamo serviti di un registratore Sony EV-T2, in grado di riprodurre entrambi i formati ed in grado però si supportare solamente una connessione di tipo composito, dunque a bassa qualità. La lettura dei nastri DAT è stata effettuata su un lettore PCM R300 della Sony, con un collegamento mediante cavi S/PDIF. La ADVC-300 è stata connessa al sistema Macintosh G5 con un collegamento FireWire. Una volta digitalizzato il materiale è diventato acquisibile con Final Cut, per cui si è proceduto alla cattura del materiale. I filmati sono stati acquisiti con una risoluzione di 720 x 576 pixel ed un campionamento a 24 bit per pixel. L’audio è stato campionato a 48 MHz ed acquisito a due canali. 50 50 NUTRIRE DIO Il montaggio finale dei filmati presenti nel DVD rappresenta una sintesi esaustiva del lavoro svolto per quattro anni da Scabia con i suoi studenti sulla figura di Dioniso attraverso due testi: Le Baccanti di Euripide e Le Rane di Aristofane. Il lavoro voleva essere un’interrogazione sulla figura di Dioniso in quanto capo del teatro e della poesia attraverso le descrizioni fatte da Euripide, che lo collocano in un contesto tragico e del Dioniso comico che attraversa invece Le Rane di Aristofane. Dioniso comico e Dioniso tragico si contrappongono, completandosi a vicenda, arrivando a configurare la doppia natura di questo dio che è insieme divino e umano. Nel lavoro ricorre con frequenza la figura del cerchio, inteso come rappresentazione del teatro, teatro di corpi, non teatro – edificio; in cui gli attori sono anche gli spettatori, (addirittura non sono ammessi spettatori che non siano gli stessi attori, i coristi, i cantori e i personaggi che compaiono, da Caronte a Dioniso stesso). Il cerchio costituisce un richiamo ad uno degli elementi che sono stati costitutivi della forma della tragedia e della commedia: il ditirambo. Una danza antica, formata da cinquanta danzatori disposti in cerchio, nel cui centro vi è un corifeo. È Aristotele stesso a sostenere che la tragedia viene dal ditirambo e lo stesso Euripide al centro delle Baccanti invoca il bambino Dioniso appena nato chiamandolo con il nome di Ditirambos. Un nome magico, di cui non si sa bene il significato, (forse colui che è passato attraverso due porte, la porta del ventre materno e del ventre paterno, poiché Dioniso salvato dal padre Zeus viene posto da questo nel proprio ventre e ripartorito quando è maturo). 51 51 La struttura del cerchio risulta quindi di cardinale importanza e ad un certo punto nel suo centro sorge l’albero sacrificale, mortale per Penteo, re di Tebe e cugino di Dioniso, che viene posto, travestito da baccante, sopra l’albero, e consegnato alla divorazione da parte della baccanti impazzite e della madre Agave. La stessa struttura diventa la palude, lo stagno nelle Rane e Caronte, con la sua barca, fa attraversare l’acqua a Dioniso, un’acqua circolare che conduce alla porta del mondo infero, dell’Ade. Il lavoro ha voluto evidenziare che chiave della tragedia è la danza cantata. Un’altra componente fondamentale sono state la danze, e la ricerca sulla musica: in queste rappresentazioni si canta continuamente. E forse perché è proprio questa la chiave della tragedia: la danza cantata. Il racconto evoca il dio, ciò che viene cantato appare al centro del cerchio e lì dove il dio appare avviene anche l’ekstasis, la trance, l’uscita di sé da parte dei danzatori. Quell’uscita di sé che il teatro è comunque in grado di controllare, per cui non si tratta di un fenomeno di perdita di coscienza ma di acquisizione di una maturazione, in cui ci si reca all’interno del corpo di dio e si cerca un contatto con lui. Quel dio che viene nutrito, come dice il titolo finale del lavoro, dal canto, dalla danza e dai corpi che raccontano i suoi eventi, la sua storia, la sua continua rinascita e rigerminazione e che percorre tutti gli strati: da quello alto della cima dell’albero fino a quello basso dell’acqua, che viene attraversata per accedere al mondo infero4. Nutrire Dio. I filmati di partenza dei quattro corsi di Nutrire Dio sono delle registrazioni effettuate tra il 1996 e il 1999 delle rappresentazioni finali dei corsi di Drammaturgia II che Paragrafo tratto liberamente dall'Introduzione di Giuliano Scabia registrata all'interno di Nutrire Dio, DVD del progetto Archivio Digitale Giuliano Scabia, Bologna, 2003 4 52 52 Scabia tenne in quegli anni con gli studenti. Si tratta di Ecco, io, figlio di Dio sono giunto alla terra texana (Baccanti I); Dioniso: dove porti la compagnia?Vuoi portarla nelle vallate boscose dell’Olimpo dove una volta Orfeo suonando la chitina si tirava dietro gli alberi e le bestie selvagge? (Baccanti II); L’albero di Dioniso. Natale/mortale. Anno vecchio anno nuovo. Salita al monte (Baccanti III) ed infine di Brekekekex, koax koax. Dioniso di pancia e culo (Rane). I primi tre filmati erano conservati su nastri VHS e presentavano gravi difetti di leggibilità dovuti sia al deterioramento fisico dei supporti magnetici sia alle condizioni originali di ripresa, non certo ottimali. Meglio per Brekekekex, koax koax, di cui esistevano cinque nastri Hi8 riguardanti tre giorni di lavoro sulla dimostrazione finale, ed un nastro audio DAT riguardante la seconda di quelle tre giornate. Le condizioni generali delle registrazioni non potevano comunque dirsi soddisfacenti: in particolare il filmato di Baccanti I era in condizioni davvero pessime, presentava numerosi drop video, che comportavano un grosso fastidio per lo spettatore durante la visione pur non compromettendo la comprensione del filmato, inoltre il quadro presentava una striscia obliqua nella parte inferiore dello schermo in cui si notava una forte assenza di colore. L’audio presentava invece una interferenza di un segnale estraneo, probabilmente un segnale di una emittente radio dovuto forse alla cattiva schermatura del microfono della videocamera, che ha funzionato da antenna durante la ripresa. Tutti e tre i filmati di Baccanti sono stati acquisiti dall’unica copia disponibile (su formato VHS). Ampie porzioni dei filmati erano ricche di tempi morti, e giudicate ripetitive e non utili alla comprensione da parte dello stesso professor Scabia. A questo vanno aggiunte le parti che risultavano comunque inservibili ed il fatto che la durata complessiva del materiale acquisito superava le nove ore e venti minuti. 53 53 Per guadagnare tempo abbiamo deciso di migliorare i filmati già durante il processo di digitalizzazione, per quanto era nelle nostre possibilità. Utilizzando il Picture Controller della ADVC 300 abbiamo cercato di ridare una maggiore profondità ai neri ed un contrasto e saturazione maggiori ai colori, in modo da espandere la tonalità generale del colore. Ad acquisizione avvenuta si è proceduto con l’ottimizzazione audio e video delle sole parti considerate più essenziali ottenute attraverso un complesso processo di taglio dei filmati mirato ad una restituzione coerente e fruibile dell’evento originale. Per quanto riguarda Baccanti I e Baccanti II le operazioni di montaggio hanno riguardato semplicemente l’eliminazione di alcune parti della registrazione, così da lasciare solo le parti considerate più importanti. Diverso il discorso per Baccanti III, di cui si esisteva una seconda registrazione dello stesso spettacolo, seppur priva di audio, da un diverso punto macchina, per cui all’operazione di riduzione della durata si è potuta aggiungere un’operazione di vero e proprio montaggio delle inquadrature, che rende più piacevole la visione allo spettatore. Per Rane è stato fatto un lavoro di tipo diverso: i cinque nastri Hi8 riguardavano le registrazioni di tre giornate di lavoro, in cui veniva ripetuto pressappoco lo stesso spettacolo. Sempre sotto la supervisione di Scabia si è deciso di fare un montaggio delle tre giornate. Il risultato finale si presenta come una ricostruzione dell’intera dimostrazione sotto forma di un unico spettacolo, in cui ogni scena è data dalle parti migliori di quella stessa scena all’interno delle tre diverse giornate. Le operazioni di correzione dell’audio sono state piuttosto complesse: particolarmente in Baccanti III, ricco di dialoghi la cui comprensione diventa fondamentale per lo spettatore, a differenza degli altri che sono soprattutto spettacoli cantati. In quel caso è stato trasferito l’audio su di un altro computer per cercare una riparazione invasiva con Wavelab. 54 54 Final cut infatti dispone di filtri audio, ma si tratta di filtri denominati “non distruttivi”, che non sono cioè in grado di modificare l’onda del segnale, cosa che invece Wavelab può fare. Le operazioni principali hanno riguardato la riduzione del fruscio di fondo e di una frequenza intorno ai 13 kHz derivante da una cattiva schermatura del microfono. Per rendere più intelligibili i dialoghi sono state attenuate le basse frequenze sul parlato, nel tentativo di eliminare il rimbombo della sala, ma non sempre ciò ha funzionato. Quando, anche dopo questa operazione, il parlato risultava ancora incomprensibile, si è deciso di ricorrere ai sottotitoli. Anche il video ha presentato parecchi problemi. Final Cut non permette la riparazione manuale dei drop-out, per questo si è resa necessaria una esportazione dei fotogrammi più rovinati per farne una riparazione manuale con il programma di grafica The Gimp. A riparazione avvenuta i frame sono stati reimportati in Final Cut e reintegrati nel filmato originario. La riparazione colore si è invece concentrata soprattutto sulla restituzione di una maggiore saturazione dei colori, in particolare sui toni medi, nel tentativo di accentuare la resa dei particolari e sulla striscia acromatica, dovuta ad un difetto delle videocamera. Fortunatamente, per la composizione dell’inquadratura, la striscia in questione riguardava quasi sempre e soltanto una porzione della pavimentazione, trattandosi dunque di una parte dell’immagine dal colore omogeneo la riparazione è risultata abbastanza agevole. Ancora una volta Rane ha richiesto un tipo di lavoro piuttosto differente: la diversa qualità del supporto video e la presenza di una parte di registrazione audio professionale su nastro DAT ci hanno permesso di focalizzare la nostra attenzione sul montaggio dei filmati. L’audio ha necessitato di qualche piccolo ritocco laddove si è deciso di 55 55 tenere la registrazione della videocamera, sebbene si sia cercato di privilegiare il più possibile l’audio acquisito dal nastro DAT, in cui il suono era nettamente superiore per qualità, profondità e pulizia. Il lavoro finale è stato poi completato da un’intervista appositamente registrata all’interno del Laboratorio in cui il professore racconta la genesi del lavoro, ne spiega le finalità e dà alcune importanti nozioni tecniche ed artistiche per rendere più agevole la comprensione allo spettatore. IL GORILLA QUADRUMANO La genesi di questo lavoro si situa all’interno della continua ricerca di Scabia di rivalorizzazione e rivalutazione delle storie e delle leggende popolari. Durante un suo corso universitario uno studente portò un testo legato ad una tradizione popolare della bassa reggiano, in cui si narrava la storia del Gorilla Quadrumano, di questo “bestion alto e feroce, che nessuno ha mai domato, né con baston né con la voce…5 -” e che viene catturato per essere esposto nello zoo del re Ferdinando di Spagna. Con l’aiuto del principe Ferdinandino il Gorilla riesce a scappare e a ritornare nel bosco, rivelandosi saggio e mite e non bestia terribile e feroce come tutti credevano. Questa commedia si lega indissolubilmente nel percorso teatrale “scabiano” ad un altro progetto, che Scabia aveva in cantiere ancora prima di arrivare a Bologna. Quando faceva esperimenti di teatro, Scabia rimase per un mese in un paesino nel basso parmense di nome Sissa e incontrò dei personaggi del Tratto dal filmato Immagini del Gorilla Quadrumano, di Landuzzi, Scabia, presente sul primo DVD de Il Gorilla Quadrumano 5 56 56 luogo che gli raccontarono le loro leggende locali. Da qui l’idea di far nascere qualcosa, dei personaggi narratori, dei giganti. A questa idea si aggiunse poi quella di accompagnare questi giganti lungo una risalita del fiume Po. L’idea piacque anche in RAI, tanto da far nascere il progetto per un film, dal titolo “I Giganti del Po” di cui fu anche completata la sceneggiatura. Chiamato dall’università di Bologna, Scabia iniziò però a lavorare con gli studenti ed il film non fu mai fatto. Dopo un anno di lavoro a Bologna l’idea del Po si ripresentò, ma questa volta con il gruppo teatrale del Gorilla Quadrumano. Si progettò una discesa a tappe del fiume, che si sarebbe poi dovuta concludere a Venezia. Scabia fu contattato anche dalla Biennale Teatro di Venezia, nelle persone di Luca Ronconi e Carlo Ripa di Meana, poiché il progetto si sposava bene con la nota manifestazione in quanto la città lagunare sarebbe dovuta essere l’ultima tappa prima della grande conclusione programmata nella città di Mira. Prese così forma il progetto grandioso della discesa del fiume Po. L’iniziativa era già stata inserita nel cartellone dei programmi della Biennale, ma Scabia preferì infine fare marcia indietro: ad un certo punto mi sono reso conto – spiega nell’introduzione al progetto presente sul secondo DVD de Il Gorilla Quadrumano – […] che sarebbe stata una fatica che forse non eravamo in grado di sostenere: dormire, farsi da mangiare, fare gli spettacoli, i rapporti con la popolazione, era una cosa che…mi sembrava immensa. Ho avuto paura, e poi eravamo molto stanchi anche dopo la discesa su Nancy. Scabia in accordo con la Biennale, modificò il progetto: alcune tappe si sarebbero comunque fatte, ma senza barcone, e lui avrebbe preso parte solamente all’ultima tappa, a Mira. Così fu fatto. Le tappe presenti nel DVD sono state curate dagli studenti in maniera autonoma, segno di un gruppo che stava cercando nuove 57 57 strade di lavoro e che era in grado di brillare di luce propria, senza la guida di Giuliano Scabia. Il Gorilla Quadrumano. I materiali di partenza erano molti ed eterogenei, si andava da lavori già finiti e conclusi, quali Il Gorilla Quadrumano di Amedeo Fago a filmati montati ma privi, totalmente o parzialmente, di traccia audio, come Viaggio del Gorilla Quadrumano sul fiume Po, a materiali non montati. A differenza di quanto successo nel progetto di Nutrire Dio si è deciso di lasciare i filmati integrali, tanto da rendere necessaria la creazione di più DVD, a causa della grande quantità di filmati esistenti sul progetto. I filmati considerati completi sono Immagini del Gorilla Quadrumano, di Landuzzi e Scabia e il documentario Il Gorilla Quadrumano di Amedeo Fago e Giovanni Pellegrino. Questo filmato era conservato solo su nastro VHS. Gli altri filmati, girati originariamente in 8mm, riversati poi su nastri analogici, erano stati già in parte digitalizzati con un trasferimento su Digital Betacam. Si è dunque deciso di acquisire il tutto su hard disk. Il filmato Primo maggio del Gorilla al Pilastro si presentava senza audio, per cui si è provveduto a registrare un commento sonoro del professor Scabia. Stessa cosa fatta per le parti del prologo e dell’epilogo in Il Gorilla Quadrumano a Nancy che, contrariamente alla parte centrale, erano muti. La correzione del colore si è concentrata soprattutto sul tentativo di restituzione di una colorometria soddisfacente in filmati in cui i colori erano completamente sfasati, in cui i bianchi risultavano virati al verde ed i toni medi al viola, con dominante rossa sull’incarnato delle persone. I filmati sono poi stati compressi in formato MPEG2 per essere inseriti nel primo dei tre DVD del progetto. 58 58 Il secondo dei tre DVD contiene altre esperienze teatrali del gruppo del Gorilla Quadrumano. Si tratta di Attila alla Corte Boscona di Cavalieri e Landuzzi e Viaggio del Gorilla Quadrumano sul fiume Po, sempre di Landuzzi. Il primo dei due filmati riguarda un’esperienza teatrale fatta dal gruppo a Corte Boscona, dove il gruppo fu invitato alla festa del paese per mettere in scena un’antica leggenda locale. Il filmato ci è pervenuto per gentile concessione di Maurizio Conca, ma su supporto VideoCD, le immagini erano dunque già state pesantemente compresse. Inconveniente di questo tipo di compressioni è la definizione delle immagini in movimento dove si vedono chiaramente i quadri di pixel derivati dalla compressione, difetto impossibile da correggere. L’altro filmato presente sul DVD racconta le esperienze del gruppo nei paesi di Piadena, Dosolo e nella città di Cremona. Anche in questo caso il filmato si presentava muto, per il commento sonoro è stato dunque chiamato il prof. Massimo Marino, che di quel gruppo faceva parte e che partecipò attivamente a quelle esperienze. In questo caso le immagini erano già in buone condizioni, è perciò stato sufficiente aggiustare leggermente la profondità dei toni neri ed alzare il livello generale dei toni medi per aumentare la saturazione del colore ed il livello del contrasto, ottenendo un risultato finale più che soddisfacente. Sempre sul secondo DVD compare anche una traccia extra in cui vengono illustrati alcuni esempi di correzione del colore, dove vengono mostrate alcune inquadrature prima e dopo l’intervento di riparazione fatto. In questo modo ci si può fare un’idea del lavoro svolto e delle condizioni in cui versavano i filmati prima della riparazione. L’aspetto che più salta all’occhio è un evidente effetto di patina verde che riguardava una gran parte delle immagini del progetto. Problema risolto in maniera efficace agendo sulla colorometria di ogni singola 59 59 inquadratura, alzando i livelli degli altri due colori primari, cioè del rosso e del blu. In questo modo è stato anche possibile migliorare la profondità dei neri e ridurre la luminosità dei bianchi, che risultavano spesso bruciati. Bisogna specificare che abbassando il livello dei bianchi non si riesce a migliorare la resa del dettaglio, cosa che è da considerarsi irrimediabilmente persa nell’istante stesso in cui il bianco inizia a “sparare”, ma si ottiene una visibilità migliore e più piacevole dell’immagine nel suo complesso. Completa il secondo DVD l’intervista a Scabia realizzata all’interno del progetto dell’Archivio Digitale, in cui il professore spiega la nascita del gruppo del Gorilla Quadrumano e svela alcuni retroscena ed aneddoti relativi alle tappe illustrate nei DVD. Gorilla a Stellata rientra nel gruppo di filmati appartenenti al secondo DVD, ma avendo una durata di 90 minuti circa è stato messo in appendice, su un DVD a parte. È stato acquisito da un nastro VHS e si presentava molto rovinato: l’audio è frammentato e disturbato, molte parti del filmato sono praticamente mute, altre risultano comunque di difficile comprensione. Il video presentava alcuni difetti tipici dei supporti magnetici, in particolare c’erano moltissimi drop-out. Per cui, come in Nutrire Dio, i singoli frame sono stati esportati uno ad uno, importati in The Gimp, corretti manualmente ed infine reintegrati all’interno del filmato. MARCO CAVALLO La nascita dell’esperienza di Marco Cavallo avviene all’interno del manicomio di Trieste, il cui direttore, Franco Basaglia, fece a Scabia la proposta di prendere parte ad attività organizzate all’interno della struttura. Scabia decise di accettare e partecipò con i pazienti e con gli 60 60 infermieri di quel manicomio a varie assemblee interne in cui vennero proposti vari progetti. Da quelle riunioni emergeva il desiderio di creare un qualcosa di grande, ma nessuno aveva bene in mente cosa. Le idee prese in esame andavano da una casa ad un dirigibile, ma nessuna di queste aveva la forza tale da risultare convincente per tutti. La soluzione giunse in maniera alquanto casuale ed inaspettata: un giorno – racconta Scabia – dopo 2 o 3 giorni che eravamo lì, durante un laboratorio […] ho visto una signora che aveva fatto un disegnino di un cavallo dietro le sbarre. Allora le abbiamo chiesto chi e cosa rappresentasse quel disegno. E lei ha detto – È Marco, Marco Cavallo: era il cavallo che portava la biancheria nei trasporti dai reparti alla lavanderia, ed era nostro amico, ma era diventato vecchio e volevano mandarlo al macello, allora noi abbiamo fatto una petizione, tutti quanti dentro, medici, infermieri, matti e così è stato salvato – […]. Allora io ho detto – facciamo un Marco Cavallo grande! – […]. E dal quel momento si è trovato il centro, quel qualche cosa in cui tutti si identificavano. E lì è cominciata la storia, la storia che continua anche oggi, di questo viaggio. La vera forza innovativa di questo spettacolo risiede nel fatto che durante la rappresentazione i pazienti hanno avuto la possibilità di uscire dal manicomio, incontrando la gente “normale”, ed abbattendo così il concetto stesso di normalità, nel tentativo continuo di vincere il male delle mente e di abbattere le barriere che separano le persone considerate “malate” da quelle ritenute “sane”. Il progetto di Marco Cavallo è diventato itinerante ed ha vissuto molte avventure, è andato in Germania, in Francia, in giro per l’Italia, e ancora continua a girare, è stato bruciato a Roma nell’85, è stato poi fatto risorgere. L’ultima tappa significativa risale al 2003, quando il gruppo di Marco 61 61 Cavallo è andato a Montelupo Fiorentino, in cui era stato tentato un qualcosa di simile, costruendo un grande drago verde di cartapesta. Grazie alla mediazione di Scabia è stato possibile far convergere le due esperienze, e far incontrare i detenuti di quell’OPG con alcuni assistiti provenienti dall’esperienza triestina, facendo metaforicamente incontrare Marco Cavallo con il Drago di Montelupo. Marco Cavallo. I materiali di partenza riguardanti Marco Cavallo erano eterogenei: la registrazione di Se ho un leone che mi mangia il cuor documentario girato originariamente in 16mm, era conservata su nastro VHS, e si presentava in condizioni discrete, mentre il secondo filmato del progetto riguardava un documentario (di immagini rarissime) amatoriale girato da Marco Pozzar in 8mm nel 1973 e senza commento audio, conservate su VHS. Quest’ultime immagini versavano in condizioni davvero pessime: la colorometria era completamente rovinata, i colori avevano virato verso tonalità pastello, tanto da far ricordare una pellicola colorata per imbibizione dei periodi del cinema muto. In molti casi questo difetto rendeva difficoltosa la comprensione delle immagini. In mancanza di audio originale si è proceduto all’acquisizione della registrazione sonora di un commento a queste immagini fatto da Giuseppe Dell’acqua, (Responsabile del Dipartimento di Salute Mentale della ASS n.1 Triestina) e Giuliano Scabia ad un convegno a Trieste nel 2003. A sincronizzazione avvenuta ci siamo accorti che l’audio copriva solo una parte del video, poiché al convegno il nastro era stato fatto avanzare velocemente per commentare il finale. Le immagini centrali senza commento sonoro sono poi state tagliate, ma data la loro importanza si è deciso di accluderle in una traccia extra a cui è possibile accedere 62 62 facilmente dal menù di selezione delle scene. Nel caso di Se ho un leone che mi mangia il cuor il lavoro sulla grafica ha cercato di restituire dei toni più naturalistici ai colori, che a tratti risultavano virati su tonalità pastello, come nel filmato di Pozzar, anche se la qualità complessiva del filmato è assolutamente superiore. Laddove era possibile si è comunque cercato di correggere i neri e riportare i bianchi verso una corretta tonalità. L’audio presentava una impedenza di fondo, che si è cercato di ridurre senza però perdere in fedeltà rispetto al suono originale. Un documento particolare all’interno di questo progetto è il DVD in appendice dal titolo Dragomago! di M. Martinelli e P. Ciommi. Si tratta di un documentario sulla giornata dell’incontro di Montelupo Fiorentino tra il Drago e Marco Cavallo. Il documento era già in sé finito e completo, si è così deciso di farne un’appendice al DVD del progetto. IL DIAVOLO E IL SUO ARCANGELO Il Diavolo e il suo Arcangelo è uno spettacolo itinerante la cui nascita risale alla primavera del 1979, nella provincia di Benevento prima e nella città di Perugia poi. Alla base la volontà di Scabia di mettersi alla prova come autore e attore dei propri testi. Uno spettacolo che basava il suo rapporto con il pubblico sulla figura dell’apparizione, sulla non indicazione di tempo e di spazio. Nella città in cui si svolgeva lo spettacolo erano presenti i cartelloni pubblicitari che ne annunciavano l’avvento, con il giorno in cui sarebbe iniziato, ma senza indicazioni di ora e luogo. L’itinerario era segreto, noto solo a Scabia ed al suo collega Aldo Sisillo, che interpretava la figura dell’Angelo, ed inoltre potevano esserci continue variazioni rispetto al progetto iniziale. L’arcangelo era 63 63 un suonatore di flauto e di violino, in genere seguiva il Diavolo–Scabia, cercando di trattenerlo. - La domanda che stava alla base dello spettacolo, e a cui si cercava di trovare una risposta, era se nell’Europa di fine anni ‘70, verso il futuro, ci fosse ancora qualcuno in grado di credere nel diavolo e negli arcangeli. E la risposta andava cercata nel viaggio, attraverso città, paesi, vallate…- spiega Scabia nell’introduzione al DVD. L’azione si componeva di quarantacinque scene, brevi, lunghe, tirate, duelli, giochi, racconti, operine, azioni, quali la vestizione, il togliersi la maschera, sono tutte scene, tutte azioni che venivano svolte in un ordine scelto da Scabia di volta in volta e solo alcune delle scene erano legate tra di loro, dunque lo spettacolo o l’azione potevano durare infinitamente perchè spostandosi continuamente una scena fatta in un luogo poteva essere ripetuta dopo poche in un altro luogo. Conclude Scabia: uno degli aspetti più interessanti e curiosi del lavoro riguardava il formarsi pian piano di un racconto nel luogo che ospitava l’azione, un racconto di attesa. C’erano i manifesti fuori, c’era la notizia che il Diavolo e l’Angelo erano lì, e spargendosi la voce la gente iniziava a correre alla ricerca dei due. Questo era il gioco, nascondersi, scappare, scomparire, riapparire, l’aggredire, far scappare i bambini, poi, formare piccoli pubblici, raccontare una storia, poi di corsa fuggire, e così fu fatto in tantissimi luoghi, in Italia, ma non solo. Il Diavolo e il suo Arcangelo. I filmati di questo progetto, Il Diavolo e il suo Angelo a Venezia di Folco Quilici e Passaggio del Diavolo e dell’Angelo per l’Alto Casentino con visita all’eremo della Verna e salita al monte Penna di Bartolini e Magrini sono giunti nelle nostre mani già digitalizzati. Il primo, originariamente girato in pellicola, era in formato MPEG4, il secondo, girato in 8mm era 64 64 invece in formato MPEG2. Essendo dunque già stati digitalizzati abbiamo semplicemente importato i filmati in Final Cut, per correggerli poi all’interno del programma. Il documentario di Quilici presentava delle buone immagini, ma la voce del commentatore risultava in parte distorta a cui poi si aggiungeva un rumore di fondo. Eliminato in parte il disturbo, ben poco si è potuto fare per la distorsione, per cui il risultato finale non può certo dirsi soddisfacente. Il documentario di Magrini e Bartolini necessitava invece di un aumento della saturazione del colore per bilanciare le immagini leggermente sbiadite. Anche l’audio presentava alcuni problemi, risultando abbastanza sporco. Le riparazioni sono state effettuate cercando di non perdere fedeltà rispetto al suono originale anche se in questi casi cercare di eliminare o di abbassare di volume le frequenze su cui viaggiava il disturbo comporta inevitabilmente una perdita di informazione utile. Questo DVD rappresenta un’eccezione perché i filmati da noi prodotti non si limitano all’introduzione del professore in cui vengono spiegati la nascita del lavoro e la sue finalità, ma vi è anche un filmato dal titolo Viaggio del Diavolo e del suo Angelo a Roma per i matti, in cui il professore legge un articolo da lui scritto nel maggio del 1984 per il quotidiano “Rinascita” in cui narra del viaggio che il Diavolo e l’Angelo fecero durante il congresso internazionale di psichiatria nella capitale per prendere posizione contro i manicomi – carcere. Questa registrazione è stata effettuata all’interno del laboratorio, e in fase di postproduzione si è provveduto ad inframezzare la lettura del professore con le fotografie scattate da Maurizio Conca su quella giornata. 65 65 LA CREAZIONE DEI DVD Il software utilizzato per la creazione dei DVD si chiama DVD Studio Pro. Da Final Cut abbiamo importato i filmati esportati precedentemente da Final Cut in formato MPEG2, mentre i file audio sono stati esportati in formato AIFF non compresso. Prima di realizzare un lavoro di questo tipo, avere ben chiara in testa la forma che si vuole dare al prodotto finale può essere di grande aiuto. La pianificazione del lavoro, tramite un accurato diagramma ad albero, permette di farsi un’idea di come funzionerà il prodotto finale e su quali operazioni saranno necessarie per raggiungere quel risultato (vd Figura 5). Le domande che chi si appresta alla creazione di un DVD si deve porre riguardano la funzionalità finale del disco e la sua efficacia (Quanti menù ci vogliono? Quanti bottoni occorrono in ognuno di questi menù? Come dovrebbero essere collegati l'uno con l'altro e con i filmati?). Infatti, nonostante si possano creare molti tipi di DVD, in cui contenuto e struttura possono variare considerevolmente, il processo di creazione è sempre molto simile. Le quattro fasi principali sono: •la creazione dei materiali sorgente •la codifica dell'audio e del video in formati compatibili •la creazione del titolo del DVD •costruire il progetto e creare il disco La prima parte riguarda la creazione dei filmati che poi nel DVD andranno a finire; questo può significare girare i video, registrare le voci o le tracce musicali, disegnare le grafiche che andranno incluse, ecc. 66 66 Figura 5 67 67 Quando si deve poi creare il DVD, avere dei materiali già completamente montati e finiti, in cui siano già inclusi anche gli eventuali effetti o transizioni, quali ad esempio le dissolvenze o le tendine, semplifica di molto il lavoro. Prima di essere inseriti nel disco i materiali audio e video devono essere convertiti in uno dei formati definiti dalle specificazioni del DVD. Questo significa generalmente MPEG2 per il video e Dolby AC-3 per l'audio (anche se generalmente vengono accettati i formati audio standard, quali ad esempio l'AIFF). Anche il formato MPEG1 è di solito accettato, essendo però la sua risoluzione circa un quarto di quella dell'MPEG2, la qualità delle immagini sarà molto più bassa. L'MPEG1 può essere molto utile nel caso in cui la definizione dell'immagine non sia di primaria importanza, o per filmati molto lunghi, poiché la bassa qualità consente di far entrare in un solo disco parecchie ore di filmato. Una volta approntati i filmati da importare, la creazione del DVD consiste in una serie di passaggi base, quali l'importazione dei materiali, la creazione dei menù, l'aggiunta di bottoni ai menù, la creazione di tracce o slideshow, il collegamento degli elementi del progetto ed infine la masterizzazione. Anche noi abbiamo seguito questa scaletta, esportando i filmati da Final Cut Pro in formato MPEG2, con una compressione bit-rate variabile. Il bit-rate determina direttamente le dimensioni dei file, e dunque la quantità di materiale che potrà entrare nel DVD. I lettori DVD supportano bit-rate fino a 10.08 Megabit per secondo, ma devono essere inclusi i sottotitoli e l'audio. Il massimo bit-rate consentito per il video è di 9.8 Mbps, anche se il valore che si usa generalmente si aggira in torno agli 8Mbps. Usare un bit-rate troppo alto potrebbe portare a problemi di lettura da parte di alcuni lettori DVD, che a sua volta potrebbe generare 68 68 dropframe in fase di lettura. Si rende qui necessaria una digressione per spiegare meglio l’importanza di una corretta compressione in fase di esportazione: le modalità più diffuse per la codifica del video sono due: • CBR (Constant Bit-Rate): viene scelto un bit-rate che viene utilizzato per l'intero video, indipendentemente dal suo contenuto. Il vantaggio di questo metodo è che si può prevedere con buona sicurezza la dimensione del file compresso, e, aggiustando il bit-rate, si può essere sicuri che il filmato verrà contenuto nel DVD. Lo svantaggio è che il medesimo bit-rate verrà applicato a tutto il filmato, indipendentemente dalla quantità di movimento del contenuto. Il bit-rate dovrà essere abbastanza elevato per consentire risultati accettabili per le scene con movimento, anche qualora queste costituiscano una parte minima del filmato. • VBR (Variable Bit-Rate), che a sua volta si divide in One Pass e Two Pass. Nella modalità One Pass si possono scegliere un bit-rate base ed un bit-rate massimo. Il compressore calcola la quantità di movimento presente nel filmato al momento della compressione, e adegua appropriatamente il livello del bit-rate – utilizzando un livello più alto per le scene con movimento (fino al livello massimo prescelto) mentre per le scene statiche utilizzerà il livello più basso, selezionato come base. Il problema è che la qualità non sarà buona come nel Two-Pass, poiché la compressione viene fatta in tempo reale, e la dimensione finale del file non può essere predetta accuratamente, con il rischio che alla fine il filmato compresso non riesca ad entrare nel DVD. Nel Two Pass, come nel One-Pass è possibile scegliere il bit-rate base e quello massimo, ma il compressore, prima di codificare il filmato, esegue una prima lettura, in cui analizza il materiale e ne esamina la quantità di movimento, e 69 69 calcola indicativamente le dimensioni del file finale. Unico difetto il fatto che comprimendo in Two-Pass il tempo richiesto dalla macchina è il doppio che non con il One-Pass. Per ragioni di mancanza di tempo, abbiamo dovuto optare per una compressione in VBR One-Pass. Una volta importati i filmati, il passo successivo nella creazione del DVD è stata la preparazione di ciò che lo spettatore vede come prima cosa dopo aver inserito il disco nel lettore. Questa (denominata first play) può essere un’immagine, un filmato, un’animazione, oppure direttamente un menù. Nei DVD del progetto il first play dei dischi corrisponde sempre al menù principale di selezione (main menu), in cui l’utente ha a disposizione varie opzioni tramite le quali accedere ai differenti contenuti che il DVD propone. Anche in questo caso il lavoro deve essere svolto in maniera accurata: bisogna infatti impostare i vari asset ovvero stabilire lo sfondo (background), che potrà essere fisso oppure in movimento, ritagliare all’interno dello sfondo delle zone (drop zone), in cui si potranno inserire immagini, filmati o caselle di testo, stabilire le varie titolazioni o scritte ed infine aggiungere i bottoni, decidendone forma, colore, eventuali animazioni e target6. Nei menù iniziali del disco l’utente ha a sua disposizione varie possibilità: può selezionare la visione per intero dei filmati, uno di seguito all’altro, oppure accedere direttamente ad un filmato specifico; in questo secondo caso egli accede ad un sottomenù, in cui vari pulsanti, ognuno corrispondente all’inizio di un capitolo, gli consentono di ”saltare” direttamente all’inizio di ognuno dei filmati presenti nel disco. 6 Come target di un pulsante si intende qui il contenuto a cui si accede premendolo, sia esso un filmato, un menù o qualunque altra cosa. 70 70 Sempre dal menù principale c’è una terza opzione, selezionando la quale l’utente ha la possibilità di accedere ad una scheda tecnica che descrive brevemente le condizioni dei materiali di partenza ed il tipo di lavoro svolto. 71 71 CONCLUSIONI In ultima analisi il lavoro del progetto “Archivio Digitale Giuliano Scabia” ha trovato una sua forma ordinata ed omogenea su questi DVD. Il lavoro svolto dal punto di vista dell’archiviazione non è comunque stato irreprensibile: i materiali digitalizzati in acquisizione si sarebbero dovuti conservare su supporti esterni, ma per mancanza di tempo non abbiamo potuto eseguire questa operazione, e per ragioni di spazio abbiamo dovuto cancellare i file di acquisizione dal computer dopo la masterizzazione dei DVD, correndo così il rischio che con il deperimento dei nastri questi filmati vadano perduti per sempre. Trattandosi di un progetto a bassissimo costo, anche l’acquisto di semplici nastri MiniDV su cui riversare i materiali diventa un problema. Purtroppo le tracce audio e video montate e corrette, che, dopo la compressione sono confluite nei DVD, sono stati cancellate nella loro forma non compressa, escludendo così la possibilità apportare nuove correzioni migliorative in futuro senza dover fare una nuova acquisizione. Dei filmati sono dunque rimasti soltanto gli MPEG2 presenti nei DVD, che sono stati conservati nel computer. E, come si è visto, la compressione è un processo irreversibile. Ammessi i limiti del lavoro bisogna dire che il progetto, oltre alla finalità conservatrice si proponeva comunque anche la creazione di supporti di facile fruizione per divulgare l’opera del professor Scabia, ed è qui che il lavoro fatto all’interno dell’”Archivio Digitale Giuliano Scabia” può essere rivalutato. La creazione di questi DVD non solo rende facilmente fruibili filmati che prima erano conservati su supporti meno accessibili ai più, ma tenta di fornire anche degli elementi per facilitare la comprensione di quei filmati, grazie alle registrazioni introduttive del professore ed alle 72 schede tecniche nel tentativo di mantenere vivo un lavoro di grande importanza per il DAMS. 73 GLOSSARIO Aliasing: Fenomeno di distorsione che si può manifestare durante campionamento di un segnale. Esso si verifica quando frequenze superiori alla metà del tasso di campionamento vengono introdotte nel dispositivo. Queste frequenze, come noto dal teorema di Nyquist, non possono essere correttamente interpretate, e infatti, all'atto della ricostruzione del segnale originale, esse generano frequenze errate, che danno l'effetto di distorsione armonica detta appunto aliasing. Per scongiurare questo tipo di distorsione armonica, si dispone l'apparecchiatura di un filtro detto anti-aliasing. Ampiezza: Distanza tra l'estremo superiore e l'estremo inferiore di una forma d’onda rispetto all'asse di riferimento. Maggiore è questa distanza, maggiore la variazione di pressione sonora del segnale, o, alternativamente, lo spostamento di questo all'interno di un mezzo di trasmissione (circuito, cavo,...). Il risultato, a livello acustico, di una maggiore ampiezza, è una percezione di maggiore volume del suono, a seconda delle condizioni di ascolto. Backup: In informatica indica un’operazione tesa a duplicare su differenti supporti di una copia di sicurezza. In caso di danneggiamento del supporto primario, il backup consente di recuperare le informazioni perse. Betacam: Formato video analogico introdotto dalla Sony. Utilizza cassette con nastro da ½ pollice ed è molto utilizzato in ambiente professionale per la sua alta qualità. BIT: Unità di misura minima di informazione. Assume un valore scelto tra una coppia (generalmente indicata con 0 e 1). Una successione di bit si dice parola binaria. Campionamento: Procedimento mediante il quale frammenti di segnale audio (campioni) vengono registrati mediante una loro conversione in parole binarie (operazione effettuata da un dispositivo detto convertitore analogico-digitale), in modo da poter essere successivamente elaborati, memorizzati e riprodotti. CD Audio: Supporto digitale per l'immagazzinamento dei dati audio, nato negli anni 80 da una collaborazione tra Sony e Philips. E' costituito da un disco in policarbonato di 12cm di diametro, con al centro un foro di 1,5cm di diametro, con i dati scritti da 2,5cm dal centro fino a 11,6cm. Il disco è un supporto ottico, ossia basato sulla riflessione della luce sulla sua superficie. La superficie del disco è suddivisa in "pit" e "land" (alla lettera "pozzi" e "pianure"), ossia avvallamenti e superfici lisce tra gli avvallamenti. I pit e i land, che rappresentano gli 0 e 1 delle parole binarie digitali, sono disposti a spirale dal centro del cd verso l'esterno. Nella lettura dei dati, un raggio laser percorre la traccia di pit e land, e la luce che viene riflessa attraversa un prisma che la invia ad un sensore. CD-ROM: Supporto digitale per l'immagazzinamento di dati digitali, nato come generalizzazione del formato CD AUDIO. Rispetto a quest'ultimo, la struttura dei dati è modificata, con una migliore correzione degli errori. Convertitore Analogico/Digitale (A/D): Dispositivo che converte il segnale dalla forma analogica a quella digitale. Convertitore Digitale/Analogico (D/A): Dispositivo che converte il segnale da digitale ad analogico. DAT ( ): Nastro audio digitale. Registratore audio a nastro magnetico (4 o 8 mm di spessore) a testina rotante, con campionamento digitale. Nato come formato professionale ad alta qualità, nel 1998 Sony ed HP lo hanno diffuso sul mercato come formato consumer. DVCAM: Formato professionale digitale da 6 mm. Utilizza compressione DV, permettendo una buona qualità delle immagini. È dunque spesso utilizzato nel montaggio professionale e nell’acquisizione a basso costo. DVD (Digital Versatile Disc): Disco Digitale Versatile. Introdotto nel 1996, il DVD è pensato per la riproduzione di filmati e audio ad alta qualità. Si differenzia dai formati CD per lo spessore del formato, per la densità delle tracce (molto più alta), per la frequenza di campionamento (96kHz), per la codifica a 24 bit. Effetto Copia: Trasferimento di un segnale registrato da uno strato di nastro magnetico ad uno adiacente, causato da induzione magnetica; dà origine a falsi segnali in riascolto (un pre-eco o un post-eco). Frequenza: La velocità con la quale una massa vibrante, un segnale elettrico o un generatore di suono compiono un ciclo completo da valori positivi a negativi o viceversa. Si misura in cicli al secondo, ossia hertz. Frequenza di Campionamento: Nel campionamento digitale, il numero di volte al secondo che viene eseguito l'operazione del campionamento, ossia quante volte in un secondo viene prelevato il valore del segnale. Si misura in Hertz (Hz), il cui multiplo è il kHz (kilo Hertz, pari a 1000 Hertz). Una frequenza di campionamento di 32kHZ indica, ad esempio, che il segnale è stato campionato 32000 volte in un secondo. In inglese non si parla di frequenza, per evitare confusione con la frequenza di un'onda sonora, ma di sample rate. Hertz: Unità di misura della frequenza (cicli al secondo). Idrolisi (dal greco , acqua, e sciogliere): Rientrano sotto questo termine diverse reazioni chimiche in cui una molecola viene scissa in due o più parti per inserimento di una molecola di acqua. MiniDV: Formato digitale destinato alla fruizione di massa. Utilizza cassette con rate da 25 mbs ed è oggi molto diffuso in ambito amatoriale. MP3 ( ): Standard per compressione e decompressione audio. MPEG ( ): Standard per compressione e decompressione di video e audio, codificato in più versioni dal 1991. Multimediale: Campo che comprende le applicazioni di grafica, testo, midi e musica in formato digitale, per PC. La produzione e la distribuzione di supporti per l’educazione, di intrattenimento o di immagazzinamento dati per PC hanno creato un mercato già affermato, con potenzialità di crescita enormi. Periodo di Campionamento: Intervallo di tempo che intercorre tra il prelevamento di un campione ed il prelevamento successivo. Quantizzazione: Nel processo di campionamento è l'operazione con la quale si trasformano i livelli istantanei di tensione di un segnale analogico continuo in un gruppo discreto di numeri binari (parole binarie). A seconda della lunghezza della parola binaria ottenuta (ad esempio 16 bit, 20 bit, 24 bit,...) si parla di quantizzazione a 16 bit, 20 bit, 24 bit etc. Segnale Analogico: Segnale la cui variazione avviene in modo continuo nel tempo e non per mutamenti discreti. Segnale Digitale: Segnale la cui variazione avviene in modo discreto, con variazioni distanziate da intervalli di tempo. VHS (Video Home System): Sistema di videoregistrazione per uso domestico, messo a punto nel 1975 dall’azienda JVC. BIBLIOGRAFIA DI RIFERIMENTO Ang T. Manuale di video digitale, Mondadori Electa, Milano, 2005 Boston G. Safeguarding the Documentary Heritage – A Guide to Standards, Recommended Practices and References Literature Related to the Preservation of All Kinds General Information Programme, U.N.E.S.C.O. aprile 1998 Coulter D. Digital Audio Processing, R&D Books, Lawrence (Kansas), 2000 D'Ambrosio F. - De Marco A. Audio Digitale: tutti i formati, i supporti, le tecniche, FAG, Milano, 2005 Deutsch W.A. Concepts of Digitisation, Storage and Retrival of Music and Musical Information, Convegno Internazionale di Studio Musica e mouse. Le nuove tecnologie applicate ad archivi e biblioteche musicali. Dipartimento di Musica e Spettacolo, Università di Bologna, venerdì 7 e sabato 8 aprile 2000 Devoti L. La digitalizzazione per la salvaguardia degli archivi e delle collezioni fotografiche, ANAI, Roma, 2005 Fagnani C. Digitalizzazione dei documenti sonori storici: la nastroteca “Agosti” di Reggio nell’Emila, tesi di laurea in Storia degli strumenti musicali, Università di Bologna, a.a. 2002-2003 Mitchell J.L. (a cura di) MPEG video compression standard, Chapman & Hall, New York, 1997 Ozer J. Video compression for multimedia, AP professional, Boston, 1995 Petri M. Video Digitale, Apogeo, Milano, 2002 Santoro M. Dall’analogico al digitale: la conservazione dei supporti non cartacei, articolo apparso sulla rivista “Biblioteche oggi” nel marzo 2001 Scolari A. – Pepe M. Appunti per la definizione di un set di metadata gestionali-amministrativi e strutturali per le risorse digitali –Versione 0, preparati per il “Gruppo di studio sugli standard e le applicazioni di metadati nei beni culturali” promosso dall’ICCU, 2002 Schüller D. Preserving the Fact for the Future: Principles and Practices for the Transfer of Analog Audio Documents into the Digital Domain, trattato presentato al 106esimo congresso della AES (Audio Engineering Society), 8-11 maggio 1999, Monaco, Germania Visciotti F. Tecniche di compressione audio: evoluzione dello standard MPEG, dispensa del corso di Sistemi Informativi II, Università degli studi di Bologna, a.a. 2000/2001 Watkinson J. The art of digital video, Focal Press, Oxford, 2000 WEBGRAFIA broadcastengineering.com it.wikipedia.org mariottim.interfree.it pixeltools.com tan.informatik.tu-chemnitz.de www.afterdawn.com www.appuntisuldigitalvideo.it www.autosophy.com www.bbc.co.uk www.bretl.com www.cs.cf.ac.uk www.cybercollege.com www.db.deis.unibo.it www.di.unipi.it www.dizionarioinformatico.com www.doc.ic.ac.uk www.earlevel.com www.imaging-components.com www.mlesat.com www.newmediarepublic.com www.printerport.com www.softarch.it www.teamcombooks.com www.tvhandbook.com www.videsignline.com www.wave-report.com APPENDICE FOTOGRAFICA Figura I - Lettore DVCam e MiniDV Sony DSR 45 Figura II - Lettore Hi8 e VHS Sony EV-T2 Figura III - Canopus ADVC-300 Figura IV - L’invocazione del Dio al centro del cerchio in Figura V - Il Cerchio del Soffio in Figura VI - Penteo sull’albero in Figura VII - I cori delle rane in Figura VIII - Caronte invita Dioniso a salire sulla sua barca in Figura IX - Il gruppo del Gorilla Quadrumano durante un’azione teatrale Figura X - Il Gorilla Quadrumano al festival di Nancy Figura XI - Il personaggio di Attila in Figura XII - Marco Cavallo e il Drago di Montelupo in Figura XIII - Diavolo e Angelo in Figura XIV - Diavolo e Angelo per le strade di Venezia
Documenti analoghi
Editing video digitale
in segnale elettrico; il video digitale trasforma le immagini in
formato dati. In entrambi i casi
si registra attraverso una telecamera su un nastro magnetico ma, mentre nel primo caso,
quando si a...