00 Intro.qxd

Transcript

00 Intro.qxd
Quaderni del Centro Studi Magna Grecia
13
UNIVERSItà
dEGlI
StUdI
dI
NApOlI FEdERICO II
dIpARtIMENtO dI dISCIplINE StORICHE “E. lEpORE”
CENtRO INtERdIpARtIMENtAlE dI StUdI pER lA MAGNA GRECIA
ARCHEOFOSS
Open Source, Free Software e Open Format nei processi di ricerca
archeologica
Atti del VI Workshop (Napoli, 9-10 giugno 2011)
a cura di
Francesca Cantone
Naus Editoria
2012
Università degli Studi di Napoli Federico II
polo delle Scienze Umane e Sociali
dipartimento di discipline storiche “E. lepore”
Ha collaborato alle attività redazionali Marialucia Giacco
Il volume è stato realizzato con un contributo del dipartimento di discipline storiche “E. lepore” e
del polo delle Scienze Umane e Sociali
Quaderni del Centro Studi Magna Grecia, collana a cura di Giovanna Greco.
Centro Interdipartimentale di Studi per la Magna Grecia, dipartimento di discipline Storiche “E. lepore”,
Università degli Studi di Napoli Federico II
Comitato scientifico
luisa Breglia, Carlo Gasparri, Giovanna Greco, Fabrizio lo Monaco, Francesca longo Auricchio
Redazione scientifica
luigi Cicala, Bianca Ferrara, luigi Vecchio
I volumi della collana sono sottoposti al Consiglio Scientifico del Centro Interdipartimentale di Studi per
la Magna Grecia ed al processo di peer review, affidato a specialisti anonimi, la cui documentazione è
disponibile presso l’Editore.
Progetto grafico e realizzazione
Naus Editoria
pozzuoli 2012. Naus Editoria, www.naus.it
ISBN 978-88-7478-031-0
licenza Creative Commons
Il volume ed i singoli contributi degli Atti nella versione digitale sono distribuiti con licenza Creative
Commons Attribuzione 3.0 Italia; ciò significa che il lettore è libero di riprodurre, distribuire, comunicare al pubblico, esporre in pubblico, rappresentare ed eseguire quest'opera, di modicarla e di usarla
per fini commerciali, a condizione che venga attribuita la paternità dell'opera ai curatori del volume e ai
singoli autori dei contributi nei modi indicati dagli stessi o da chi ha dato l'opera in licenza.
Indice
9-15
giovanna greco
Presentazione
17-28
francesca cantone
archeofoss 2011. considerazioni intorno.
ATTI
Esperienze virtuose di gestione aperta della conoscenza culturale.
33-34
Maria Mautone
arcHeofoss. esperienze virtuose di gestione aperta alla conoscenza culturale
35-36
Paola Moscati
open science e archeologia
37-42
Pietro citarella
il sito internet del comune di napoli: da strumento informativo a spazio per la
condivisione e la partecipazione
43-60
floriana Miele
Modelli di conoscenza e sistemi informativi per la tutela, la gestione e la valorizzazione del patrimonio archeologico: esperienze in campania
61-73
renata esPosito, fiona Proto
Modelli di conoscenza contestualizzata e prototipi di classificazione ontologica dei beni culturali - l’esperienza del c.i.r. cultura campania
75-84
Mario Mango furnari, carMine novello, Paolo acaMPa
Octapy3: una piattaforma open source per un cMs cooperativo di depositi
documentali distribuiti
85-98
Mirella serlorenzi, andrea de toMMasi, siMone ruggeri
la filosofia e i caratteri Open - Approach del Progetto sitar - sistema
informativo territoriale archeologico di roma. Percorsi di riflessione metodologica e di sviluppo tecnologico.
99-110
francesca cantone
Open workflow, cultural heritage and university. The experience of the Master
Course in Multimedia Environments for Cultural Heritage
111-123
federico Morando, ProdroMos tsiavos
diritti sui beni culturali e licenze libere (ovvero, di come un decreto ministeriale può far sparire il pubblico dominio in un paese).
Documentare e ricostruire: strumenti e metodi aperti.
127-139
vincenzo Moscato, antonio Picariello, angelo cHianese
un framework per la creazione di ambienti virtuali 3d
141-152
luca Bezzi, nicolò dell'unto
rilievo tridimensionale di reperti archeologici: tecniche a confronto
153-170
Pierre Moulon, alessandro Bezzi
Python Photogrammetry Toolbox: A free solution for Three-Dimensional
Documentation
171-182
Micaela sPigarolo, antonella guidazzoli
Open Source e ricostruzione archeologica: l'esperienza del cineca per il progetto Museo della città
La conoscenza archeologica: approcci aperti alla gestione ed analisi
185-198
danilo leone, nunzia Maria Mangialardi, Maria giusePPina siBilano,
dario Balzano
la storia emersa e sommersa: un database per l'archeologia dei paesaggi subacquei
199-209
alessandra de stefano, Maria giusePPina siBilano, giuliano volPe
la citta' nascosta: un dBMs per il censimento e l'analisi delle strutture ipogee
del centro storico di foggia
211-218
stefano costa, luca Bianconi, elisaBetta starnini
tiPoM 2011: l'archeologia del software in archeologia
219-223
luca Bianconi, davide deBernardi, Paolo Montalto
archidroide, gestione bibliotecaria informatizzata tramite tecnologie mobile
open source
225-232
augusto PaloMBini
r.finder: uno script per grass-gis finalizzato alla ricognizione intelligente
233-244
francesco carrer, faBio cavulli
distanze euclidee e superfici di costo in ambiente montano: applicazione di
grass ed r a diversa scala in ambito trentino
245-252
felice stoico, luca d'altilia
analisi spaziale in archeologia dei paesaggi: il progetto n.d.s.s. (Northern
Daunian Subappennino Survey)
253-264
sandra HeinscH, Walter Kuntner, giusePPe naPoniello
Aramus Excavations and Field School, esperienze con Free/Libre e Open
Source Software
La diffusione e condivisione dell'informazione scientifica in archeologia.
267-276
andrea ciaPetti, dario Berardi, alessandra donnini, Maria de vizia
guerriero, Matteo lorenzini, Maria eMilia Masci, davide Merlitti,
stefano norcia, faBio Piro, oreste signore
Baseculturale.it, un portale semantico per i beni culturali
277-286
valentina vassallo, denis Pitzalis
la libreria digitale di cipro
PosTEr sEssIon
289-292
siMone deola, valeria grazioli, siMone Pedron
conversione di file da .dwg a .shp mediante l'utilizzo di software Open Source
293-295
alessio Paonessa
da Mac a gnu/linux: migrazione dei dati da un gis di scavo
297-302
daMiano lotto, silvia fiorini
analisi di dispersione del materiale archeologico a fondo Paviani: un approccio open source
Giovanna Greco
Presentazione
È con vivo compiacimento che presento questo volume, accolto nella collana del
Centro Interdipartimentale di Studi per la Magna Grecia, dove sono raccolti i lavori discussi nella sesta edizione del Workshop Open Source, Free Software e Open Format nei
processi di ricerca archeologica svoltosi presso la Facoltà di Lettere e Filosofia
dell’Università di Napoli Federico II nel giugno del 2011.
Questi incontri hanno costituito, negli anni, un valido spazio per il confronto e il
dibattito, divenendo un solido punto di riferimento per la ricerca di una metodologia condivisa nell’applicazione dei metodi informatici all’archeologia; sono state così affrontate
problematiche complesse che comprendono le multiformi applicazioni che le nuove tecnologie offrono alla disciplina archeologica; sono state discusse tematiche inerenti l’archeologia quantitativa o l’elaborazione di database compartecipati, i sistemi informativi
territoriali ma anche le forme della comunicazione, la trasmissione delle informazioni, la
normativa legislativa sul patrimonio e sul dato archeologico.
Il confronto, nella comunità scientifica degli archeologi - ma non solo - va avanti,
con queste tematiche e con questa forma di incontri, già dal 2006 e il dato è indicativo di
una problematica ancora da esplicitare e approfondire dove anime e filosofie differenti
non hanno del tutto codificato solide basi unitarie.
La scelta dell’Ateneo Federiciano quale sede per l’incontro del 2011 - di cui sono
grata al comitato scientifico di ArcheoFoss - ha radici profonde e ben inserite nel dibattito odierno.
La consapevolezza che la nostra professione di archeologi debba uscire dalla stretta dimensione disciplinare e richieda sempre più, accanto a una serrata preparazione culturale, una pratica multidisciplinare, parte da lontano; numerose e continue sono state iniziative e progetti che hanno messo in campo significative sperimentazioni e che, nell’ambito dell’Ateneo, hanno visto collaborare fattivamente, nel campo dell’archeologia, settori umanisti e settori scientifici, mostrando una capacità, non usuale, di fare sistema nella
ricerca.
La dimensione multi-disciplinare supportata da una stringata metodologia, costituisce, infatti, il livello più alto della ricerca scientifica e il campo archeologico si è rivelato, in questi ultimi decenni, quello più permeabile e ricettivo alle nuove sollecitazioni
della tecnologia, valorizzando, pur nella diversità dei ruoli e delle competenze, le specificità scientifiche.
Il rapporto tra scienza informatica/nuove tecnologie e archeologia - ma in modo più
esteso - tutto il patrimonio culturale, ha visto per lungo tempo un rapporto altalenante,
segnato, soprattutto nei decenni passati, da una reciproca incomunicabilità dove la teoria
della strutturazione dei dati e le tecniche impiegate sono state viste, da parte degli archeologi, come un mezzo, uno strumento per archiviare una grande quantità di dati.
Questo ha determinato che, ancora oggi, manca una qualche forma statutaria della
disciplina dell’informatica archeologica che abbia parametri di riferimento universalmen-
9
10
te riconosciuti.
Tuttavia è proprio la ricerca archeologica ad avvalersi, sempre più, di metodologie
e tecniche delle cd. scienze dure dove la collaborazione tra studiosi dal diverso linguaggio
porta alla produzione di un nuovo sapere.
La creazione dell’Istituto per le Tecnologie Applicate ai Beni Culturali da parte del
CNR negli anni Settanta del XX secolo ha rappresentato l’istituzione di un laboratorio
sperimentale e ha avviato una nuova concezione nella cultura archeologica; si è andato
maturando il principio che la metodologia informatica possa essere assimilabile a qualsiasi
procedimento logico-scientifico e che la conoscenza integrata deriva dalla scoperta dei
dati ma anche dal loro processo di accumulazione e analisi; alla base una solida preparazione filologica e storica, aperta a esplorare nuove forme di ricerca e di elaborazione.
Nei decenni finali del XX secolo, si è andato sempre più affinando l’interesse degli
archeologi per l’ottimizzazione della diagnostica, del rilievo, dei contesti, attraverso simulazioni sempre più raffinate; l’archeologo ha ben colto le potenzialità di una ricerca dove
si possono raggiungere esiti innovativi, non altrimenti disponibili.
In questo dibattito si inseriscono le numerose sperimentazioni dell’Ateneo
Federiciano.
È da una sollecitazione del Dipartimento di filosofia, con Gianfranco Borrelli e
Giuseppe Tortora, che prende l’avvio, nell’anno accademico 1996-97, un corso di
Perfezionamento in Scienze Umane e Nuove Tecnologie, prima esperienza per un’aggregazione di interessi e competenze tra mondo umanistico e mondo tecnologico; un filone
di ricerca e didattica particolarmente felice che ha visto, negli anni, approfondimento e
specializzazioni in master e corsi post laurea.
Il Dipartimento di Discipline storiche, rispondendo a queste nuove istanze, si attrezza, per l’archeologia, di un sito web archeologico e di un laboratorio didattico-scientifico
di Informatica per l’archeologia che segna l’avvio di una nuova strategia formativa, raccogliendo un’esigenza inespressa, ma tangibile, sia dell’utenza studentesca che dell’organico dei docenti.
È di quegli anni la realizzazione, al santuario di Hera alla foce di Sele, a 8 km da
Paestum, del primo “Museo Narrante” realizzato in Italia, in collaborazione tra il nostro
Ateneo e la Soprintendenza Archeologica di Salerno; un museo “senza oggetti” che parte
da una diversa concezione della comunicazione al grande pubblico della realtà archeologica, difficile da capire sulla base dei soli resti monumentali; l’allestimento è stato interamente organizzato su diversi sistemi della comunicazione informatica e su un’integrazione di nuove tecnologie, dalle ricostruzioni in 3D dei monumenti, alla loro collocazione nel
paesaggio, alle voci parlanti che raccontano miti e leggende, fino alla riproposizione dello
scavo archeologico, con le diverse metodologie modificatesi nel tempo.
Un esempio felice di interazione tra Ingegneria Industriale e Archeologia è stato il
progetto Archeocad. Archiviazione e restauro dei reperti archeologici mediante tecniche
CAD-RP, realizzato negli anni tra il 2000 e il 2004.
L’esperienza della modellazione solida, delle tecniche di prototipizzazione rapida e
della realtà virtuale sono state applicate ai frammenti ceramici provenienti dagli scavi nel
santuario di Hera alla Foce del Sele ed è stato realizzato un prototipo di lavoro che mira a
semplificare e accelerare i tempi della catalogazione, dell’archiviazione dei frammenti
ceramici, ma allo stesso tempo ha elaborato una tecnica di ricomposizione virtuale della
forma quanto mai significativa per un corretto restauro dell’oggetto.
Nel corso del 2001 con l’istituzione del Centro di Eccellenza per la Restituzione
computerizzata di manoscritti e di monumenti della pittura antica, alla cui realizzazione
concorrono ricercatori provenienti da diverse facoltà, è stata messa a punto un’analisi integrata ed è stata realizzata la restituzione computerizzata di immagini pittoriche e di manoscritti antichi, così da consentirne una esaustiva lettura, ma soprattutto una corretta progettazione degli interventi di restauro; il lavoro di ricerca, che ha riunito in un’unica struttura competenze diverse, ha elaborato un modello operativo e di strumentazione avanzata
di intervento e di sviluppo delle tecnologie innovative i cui risultati disponibili sono stati
trasferiti al sistema delle aziende operanti nel settore. Le principali tecniche applicate ed
elaborate dal centro sono state quelle della visione artificiale, a diversi livelli della problematica, per la elaborazione automatica su calcolatore finalizzate al miglioramento della
qualità dell’immagine; tale procedimento ha consentito il riconoscimento e il supporto a
una interpretazione automatica delle parti poco leggibili e deteriorate dal tempo. La
Visione Artificiale ha reso poi disponibili tecniche e metodologie per l’acquisizione, la
memorizzazione, il miglioramento qualitativo, la segmentazione (divisione in parti), il
riconoscimento di parti e l’analisi quali/quantitativa, che hanno consentito notevoli sviluppi nel complessivo processo di recupero di documenti storici e archeologici.
L’esperienza del Centro di Competenza Innova, avviato nel 2003, ha costituito un
altro interessante campo di prova per la realizzazione di un sistema integrato per la tutela
e la conservazione del patrimonio culturale; per il settore archeologico del nostro Ateneo
sono state avviate una serie di sperimentazioni finalizzate a una diagnostica e a un restauro dei monumenti; la creazione di un prototipo di laboratorio mobile, pluritematico, ha
visto la completa sinergia tra archeologi e tecnici, fino ad arrivare nell’ambito della comunicazione e della fruizione a distanza a una ricostruzione virtuale dell’antica città di
Paestum e, nei Campi Flegrei, alla realizzazione di una restituzione stereofotogrammetrica di monumenti cumani.
Il filone di ricerca, proficuamente realizzato nel settore dell’archeologia, ha avuto
una ricaduta didattica di notevole impatto; già nell’anno accademico 1999-2000 prendono l’avvio due master di alta formazione in Multimedialità e Beni Culturali e
Comunicazione e Beni Culturali e, successivamente, si realizza un corso base di nuove
tecnologie e archeologia.
È sulla base di queste istanze e iniziative che la Facoltà di Lettere e Filosofia integra, nei curricula formativi, le competenze informatiche di base che producono sia moduli di insegnamento che tirocini specifici sull’applicazione delle tecnologie ICT ai beni culturali.
L’innovazione nella didattica diventa ancora più incisiva nei livelli più avanzati
della formazione, dove l’informatica e le nuove tecnologie accompagnano la didattica dei
singoli comparti dei beni culturali e dei loro aspetti amministrativi e gestionali.
Un taglio fortemente interdisciplinare connota il Dottorato Interpolo in
Conservazione Integrata dei Beni Culturali, avviato nell’anno accademico 2003-04 grazie
a una significativa sinergia tra le Facoltà di Lettere, Economia e Commercio, Ingegneria;
anche nell’ambito del Dottorato di Archeologia; è stato affrontato un tema di ricerca, nel
filone dell’Archeologia dei paesaggi, finalizzato alla ricostruzione del paesaggio antico,
delle azioni e delle interazioni tra uomo e ambiente circostante. La ricerca, basata sull’ausilio di modelli di indagine sviluppati in seno alle discipline matematiche e informatiche,
ha tentato una ricostruzione del “paesaggio invisibile” creato dalla distribuzione spaziale
dei luoghi di culto nella Campania centro-settentrionale, tra età arcaica ed età romana.
Infine è di questi giorni l’approvazione ufficiale, nell’ambito del PON Campania
(2007-13) di un Distretto ad alta tecnologia applicato ai Beni Culturali che rappresenta per
certi versi il felice esito finale delle tante sperimentazioni e iniziative scientifiche portate
avanti in questi anni.
Nel Distretto, dove il patrimonio archeologico costituisce il campo maggiore di
interesse e di applicazione tecnologica, operano settori disciplinari quanto mai differenti
fra loro ma coesi nella progettazione di una rete integrata di ricerca, conoscenza e fruibilità del patrimonio culturale; le tecnologie abilitanti - dalla diagnostica, alla divulgazione
e alla fruizione - costituiscono il cuore del progetto e allo stesso tempo rappresentano la
sfida, per gli archeologi al confronto e all’interazione con le “scienze dure” così da proporre nuovi modelli di lettura polisemica del patrimonio archeologico.
È in questa articolata e ricca cornice di riferimento che si inquadrano le due giornate di lavoro organizzate su tematiche specifiche che hanno visto a confronto le espe-
11
rienze di gestione aperta della conoscenza culturale, gli strumenti per la documentazione
e la ricostruzione tridimensionale, le tendenze verso l’apertura alla gestione e all’analisi
dei dati e infine la diffusione e la condivisione dell’informazione scientifica archeologica.
In questi primi decenni del XXI secolo, la maggiore diffusione di strumenti hardware e software, ma soprattutto la progressiva emancipazione degli archeologi di nuova
generazione, ha portato il dibattito, nella comunità scientifica, su tematiche innovative che
hanno coinvolto il ruolo e la funzione delle procedure computazionali nella ricerca archeologica.
Oggi l’orizzonte si è ulteriormente allargato e le parole d’ordine sono diventate
scambio, condivisione, open source e open access con tutte le problematiche che tale
tematica pone, dalla intricata questione legata alla tutela del copyright, ai diritti sulle
immagini, alla protezione degli editori e chi più ne ha più ne metta; sono problematiche
vecchie, riaperte dalla diffusione del digitale, ma che vengono affrontate, purtroppo, su
basi di vecchie logiche.
Si assiste così a due approcci opposti e a volte estremizzati, con effetti talvolta paralizzanti sulla circolazione dell’informazione: quello protezionistico/monopolistico e quello estremizzato che sostiene la proprietà sociale del prodotto della ricerca e dell’ingegno.
A metà strada tra queste due posizioni si stanno facendo largo iniziative allargate
che promuovono l’adozione di regole e contratti condivisi e facilitati come d’altra parte
l’importanza crescente, conquistata sul campo, da parte della comunità di rete e dell’open
source per il software.
Queste le tematiche affrontate - con diverse sfaccettature e angolature - e presenti
in questo volume.
Nel licenziare un lavoro quanto mai lungo e complesso, desidero esprimere un vivo
ringraziamento a quanti hanno permesso che tale lavoro fosse portato a compimento; sono
grata al Rettore dell’Università Federico II di Napoli, prof. Massimo Marrelli per il sostegno costante e attento all’iniziativa, al Presidente del Polo per le Scienze Umane e Sociali,
prof. Mario Rusciano che ha creduto nel progetto e lo ha concretamente sostenuto.
È quanto mai significativo sottolineare come tutta l’iniziativa abbia visto una felice
collaborazione interfacoltà e un’azione coesa e integrata tra il Dipartimento di Discipline
Storiche e di Filosofia della Facoltà di Lettere e Filosofia e il Dipartimento di Ingegneria
Informatica della Facoltà di Ingegneria, già da anni accomunati da percorsi interdisciplinari di ricerca e didattica.
A Giuseppe Tortora e a Angelo Chianese che, a pieno titolo, hanno assunto la
responsabilità scientifica dell’iniziativa, va uno schietto e franco riconoscimento per la
pazienza, l’abnegazione e la disponibilità intellettuale.
Ai Presidi di Facoltà, prof. Arturo De Vivo e prof. Piero Salatino, un grazie per aver
creduto nell’iniziativa e averla supportata.
Tutto il lavoro di organizzazione e di preparazione dal convegno fino all’edizione
del volume non sarebbe stato possibile senza il sostegno e la collaborazione del Direttore
del Dipartimento di Discipline Storiche, prof. Giovanni Vitolo e di tutto lo staff amministrativo e tecnico; Luigi Cicala, Bianca Ferrara e Marialucia Giacco hanno fattivamente
partecipato alla realizzazione della comunicazione, della stampa e della realizzazione del
volume; a tutti va il mio più vivo e grato riconoscimento.
Hanno entusiasticamente lavorato alla realizzazione del convegno lo staff e gli studenti del Master in Ambienti Multimediali per i Beni Culturali, esperienza nata nello stesso alveo metodologico.
Last but not least è gradevole rivolgere un riconoscimento a Francesca Cantone,
instancabile artefice e motore di tutte le iniziative sia didattiche che scientifiche inerenti
l’informatica archeologica nel nostro Ateneo; a lei il compito di illustrare i temi e lo svolgimento del convegno.
Napoli, 28 Maggio 2012
12
Bibliografia
ArcheoCAD: Archiviazione e restauro di
reperti archeologici mediante tecniche
CAD-RP, Napoli 2004.
F. Cantone, 3D standards for scientific
visualization,
in
Archaeological
Informatics: Pushing the Envelope, G.
Burenhult, J. Arvidsson (edd.), Proceedings
of the 29th International Conference, CAA
2001 (Gotland), Oxford 2002, 163-172.
F. Cantone, Virtual reality for scientific
communication, in Virtual Archaeology, F.
Niccolucci (ed.), Proceedings of the VAST
Euroconference, Arezzo 2000, Oxford
2002, 109-114.
F. Cantone, Shared technologies in archeologia: nuove prospettive di gestione e condivisione di dati in rete, in ACalc, 16, 2005,
271-290 (http://soi.cnr.it/archcalc/indice/PDF16/CANTONE271-290.pdf).
F. Cantone, Sistemi di gestione informatizzata integrata dei dati archeologici.
Protocolli di intervento presso l’Heraion
alla Foce del Sele e il sito di Cuma, in I
Talenti del Mezzogiorno, Napoli 2006, 5587.
F. Cantone, Sistemi di gestione informatizzata integrata dei dati archeologici.
Protocolli di intervento presso l’Heraion
alla Foce del Sele e il sito di Cuma, in
Rassegna Economica, 2007, 35-54.
F. Cantone, ArcheoBits. Archeologia e
Nuovi Media, Napoli 2007.
F. Cantone, Problemi di management,
work-flow, risorse. Il sistema di gestione
dei dati DATARCH. Le immagini a trasparenza controllata, in Il santuario di Hera
alla foce del Sele. Indagini e Studi 19872006, J. de La Genière, G. Greco, (edd.),
AttMemMagnaGr, 4, 2008-10, Roma 2010,
77-80.
F. Cantone, Low cost/high quality: un bino-
mio possibile? Un modello di filiera per la
formazione continua a supporto dell’innovazione, in DIDAMATICA 2012, T. Roselli,
A. Andronico, F. Berni, P. Di Bitonto, V.
Rossano (edd.), Taranto 2012.
F. Cantone, Il progetto MOSTRAMBIENTE. Pompei e il suo territorio tra conoscenza e valorizzazione multimediale, in DIDAMATICA 2012, T. Roselli, A. Andronico, F.
Berni, P. Di Bitonto, V. Rossano (edd.),
Taranto 2012.
F. Cantone, Archeologia Virtuale in
Blended Learning, in Trent’anni di attività.
Gli allievi raccontano le loro ricerche,
Inaugurazione XXX Anno Accademico
Scuola di Specializzazione in Beni
Archeologici
“Dinu
Adamesteanu”,
Cavallino 2010, Lecce c.s.
F. Cantone (ed.), Ambienti Multimediali per
i Beni Culturali, Napoli c.s.
F. Cantone - M. Caropreso - A. Chianese V. Moscato, Semantica: a System for
Learning Object Retrieval and Adaptive
Courseware Generation for e-learning
environments, in Si-El 2007, IV Congresso
della Società Italiana di E-Learning 2007,
Proceedings on cd-rom.
F. Cantone - M. Caropreso - A. Chianese F. Ficetola - V. Moscato, Semantica: un
sistema per l’indicizzazione e il retrieval
semantico di Learning Object, in Si-El
2008, V Congresso Annuale della Società
Italiana di E-Learning 2008, Proceedings
on
cd-rom
(disponibile
su
http://siel08.cs.unitn.it/Atti/lavori/cantone.pdf).
F. Cantone - S. Castanò - P. Paladino - M.
G. Ronca, Una IDEA per le biblioteche.
Esperienze, strumenti e metodi per supportare, facilitare e diffondere la formazione
continua e l’aggiornamento, in Didamatica
2009, Informatica per la didattica, A.
Andronico, A. Colazzo (edd.), Trento 2009,
Proceedings on cd-rom (http://services.economia.unitn.it/didamatica2009/Atti/lavori/cantone.pdf).
13
F. Cantone - A. Chianese - G. Cirillo - V.
Curion, Una piattaforma di servizi integrati per la didattica universitaria.
L’esperienza di Campus all’Università
degli Studi di Napoli Federico II, in Si-El
2009, VI Congresso della Società Italiana
di E-Learning 2009, Proceedings on cdrom
(http://www.unisa.it/Centri_e_Vari/congressosiel/programma.php).
2010, 171-178 (http://www.ergon-verlag.de/tocs/9783899137552.pdf).
F. Cantone - A. Chianese - V. Moscato,
Archeologia Virtuale in Blended Learning.
Esperienze, metodologie e strumenti all’università Federico II di Napoli, in
ArcheoFOSS Open Source, Free Software e
Open Format nei processi di ricerca
archeologica, P. Cignoni, A. Palombini, S.
Pescarin (edd), Atti del IV Workshop Roma
2009, in ACalc, suppl. 2, 2009, 309-319.
A. Chianese - V. Moscato - A. Picariello, I
fondamenti dell’informatica per gli umanisti. Un viaggio nel mondo dei BIT, Napoli
2010.
F. Cantone - A. Chianese - V. Moscato - S.
Serafino, La Casa dei Pithoi a Serra di
Vaglio. Una sperimentazione di ambiente
3D Open Source per la fruizione di beni
archeologici, in ArcheoFOSS Open Source,
Free Software e Open Format nei processi
di ricerca archeologica, De Felice, G.
Sibilano M. G. (edd.), Bari 2011.
F. Cantone - F. Niccolucci, Legend and virtual reconstruction: Porsenna’s mausoleum
in X3D, in The Digital Heritage of
Archaeology, Computer Applications and
Quantitative Methods in Archaeology, M.
Doerr, A. Sarris (edd.), Proceedings CAA
2002, 30th International Conference, Crete
2003, 57-62.
14
A. Chianese - F. Cantone - M. Caropreso V. Moscato, ARCHAEOLOGY 2.0:
Cultural E-Learning tools and distributed
repositories supported by SEMANTICA, a
System for Learning Object Retrieval and
Adaptive Courseware Generation for elearning environments, in Wissensspeicher
in digitalen Räumen: Nachhaltigkeit,
Verfügbarkeit,
semantische
Interoperabilität, J. Sieglerschmidt, P. Ohly
(edd.), Proceedings of the International
Society of Knowldge Organization,
German Chapter 11. ISKO-Tagung
Wissensorgani-sation 08/ Archäologisches
Landesmuseum, Konstanz 2008, Würzburg
A. Chianese - F. Cantone - A. Quintano - V.
Moscato, La costruzione della e-community, in F.I.O.R.I. Formazione Intervento
Organizzativo per la Ricerca e
l’Innovazione, MIUR, PON, UE, RSO,
Fondazione CRUI, Napoli 2008, 80-89.
M. De Gennaro - C. Colella - P. Cappelletti
- A. Colella - A. Allocca - O. Marino - M.
Colella, Materiali dell’Ipogeo di Caivano
(I. sec. d. C.): rilievo e stato di conservazione, in Restauro e conservazione di beni
culturali: materiali e tecniche, G. Mascolo,
(ed), Atti del III Convegno, Cassino 2003,
74-83.
G. Fabricatore - F. Cantone, New Tools to
Assist
Excavation
4D
Analysis:
DATARCH©
Archaeological
Data
Management System and “Variable
Transparency Image Stacker”. Beyond the
Harris Matrix?, in The e-volution of
Information Communication Technology in
Cultural Heritage, Where Hi-Tech Touches
the Past: Risks and challenges for the 21th
Century, M. Ioannides, D. Arnold, F.
Niccolucci, K. Mania (edd.), Project Papers
from
the
joint
event
CIPA/VAST/EG/Euromed 2006, 100-107.
G. Fabricatore - F. Cantone, Colour
Reproduction of Digital Still Cameras.
Simple Test and Affordable Solution, in The
e-volution of Information Communication
Technology in Cultural Heritage, Where
Hi-Tech Touches the Past: Risks and challenges for the 21th Century, M. Ioannides,
D. Arnold, F. Niccolucci, K. Mania (eds.),
Project Papers from the joint event
CIPA/VAST/EG/Euromed 2006, 108-111.
G. Fabricatore - F. Cantone, Pushing the
Archaeological Interpretation by analysing
work on protocols: the “Variable
Transparency Image Stacker” and
DATARCH©
Archaeological
Data
Management System, in Layers of perception, Advanced Technological means to
illuminate our past, CAA 2007, April 2007,
CD-Rom.
B. Ferrara, - G. Di Gironimo - M. Germani
- M. Martorelli, Reverse Engineering
Techniques in the Reconstruction of the
Virtual Shape of an Archaeological find,
Proc. Of XII ADM International
Conference, Rimini 2001.
B. Ferrara - G. Di Gironimo - S. Patalano,
Definition and Construction of Parametric
Archetypes of archaeological Artefacts by
means of CAD Techniques, in Enter the
Past, The E-way into the Four Dimensions
of Cultural Heritage, CAA 2003, Oxford
2004, 86-91.
G. Greco - B. Ferrara - F. Cantone, New
Approaches to scientifical data communication. The “Museo Narrante” of the Foce
Sele Hera Sanctuary, in Archaeological
Computing Newsletter, 67, 2007, 18-24
(http://www.edigiglio.it/isbn_testi_pdf/364
.pdf).
G. Greco - B. Ferrara - F. Cantone, Museo
Narrante: The Foce Sele Hera Sanctuary
Virtual Museum, in Layers of perception,
K. Posluschny, I. Herzog (edd.),
Proceeding of the 35th International
Conference on Computer Applications and
Quantitative Methods in Archaeology
(CAA), Berlin 2007, Berlin 2008, 418-425.
F. Niccolucci - M. Baldi - F. Cantone - F.
Carminati - L. Ceccarelli - M. Crescioli - S.
Hermon - T. Zoppi, The PRISMA Project:
Exploiting the Potential of the
Archaeological Museums of Tuscany, in
The Digital Heritage of Archaeology, M.
Doerr, A. Sarris (edd.), CAA 2002, Oxford
2003, 411-414.
G. Tortora, On/off Learning, Napoli 2003.
15
Francesca Cantone
ArcheoFOSS 2011.
Considerazioni intorno
Publishing a theory should not be the end of one’s
conversation with the universe, but the beginning
(E. S. Raymond)
Il Workshop Open Source, Free Software e Open Format nei processi di ricerca
archeologica è giunto nel 2011 alla sua sesta edizione ed ha inteso valorizzare il patrimonio di esperienze maturate in questi anni e promuovere il confronto e la discussione fra i
diversi attori del sempre più complesso mondo dei rapporti fra ICT e archeologia.
L’evento si è articolato tra relazioni e poster selezionati dal comitato scientifico
attraverso un attento lavoro di peer review, reso ancora più complesso dall’alta qualità
delle proposte pervenute, e sessioni di laboratorio. In tal senso è quanto mai gradito oltre
che doveroso ringraziare per l’alacre e appassionato lavoro svolto il comitato scientifico
di ArcheoFOSS: Alessandro Bezzi, ArcTeam; Stefano Costa, Grupporicerche, Istituto
Internazionale di Studi Liguri, Università di Siena; Giuliano De Felice, Laboratorio di
Archeologia Digitale, Dipartimento di Scienze Umane - Università di Foggia; Denis
Francisci, Dipartimento di Archeologia - Università di Padova; Piergiovanna Grossi,
Dipartimento di Discipline Storiche, Artistiche, Archeologiche, Geografiche - Università
degli Studi di Verona; Damiano Lotto, Dipartimento di Archeologia - Università di
Padova; Augusto Palombini, ITABC - CNR.
ArcheoFOSS 2011 ha ospitato esperienze e riflessioni su molteplici aspetti inerenti alla progettazione, lo sviluppo e l’uso di dati aperti, formati liberi e/o di software open
source in archeologia, le relative implicazioni metodologiche, le buone pratiche, le criticità, i futuri trend.
In particolare i temi proposti alla discussione sono stati: - la ricerca archeologica tra
storia, filologia e nuove tecnologie; - metodologie e processi open source nella filiera
della ricerca archeologica; - esperienze virtuose di gestione aperta della conoscenza culturale; - i processi conoscitivi e i vantaggi della gestione aperta del dato archeologico; strumenti e approcci open source per i Beni Culturali.
ArcheoFOSS 2011 ha costituito un Blended Workshop sull’uso del software open
source in archeologia svolto in un ambiente misto tra reale e virtuale, supportato dalle
piattaforme di servizi didattici dell’Ateneo Federico II. La piattaforma di servizi di ateneo
Campus, nata in ambito sperimentale con l’intento di diffondere nuovi modelli di condivisione della conoscenza, ha supportato la creazione di una comunità di interesse sui temi
dell’Archeologia Virtuale secondo gli approcci dell’open knowledge, costituita da docenti, discenti, studiosi di varie università e istituzioni culturali già nelle fasi preparatorie dell’incontro, basate sulla condivisione di idee, materiali, links, ecc.
La piattaforma Campus consente, infatti, la gestione di servizi di forum/messaggistica, la creazione e gestione di groupware con specifici target (gli argomenti delle sessioni, oppure temi specifici che emergeranno dal confronto e dalla discussione), la conti-
17
nuazione della comunità di interesse successivamente alla chiusura dello svolgimento in
presenza delle giornate di convegno.
Il workshop è stato organizzato in sessioni tematiche che ripercorrono le varie fasi
di intervento archeologico, dalla ricognizione allo scavo, alla documentazione, gestione e
analisi, alla diffusione e divulgazione. Tale sistemazione ha evidenziato come l’emergere
degli approcci aperti investa tutta la filiera di lavoro, arricchendo la strumentazione, moltiplicando le potenzialità e problematizzando il dibattito metodologico.
Una sessione iniziale di studi, separata da questo schema e preliminare a esso, è
stata dedicata alla definizione di esperienze istituzionali, dagli enti di tutela, alle amministrazioni, alle università, che appaiono vivere una fase di transizione determinata da un
lato, dall’evoluzione del dibattito disciplinare intrinseco alle discipline archeologiche e dei
beni culturali, dall’altro, dalle istanze che emergono nella più generale riflessione sugli
sviluppi della società della conoscenza.
Un’interessante caratteristica dell’incontro napoletano, infatti, è stata proprio una
forte e articolata partecipazione istituzionale. Il dato evidenzia come l’interesse per metodi e approcci aperti stia oramai uscendo da una fase pionieristica e sperimentale, per giungere a una più piena maturità.
La pubblica amministrazione da anni sviluppa un dibattito multidisciplinare sull’adozione di software aperti e dunque oramai appare del tutto naturale che tale dibattito, con
le sue connotazioni specifiche, investa anche la gestione istituzionale dell’informazione
culturale.
L’adozione di strumenti open source, d’altro canto, avviene di pari passo con una
riflessione metodologica sul diffondersi di approcci aperti al dato culturale. Le implicazioni collegate a tale riflessione sono ovviamente molteplici: l’esigenza di immissione dell’informazione culturale nel sistema della produzione e circolazione della conoscenza su
scala globale, la protezione dei diritti di proprietà intellettuale, l’interazione dell’informazione culturale con altri layers informativi (ad esempio per la cittadinanza digitale e l’egovernment), la democratizzazione della cultura, i diritti del cittadino alla fruizione del
patrimonio e alla costruzione della propria identità storica e culturale.
In particolare si evidenzia in molti casi una graduale introduzione dei nuovi approcci, un aggiornamento progressivo supportato in taluni casi da iniziative individuali, buone
pratiche, esperienze virtuose che si allargano e vengono istituzionalizzate.
È così che la coesistenza di impianti tradizionali e approcci aperti porta alla commistione di ambienti e strumenti e appare tuttavia sempre più indirizzato alla costruzione
di linguaggi condivisi.
1. Archeologia e approcci aperti: riflessioni a margine
18
La circolazione dei dati culturali, la trasparenza dei processi di analisi, la condivisione della conoscenza archeologica sono oggetto di un dibattito molto acceso nella comunità scientifica internazionale.
Nuovi scenari, inoltre, si aprono oggi grazie all’affermazione degli approcci del
web 2.0 e 3.0: la conoscenza appare sempre meno prodotta ed erogata secondo modelli
gerarchici e sempre più condivisa e costruita sulla base di schemi partecipativi nella creazione, uso, riuso e rimodulazione di particelle di contenuti che sempre più spesso assumono la forma atomizzata delle “pillole di sapere”.
Questi approcci si diffondono anche nelle discipline dei beni culturali e in particolare in archeologia, con l’affermarsi di una tendenza all’immissione in circolazione di
informazioni e la crescente ambizione alla costruzione di sistemi condivisi di conoscenza.
In questo contesto l’adozione in archeologia di logiche e modelli open appare non
più e non solo indicare la mera scelta di un tipo di software, ma esplorare le potenzialità
delle relative caratteristiche di flessibilità e trasparenza e analizzare le implicazioni metodologiche di tale processo.
L’archeologia ha proposto, infatti, negli anni, quesiti peculiari al mondo informatico, con la nascita di una serie di soluzioni “dedicate”; i casi di interazione virtuosa si sono
dimostrati generatori e attivatori di innovazioni capaci di investire di pari passo il settore
informatico e quello archeologico.
La sfida dell’approccio open riguarda in particolar modo il settore culturale, nel
quale l’accesso alla conoscenza diventa strategico e si prospetta una nuova visione in cui
tutto il sapere può essere considerato come un “sorgente aperto”.
Va ricordato, inoltre, come le normative nazionali e internazionali ormai orientino
tutta l’informazione pubblica verso l’utilizzazione di approcci aperti.
È necessario dunque che anche le istituzioni didattiche e di ricerca affrontino la
sfida della migrazione dei propri sistemi e dei propri dati verso scenari comuni di condivisione e accessibilità pubblica ai dati.
Allo stesso modo è opportuno riconsiderare secondo nuovi inquadramenti temi
quali la tutela dei diritti d’autore, della garanzia della qualità dei dati, le funzioni delle
interazioni tra pubblico e privato nella gestione dei beni culturali e delle informazioni correlate.
2. Lo scenario. Approcci e strumenti aperti nelle discipline del patrimonio culturale
Negli ultimi decenni i flussi operativi e gli schemi metodologici del patrimonio culturale stanno cambiando in parallelo con l’evoluzione e la diffusione delle nuove tecnologie. Inoltre, lo scenario epistemologico è complicato e ancor più arricchito dalla comparsa di nuovi modi di produrre, comunicare e condividere informazioni culturali.
Archeologia, storia, storia dell’arte, biblioteconomia, archivistica, museologia,
musicologia, glottologia sono solo alcuni esempi di discipline umanistiche che rinnovano
e arricchiscono la loro metodologia e la loro strumentazione in questo processo.
La storia e lo sviluppo dell’informatica archeologica negli ultimi decenni appaiono
un esempio emblematico di tale complessa interazione1. Le fasi principali della ricerca
archeologica appaiono oggi tutte interessate dallo sviluppo delle nuove metodologie e di
strumenti informatici: dallo studio e indagine alla documentazione, catalogazione, analisi,
localizzazione, ricostruzione, diffusione, comunicazione dei dati.
Parallelismi e affinità di particolare importanza per il settore archeologico si riscontrano nell’evoluzione recente degli studi di museologia: la comparsa di nuovi musei virtuali, on line, multimediali, multimodali trova un background teorico nel cd. paradigm
shift avvenuto negli anni Ottanta dello scorso secolo, con lo spostamento del focus dagli
“oggetti” all’ “informazione” museale2. In questi anni la letteratura scientifica si concentra sempre più sulla funzione di comunicazione dei musei in parallelo con quello dei mass
media, e accentua l’importanza delle funzioni didattiche e di divulgazione del museo. Le
tesi contestualiste sulla creazione del significato presentano interessanti riscontri anche in
museologia e il concetto di “oggetti che si spiegano da soli”, è sostituito dal concetto di
“contesto come creatore di senso”3. I nuovi musei, inoltre, soprattutto nella temperie culturale che ha visto l’affermazione del web 2.0 e 3.0, tendono a una sempre maggiore inclusione del pubblico nel processo di creazione di significato, con una crescente attenzione
per i concetti chiave di “informazione”, “rete”, “relazione”, “condivisione”, “partecipazione”4.
1
Un recente incontro di studi ha focalizzato le maggiori esperienze e discusso gli aspetti metodologici del complesso processo che ha investito la disciplina archeologica con l’apertura di nuove possibilità e prospettive (MOSCATI
2009).
2
CANTONE 2007; GRECO et alii 2008.
3
HODDER 1986; LOCK 2003; ANTINUCCI 2007.
4
Le linee guida del progetto internazionale Minerva delineano in tal senso un articolato repertorio di strumenti e di
19
La ricerca scientifica e il dibattito accademico rispecchiano in maniera articolata
l’ampio panorama di cambiamenti cui si è accennato, con la nascita, tra l’altro, di un ricco
confronto circa l’istituzionalizzazione di tali innovazioni: in particolare un attivo movimento ha proposto la designazione di questi metodi e applicazioni in un settore disciplinare dedicato, racchiudendo i vari aspetti della cd. Informatica umanistica o, secondo una
definizione diffusa in ambito anglosassone, Digital Humanities: dagli aspetti linguistici, a
quelli filologici, storici, archeologici, filosofici, letterari, di storia dell’arte, della musica,
così come delle metodologie didattiche supportate dalle tecnologie informatiche. Un’altra
posizione ha definito, al contrario, il cambiamento tecnologico come parte del normale
processo di aggiornamento di ciascuna disciplina nel contesto generale della rivoluzione
digitale5.
La recente legge italiana 240/2010 apre ulteriori interrogativi circa la designazione
di un quadro metodologico per la ricerca interdisciplinare nello scenario futuro, caratterizzato, tra l’altro, da una significativa riduzione dei settori scientifico-disciplinari6.
Questo contesto è ancor più articolato dall’emergere di approcci aperti nella teoria
generale della conoscenza, che modificano gli equilibri tradizionali e creano nuove sfide.
Oggi una consistente letteratura scientifica descrive la conoscenza come creata, riutilizzata, ricombinata, riassemblata da una comunità mondiale che ha accesso alle tecnologie e
a Internet7. Negli scenari del web 2.0 gli utenti della rete sono considerati al tempo stesso
creatori e fruitori delle informazioni8.
Gli attuali schemi richiedono nuove capacità di rapportarsi con la conoscenza, con
la consapevolezza che essa appare sempre meno statica e strutturata, ma piuttosto in cambiamento costante e rapido aumento, distribuita e non sistematizzata. Nelle società contemporanee l’importanza dei fattori immateriali della produzione è sempre più riconosciuta e sottolineata e dunque anche l’importanza della formazione sta crescendo, in quanto viene in essa riconosciuto un potenziale chiave per lo sviluppo economico9. In questo
scenario, le attività di formazione devono diventare pro-attive, sostenere l’innovazione e
promuovere la capacità di orientarsi nei contesti di produzione e di gestire il cambiamento: in particolare, è interessante notare che, nel campo della pubblica amministrazione,
questo approccio facilita lo scambio culturale e di competenze tra diversi settori e dunque
supporta la circolazione virtuosa di informazione tra università, imprese, centri di ricerca.
Il modello generale descritto trova applicazione specifica nelle varie discipline, che
ne declinano in vari modi le implicazioni metodologiche e strumentali.
Nel campo dello sviluppo software E. S Raymond mostra già nel 1997 i diversi
aspetti del nuovo approccio10. La rivoluzione open source è descritta come un passaggio
da un modello gerarchico di sviluppo, tipico del mercato del software proprietario (definito metaforicamente «la cattedrale» con riferimento all’approccio trasmissivo alla conoscenza) a un modello innovativo (che viene identificato nella figura dinamica, disordinata e vorticosa del «bazaar»), in cui una comunità aperta di sviluppatori interagisce e condivide codice, know-how e conoscenza, ricombinando e riutilizzando porzioni di software.
Approcci simili stanno creando, inoltre, nuovi modelli di business e nuovi sistemi
giuridici e il settore dei beni culturali appare anch’esso fortemente interessato da questo
20
casi di studio per l’inclusione dei contenuti degli utenti (feedback, wiki, blogs, MUVE, ecc.): un esempio stringente
di tale processo è il progetto britannico Every object tells a story, in cui la mostra è generata, attraverso l’approccio
dello storytelling, da contenuti inseriti dagli utenti (MINERVA 2008).
5
KIRSCHENBAUM 2010 per una rassegna della tematica, con particolare riferimento agli aspetti linguistici; di utile
consultazione per il dibattito nazionale ORLANDI 2003.
6
GELMINI 2011.
7
MARKUS 2001; LEVY 2003; CNIPA 2007; OLIMPO 2010; BRESNAHAN 2011; FLEMING 2011.
8
MINERVA 2008.
9
CNIPA 2007.
10
RAYMOND 1999.
andamento generale11.
Per delineare una cornice normativa di riferimento va ricordato che le leggi internazionali e nazionali nell’identificare ed elencare le principali funzioni pubbliche nel
patrimonio culturale, dall’indagine e individuazione alla tutela, manutenzione, conservazione, ricostruzione, non mancano di sottolineare l’importanza dell’informazione12.
Inoltre i dati pubblici relativi al patrimonio culturale possono essere inclusi nel quadro generale di approccio alla gestione delle informazioni pubbliche. In tal senso in Italia
recenti innovazioni sono dovute all’entrata in vigore del decreto legislativo n. 235/2010,
il nuovo Codice dell’Amministrazione Digitale (CAD: Codice dell’Amministrazione
Digitale), in particolare con un focus sui dati aperti (artt. 52 e 68); governo aperto, pubblico uso/riuso dei dati pubblici13.
Per precisare più puntualmente il contesto normativo per la circolazione dei dati
culturali, è utile prendere in considerazione anche le attività dell’Osservatorio Open
Source del Governo, attivo negli ultimi dieci anni con funzioni di consulenza e la definizione di una relazione finale14.
Infine importanti aspetti sono affrontati anche nelle Linee Guida per i siti web della
Pubblica Amministrazione, di recente pubblicazione, con indicazioni esplicite circa l’adozione da parte della PA di formati aperti per la trasmissione di contenuti pubblici, da distribuire con licenze aperte15. È da notare che l’approccio metodologico aperto è seguito
anche nella stessa definizione del documento: le linee guida, infatti, sono periodicamente
valutate in una consultazione pubblica con richiesta di commenti e suggerimenti16.
3. Applicazioni e tendenze in ambito archeologico
Molti aspetti del movimento generale descritto trovano perfetta rispondenza nelle
esigenze specifiche del settore archeologico: adozione e sviluppo di software open source, pubblicazione, condivisione, riuso di dati liberi, apertura e trasparenza dei processi,
adozione e sviluppo di standard per i dati archeologici, didattica e formazione, sono i principali temi sui quali la riflessione scientifica appare maggiormente attiva e dinamica.
La crescente diffusione del software open source nel settore archeologico negli ultimi anni appare sempre più evidente. Il semplice e immediato aspetto economico legato
alla scelta di software open source per ridurre i costi in un settore tradizionalmente caratterizzato da scarsità di risorse è stato ampiamente superato dalla considerazione più profonda di una predisposizione del software aperto a soddisfare i più specifici requisiti disciplinari. S. Settis afferma di recente che nell’interazione tra le nuove tecnologie e il patrimonio culturale la forza dominante deve essere la cultura e non la tecnologia17: in realtà
la strategia di sviluppo del software open source rende possibile per gli esperti del patrimonio culturale di entrare nel processo di sviluppo e orientarlo per soddisfare specifiche
esigenze disciplinari.
L’adozione di software open source in archeologia può in questo modo essere definita come «free in the sense of freedom»18: essa cioè, non solo soddisfa la necessità di
avvalersi di strumenti potenti pur con limitate risorse, ma soprattutto risponde a una tendenza generalmente avvertita nel settore dell’archeologia computazionale, da sempre
11
LANG et alii 2007.
ICOMOS 1990; CODICE 2004.
13
CAD 2010.
14
OSSERVATORIO 2011.
15
LINEE GUIDA 2011.
16
FORUM 2011.
17
SETTIS 2007.
18
La frase è riferita da S. Williams alla vita di R. Stallman, fondatore del movimento open source (WILLIAMS
2002).
12
21
capace di aprire con le sue peculiarità disciplinari nuove sfide e porre interrogativi estremamente specialistici allo sviluppo tecnologico. In tal senso uno degli esempi più diffusi
e precoci di adozione archeologica di software open source appare ad esempio il pacchetto GIS GRASS, utilizzato già dagli anni Ottanta in decine di progetti archeologici19, ma
non mancano sia casi di applicazione di tools già esistenti, sia casi di personalizzazione o
sviluppo di software o pacchetti dedicati, dalla gestione dell’acquisizione dei dati alla loro
analisi e diffusione (pacchetti per la gestione di stazioni totali, laser scanning, disegno
archeologico, trattamento delle immagini, GIS, database, ecc.).
Simili tendenze si registrano nella gestione dei dati archeologici.
I dati culturali si integrano in maniera sempre più pervasiva nella generale circolazione della conoscenza: gli approcci contestuali, in particolare, suggeriscono che le informazioni possono essere moltiplicate grazie alla interazione, relazione e l’esplosione di
semantica e di significati20.
Nello scenario emergente la comunità mondiale tende in maniera costante a una
sempre più massiccia condivisione di informazioni di interesse generale. Il modo in cui le
persone cercano cultura e informazione attualmente appare personalizzato, rapido, flessibile, mediato dalle tecnologie. Gli studenti, ad esempio, tendono sempre più a ricercare
informazioni con strumenti sociali accessibili via Internet, come Wikipedia.org,
Youtube.com, e accanto a tali strumenti generalisti stanno emergendo strumenti dedicati e
specialistici, come Academia.edu, o Slideshare.net, che consentono di condividere interessi di ricerca, documenti accademici, presentazioni scientifiche, divulgative, didattiche.
Inoltre, a partire dalla stessa matrice culturale, ulteriori strumenti e prassi si stanno
diffondendo: il social bookmarking (ad esempio: delicious.com), la condivisione di immagini (es: flickr.com), il social mapping (es: panoramio.com).
Ancora una volta, nella storia dell’evoluzione parallela dei media e dei contenuti, vi
è la necessità urgente di informazioni di alta qualità da inserire in maniera massiccia in
questo circuito tecnologico già ampiamente conosciuto e pervasivamente diffuso21.
Produttori di contenuti certificati e di alta qualità e cominciano ad avvicinarsi a questi modi di comunicare e di interagire con il pubblico e gli approcci sociali stanno emergendo anche nella pubblica amministrazione22.
Inoltre la prevedibile prossima immissione massiccia di contenuti di alta qualità
culturale nel circuito di circolazione della conoscenza lancia nuove questioni da affrontare, dalla gestione dei diritti di proprietà intellettuale alla certificazione di qualità, alla definizione dei livelli di accessibilità dei dati culturali23.
D’altra parte questo processo permette di supportare la ri-contestualizzazione dei
dati relativi ai beni culturali in un approccio aperto e multidisciplinare al territorio, insieme a dati economici, giuridici, amministrativi, logistici, e così via24.
Questo approccio non solo corrisponde alle tendenze internazionali e nazionali
nella gestione pubblica dei dati, ma può anche permettere un migliore sfruttamento delle
informazioni al fine di promuovere il turismo culturale, lo sviluppo economico del territorio, la costruzione e la circolazione della conoscenza.
Importanti progetti in questo campo riguardano proprio lo sviluppo di archivi aperti, repository aperti, confederazioni di repository aperti di contenuti culturali25.
Parallelamente gli interessi istituzionali sono rivolti alla definizione di strategie per
rendere i dati pubblici, interoperabili, integrabili: i dati culturali dovrebbero essere parte
19
FORTE 2002; LOCK 2003.
HODDER 1986; LOCK 2003.
21
BALDI-CITARELLA 2010.
22
MINERVA 2008; CAD 2010.
23
Cfr. il contributo di Morando e Tsiavos in questa sede.
24
MAUTONE-RONZA 2010.
25
CNIPA 2007; JONES 2007; ICOMOS OPEN ARCHIVE, EUROPEANA, CULTURAITALIA.
20
22
del processo generale, seppure, è appena il caso di ricordare, mantenendo attenzione sulle
specifiche caratteristiche e sulle esigenze disciplinari.
In campo accademico e didattico lo scenario della circolazione di informazioni
invalso con il web 2.0 comporta nuovi modi di produrre e condividere la conoscenza, in
modi reticolari, non precostituiti, come è ben rappresentato nel repository di materiali
didattici aperti e accessibili dalla comunità mondiale del progetto Open Learning del MIT
di Boston26.
Non trascurabile, infine, è la presenza di approcci aperti nella riflessione sulla trasparenza dei processi di interpretazione archeologica.
Nel settore dei beni culturali si è venuto definendo nelle recenti impostazioni un
approccio definito “filologico”, che rivendica sostanzialmente la dichiarazione esplicita
delle ipotesi insieme ai dati su cui si basano e del processo ermeneutico seguito dai ricercatori. Un tale approccio è ben identificabile per esempio negli studi di restauro e negli
studi museologici27. Istanze analoghe emergono altresì nella riflessione sulla ricostruzione virtuale archeologica, in cui gli studiosi più attenti sottolineano la tensione tra gli estremi della “persuasione” e dell’“inganno”, determinata dalla potenza della comunicazione
multi-sensoriale supportata dalle ricostruzioni realistiche28.
Le delicate questioni sono state affrontate da alcuni studiosi che hanno proposto
diverse soluzioni tecnologiche, quali texture trasparenti o di colore uniforme grigio per
rappresentare i dati incerti o ricostruiti, e per consentire agli utenti di distinguere tra i
diversi livelli di affidabilità, o l’introduzione di apparati di rimandi e note iper-mediali in
contesti tridimensionali29.
In tal senso aspettative ottimistiche per l’implementazione di tali approcci filologici alla ricostruzione virtuale del patrimonio culturale sono state legate ad esempio all’adozione di linguaggi di marcatura tridimensionali, con la conseguente possibilità di
approcci aperti da un lato al codice sorgente e dall’altra alle ricostruzioni proposte30.
Infine, alcune sfumature della discussione sull’approccio aperto ai processi di ricostruzione archeologica si intersecano con le ben note questioni sugli approcci processuali, all’ermeneutica archeologica e ai modelli formalizzati di ragionamento, aperti alla lettura e alla decostruzione. Questo approccio è stato discusso a causa delle forti implicazioni e ripercussioni sul concetto di dati archeologici, di processo, e sulla definizione della
spirale ermeneutica31. Gli approcci aperti possono incoraggiare e rinnovare questa discussione, in quanto consentono di pubblicare insieme i dati, interpretazione e processo di
interpretazione e ricostruzione seguito, ad esempio utilizzando i metadati e la dichiarazione esplicita della semantica e delle relazioni e aprendo così nuove e stimolanti prospettive di riflessione e indagine.
4. Le relazioni al convegno
Le esperienze presentate nell’edizione 2011 del workshop e la discussione svilup26
Il tema è sviluppato con maggior approfondimento in CANTONE et alii 2009 e nel contributo dell’autrice in questo volume.
27
Nel settore del restauro tali istanze emergono nelle procedure che tendono a rendere evidente la presenza del materiale di riempimento di zone mancanti, ad esempio in reperti e strutture archeologiche, oppure nel restauro della carta
o delle tele dipinte. In questo orientamento, i materiali usati dichiarano la loro estraneità all’opera originale piuttosto che ingannare l’osservatore, sfumando i confini tra originale e restaurato, contrariamente a quanto realizzato nelle
antiche procedure antiquarie (un interessante caso di studio, con una discussione critica dei diversi approcci in EMILIOZZI et alii 2007).
28
BARCELÒ 2001.
29
GRECO et alii 2008; CORALINI 2009.
30
RYAN 2001; CANTONE 2002; CANTONE-NICCOLUCCI 2003.
31
LOCK 2003.
23
24
pata consentono di delineare uno scenario di cambiamento, non sempre rapido e semplice, ma consistente e innegabile ed evidenziano spesso la compresenza di tools aperti e
software proprietario in una progressiva adozione di nuove logiche prima ancora che di
nuovi software.
La sessione dedicata alle Esperienze virtuose di gestione aperta della conoscenza culturale ha dunque costituito una felice novità nei workshop ArcheFOSS, segnandone e sottolineandone in qualche modo anche la maturazione e il consolidamento, delineando una panoramica di progetti realizzati, favorendo la discussione e lo scambio metodologico tra università, soprintendenze, comuni, ministero e costituendo una prima piattaforma di lavoro per la definizione di future iniziative istituzionali.
In tale contesto, particolarmente interessante è la presentazione parallela delle esperienze della soprintendenza romana, di quella napoletana e del comune di Napoli, che consentono di cogliere a più livelli la presenza di un sentire comune pur nella diversa articolazione delle esperienze condotte nei vari scenari istituzionali.
Il passaggio dai tradizionali approcci erogativi alle nuove istanze partecipative e
condivise nella produzione dell’informazione è descritto da Citarella per il sito web del
Comune di Napoli. Il contributo individua le fasi e le criticità dell’introduzione di una
piattaforma multimodale per l’integrazione di contenuti sociali. Il sistema realizzato vede
la compresenza di aspetti proprietari, ereditati da precedenti esperienze e puntualmente
riportati, e nuovi approcci aperti, tra cui appare interessare segnalare l’esperienza del rilascio dei contenuti copyfree, liberamente riutilizzabili secondo i termini previsti da un’apposita licenza Creative Commons.
Serlorenzi et alii presentano i risultati delle sperimentazioni condotte nell’ambito
del progetto SITAR, Sistema Informativo Territoriale Archeologico di Roma, iniziativa
che si colloca nel quadro delle riflessioni scaturite, tra l’altro, dalla partecipazione della
Soprintendenza archeologica di Roma alle iniziative ministeriali sulla realizzazione di
sistemi informativi nazionali del patrimonio archeologico.
Il contributo proposto da Esposito e Proto delinea nell’esperienza del progetto
ArcheoAtlante un approccio sistemico all’informazione archeologica pubblica, contestualizzata nel territorio su cui insistono le evidenze e nei luoghi in cui essi sono musealizzati, al fine di restituirne una lettura integrata.
Mango Furnari et alii affrontano il delicato tema dell’interoperabilità delle banche
dati sui beni culturali, presentando la piattaforma open source Octapy, che supporta da
anni vari circuiti virtuali di cooperazione su informazione culturale, tra cui il Circuito
Culturale della Campania.
Miele ripercorre le principali iniziative intraprese negli ultimi trent’anni dagli enti
di tutela campani focalizzate sull’informatizzazione dei dati archeologici, delineando un
percorso evolutivo di intense attività volte alla documentazione, tutela, sistematizzazione,
trasmissione e fruizione dell’informazione culturale.
Il ruolo della formazione accademica nell’evoluzione del settore dei beni culturali
è oggetto dell’intervento (Cantone) incentrato sull’esperienza del master in Ambienti
Multimediali per i Beni Culturali, improntato ad approcci aperti sia nel supporto strumentale informatico sia nei modelli didattici sia nei contenuti culturali affrontati.
Infine, interessanti spunti per la discussione sono aperti da Morando e Tsiavos, con
una riflessione sulla tensione esistente tra pratiche sociali di condivisione della conoscenza e normative sui beni culturali in Italia e Grecia.
La riflessione sull’impatto degli approcci e strumenti aperti in archeologia si dipana poi attraverso tre sessioni dedicate alle varie fasi della filiera operativa e alle correlate
esperienze di sviluppo e applicazione di metodologie, software, dati aperti.
La prima sessione, Documentare e ricostruire: strumenti e metodi aperti, si apre
con il contributo di Chianese et alii, che propongono un approccio sistemico alla filiera
della Virtual Archaeology, attraverso la definizione di un framework per la descrizione,
manipolazione e gestione di oggetti tridimensionali, con particolare riferimento ai domini
applicativi dell’archeologia e dei beni culturali. Il sistema è composto da un modello dei
dati, un’algebra per la ricerca degli oggetti e un set di tool software per una più agevole
utilizzazione da parte dell’utenza.
Bezzi e Dell’Unto propongono una comparazione di sistemi hardware e software, e
approcci sia commerciali che open source per la documentazione tridimensionale in
archeologia.
Moulon e Bezzi presentano gli ultimi sviluppi della loro ricerca sulla documentazione stereofotogrammetrica archeologica: il tool software open source realizzato è denominato PPT (Python Photogrammetry Toolbox) e mira a semplificare e rendere più efficace la filiera di documentazione archeologica tridimensionale, con particolare riferimento alle tecniche di Structure from Motion e Image-Based Modelling.
Spigarolo e Guidazzoli illustrano la filiera di lavoro adottata nella realizzazione del
progetto MDC (Museo della Città), finalizzato alla realizzazione di un cortometraggio tridimensionale dedicato alla storia della città di Bologna, basato su approcci filologici, aperti e costruttivisti.
La seconda sessione, La conoscenza archeologica: approcci aperti alla gestione
e analisi, è avviata da due lavori del gruppo foggiano, molto attivo negli ultimi anni sui
temi oggetto del workshop. Leone et alii presentano gli approcci aperti e le strumentazioni open source adottate nel primo triennio di attività del progetto italo albanese LIBURNA. Archeologia Subacquea in Albania, finalizzato alla redazione di un’archeologica del
litorale albanese, anche sulla base delle esperienze e dei risultati del progetto Itinera, presentato nelle precedenti edizioni di ArcheoFOSS. La realizzazione della Carta degli Ipogei
del centro storico di Foggia in ambiente open source è invece oggetto del contributo di De
Stefano et alii. Il progetto si inserisce nel contesto metodologico delle iniziative intraprese in Puglia con la redazione della Carta dei Beni Culturali della Regione Puglia recepita
dal nuovo Piano Paesaggistico Territoriale Regionale.
La riflessione viene ancor più arricchita e articolata attraverso ulteriori contributi
che presentano considerazioni metodologiche, proposte operative, buone pratiche. Costa,
Bianconi e Starnini descrivono un’esperienza di porting attraverso approcci aperti e condivisi di uno strumento software obsoleto che a supporto delle analisi tipometriche di
materiali litici preistorici.
Il lavoro di Bianconi et alii presenta un’applicazione mobile open source per la
gestione dell’informazione bibliotecaria.
Palombini descrive le potenzialità e le prospettive di utilizzazione in ambito archeologico di r-finder, uno script finalizzato a rendere più rapide e semplici le analisi spaziali
in ambiente Grass.
Le analisi spaziali sono al centro anche del contributo di Carrer e Cavulli, con utili
riflessioni relative all’analisi di casi di studio montani, contraddistinti da peculiarità puntualmente affrontate dagli autori nell’implementazione di indagini supportate da approcci
GIS.
Il progetto NDSS, Northern Daunian Subappennino Survey, (Stoico e d’Altilia)
adotta strumentazioni software open source nell’analisi spaziale multiscala applicata alle
indagini sulle dinamiche dell’incastellamento nei paesaggi medievali del comprensorio
del Subappennino Dauno Settentrionale, in provincia di Foggia.
Heinsch, Kuntner e Naponiello presentano l’esperienza di un’intera filiera aperta di
indagine archeologica del sito di Aramus in Armenia, dalla ricognizione allo scavo, alla
documentazione, alla didattica, sottolineando i vantaggi operativi e scientifici derivati
dalle scelte operate.
Una sessione conclusiva è dedicata alla Diffusione e condivisione dell’informazione scientifica in archeologia con la presentazione di due progetti sul web culturale.
Il contributo di Berardi et alii presenta il portale baseculturale.it nell’ambito del
progetto labc 3.0 Laboratori per la cultura. Il portale si basa su approcci semantici alla
gestione della conoscenza, anche attraverso appositi tools open source ed è finalizzato
25
all’acquisizione, condivisione e fruizione di contenuti culturali appartenenti al patrimonio
storico, paesaggistico e artistico italiano.
Vassallo e Pitzalis focalizzano l’attenzione sulle architetture aperte che sottostanno
alla realizzazione della biblioteca digitale di Cipro, progetto realizzato nell’ambito della
partecipazione del Cyprus Institute ad Europeana e ai progetti europei a essa collegati che
si occupano di garantire l’accessibilità e interoperabilità dei contenuti culturali digitali.
Come tradizione nell’ambito dei workshop ArcheoFOSS, è stata valorizzata, accanto alla stimolante discussione formalizzata svolta nelle sessioni scientifiche, la vivace circolazione di idee e scambi di esperienze condotte nelle sessioni di poster e laboratorio.
Con un esplicito riferimento ai modelli di sviluppo del software descritti nell’opera di Eric
S. Raymond, con riflessioni comparative che contrappongono da un lato approcci proprietari, gerarchici, chiusi e dall’altro quelli open source, condivisi, cooperativi, le due
modalità di circolazione dell’informazione scientifica sono state denominate LA CATTEDRALE, e IL BAZAAR.
Il BAZAAR, dedicato, dunque, all’Open Lab e ai Poster, ospitato dal Laboratorio
di Informatica e Archeologia della Facoltà di Lettere, ha accompagnato lo svolgimento
dell’intero evento, proponendo esperienze su aspetti concreti della pratica archeologica
nell’uso di strumenti open source.
Un poster è dedicato da Deola, Grazioli e Pedron all’adozione di software open
source nella documentazione grafica archeologica attraverso sistemi CAD e GIS.
Il poster di Paonessa descrive invece una migrazione di ambiente da proprietario a
libero per un GIS archeologico.
Lotto e Fiorini propongono i risultati preliminari di un’indagine condotta fin dalla
sua prima impostazione su software aperto e dati aperti presso il sito di Fondo Paviani
(Valli Grandi Veronesi). Il sistema è finalizzato alla registrazione e all’analisi di dati da
survey.
Con una voluta continuità con la tradizionale attenzione posta dai workshop
ArcheoFOSS alla didattica aperta, la poster session ha visto anche la presentazione dei
prototipi realizzati nell’ambito del Master in Ambienti Multimediali per i Beni Culturali:
C.S.A. Computer System in Archaeology: Rilievo, Georeferenziazione, Catalogazione e
Ricostruzione Tridimensionale del Territorio di Velia; Educational Village; MediaMiglio Museo e Centro documentazione del Miglio d’oro; Napoli Virtual Look.
26
Abbreviazioni bibliografiche
http://www2.cnipa.gov.it/site/_files/cnipa_quad_32.
pdf).
ANTINUCCI 2007
F. Antinucci, Musei Virtuali, Roma 2007.
CULTURAITALIA
http://www.culturaitalia.it/pico/.
BALDI-CITARELLA 2010
Tecnofuturo, L’alba di un nuovo medium, l’alba di
una nuova umanità, C. Baldi, P. Citarella (edd.),
Napoli 2010.
EMILIOZZI et alii 2007
A. Emiliozzi - P. Moscati - P. Santoro, The princerly
cart from Eretum, in Virtual Museums and
Archaeology, P. Moscati (ed.), in ACalc, suppl. 1,
2007, 143-162.
BARCELÓ 2001
J. A. Barceló, Virtual reality for archaeological
explanation. Beyond “picturesque” reconstruction,
in ACalc, 12, 2001, 221-244.
EUROPEANA
http://www.europeana.eu/portal/.
BRESNAHAN 2010
T. F. Bresnahan, Generality, Recombination and ReUse, in Rate and Direction of Inventive activity, J.
Lerner, S. Stern (edd.), 2011 (disponibile su
http://www.nber.org/confer/2010/RDIA10/bresnahan.pdf).
CANTONE 2002
F. Cantone, 3D standards for scientific visualization,
in Archaeological Informatics: Pushing the
Envelope, Proceedings of the 29th International
Conference, G. Burenhult, J. Arvidsson (edd.),
Oxford 2002, 163-172.
CANTONE 2007
F. Cantone, ArcheoBits. Archeologia e Nuovi Media,
Napoli 2007.
CANTONE et alii 2009
F. Cantone - A. Chianese - V. Moscato, Archeologia
Virtuale in Blended Learning. Esperienze, metodologie e strumenti all’Università “Federico II” di
Napoli, in ArcheoFOSS Open Source, Free Software
e Open Format nei processi di ricerca archeologica,
Atti del IV Workshop, P. Cignoni, A. Palombini, S.
Pescarin (edd.), Roma 2009, in ACalc, suppl. 2,
2009, 309-319.
CANTONE-NICCOLUCCI 2003
F. Cantone - F. Niccolucci, Legend and virtual reconstruction: Porsenna’s mausoleum in X3D, in The
Digital Heritage of Archaeology, Computer
Applications and Quantitative Methods in
Archaeology, Proceedings CAA 2002, 30th
International Conference, M. Doerr, A. Sarris (edd.),
Crete 2003, 57-62.
FLEMING 2001
L. Fleming, Recombinant Uncertainty in
Technological Search, in Management Science, 47,
2001, 117-132.
FORTE 2002
M. Forte, I sistemi informativi geografici in archeologia, Roma 2002.
GRECO et alii 2008
F. Cantone - G. Greco - B. Ferrara, Museo Narrante:
The Foce Sele Hera Sanctuary Virtual Museum, in
Layers of perception, Proceeding of the 35th
International Conference on Computer Applications
and Quantitative Methods in Archaeology (CAA), K.
Posluschny, I. Lambers, I. Herzog (edd.), Berlin
2007, Berlin 2008, 418-425.
HODDER 1986
I. Hodder, Reading the past. Current approaches to
interpretation in archaeology, Cambridge 1986.
ICOMOS 1990
Charter for the protection and management of the
archaeological heritage, prepared by the
International Committee for the Management of
Archaeological Heritage (ICAHM) and approved by
the 9th General Assembly, Lausanne 1990 (disponibile
su http://www.international.icomos.org/charters/arch_e.htm).
ICOMOS OPEN ARCHIVE
http://openarchive.icomos.org/.
JONES 2007
C. Jones, Institutional Repositories: Content and
Culture in an Open Access Environment, Oxford
2007.
CORALINI 2009
Vesuviana. Archeologie a confronto, Atti del
Convegno Internazionale, A. Coralini (ed.), Bologna
2008, Bologna 2009.
KIRSCHENBAUM 2010
M. G. Kirschenbaum, What is Digital Humanities
and What’s it Doing in English Departments?, ADE
Bulletin, 150, 2010, 55-61.
CNIPA 2007
Vademecum per la realizzazione di progetti formativi in modalità e-learning nelle pubbliche amministrazioni, II edizione, in I Quaderni Centro
Nazionale per l’Informatica nella Pubblica
Amministrazione, 32, 2007 (disponibile su
LANG et alii 2007
K. R. Lang - D. Vragov - R. Shang, Designing markets for open source production of digital culture
goods, in Proceedins of the ninth international conference on electronic commerce, New York 2007, 283292.
27
LOCK 2003
G. Lock, Using Computers in Archaeology: Towards
Virtual Pasts, London 2003.
MARKUS 2001
M. L. Markus, Toward a Theory of Knowledge
Reuse: Types of Knowledge Reuse Situations and
Factors in Reuse Success, Journal of Management
Information Systems, 18, 2001, 57-93.
MAUTONE-RONZA 2010
M. Mautone - M. Ronza, Patrimonio culturale e paesaggio. Un approccio di filiera per la progettualità
territoriale, Roma 2010.
MINERVA 2008
Minerva Handbook on cultural web user interaction,
2008 (disponibile su http://www.minervaeurope.org).
MOSCATI 2009
La nascita dell’informatica archeologica, Atti del
Convegno Internazionale, P. Moscati (ed.), Roma
2008, in ACalc, 20, 2009.
OLIMPO 2010
G. Olimpo, Società della conoscenza, tecnologia,
educazione, in TD-Tecnologie Didattiche, 50, 4-16.
ORLANDI 2003
T. Orlandi, Lo status accademico dell’Informatica
umanistica, in ACalc, 14, 2003, 7-32.
RAYMOND 1999
E. S. Raymond, The Cathedral and the Bazaar:
Musing on Linux and Open Source by an Accidental
Revolutionary, London 1999.
FORUM 2011
Forum Consultazione linee guida per i siti web delle
PA, 2011 (disponibile su http://apps.innovazionepa.it/forum/forum_topics.asp?FID=16&TS=7).
GELMINI 2011
Legge 30 dicembre 2010 n. 240. Riforma universitaria “Norme in materia di organizzazione delle università, di personale accademico e reclutamento, nonché delega al Governo per incentivare la qualità e
l’efficienza del sistema universitario” G.U. n. 10 del
14 gennaio 2011 (Suppl. Ord.) (disponibile su
h t t p : / / w w w. p a r l a m e n t o . i t / e l e n c h i l e g gi/43858/92024/elencoleggi.htm).
LINEE GUIDA 2011
Linee guida per i siti web della PA, 2011 (disponibile su http://www.innovazionepa.gov.it/comunicazione/notizie/2011/maggio/11052011-lg-versione-preliminare-per-consultazione.aspx).
OSSERVATORIO 2011
DigitPA - Osservatorio Open Source (disponibile su
http://www.osspa.cnipa.it/home/index.php).
Per tutti i riferimenti web ultimo accesso in data
18/04/2012.
Edizioni precedenti
RYAN 2001
N. Ryan, Documenting and validating virtual
archaeology, in ACalc, 12, 2001, 245-273 (disponibile
su
http://soi.cnr.it/archcalc/indice/PDF12/13Ryan.pdf).
I workshop (2006)
http://w w w.a rc he ogr.unis i.it/a s ia a /ope n/index.php?id=w06_ab
Università di Siena, Polo Universitario Grossetano.
SETTIS 2007
S. Settis, Italia S.p.A. L’assalto del patrimonio culturale, Torino 2007.
II workshop (2007)
http://workshop07.iosa.it/workshop07/index.php
Università di Genova, a cura del Grupporicerche e
dell’Istituto di Studi Liguri.
WILLIAMS 2002
S. Williams, Free as in Freedom: Richard Stallman’s
Crusade for Free Software, Sebastopol 2002.
III workshop (2008)
http://www.perseo.lettere.unipd.it/workshop08/doku.php
Università di Padova.
Appendice normativa
IV workshop (2009)
http://www.archeologiadigitale.it/foss2010/foss2009/
index.html
CNR di Roma.
CAD 2010
Codice dell’Amministrazione Digitale - Il testo
vigente, DECRETO LEGISLATIVO 30 dicembre
2010,
n.
235
(disponibile
su
http://www.digitpa.gov.it/amministrazionedigitale/CAD-testo-vigente).
28
dell’Articolo 10 Legge 6 luglio 2002, n. 137,
G.U.R.I. Serie Generale (SO) 24 febbraio 2004, n. 28
(disponibile su http://www.beniculturali.it/mibac/export/MIBAC/sito-MIBAC/MenuPrincipale/Normativa/Norme/index.html).
CODICE 2004
Decreto Legislativo 22 gennaio 204, n. 42. Codice
dei Beni Culturali e del paesaggio, ai sensi
V workshop (2010)
h t t p : / / w w w. a r c h e o l o g i a d i g i t a l e . i t / a r c h e o foss/2010.html
Università di Foggia.
ATTI
Esperienze virtuose di gestione aperta della conoscenza culturale.
Maria Mautone
ARCHEOFOSS. Esperienze virtuose di gestione aperta alla
conoscenza culturale
Essendo il paesaggio l’archivio del susseguirsi dinamico delle vicende storiche
della natura e della società, ne consegue che in esso sono sedimentate anche le componenti archeologiche alle quali i processi di pianificazione e strutturazione sostenibile del
territorio riconoscono ormai un ruolo complesso e determinante.
La prospettiva di promuovere a larga scala un’utenza ampia e diversificata nonché
di esaltare le valenze economiche e sociali, oltre che identitarie del paesaggio culturale e
dei siti archeologici, ha portato gli studiosi a confrontarsi con professionalità e competenze eterogenee. Alle logiche della conservazione e della tutela si sono gradualmente
affiancate quelle della valorizzazione, della fruizione e della gestione competitiva, le cui
best practices corrono su due binari paralleli ma rivolti a un obiettivo comune.
Come emerge dagli interventi della sessione, le moderne tecnologie applicate alla
ricerca archeologica lavorano nella direzione della diffusione globale delle conoscenze
acquisite nell’area di scavo; con tale prospettiva esse vengono trasferite in siti web, progettati secondo diversi livelli di complessità e aperti all’implementazione delle immagini
e dei contenuti. Alle pagine web si affianca la modellazione in 3D e la cartografia del sito
si trasforma in mappe interattive che, consultabili a scala diversa, consentono la piena
consapevolezza del percorso storico dalle fasi d’avvio, a quelle di sviluppo e di declino.
In forma meno dura e più accessibile, ma ugualmente valida dal punto di vista
scientifico-metodologico, vengono in tal modo riproposte le analisi condotte sulla stratificazione archeologica e i risultati a cui si è pervenuti con campagne di scavo complesse
e integrate. Quando la raccolta e l’archiviazione critica dei dati diventano strumento operativo per gli specialisti del settore, allora l’interpretazione degli elementi quantitativi si
predispone per le più articolate analisi dei processi storico-culturali cui risalgono gli assetti territoriali.
La divulgazione del sapere archeologico è ormai diventata un nodo centrale per il
futuro stesso della disciplina e per le nuove prospettive che a essa si aprono; di primaria
importanza diventa, quindi, il processo di sensibilizzazione delle giovani generazioni nei
confronti delle componenti culturali del paesaggio. È ben noto quanto nel nostro Paese
l’imprinting territoriale sia fortemente riconducibile alla storicità delle sue componenti
che si riconoscono nella influenza dei Greci nel Mezzogiorno, degli Etruschi nell’Italia
centro-settentrionale, nonché alla razionale, incisiva e diffusa sistemazione dello spazio
urbano e rurale di matrice romana. Importante tassello nel processo di definizione dell’identità locale, nazionale ed europea, le componenti archeologiche, così come riconosciuto dalla Convenzione Europea del Paesaggio (ottobre 2000), devono pertanto essere
oggetto di indagine ai fini sia della ricerca specialistica, sia della corretta pianificazione e
programmazione territoriale, così come sono pure decisive per rinsaldare il legame connaturale tra le comunità e i contesti di riferimento.
Ma l’uso di tecnologie innovative può incorrere in rischi; la fruizione web-oriented
di siti archeologici, i portali web culturali e musei virtuali possono, infatti, compromette-
33
re la frequentazione stessa dei siti e dei contesti territoriali, che invece hanno in sé potenti fattori d’attrazione, e svilirne il complesso di valenze.
In realtà, quando ben costruita e adeguatamente orientata, la circolazione d’informazioni sul ruolo culturale delle aree archeologiche, lì dove la valenza del sito è già acclarata, agisce invece da moltiplicatore di flussi turistici, rafforzandone o ampliandone il
bacino d’utenza; parimenti là dove i siti archeologici ricadono piuttosto in aree marginali,
lontani da città d’arte o da altri circuiti del turismo nazionale e internazionale, l’attivazione di un sito web accessibile dai portali turistici più accreditati può anch’essa essere avvio
di una decisiva inversione di tendenza nell’economia locale e nell’assetto di ambiti territoriali non ancora coinvolti dalle positive ricadute della valorizzazione del patrimonio
archeologico.
La dimensione locale può in tal modo non rimanere danneggiata dalle nuove modalità di fruizione che operano su una scala globale; al contrario, la consapevolezza del ruolo
che la società post-industriale riconosce al patrimonio culturale - interpretato quale risorsa innovativa, ecocompatibile, non delocalizzabile - rinnova l’attenzione di amministratori, enti e soggetti pubblici e privati verso le componenti culturali del paesaggio. Per la
valorizzazione e la gestione competitiva dei siti archeologici diventa indispensabile disporre di una piattaforma condivisa di dati georiferiti, opportunamente classificati secondo
variabili e parametri significativi in modo da orientare e innervare le linee strategiche della
pianificazione paesistico-ambientale, come pure gli interventi infrastrutturali e i processi
d’espansione insediativa.
Ne sono un esempio i Sistemi Informativi Territoriali che, da strumenti per la tutela e la gestione del patrimonio archeologico, si propongono anche come spazi per la partecipazione e la condivisione delle scelte. L’utilizzo di software innovativi, quali ad esempio i GIS (Geographical Information System), consente di elaborare database per l’analisi integrata e sistemica di dati archeologici risalenti a periodi diversi, riconducibili a scuole e pratiche di scavo eterogenee.
Le piattaforme che ne derivano diventano strumenti indispensabili per la promozione del cultural planning, ovvero della pianificazione che parte dalla consapevolezza
del patrimonio culturale - archeologico, artistico-monumentale e storico-identitario - inteso quale componente imprescindibile su cui definire le visions di sviluppo e la progettualità territoriale.
I processi, in ambiente virtuale, di promozione dei siti archeologici devono trovare
riscontro nella realtà dei contesti di riferimento, per non ridurre l’azione di promozione a
uno sterile autoreferenzialismo incapace di produrre ricadute sulle comunità e i territori
interessati. Tale prospettiva consente di irrobustire l’anello debole che lega archeologi e
pianificatori nel difficile ambito della programmazione territoriale.
Il settore delle Innovation and Communication Technologies (ICT) anch’esso estende e amplia lo spettro delle competenze archeologiche, nel loro progressivo confrontarsi
sul piano delle opportunità che l’archeologia preventiva e quella programmata ricavano
dai processi multimediali e virtuali. Molteplici sono state pertanto le innovazioni nei
metodi e negli approcci che hanno interessato la ricerca di base e quella applicata; chiamati a confrontarsi con le esigenze dello sviluppo territoriale, a individuare strategie affinché anche i siti e le aree di scavo abbiano ricadute economico-sociali, gli archeologi sono
chiamati sempre più a misurarsi con molteplici professionalità che spaziano dall’ambito
umanistico a quello propriamente scientifico-tecnologico. Il complesso ventaglio di competenze che tendono alla valorizzazione, alla fruizione e alla gestione richiede infatti la
proposizione di approcci multidisciplinari ove è centrale il ruolo dell’archeologo affinché
si definisca la prospettiva più corretta e idonea per esaltare, con le moderne tecnologie
della comunicazione e dell’innovazione, i valori e le valenze di ritrovamenti e siti.
34
Paola Moscati
Open Science e Archeologia
Desidero anzitutto ringraziare gli organizzatori della manifestazione, e in particolare Giovanna Greco a cui mi lega un antico sodalizio scientifico, insieme al Consiglio
Scientifico di ArcheoFoss per l’invito a partecipare alla sesta edizione del Workshop Open
Source, Free Software e Open Format nei processi di ricerca archeologica. Questa occasione mi consente, infatti, sia di rievocare un ricordo personale sia di approfondire una
tematica di indagine che ha sempre guidato il tipo di approccio all’informatica archeologica e il percorso evolutivo della rivista Archeologia e Calcolatori, che da oltre venti anni
rappresenta questa disciplina di confine tra i due rami del sapere.
Il legame con l’Università degli Studi di Napoli Federico II risale agli inizi degli
anni Novanta, quando su iniziativa di Mauro Cristofani, maestro dotto e lungimirante, fui
chiamata nell’anno accademico 1993-94 come professore a contratto presso la Scuola di
Specializzazione in Archeologia per tenere il corso di Applicazioni informatiche alla
ricerca archeologica. E proprio presso la Facoltà di Lettere e Filosofia si era svolto pochi
anni prima, precisamente nel 1991, il convegno promosso da Cristofani su Beni Culturali.
Ricerca-Didattica-Profili professionali, in cui ero stata invitata a tenere una relazione su
Informatica e Beni Culturali.
Napoli, dunque, già si proponeva agli inizi degli anni Novanta come un polo all’avanguardia e attento al rapporto tra formazione e professionalizzazione e alle ricadute di
progetti di ricerca improntati su criteri di interdisciplinarità. L’ateneo federiciano ha svolto così un ruolo di primo piano negli sviluppi dell’informatica archeologica, distinguendosi non solo per la feconda attività didattica, ma anche per la promozione di forme di
interazione fra università ed enti preposti alla tutela, per integrare conoscenze specifiche
con politiche di valorizzazione e di comunicazione.
A Napoli sono poi tornata in altre occasioni, con impegni preminentemente di carattere didattico. Per rimanere nel tema della comunicazione, tra queste occasioni vorrei
ricordare in particolare l’esperienza nel 2000 presso il Master di Alta Formazione in
Multimedialità e Beni Culturali. L’invito di Giovanna Greco coglieva con anticipazione
un tema di particolare attualità: la volontà di inserire l’archeologia nella “società dell’informazione”, attraverso forme di diffusione del sapere in cui vigesse il rispetto verso un
pubblico a cui è necessario comunicare in modo serio e corretto i risultati delle ricerche.
Con il termine multimedialità gli organizzatori del corso intendevano porre subito
l’attenzione sulla diffusione di nuovi sistemi informativi, particolarmente flessibili nel
trattamento di dati eterogenei e nell’esame delle loro reciproche connessioni. Infatti, i
sistemi multimediali, pur prendendo avvio dalle più tradizionali banche dati, mirano a
integrare fonti di informazioni differenziate, secondo una nuova filosofia comunicativa
che è senz’altro il risultato della rivoluzione introdotta da Internet.
È da notare, dunque, la costante attenzione dell’ateneo napoletano alla formazione,
che deve avvenire all’interno di una università concepita - per usare le parole di Fulvio
Tessitore a chiusura del convegno del 1991 - come il luogo «dove il nesso fra didattica e
35
ricerca ha una ricaduta interna sulla didattica dei risultati della ricerca». Nel settore dei
Beni Culturali, dunque, la comunicazione diviene una base imprescindibile per la condivisione delle conoscenze, che facilita sia l’opera e l’integrazione dei diversi enti preposti
alla catalogazione e alla tutela dei beni sia la fruizione da parte di un pubblico più ampio.
Questa politica accademica ha avuto come risultato una serie di progetti scientifici e didattici e l’organizzazione di numerose manifestazioni, di cui la sesta edizione del Workshop
ArcheoFoss costituisce un significativo punto di arrivo.
Nel dipanarsi degli eventi scientifici, infatti, gli esiti delle ricerche non sono mai
casuali, ma si costruiscono su solide basi. L’interesse per la didattica, per la comunicazione scientifica e per lo scambio dei dati non poteva non convergere sugli interessi del movimento dell’open source e dell’open access. Si tratta di un percorso assai simile a quello
seguito dalla nostra rivista Archeologia e Calcolatori che ha aderito fin dal 2005 all’Open
Archives Initiative, con l’intento di adottare tecnologie all’avanguardia per la diffusione di
contenuti scientifici in rete. Un’iniziativa che non si sarebbe mai potuta realizzare senza
alle spalle una politica editoriale fermamente improntata a una visione della ricerca che
deve attuarsi in un contesto di libera condivisione dei saperi e a un uso precoce del web
come strumento di diffusione delle informazioni.
Fin dal primo numero della rivista la scelta di un ambiente operativo “aperto” è
sostenuta da T. Orlandi (L’ambiente Unix e le applicazioni umanistiche), proprio mentre
si intensificano i primi tentativi di adottare sistemi multimediali per la descrizione e l’archiviazione dei dati archeologici. Ma è soprattutto a partire dagli anni centrali del primo
decennio del nuovo Millennio che, con l’evoluzione delle tecnologie informatiche, l’interesse si rivolge sempre più insistentemente al problema della costituzione di una rete di
sapere archeologico aperto e condiviso, che s’inserisce prepotentemente nella politica
nazionale e internazionale per lo sviluppo di nuove forme di apprendimento e di diffusione della cultura che prevedono anche il pubblico accesso al sapere.
Archeologia e Calcolatori, dunque, si è impegnata direttamente in questa nuova
politica editoriale, attraverso la realizzazione di un repository OAI-PMH, dando la possibilità ai suoi lettori di accedere liberamente agli articoli pubblicati annualmente nella rivista. Una politica che trova il suo coronamento nel 2009 nella pubblicazione del secondo
supplemento, dedicato agli atti della quarta edizione del convegno ArcheoFoss, e nell’invito odierno a questa manifestazione. L’auspicio è di poter vedere realizzata attraverso le
moderne tecnologie la prospettiva di una “Open Science”, in cui si consolidi l’idea della
conoscenza scientifica come bene pubblico fondamentale per lo sviluppo delle politiche
della ricerca.
36
Pietro Citarella
Il sito internet del Comune di
Napoli: da strumento informativo
a spazio per la condivisione e la
partecipazione
Abstract
Over the last years the web changes have required a continuous update/adjustment of public bodies’
websites in order to respond to citizens’ information needs. Many years ago, the City of Naples’ website
(www.comune.napoli.it) has been given an open source technologies for the management of dynamic pages
(PHP and server Linux operating system). Moreover, all the contents posted have been provided with a creative commons license in order to promote the free dissemination and sharing of information. The awareness
of having an audience made up of citizens increasingly interconnected and in continuous movement has transformed the homepage into an important tool to spread geo-localized and customized contents.
1. L’evoluzione verso il social web
Il Web è cambiato radicalmente negli ultimi anni. L’insieme di pagine html, collegamenti ipertestuali, database, applicazioni scritte nei più disparati linguaggi di programmazione (php, perl, java, asp, ajax) o create grazie a framework come Adobe Air, Flash,
Microsoft Silverlight, costituiscono uno spazio ricchissimo, seppur caotico, di informazioni e dati a disposizione degli utenti della rete. In questo “disordine” gli algoritmi dei
motori di ricerca come Google, sempre più sofisticati, provano a individuare criteri per la
classificazione e l’organizzazione delle pagine, in modo da restituire risultati coerenti con
le query di ricerca, capaci cioè di rispondere al bisogno di conoscenza di chi si affida a
Internet per ottenere velocemente informazioni.
L’evoluzione del World Wide Web verso un’esperienza sempre più sociale e l’affermazione delle piattaforme di social media come paradigma di riferimento nell’uso quotidiano della rete, hanno fatto in modo che l’utente trascorra il proprio tempo online all’interno dei rassicuranti recinti di social network come Facebook1. Chi utilizza Internet non
ha più bisogno di spostarsi da un link all’altro per controllare il proprio blog, per vedere
video, giocare o mandare e-mail agli amici, perché può fare esattamente le stesse cose
restando sulla sua pagina personale, ben sapendo che saranno le informazioni a trovarlo
attraverso le notizie condivise dalla propria rete di contatti. I legami che alimentano queste reti, vale a dire l’interesse, le esperienze comuni, la conoscenza diretta, l’identità nelle
passioni, costituiscono un filtro in grado di selezionare automaticamente le informazioni
senza necessità di interventi diretti da parte dell’utente della piattaforma sociale.
La grande quantità di conoscenze che ogni giorno viene condivisa, riproposta e
generata sui social network favorisce anche la partecipazione dell’utente che si trova a
essere utilizzatore e creatore delle informazioni, spesso adattando il messaggio secondo i
1
www.facebook.com
37
1. A sinistra la
vecchia homepage
del sito www.comune.napoli.it e a
destra la nuova
pagina iniziale.
propri modelli comunicativi, arricchendolo con commenti o riproponendolo in forme
diverse. Questo spazio di condivisione e partecipazione ha portato all’affermazione di uno
schema che l’utente di Internet si aspetta di trovare in ogni luogo virtuale con cui viene a
contatto, sia esso ludico, di intrattenimento o istituzionale.
2. Il sito web del Comune di Napoli
La consapevolezza di avere un pubblico formato da cittadini sempre più interconnessi e in continuo movimento ha portato a trasformare la home page del sito istituzionale del Comune di Napoli2 in una sorta di punto di partenza verso contenuti condivisibili,
multimediali, geolocalizzati e personalizzati. Vanno in questa direzione il canale Youtube,
le audio notizie, i feed RSS, le applicazioni per gli smartphone Apple e Android, le mappe
di Google con numerosi punti di interesse (biblioteche, mercati, sedi municipali, parchi
cittadini, siti museali), la WebTv comunale e il portale dei servizi online: strumenti capaci di offrire informazioni e notizie attraverso un sistema multicanale e integrato.
L’evoluzione della pagina di ingresso del portale istituzionale testimonia il passaggio del
web da strumento prettamente informativo a spazio multimediale e sociale, in cui è l’utente a decidere il canale che ritiene più adatto per la ricerca delle notizie: da una homepage che riproponeva un format a tre colonne caratteristico dei giornali cartacei, con le
informazioni più importanti al centro e quelle meno rilevanti sulle colonne laterali, si è
passati a una pagina molto più leggera, ricca di fotografie, grafica e metafore sotto forma
di icone (fig. 1).
Il software utilizzato per la gestione dei contenuti è un CMS (content management
system) il cui codice, pur non essendo opensource, è stato però ampiamente modificato e
personalizzato. Il vantaggio di questo software (fig. 2) è quello di restituire un codice completamente accessibile, quindi con pagine web fruibili anche da parte di persone con disabilità di tipo visivo o motorio, secondo quelli che sono i dettami normativi della Legge
n. 4 del 2004 (Legge Stanca) che impone a tutte le pubbliche amministrazioni l’obbligo di
garantire il diritto di accesso ai servizi informatici e telematici e ai servizi di pubblica utilità alle persone disabili. L’attenzione al tema dell’accessibilità e l’obiettivo di abbattere
le “barriere virtuali” che limitano l’accesso dei disabili alla società dell’informazione,
2
38
www.comune.napoli.it
2. L’area
amministrativa
del CMS
utilizzato per la
gestione dei
contenuti.
3. Il canale
Youtube del
Comune di
Napoli.
sono da sempre principi ispiratori nella realizzazione delle pagine web del Comune di
Napoli: l’accessibilità, quindi, come misura di civiltà.
Dal 2006 i server su cui si trovano le pagine del sito internet www.comune.napoli.it
utilizzano sistemi operativi basati su Linux. Le pagine dinamiche sono create con il linguaggio opensource Php, mentre tutti i database sono basati su MySQL (i cataloghi delle
biblioteche comunali, i comunicati stampa, le graduatorie per contributi e borse di studio,
i bandi di gara, ecc.), altro software a codice aperto.
L’obiettivo di favorire la diffusione delle conoscenze e la condivisione dei dati pubblici disponibili sul sito del Comune di Napoli, ha portato alla scelta di rendere i contenuti copyfree, quindi liberamente riutilizzabili secondo i termini previsti da una apposita
licenza Creative Commons che prevede l’obbligo di attribuire la paternità dell’opera, di
distribuire i dati e le notizie utilizzando la stessa licenza e il divieto di utilizzarli a fini
commerciali (Attribuzione - Non commerciale - Condividi allo stesso modo 2.5 Italia CC
BY-NC-SA 2.5)3.
3. Partecipazione e trasparenza
Le potenzialità dei social media non possono essere ignorate ormai da nessuna
amministrazione pubblica. Se si vuole creare, finalmente, un rapporto diretto e continuo
con i cittadini è necessario sperimentare e utilizzare nuovi canali di comunicazione che
affianchino (e in alcuni casi sostituiscano) gli schemi informativi tradizionali. La capacità di moltiplicare il messaggio, grazie alla possibilità di condividerlo, modificarlo e adattarlo alla piattaforma sociale, trasforma lo schema della comunicazione istituzionale. Non
è più il classico modello uno-a-molti (broadcast) ma muta in uno schema che propone una
3
Per maggiori informazioni sulle licenze creative commons si veda il sito http://creativecommons.it.
39
richiesta continua di feedback e di sollecitazioni “dal basso”, dagli stessi cittadini che
costituiscono il pubblico di riferimento. Da qualche anno il Comune di Napoli ha aperto
diversi profili su alcuni social media, come Twitter e Friendfeed, con un buon successo,
arrivando a contare in totale circa 3.000 contatti. Il canale su Youtube (fig. 3), con video
che raccontano le iniziative e gli eventi di cui il Comune di Napoli è stato protagonista, ha
raccolto finora oltre 200.000 visualizzazioni. La semplicità e l’immediatezza degli strumenti messi a disposizione dalle piattaforme sociali consentono di raggiungere senza filtri gli utenti, ampliando il numero di cittadini informati e riducendo la distanza con alcune fasce di popolazione, come quelle giovanili, poco abituate a cercare le notizie sui siti
delle pubbliche amministrazioni.
Ai social network si aggiungono quelli che sono i canali tradizionali, come la posta
elettronica, i feed RSS con le principali notizie, i podcast con i radio notiziari degli uffici
stampa di Giunta e Consiglio, diverse newsletter con oltre 10.000 iscritti e due applicazioni per i sistemi Apple e Android, per garantire l’accesso alle informazioni anche agli
utenti in mobilità (sviluppate entrambe a costo zero). L’app per il sistema Android è stata
creata utilizzando un plugin per wordpress, il noto CMS opensource utilizzato da milioni
di blogger in tutto il mondo.
L’informazione geolocalizzata, cioè la visualizzazione su mappa di punti di interesse, itinerari culturali, servizi e notizie di carattere storico, sociale, artistico ecc. ha conosciuto una vera e propria esplosione grazie all’aumento dei dispositivi mobili e a numerose applicazioni in grado di sfruttare il segnale GPS disponibile ormai in tutti i cellulari di
nuova generazione. Rispondendo, pertanto, alla domanda di informazioni localizzate geograficamente, sul sito istituzionale sono disponibili numerose mappe Google, integrate
direttamente all’interno delle pagine, contenenti punti di interesse e informazioni di varia
natura: dai cantieri stradali con i relativi dispositivi di traffico, alla localizzazione di
musei, sedi espositive, biblioteche comunali, parchi e mercati cittadini. Ogni punto di interesse è accompagnato da informazioni aggiuntive come orari di apertura, fotografie, schede di approfondimento e così via.
È in via di realizzazione un progetto che consentirà ai cittadini, previa registrazione, di utilizzare telefonini e tablet dotati di GPS per inviare alla piattaforma, in tempo
reale attraverso delle applicazioni mobili, informazioni su dissesti stradali ma anche, per
ciò che riguarda i beni culturali, segnalazioni su atti di vandalismo a monumenti, situazioni di pericolo o occupazioni abusive. Un’idea in cantiere è quella di una mappatura
delle numerose edicole votive di Napoli, realizzata grazie al contributo dei cittadini che
potranno segnalare la posizione di una edicola, aggiungendo foto o altri dettagli. Il sistema prevede una serie di verifiche da parte del Comune dopo la segnalazione e quindi, solo
successivamente, l’aggiornamento dei dati.
4. La sezione turismo e cultura
La sezione Turismo e Cultura è particolarmente ricca di contenuti e punta a essere
uno strumento utile sia per il turista sia per l’appassionato di arte. Nella prima pagina un
contenitore raccoglie i principali eventi culturali, le mostre e i convegni ospitati dalle strutture gestite direttamente dal Comune di Napoli, ma anche dalle altre importanti istituzioni culturali della città. Una pagina è dedicata alla localizzazione su mappa Google dei
musei e delle principali sedi espositive della città, come già accennato; ciascun punto di
interesse permette di ottenere informazioni sulla struttura: come numero di telefono, orari
di apertura, costo del biglietto di ingresso, ecc. Attraverso una piattaforma creata dalla
Napoli Servizi, una delle aziende partecipate del Comune di Napoli, è possibile visualizzare, sempre su mappa Google, itinerari culturali e numerosi punti di interesse (come chiese, chiostri, palazzi storici) con fotografie e informazioni approfondite. E’ possibile, per
esempio, seguire l’itinerario di Spaccanapoli con informazioni su tutte le chiese e i palaz40
zi storici che arricchiscono l’area. Numerose sono, inoltre, le pagine con notizie e informazioni di carattere storico e artistico sulle strutture i cui servizi sono gestiti dal Comune
di Napoli, come Castel Nuovo e il Castel dell’Ovo. Particolarmente utile risulta anche la
sezione dedicata alle biblioteche comunali, mappate e geolocalizzate in base alla
Municipalità di appartenenza, in modo da poter essere agevolmente individuate dai cittadini. Per ogni biblioteca esiste un catalogo dei libri custoditi consultabile online, oltre a
pagine con gli eventi e le iniziative organizzati all’interno di ciascuna struttura. Tutte le
pagine della sezione Turismo e Cultura sono disponibili anche in lingua inglese, grazie a
una convenzione con l’Università L’Orientale che ha messo a disposizione, in una prima
fase, dei traduttori professionisti per le pagine più complesse, per poi inviare presso i
nostri uffici giovani studenti che si sono occupati di tradurre tutte le pagine gratuitamente, svolgendo tirocini formativi presso il Comune di Napoli.
L’architettura delle informazioni di un sito web di una pubblica amministrazione
non può considerarsi definitiva, ma deve necessariamente mutare adeguandosi all’evoluzione delle tecnologie, ai nuovi bisogni del cittadino e all’esigenza di garantire partecipazione e trasparenza. Il lavoro degli intermediari della comunicazione pone ogni giorno gli
addetti ai lavori davanti a sfide emozionanti e complesse e richiede un grande equilibrio
tra la necessità di informare e comunicare con i cittadini e l’esigenza di semplificare le
forme e le modalità con cui i messaggi sono trasmessi. Il compito più difficile è, probabilmente, quello di filtrare le informazioni da tutti quegli elementi che poco hanno a che
fare con la comunicazione istituzionale (propaganda indiretta, sponsorizzazioni nascoste,
comunicazione politica in senso stretto) e che raramente interessano al cittadino. I professionisti della comunicazione dovrebbero attribuire alla trasparenza un duplice significato:
da un lato come garanzia di libero accesso a tutte le informazioni disponibili e dall’altro
la capacità dei comunicatori pubblici di nascondersi fino a sparire quasi del tutto nell’ambito del processo di comunicazione istituzionale, in modo che il cittadino non si accorga
dell’attività di filtro, sistemazione e organizzazione delle informazioni pubbliche.
41
Referenze iconografiche
Autore: figg. 1-3.
Pietro Citarella
Comune di Napoli
[email protected]
42
Floriana Miele
Modelli di conoscenza e sistemi
informativi per la tutela, la gestione
e la valorizzazione del patrimonio
archeologico: esperienze in
Campania
Abstract
This article is intended to review the contact points and mutual interactions between the information
technologies and the domain of cultural heritage, starting from the analysis and cataloguing methods applied
both to scientific and historical research. After some considerations about the definition and poly-semantic
meaning of the expression “cultural good”, the Author briefly describes the evolution of technologies and
information systems and applications adopted by Cultural and Archaeological Institutions in Campania along
the past thirty years in the most important projects. In these ones patterns and models of catalogue and territorial information systems had been realized for knowing, safeguarding and promoting the historical and
archaeological heritage: from databases and information retrieval to GIS and CMS, from Web sites to the
cooperative and distributed Web systems for communicating cultural contents. Finally the Author outlines that
the most important goal to achieve should be the knowledge of cultural goods in their whole “life cycle” from
the native site and original time of creation up to the their current conservation or exhibition place1.
1. Il concetto di “bene culturale” e sua contestualizzazione spaziale e temporale
Il dominio del “patrimonio culturale” si manifesta invero come un ambito di ricerca e di intervento problematico, in primo luogo per l’attribuzione di una definizione condivisa al concetto stesso di “bene culturale”, che va in realtà inteso come un’entità materialmente unitaria ma ontologicamente multi-dimensionale, pluristratificata e multisemantica.
Il “bene culturale”, infatti, da un punto di vista tecnico, è portatore di una serie di
attributi intrinseci che lo identificano in modo univoco, ma contemporaneamente, da un
punto di vista storico, si relaziona a dati connessi alla sua micro e macro contestualizzazione sia spaziale rispetto a determinati sistemi di riferimento geografici, sia temporale in
senso sincronico e diacronico2; come pure esso può diventare fulcro di una serie di funzioni (patrimoniale, scientifica, documentaria, espositiva, didattica) e di attività estrinseche a esso correlate (amministrative, catalografiche, di rilievo grafico e fotografico, di
restauro, di movimentazione e di musealizzazione) a loro volta generatrici di ulteriori
informazioni connotanti, che ne compongono nell’insieme la vicenda storica o “ciclo di
vita”.
1
Esprimo un doveroso ringraziamento alla Prof.ssa Giovanna Greco del Dipartimento di Discipline Storiche
dell’Università degli Studi Federico II di Napoli e al Comitato direttivo del Workshop ArcheoFOSS 2011 per il cortese invito rivoltomi a partecipare alla manifestazione con questo personale contributo.
2
Sul problema della contestualizzazione del bene culturale: PIEROBON et alii 2005; MIELE 2009 a, 85-88;
PROTO 2009, 129-133. Sulla complessa questione della coordinazione del tempo rispetto a oggetti in quiete o in
moto nello spazio geografico, nonché del rapporto tra tempo assoluto e relativo, reale e apparente si veda GALLISON 2004, 1-38, 307-326.
43
Si potrebbe allora cercare di rappresentare il concetto pregnante di “bene culturale”
immaginando con un linguaggio figurativo che ogni artefatto nella sua materialità, composto cioè di specifiche proprietà fisiche, esiste a partire da un preciso momento temporale “passato” in cui viene generato attraverso l’interazione tra una materia inerte e l’opera di un “agente” umano in un determinato contesto geografico e storico, assumendo da
quell’istante una propria funzione “attiva” d’uso e insieme un significato immateriale che
ne contraddistingue l’aspetto “culturale”, connesso a fattori antropologici e socio-ideologici.
Da questo “evento” creativo originario il bene culturale si muove, per così dire,
lungo l’asse continuo del tempo passando attraverso altri “eventi”, nelle sue successive
relazioni con diversi agenti e subendo quindi successivi mutamenti di stato al variare delle
condizioni iniziali (nella conservazione, nella funzione o anche nel luogo di collocazione,
se trattasi di un oggetto mobile ovvero di un elemento di edificio rimpiegato altrove).
Durante tale processo esso, in un certo senso, si “riattiva” depotenziandosi però progressivamente sino alla sua obliterazione ovvero alla perdita parziale o definitiva della sua
funzionalità iniziale, transitando così in una fase “passiva” o meglio “quiescente”.
È poi lo scavo archeologico l’evento determinante che in un tempo più o meno
“attuale” in qualche modo “reifica” nuovamente il reperto archeologico o l’entità monumentale antica cercando, da un lato, di ricostruirne a ritroso la provenienza e le fasi d’uso,
cioè la catena di eventi significativi a esso collegati, e dall’altro, di rivivificarlo con un
diverso interesse “storico-documentario”, innescando altresì nuove funzioni e attività connesse alla tutela e al restauro, all’esposizione e alla fruizione. Nel tempo, dunque, il bene
archeologico o culturale in genere possiede e acquista dati, ma insieme genera ulteriori
informazioni e rappresentazioni sul piano sia materiale che immateriale, a loro volta dotate di specifiche proprietà, secondo una sorta di processo storico-documentale ricorsivo.
2. Rapporti e interazioni tra archeologia e informatica per la conoscenza,
gestione, tutela e valorizzazione dei beni culturali
Appunto perché il “bene culturale” porta in sé una siffatta molteplicità di attributi e
significati è indispensabile utilizzare metodologie di analisi adeguate a “conoscerlo”3 nella
sua complessità semantica, per poterlo gestire e salvaguardare e per trasmetterne la memoria.
Presupposto fondamentale per lo studio conoscitivo del bene archeologico o culturale è la “catalogazione”4, intesa come procedura che consente di collocare, attraverso
sistemi di classificazione, categorie e codici terminologici specifici, ogni prodotto dell’attività umana nello spazio geografico, definirlo nelle sue caratteristiche materiche e morfologiche, tecnico-esecutive e decorative, infine attribuirlo a precise epoche, a una classe
di produzione, a un ambito culturale o a un preciso autore. Attraverso la catalogazione si
può tuttavia anche assegnare a determinati manufatti considerati di interesse la qualifica
di “testimonianza culturale avente valore di civiltà”5, integrando i dati ricavati dall’autopsia oggettiva con informazioni desunte da fonti storiche dirette o indirette e da elementi di
contesto, con lo scopo di dedurre i differenti atteggiamenti ideologici e spirituali che gli
esseri umani assunsero rispetto tanto alla sfera del reale quanto a quella dell’irreale.
Cercare di dominare un ambito di conoscenza tanto articolato e multiforme quale
quello del patrimonio culturale rappresenta pertanto una sfida non solo conoscitiva, ma
pure tecnologica, costituendo un campo di sperimentazione favorevole anche per le scien3
Sulla definizione e sul processo della “conoscenza”: MUSGRAVE 2005, 5-24.
La catalogazione e la documentazione sono, infatti, inserite tra i principi generali del D. L.vo n. 42 del 22.01.2004,
su cui si vedano: ALIBRANDI-FERRI 2004, 3-88; BARBATI et alii 2006, 1-11; CAMMELLI 2007; ALBANO et
alii 2008, 15-18, 29-53; COPPOLA-SPENA 2008, 55-86.
5
Cfr. per approfondimenti sull’argomento: MIELE 2002-03, 87-91; MIELE 2007 a, 48-49.
4
44
ze informatiche, che in relazione a esso hanno saputo produrre artefatti sempre più evoluti.
Non minori analogie e affinità sono riscontrabili tra i metodi di indagine obiettiva e
i criteri di classificazione gerarchica tradizionalmente adottati nelle discipline storicoarcheologiche e i sistemi analitici e logici propriamente usati in quelle tecnico-scientifiche. Se ciò ha consentito di fare avvicinare e interagire tra loro in oltre un trentennio due
ambiti di studio pur tanto distanti, ha d’altro canto finito per distrarre l’attenzione dalle
concrete esigenze e dalle specifiche problematiche del settore, emergenti tanto nelle procedure di catalogazione quanto in quelle della ricerca storica e della fruizione dei contenuti culturali. Se si esamina, infatti, la vicenda di questo rapporto interdisciplinare6, non
sempre equilibrato, si può affermare che nonostante l’evolversi degli strumenti tecnologici e delle soluzioni applicative di volta in volta utilizzati, sostanzialmente immutati restano gli approcci logici e metodologici per esaminare e rappresentare le entità definite come
beni culturali.
Per quanto concerne l’aspetto tecnico-scientifico nelle applicazioni informatiche
risalenti all’ultimo quarto del secolo scorso le rappresentazioni delle conoscenze erano
costruite a partire da una loro preventiva “codifica sintetica” e organizzate in strutture di
dati in modo da catturarne le relazioni, con il prevalente scopo di svolgere schedature
oppure analisi incrociate di tipo statistico-quantitativo, ovvero elaborazioni di information
retrieval7 automaticamente derivate dal contenuto delle entità che rappresentano le conoscenze.
In seguito con l’affermazione di Internet per la trasmissione telematica dei dati e
con lo sviluppo dei protocolli di comunicazione tra le reti negli anni Novanta, si è cercato di uniformare e migliorare le “interfacce di accesso” ai sistemi informativi, creando
software specializzati che, impiegando linguaggi di configurazione quali HTML prima e
XML poi, hanno consentito di semplificare la fase di progettazione.
Grazie al crescente progresso tecnologico, stimolato dall’espansione della capacità
dei supporti di memorizzazione e dall’uso di sistemi di calcolo sempre più miniaturizzati
e potenti, la tradizionale metodologia di programmazione dei sistemi informativi, prima
basati su applicazioni monolitiche, è stata soppiantata da quella dei sistemi modulari “a
oggetti” e a “interfacce web”, caratterizzati dalla separazione fra i dispositivi dedicati alla
archiviazione e persistenza dei dati e le interfacce utente che consentono di accedere a
essi. Attraverso questa evoluzione è stato possibile realizzare i sistemi GIS, capaci di integrare sorgenti eterogenee di informazioni e ora impiegati anche in campo archeologico per
l’ubicazione topografica geo-referenziata dei siti antichi su basi cartografiche territoriali,
utilizzate come interfacce di interazione con gli archivi documentali a esse collegati8.
Sintesi tra i database, la cui struttura unitaria di rappresentazione dell’informazione è il record, e i sistemi di information retrieval, dove la struttura elementare dell’informazione consiste nel contenuto stesso del documento, sono i cd. CMS, sistemi innovativi
basati sulla nozione ricorsiva di “documento semi-strutturato”, visto come un aggregato di
entità costituenti il contenuto informativo, e di “metadati”, cioè dati riguardanti l’informazione; caratteristica questa che consente di definire in modo uniforme e unitario non
solo parti di documenti, ma pure “archivi” o “depositi documentali”.
Inoltre, la problematica dell’interscambio dei dati nell’ultimo decennio si è spostata dalla mediazione umana a quella diretta tra i sistemi informativi, per cui sono stati
avviati progetti miranti a individuare un insieme ridotto ma condiviso di informazioni
strutturali riguardanti i contenuti gestiti da ciascun sistema informativo che agiscano come
una lingua franca per l’interoperabilità. Tra le iniziative più note applicabili anche al set6
Le fasi e le modalità di tale lungo e complesso rapporto di collaborazione tra archeologia e informatica sono analizzate e discusse in D’ANDRIA 1987; D’ANDRIA 1997; D’ANDREA 2006, 25-137; MOSCATI 2009.
7
Riguardo all’applicazione di tale tecnologia nella ricerca archeologica: MOSCATI 2003.
8
Sui sistemi GIS realizzati per il settore archeologico: MOSCATI 1998; FORTE 2002 a; FORTE 2002 b;
D’ANDREA 2006, 141-191; MANGO FURNARI-NOVIELLO 2006.
45
tore umanistico sono quelle che hanno prodotto il DC e l’OAI, i quali attuano la cooperazione e l’interscambio di metadati su documenti elettronici disponibili in biblioteche e
archivi a livello globale.
Per quanto riguarda, invece, l’aspetto della fruizione del patrimonio culturale, significativi vantaggi si sono ottenuti grazie agli strumenti per l’elaborazione di suoni e di
immagini digitali fisse o in movimento9, cosicché dai primi ipertesti e dalle più schematiche elaborazioni volumetriche si è pervenuti alla realizzazione di applicazioni multimediali sofisticate sino ai modelli tridimensionali navigabili e all’uso della “virtualità immersiva”10.
All’inizio del nuovo millennio infine l’iniziativa del W3C, da un lato, ha dato luogo
al cd. Web 2 in grado di potenziare l’interattività dei sistemi utilizzanti il web come mezzo
di accesso alle informazioni11, e dall’altro, ha indotto a sperimentare metodi d’interoperabilità tra sistemi informativi eterogenei mediante il web semantico, nel quale assume un
ruolo centrale la nozione di “ontologia” espressa secondo il linguaggio della logica formale12. Per mezzo di tali sistemi si intende migliorare i metodi euristici dei motori di ricerca e agevolare lo scambio dei dati sia con l’uso di software open source e degli standard
SOAP, sia con l’adozione di regole di interpretazione incrociata degli “schemi di metadati”, in modo da favorire l’integrazione e l’interazione tra fonti informative diverse nonché
la condivisione di risorse documentali distribuite.
L’armonizzazione delle metodologie informatiche con quelle delle reti di comunicazione ha peraltro dimostrato l’indipendenza delle strutture di rappresentazione da quelle di archiviazione, consentendo così di realizzare “circuiti di cooperazione”, nei quali
l’informazione è vista dagli utenti in modo unitario anche se la sua effettiva archiviazione e gestione è dispersa su un territorio geografico e tra entità amministrative diverse.
2.1. Le applicazioni informatiche e i sistemi strutturati per i censimenti territoriali e la catalogazione di beni archeologici e culturali in Campania
Sin dalla seconda metà degli anni Ottanta del secolo decorso all’interno del
Ministero per i Beni Culturali (MiBAC), l’Istituto Centrale per il Catalogo e la
Documentazione (ICCD) aveva ideato metodologie, vocabolari terminologici e norme formali per la catalogazione informatizzata dei beni archeologici, architettonici e storico-artistici, ma in modo che tutte le informazioni attinenti al bene - sia quelle proprie dell’oggetto, sia quelle relative alla sua contestualizzazione spaziale e cronologica, sia quelle correlate di tipo patrimoniale, documentario, archivistico e bibliografico, di tutela e di restauro - fossero inglobate in una struttura monolitica, come quella adottata nelle applicazioni
SAXA e DESC, rispettivamente realizzate prima nel sistema DOS e poi in quello
Windows.
Con la creazione dei sistemi “a oggetti” e “a interfacce web” l’ICCD ha infine elaborato, all’inizio del nuovo millennio, il Sistema Informativo Generale per il Catalogo
(SIGeC), che prevede la gestione separata e modulare di archivi di schede, immagini, dati
bibliografici e liste di autorità, allegati grafici e cartografici, pur intercomunicanti tra loro.
Anche a livello periferico le Soprintendenze, in un trentennio di attività, svolta in
collaborazione tanto con istituti ricerca e universitari quanto con soggetti privati attivi nel
mondo dell’ICT, hanno autonomamente sviluppato programmi di catalogazione, in realtà
orientati all’implementazione dei dati piuttosto che alla conoscenza, tutela, gestione e frui9
FORTE-BELTRAMI 2000; GUERMANDI 2003; GUERMANDI 2004.
Sull’uso della multimedialità nella comunicazione di carattere culturale: ORLANDI 1999; SCAGLIARINI
CORLAITA 2003; ANTINUCCI 2007; DALLAS 2007; FORTE 2007; MOSCATI 2007 b; NICOLUCCI 2007.
11
Cfr. sull’argomento le fondamentali osservazioni di BERNER LEE 1999.
12
Riguardo al concetto di ontologia: FERRARIS 2003, 5-59; ECO 2007, 13-30, 65-75; mentre sui sistemi cd. ontologici si vedano SIGNORE 2005; D’ANDREA 2006, 193-204; AIELLO et alii 2007.
10
46
zione dei beni archeologici nel loro integrale “ciclo di vita”, nel quale si trovano a convivere elementi informativi statici insieme ad altri temporanei e variabili nel tempo.
Per quanto riguarda la Campania13 esaminando in retrospettiva questo percorso di
scambio interdisciplinare e interistituzionale, è possibile evidenziarne i vari aspetti peculiari e individuarne i nodi problematici rimasti irrisolti (tab. I).
Fra i numerosi interventi condotti tra il 1987 e il 1990 per risolvere urgenti esigenze di censimento e monitoraggio conservativo dei beni culturali, danneggiati dagli eventi
sismici verificatisi in Campania e Basilicata nel 1980 e nel 1984, ottennero risultati soddisfacenti sia dal punto di vista quantitativo che qualitativo i progetti Neapolis ed EubeaPuteoli, riguardanti l’uno Pompei e l’area vesuviana, l’altro Napoli e i Campi Flegrei.
Nell’ambito del progetto Neapolis - Sistema per la valorizzazione integrale delle
risorse ambientali e artistiche dell’area vesuviana14 furono realizzate numerose applicazioni all’avanguardia per l’epoca (tab. I.1).
In primo luogo venne costruito un sistema informativo territoriale su basi cartografiche vettorializzate, IGM in scala 1:25000 e catastali in scala 1:5000, dell’area vesuviana, e furono elaborate mappe tematiche su specifici aspetti dei luoghi, geofisici e antropici, varie cartografie numeriche e un fotopiano a colori in scala 1:500 di Pompei.
Ma soprattutto venne effettuata la catalogazione e la documentazione sistematica
delle pitture parietali e dei mosaici di Pompei, nonché di quelli di provenienza vesuviana
conservati nel Museo Archeologico Nazionale di Napoli, usando il programma di database relazionale SAXA. Ciascuna unità catalografica era altresì localizzata topograficamente su una carta archeologica vettoriale (fig. 1, a-b) derivata dal rilievo aerofotogrammetrico in scala 1:1000 del Van der Poel15, verificato a terra con quella realizzata da
Eschebach16. Nell’agro pompeiano fu analogamente effettuato un censimento delle evidenze di età romana, descrivendole in schede di sito con documentazione grafica, iconografica e bibliografica. Queste attività sul campo furono accompagnate dall’analisi dei
nove volumi dei Giornali di Scavo e poi dei diari di scavo di Pompei dal 1862 sino agli
anni Settanta del XX secolo, di cui furono eseguite le scansioni digitali e redatte schede
informatizzate17, in modo da collegare i singoli rinvenimenti al luogo di reperimento individuato sulla pianta di Pompei.
Le applicazioni di database, sviluppate in ambiente DOS, erano gestite all’interno
di un sistema informativo, il quale consentiva di effettuare in linguaggio SQL ricerche di
dati e schede, filtrate da interfacce utente, sia per unità catalografiche che per accesso
topografico. Grazie a tali sistemi di information retrieval fu possibile elaborare un indirizzario informatizzato, ricavandone classificazioni e quantificazioni statistiche delle tipologie e destinazioni d’uso degli edifici di Pompei e del suo suburbio18.
Si sperimentarono, inoltre, avanzati artefatti tecnologici quali: restituzioni virtuali
con modellazioni tridimensionali del territorio e di alcuni edifici o pitture di Pompei (fig.
2, b); un “sistema esperto” per l’analisi dei danni e l’esecuzione di restauri elettronici sugli
affreschi; infine trattamenti informatici con tecniche di contrasto e marcature dei segni
delle immagini digitali dei papiri carbonizzati di Ercolano per l’interpretazione dei testi
greci.
Anche Neapolis e il suo circondario furono oggetto di ricerche territoriali e campagne di schedatura nel progetto Eubea-Puteoli. Studio, recupero e valorizzazione mediante
13
Una descrizione più dettagliata dei progetti condotti in Campania per la catalogazione, il censimento territoriale e
la fruizione dei beni culturali attraverso le tecnologie informatiche è edita in MIELE 2012, 7-34.
14
Sui risultati del progetto Neapolis: FURNARI 1994.
15
VAN DER POEL 1983.
16
ESCHEBACH 1993.
17
Sulla schedatura dei Giornali di Scavo di Pompei: CASTIGLIONE MORELLI 1993.
18
Gli studi storici e socio-economici eseguiti grazie alla catalogazione informatizzata di Pompei e dell’area vesuviana sono contenuti nel volume DE SIMONE-VARONE 1988; riguardo all’indirizzario di Pompei si veda MIELE
et alii 1988, 57-71.
47
Tab. I - Prospetto dei progetti svolti in Campania tra il 1987 e il 2007 nel settore dei beni culturali.
48
1. Il censimento
territoriale: dalle
cartografie
vettoriali ai GIS
a-b) il progetto
Neapolis: cartografia numerica
dell’area vesuviana
con individuazione
dei siti antichi;
dettaglio della
carta archeologica
di Pompei;
c) il progetto Un
piano per
Pompei: carta
tematica di
Pompei;
d-f) il progetto
SIT Campania:
carta tematica dei
siti e delle aree
vincolate nel territorio vesuviano e
nei Campi Flegrei;
carta tecnica
vettoriale della
Campania usata
come base nel
sistema GIS del
progetto SIT
Campania.
la catalogazione informatica del centro storico di Napoli e dei Campi Flegrei19 (tab. I.2).
Il piano di catalogazione informatizzata comprendeva le varie entità archeologiche
emergenti ovvero note da fonti bibliografiche e archivistiche relative al centro storico di
Napoli, a Ischia e ai siti antichi dei Campi Flegrei. Attraverso la ricognizione sistematica
di tale comparto geografico fu possibile effettuare analisi ambientali e antropologiche,
produrre schede su scavi stratigrafici insieme a quelle dei reperti in essi rinvenuti, nonché
di siti e monumenti archeologici, eseguendone la documentazione digitale fotografica e
iconografica d’epoca ed effettuandone il rispettivo posizionamento topografico su mappe
IGM in scala 1:25000 e rilievi digitalizzati a diverse scale di dettaglio 1:2000, 1:100, 1:50.
Anche in questo caso per la catalogazione si utilizzò il database relazionale SAXA
in ambiente DOS, ma integrato con interfacce Windows all’interno di una struttura informativa, che consentiva la ricerca anche topografica delle schede con le relative immagini.
19
Sui risultati del progetto Eubea-Puteoli: AMALFITANO et alii 1990.
49
2. La comunicazione: dagli
ipertesti e dai
primi modelli
volumetrici ai
sistemi informativi
cooperativi
a-b) il progetto
Neapolis: ipertesti
su aspetti socioeconomici, di vita
quotidiana, artistici,
artigianali di
Pompei; le visite
virtuali nelle case
pompeiane; modello volumetrico
delle Terme
Stabiane;
c-d) il CIR
Campania: i nodi
web del Museo
Archeologico
Nazionale di
Napoli e di uno
dei siti dell’area
flegrea;
e-f) il nodo web
sulla via Appia e
modello tridimensionale numerico
dell’Anfiteatro di
Capua.
In continuità metodologica con tali attività di catalogazione a tappeto tra il 1990 e
il 1992 a cura del Consorzio TARA-ABECA (tab. I.3) fu effettuata la schedatura informatizzata con la relativa documentazione fotografica a stampa di reperti archeologici provenienti dall’area vesuviana e dalla stipe votiva dall’antica Sinuessa, nonché di oggetti in
bronzo del Museo Archeologico Nazionale di Napoli e delle matrici di rame incise con le
relative stampe, databili tra il XVIII e il XIX secolo, edite nelle Antichità di Ercolano.
Infine nell’ambito di un ulteriore progetto straordinario nazionale denominato
Catalogazione Emergenza (tab. I.4), tra il 1990 e il 1994, furono prodotte schede informatizzate con relativa documentazione a stampa di beni archeologici mobili a rischio di
furto e dispersione nell’ambito delle province di Napoli e di Caserta.
In queste ultime campagne di catalogazione si passò dal programma SAXA in
ambiente DOS al DESC sviluppato in quello Windows a icone. In seguito la ex
Soprintendenza Archeologica di Pompei e soprattutto la ex Soprintendenza Archeologica
di Napoli e Caserta svolsero dal 1996 il Progetto SIVA. Sistema Informativo di Video50
Archiviazione20 (tab. I.5), che prevedeva la schedatura e la documentazione digitale dei
materiali archeologici custoditi nelle case di Pompei, nel Museo Archeologico Nazionale
di Napoli e nelle sedi periferiche, in modo da effettuare con una procedura semi-automatizzata contestuale sia l’individuazione univoca del bene archeologico, sia l’accertamento
della sua consistenza patrimoniale e della sua effettiva esistenza nel luogo di conservazione (fig. 3, a).
Per tale iniziativa il Consiglio Nazionale delle Ricerche (CNR) di Roma elaborò in
visual basic il programma SIVA, il quale fu installato su PC portatili ante litteram collegati a una videocamera o fotocamera, dai quali le schede prodotte potevano essere trasferite con supporti magnetici su postazioni fisse locali e su un server centrale, così da con-
20
3. La catalogazione:
dai database ai
sistemi informativi
a tecnologia web
e ai CMS
a) il database
progetto SIVA;
b-d) il sistema
informativo di
catalogo SELMO
dell’area di Napoli
e dell’area pompeiana con dettaglio della scheda
e relativa immagine
e posizionamento cartografico;
e-g) il sistema
informativo di
catalogo a tecnologia web CRBC
con dettaglio
della maschera
della scheda con
relativa immagine
e posizionamento
cartografico.
Sugli obiettivi e le modalità di esecuzione del progetto SIVA: DE CARO 2001.
51
sentirne la visualizzazione e la stampa con la relativa immagine ed elenchi di riepilogo, la
consultazione complessiva attraverso ricerche personalizzate nonché l’estrazione nel tracciato di interscambio ICCD per l’archiviazione nel sistema informativo nazionale.
Per il medesimo intento di censire il patrimonio archeologico istituzionale, a partire dal 1999 si è provveduto a effettuare la trascrizione informatizzata in un database
Access delle singole voci dei beni archeologici mobili trascritte dal 1871 in poi sui volumi di inventario generale della Soprintendenza per i Beni Archeologici di Napoli e
Caserta, collegate mediante links alla rispettiva citazione contenuta nelle immagini delle
pagine dei volumi digitalizzate e indicizzate (tab. I.6), come già per i Giornali di Scavo di
Pompei.
L’ingente mole di schede di beni archeologici e culturali prodotte pose però in evidenza il problema della conservazione degli archivi dei dati elettronici e digitali, i quali
sarebbero stati destinati a una inevitabile perdita, sia per la straordinarietà e discontinuità
temporale e metodologica dei progetti di catalogazione, sia per la rapida obsolescenza
delle attrezzature informatiche e dei programmi applicativi utilizzati, se le Soprintendenze
archeologiche campane non ne avessero effettuato il trasferimento su supporti di memorizzazione più attuali, ma soprattutto all’interno di sistemi informativi di catalogo più
strutturati in grado di gestirli in modo più efficiente e unitario.
È stato così possibile, tra il 2000 e il 2005, recuperare e riversare all’interno del
sistema detto SELMO oltre 114.000 schede informatizzate pregresse riferibili alle competenze territoriali della ex Soprintendenza per i Beni Archeologici di Napoli e Caserta e
della ex Soprintendenza Archeologica di Pompei (tab. I.7). Questa applicazione, consistente in un database gerarchico, elaborato prima in formato Access e poi in DB2, organizzato secondo un approccio territoriale-topografico e per tipologie di beni, garantisce la
consultazione condivisa ma sicura dei dati in rete e consente, a livello di amministratore,
di gestire, importare o esportare gli archivi e di aggiornare i vocabolari, mentre a livello
di utente, non solo di produrre, modificare e stampare in formato ICCD o documento le
schede, associandovi le relative immagini digitali, ma anche di estrarre dati secondo diverse modalità di ricerca, per tipologia e/o identificativo di scheda, per campi singoli o associati, ricavandone elenchi secondo le specifiche esigenze di studio (fig. 3, b-d).
Sempre allo scopo di recuperare e aggiornare i precedenti archivi catalografici, questa volta riguardanti beni storico-artistici, in occasione del progetto nazionale ARTPASTApplicazione informatica in Rete per la Tutela e la valorizzazione del Patrimonio Artistico
e Storico (www.artpast.org), gestito dall’ICCD in cooperazione con la Scuola Superiore
Normale di Pisa (SNP) (tab. I.8), la ex Soprintendenza per i Beni Archeologici di Napoli
e Caserta tra il 2005 e il 2007 ha inoltre provveduto a normalizzare secondo lo standard
ICCD 3.00, utilizzando l’applicazione COVO2 elaborata dal Consorzio Glossa, tutte le
schede delle matrici di rame e delle relative stampe delle Antichità di Ercolano, nonché a
catalogare con la relativa documentazione digitale gli acquerelli e i disegni di soggetto
pompeiano, databili tra il XIX e gli inizi del XX secolo, custoditi negli Archivi Disegni di
Napoli e di Pompei21.
2.2. I sistemi informativi catalografici e territoriali integrati a tecnologia web
La necessità di riorganizzare e gestire in modo unitario e contestualizzato questi archivi digitali catalografici e documentari di beni archeologici, rendendoli al contempo facilmente accessibili, ha indotto a creare anche in ambito campano un ambiente applicativo integrato su base geografica a scala regionale, consultabile via Internet e potenzialmente interoperabile con sistemi informativi esterni e soprattutto con il SiGEC gestito dall’ICCD22.
21
Sui risultati del progetto ARTPAST: MIELE 2007 b; MIELE 2010.
Le caratteristiche del SIGeC sono presentate in MANCINELLI 2004. Riguardo ad altri sistemi informativi per la
catalogazione di beni culturali anche GUERMANDI 1999; D’AMBROSIO et alii 2003.
22
52
Per quanto riguarda l’area vesuviana, in effetti, la Soprintendenza Archeologica di
Pompei aveva già realizzato sistemi informativi geografici per risolvere specifiche esigenze di gestione dei siti archeologici. Di questo tipo sono il GIS, realizzato in ArchView, Un
piano per Pompei (fig. 1, c), nel quale la base topografica, vettorializzata in scala 1:1000 e
indicizzata con vari layers tematici relativi all’analisi tipologica e conservativa del tessuto
urbano, funge da riferimento per interrogare, attraverso la chiave dell’indirizzario, le banche dati sugli edifici pompeiani; nonché il GIS sviluppato in collaborazione con la British
School at Rome e con il Packard Humanities Institute nell’ambito del Progetto The
Herculaneum Conservation Project, per la catalogazione e documentazione di Ercolano.
In seguito la Direzione Regionale per i Beni Culturali e Paesaggistici della
Campania, insieme alle Soprintendenze, ha coordinato due progetti paralleli a livello
regionale23, che hanno portato a realizzare, tra il 2000 e il 2007, sistemi informativi sia
catalografici che territoriali con lo scopo di costruire una base conoscitiva complessiva
utile alla gestione, tutela e valorizzazione del patrimonio culturale campano nel suo complesso.
A tal fine è stato, infatti, costituito il Centro Regionale di catalogo per i Beni
Culturali (www.campaniacrbc.it), finalizzato alla creazione di un sistema informativo
catalografico, denominato appunto CRBC, accessibile non solo alle istituzioni statali, ma
anche agli enti di ricerca e alle amministrazioni locali.
Dal punto di vista tecnologico il suddetto sistema informativo di catalogo a tecnologia web (tab. I.9; fig. 3, e-g), sviluppato dal Consorzio Glossa su piattaforme DB2 e
MySQL per archivi centralizzati ma anche installabile in sezioni dipartimentali, è composto come il SIGeC da vari moduli applicativi integrati. In back office operano sia il modulo normativo per il caricamento dei tracciati catalografici conformi agli standard ICCD o
anche personalizzati e dei vocabolari; sia quello gestionale per l’attribuzione dei profili di
utenza, la creazione di archivi separati di schede, la verifica tecnica e formale delle schede, l’archiviazione sicura dei database, l’estrazione in formato di interscambio ICCD delle
schede per il trasferimento nel SIGeC o altri sistemi locali. Invece in front office agiscono
sia il modello operazionale, dotato anche di funzioni di stampa, reportistica e ricerca guidata, per l’implementazione controllata e l’aggiornamento in modalità sincrona o asincrona delle schede secondo le varie tipologie di beni culturali con la relativa documentazione grafica e fotografica, e per la loro ubicazione geo-referenziata su mappe geografiche
simboliche (Google Map); sia il modulo di validazione per la verifica delle schede da parte
dei funzionari responsabili del catalogo presso le varie Soprintendenze; sia infine il modulo di fruizione per la consultazione delle schede rese disponibili agli studiosi anche esterni.
Nel CRBC sono state dunque riversate tutte le schede storico-artistiche informatizzate tra il 2005 e il 2007 dalle Soprintendenze campane per un totale di circa 210.000 e
205.000 schede archeologiche con relativa documentazione fotografica digitale, insieme a
6000 unità catalografiche territoriali effettuate nella campagna di censimento dei centri
storici e dei siti rurali condotta dalla Regione Campania.
Con un’architettura simile è concepito pure il sistema informativo SIAV-Sistema
Informativo per l’Archeologia Vesuviana (tab. I.10), realizzato tra il 2001 e il 2007 dalla
ex Soprintendenza Archeologica di Pompei con lo scopo di integrare in un’applicazione
GIS unitaria i fondi catalografici pertinenti al territorio vesuviano.
In sinergia con il CRBC ma con un approccio prettamente geografico e topografico, è stato inoltre creato il Sistema Informativo Territoriale della regione Campania (SIT
Campania)24 grazie a un ulteriore progetto condotto nell’ambito del Programma Operativo
Nazionale 2000-06, Sicurezza per lo sviluppo del Mezzogiorno d’Italia, dalla Direzione
Regionale in collaborazione con le Soprintendenze archeologiche e la ex Soprintendenza
per i Beni Architettonici e Paesaggistici e per il Patrimonio Storico-Artistico ed Etno23
Per una descrizione sintetica ma esplicativa delle finalità e metodologie di intervento specifiche di tali progetti:
MIELE 2007 a; mentre per una presentazione più dettagliata: MIELE 2009 b.
24
I risultati del progetto sono esposti nel volume collettaneo MIELE 2009 c.
53
antropologico di Salerno e Avellino, fruendo della consulenza tecnico-scientifica
dell’Istituto per i Beni Archeologici e Monumentali del CNR (tab. I.11).
Si è inteso, infatti, sviluppare un GIS su base cartografica regionale geo-referenziata, per il censimento conoscitivo, la salvaguardia e la gestione dei siti archeologici, dei
monumenti architettonici, dei beni storico-artistici e paesaggistici attestati in Campania e
per il controllo preventivo dei fattori di rischio dannosi per la loro conservazione, ma
anche per l’elaborazione di carte tematiche utili per le valutazioni di impatto ambientale e
archeologico preliminari alla realizzazione dei piani paesaggistici e delle infrastrutture
pubbliche, in aderenza con le legislazioni vigenti in materia.
In questo quadro di riferimento generale, sono stati altresì esaminati alcuni aspetti
peculiari della Campania allo scopo di analizzare: il rischio ambientale e antropico; il
fenomeno delle persistenze o interferenze insediative; il paesaggio storico; i sistemi di salvaguardia e di sviluppo turistico-culturale. Questi “modelli interpretativi” sono stati quindi applicati ad aree campione specifiche seppure estendibili in contesti territoriali simili
(rispettivamente la Conca di Avellino e la valle del Calore, il Massiccio del Matese e la
media valle del Volturno, la Costiera Amalfitana e i Monti Lattari, il versante occidentale
del Vesuvio), selezionate in base all’analisi dei differenti contesti geomorfologici e naturalistici, dei fenomeni geofisici, delle realtà insediative e produttive.
Il SIT Campania (fig. 1, d-f) è strutturato come una banca dati integrata, composta
da archivi catalografici informatizzati e documentari digitali relativi alle singole entità
d’interesse architettonico o paesaggistico e archeologico esistenti in Campania, vincolate
ovvero note da fonti bibliografiche e di archivio, individuate attraverso ricognizioni sul
terreno e posizionate in coordinate UTM mediante geo-referenziazione diretta e indiretta
su basi cartografiche e topografiche multilivello in formato vettoriale e raster25, indicizzate con specifiche topologie corrispondenti ad altrettanti layers tematici. Il sistema GIS
è collegato inoltre a una applicazione catalografica consultabile dagli utenti interni
mediante interfacce che consentono di eseguire ricerche personalizzate, estrazioni e stampe delle oltre 4500 schede di “unità topografica” e circa 1000 di “vincolo” inserite nel
sistema, ma anche di elaborare carte storicizzate o tematiche sui vari fattori di rischio evidenziati sul territorio.
3. I sistemi per la comunicazione e la fruizione di informazioni sui beni culturali
Mentre l’intento intrinseco della trentennale attività di censimento e di catalogazione sopra descritta è stato principalmente conoscitivo e funzionale al potenziamento degli
strumenti di tutela, in relazione invece all’aspetto della divulgazione esterna di contenuti
culturali, dopo le visite elettroniche e gli ipertesti interattivi come quelli prodotti durante
il progetto Neapolis riguardanti la storia degli scavi, gli aspetti storico-politici e socio-economici, la vita quotidiana e la cultura artistica di Pompei, sin dalla seconda metà degli anni
Novanta del secolo scorso si ritenne opportuno creare sia in ambito nazionale26 che campano27 vari siti web culturali dapprima progettati in linguaggio HTML (fig. 2, a).
La più recente iniziativa in tal senso è stata la realizzazione tra il 2005 e il 2007,
nell’ambito dei progetti nazionali MICHAEL. Multilingual Inventory of Cultural Heritage
in Europe (www.michael-culture.it), ArcheoAtlante e Archeologia on line, del Circuito
Informativo Regionale per la valorizzazione dei beni culturali della Campania (CIR
Campania; www.campaniabeniculturali.it), contraddistinto da un respiro metodologico e tec25
Carta tecnica regionale in scala 1:5000, mappe IGM 1:100000, 1:50000 e 1:25000, ortofoto digitali in scala
1:10000.
26
Riguardo agli aspetti della comunicazione di informazioni culturali in rete: GUERMANDI 1999, GUERMANDI
2003; GUERMANDI 2004.
27
Sulle attività per la fruizione di contenuti culturali svolte in Campania: DE CARO et alii 1999; MIELE-DE
GEMMIS 2001; MIELE 2001-2002; MANGO FURNARI-DI NAPOLI 2003.
54
nico più ampio rispetto ai normali siti o portali tematici presenti in rete28.
Esso si pone in continuità con due precedenti progetti di ricerca tecnologica applicata al settore umanistico: ReMuNa. Rete dei Musei di Napoli (www.remuna.org), svolto
tra il 2001 e il 200529, e Castello Svelato, condotto nel 200630 dall’Archivio di Stato e dalle
Soprintendenze di Napoli con il coordinamento della Direzione Regionale e il supporto
dell’Istituto di Cibernetica (IC) del CNR di Napoli (fig. 2, c-d).
Il CIR Campania è costituito da una rete di nodi web di musei e di complessi monumentali appartenenti agli istituti e alle Soprintendenze presenti in Campania, caratterizzati da aspetti grafici e formali omogenei e conformi alle norme di legge vigenti sia in materia di sicurezza e accessibilità, sia rispetto ai vincoli di privacy e copyright, oltre che alle
linee guida Musei & Web formulate nel progetto Minerva31 (www.minerva.org).
Tale sistema informativo comprende, infatti, varie “componenti” applicative
(gestionale, documentale, cartografico, di fototeca, di reportistica), che permettono di
garantire sia la gestione fisica e logica, sia la produzione e archiviazione sicura dei “documenti digitali” in banche dati distinte e autonome tra loro, sia la correlazione interna o trasversale di risorse documentali di origine, struttura, formato e contenuto diversificati,
sotto forma di testi descrittivi, schede, immagini statiche e in movimento, rilievi grafici,
piani e volumetrici.
Ciascuna di queste entità è stata definita dal punto di vista tecnico con la nozione
ricorsiva di “documenti digitali”, intesi come unità minima di descrizione o rappresentazione virtuale del “bene culturale”, a loro volta connotati da “metadati gestionali, descrittivi e strutturali”, infine elaborati così da renderli interrogabili e consultabili in modo unitario all’utenza esterna attraverso le interfacce web.
Un’apposita applicazione, accessibile in modalità privata, viene invece utilizzata
per l’implementazione, la verifica e la modifica on line dei testi informativi e delle schede, per un totale di oltre 3000 unità (tab. I.12), fornite delle relative immagini digitali e di
richiami a elenchi bibliografici, glosse e vocabolari di sussidio. Le schede possono essere
altresì aggregate o collegate tra loro in base a nessi di appartenenza topografica o gerarchica, ovvero di attinenza logica o tematica, in modo da presentarle agli utenti, in forma
breve o completa, secondo diverse forme di visualizzazione all’interno di “percorsi di visita” per collezioni espositive, sale museali, serie di immagini di oggetti e in modalità “immersiva”, cartografica o topografica -, nonché all’interno di “itinerari tematici” trasversali di
approfondimento, sia settoriali, cioè all’interno di ciascun museo o sito culturale, sia intersettoriali, cioè attraverso alcuni o tutti i nodi web inseriti nel CIR Campania.
Alcuni dei percorsi tematici possono essere anche proposti al pubblico mediante
un’installazione di “teatro virtuale”, collocata nella Sala del Plastico di Pompei del Museo
Archeologico Nazionale, sotto forma di presentazioni multimediali32 introduttive alla visita delle collezioni museali riguardanti le città vesuviane, così da ricostruire idealmente il
legame fisico perduto degli oggetti esposti con i contesti originari di provenienza.
Attraverso il medesimo apparato si possono visualizzare pure modelli volumetrici
navigabili di monumenti archeologici e architettonici33, come quello dell’anfiteatro romano di Capua34, costruito per il citato progetto ArcheoAtlante a partire da una base vettoriale geometrica tridimensionale, utilizzando appositi strumenti applicativi.
Quest’ultimo modello 3D in formato video può anche essere collegato alla ricostruzione della via publica Appia35, nel suo tratto campano da Sinuessa sino a Beneventum,
28
Sul CIR Campania: ACAMPA et alii 2007; MIELE-NAVA 2007; NAPPI 2007; MANGO FURNARI-NOVIELLO
2009. Cfr. anche il contributo di M. Mango Furnari et alii in questa stessa sede.
29
Il progetto ReMuNa è descritto in MIELE 2005.
30
Sul progetto Castello Svelato: MANGO FURNARI 2006; MIELE 2006.
31
FILIPPI 20052; NATALE-SACCOCCIO 2010.
32
Su tali applicazioni multimediali: PROTO 2009.
33
Modelli in 3D della Villa Regina di Boscoreale e della Casa del Centenario di Pompei sono descritti rispettivamente in JANNELLI-STEFANI 2009 e SCAGLIARINI CORLAITA 2003.
34
Riguardo al modello tridimensionale dell’anfiteatro di Capua: DI ROBERTO-ESPOSITO 2009.
35
In merito all’applicazione realizzata per la descrizione della via Appia si veda ESPOSITO 2009 e il contributo di
R. Esposito e F. Proto in questa stessa sede.
55
con le sue diramazioni stradali: la via per Suessa e Teanum Sidicinum a N, e la via
Campana a S, da Capua verso Puteoli e Neapolis, nonché la via Traiana che da
Beneventum proseguiva sino a Brundisium in Puglia. Per descriverne e rappresentarne il
percorso sono stati prodotti testi informativi correlati al tracciato dell’Appia antica, delineato sulla cartografia vettoriale regionale, sia nei punti tuttora esistenti in situ, sia in quelli individuati mediante ricognizioni o scavi archeologici, sia in quelli ridefiniti sulla base
di analisi territoriali o interpretazioni di foto aeree. Lungo esso sono state, infine, ubicate
topograficamente ed evidenziate simbolicamente le testimonianze monumentali superstiti
descritte con didascalie e rinvianti a schede estese, richiamate automaticamente dagli
archivi documentali inseriti nel CIR Campania e visualizzabili mediante un’interfaccia
cartografica navigabile inserita in un nodo web tematico (http://appiantica.campaniabeniculturali.it).
4. Conclusioni
Dalla descrizione delle varie iniziative progettuali sinora condotte dagli istituti
ministeriali in Campania, emerge dunque un percorso evolutivo, nel quale sono stati sperimentati e utilizzati a regime vari tipi di sistemi e applicazioni che, pur rimanendo sostanzialmente immutati dal punto di vista della concezione tecnologica, hanno comunque
svolto una loro utilità in rapporto all’epoca e allo scopo per cui erano stati realizzati (tab.
I).
Questo sviluppo applicativo si è basato sul fondamento teorico e sul nucleo tecnologico costante della progettazione di archivi di dati e poi di documenti, lasciando tuttavia
ancora irrisolto, il problema della ricostruzione completa del “ciclo di vita” del bene culturale, che sarà possibile ottenere solo attraverso l’incremento dell’interoperabilità e integrazione dei sistemi, delle risorse e degli attori coinvolti nei rapporti di cooperazione.
Tutte queste attività operative hanno avuto in realtà come obiettivo il tentativo, talora riuscito, di attuare un processo virtuoso nel quale, a partire dalla acquisizione e dalla
produzione di informazioni all’interno del mondo degli addetti ai lavori, grazie tanto agli
strumenti tradizionali della ricerca storica e archeologica, quanto a quelli forniti dalle tecnologie innovative, divenga possibile applicare le conoscenze costruite nel tempo alle esigenze concrete della tutela e della conservazione sia materiale dei beni culturali, sia concettuale della “memoria storica” di cui essi sono testimoni, per poi divulgarla e trasmetterla alle generazioni future.
56
Abbreviazioni bibliografiche
ACAMPA et alii 2007
P. Acampa - M. Mango Furnari - C. Noviello, Octapy
3: un CMS distribuito e cooperativo orientato al Web
semantico, in Proceedings of Internet Imaging VII
Conference, 2007, 1-16.
AIELLO et alii 2007
A. Aiello - M. Mango Furnari - F. Proto, An ontological interpretation of the ICCD recommendations,
in MOSCATI 2007 a, 181-208.
ALBANO et alii 2008
A. Albano - A. Lanzaro - M. L. Pecoraro,
Legislazione internazionale e comunitaria dei beni
culturali, Napoli 2008.
ALIBRANDI-FERRI 2004
T. Alibrandi - P.G. Ferri, La legislazione dei beni culturali e ambientali, Napoli 2004.
AMALFITANO et alii 1990
I Campi Flegrei. Un itinerario archeologico, P.
Amalfitano, G. Camodeca, M. Medri (edd.), Venezia
1990.
ANTINUCCI 2007
F. Antinucci, The Virtual Museum, in MOSCATI
2007 a, 79-86.
BARBATI et alii 2006
C. Barbati - M. Cammelli - G. Sciullo, Il diritto dei
beni culturali, Bologna 2006.
BERNER LEE 1999
T. Berner Lee, WWW: Past, Present and Future, in
IEEE Computer, 29, 1999.
CAMMELLI 2007
M. Cammelli, Il codice dei beni culturali e del paesaggio, Bologna 2007.
Castello Svelato 2006
Il Castello Svelato, Catalogo della Mostra, Napoli
2006.
CASTIGLIONE MORELLI 1993
V. Castiglione Morelli, Il Giornale dei Soprastanti di
Pompei e le Notizie degli Scavi, in Ercolano 17381988. 250 anni di ricerca archeologica, Atti del
Convegno Internazionale, L. Franchi dell’Orto (ed.),
Ravello, Ercolano, Pompei, Napoli 1988, Roma
1993, 659-666.
CHIURAZZI et alii 1990
F. Chiurazzi - A. Gianni - F. Miele - F. Ruffo,
Informatica e divulgazione dei beni culturali: l’esperienza del progetto Neapolis, in Rediscovering
Pompeii, L. Franchi dell’Orto (ed.), Catalogo della
Mostra, Roma 1990, 120-127.
COPPOLA-SPENA 2008
A. Coppola - M. C. Spena, La legislazione sui beni
culturali e del paesaggio, Napoli 2008.
DALLAS 2007
C. Dallas, Archaeological knowledge. Virtual exhibition and the social construction of meaning, in
MOSCATI 2007 a, 31-63.
D’AMBROSIO et alii 2003
I. D’Ambrosio - A. Drummer - P. Pascucci - F. Rusca,
La catalogazione promossa dalla regione Lazio nei
musei archeologici: dalle schede di carta alla banca
dati condivisa, in ACalc, 14, 2003, 33-71.
D’ANDREA 2006
A. D’Andrea, Documentazione archeologica, standard e trattamento informatico, Budapest 2006.
D’ANDRIA 1987
Informatica e archeologia classica, Atti del
Convegno Internazionale, F. D’Andria (ed.), Lecce
1986, Galatina 1987.
D’ANDRIA 1997
Metodologie di catalogazione dei beni archeologici,
F. D’Andria (ed.), Bari 1997.
DE CARO 2001
S. De Caro, Metodi e modelli “seriali” applicati alla
catalogazione informatizzata del patrimonio archeologico - Progetto S.I.V.A. (Sistema di Video
Archiviazione Automatizzata), in Rapporti 1: Analisi
e proposta di un sistema per la catalogazione in
Italia, Atti del primo seminario nazionale sulla catalogazione, Roma 2001, 282-290.
DE CARO et alii 1999
S. De Caro - M. De Gemmis - F. Miele, Tre domande
su I musei d’Italia nel Web: 18 esperti rispondono, in
Multimedialità e Beni Culturali, Napoli 1999, 141146.
DE SIMONE-VARONE 1988
Pompei: l’informatica al servizio di una città antica,
A. De Simone, A. Varone (edd.), Roma 1988.
DI ROBERTO-ESPOSITO 2009
M. V. Di Roberto - A. Esposito, Dai sistemi informativi territoriali e catalografici ai modelli cooperativi
e virtuali: la contestualizzazione delle conoscenze sui
beni culturali, in Vesuviana 2009, 119-126.
ECO 2007
U. Eco, Dall’albero al labirinto. Studi storici sul
segno e l’interpretazione, Milano 2007.
ESCHEBACH 1993
L. Eschebach, Gebäudeverzeichnis und Stadtplan der
antiken Stadt Pompeji, Köln-Weimar-Wien 1993.
ESPOSITO 2009
R. Esposito, Applicazioni informatiche per la fruizione diffusa dei siti e dei musei archeologici della
57
Campania. I progetti ArcheoAtlante e Archeologia on
line, in Vesuviana 2009, 137-142.
FERRARIS 2003
M. Ferraris, Ontologia, Napoli 2003.
FILIPPI 20052
Manuale per la qualità dei siti Web pubblici culturali, F. Filippi (ed.), Roma, Ministero per i Beni e le
Attività Culturali, Progetto MINERVA 20052.
FORTE 2002 a
M. Forte, Introduzione ai Sistemi Informativi
Geografici, Roma 2002.
FORTE 2002 b
M. Forte, I Sistemi Informativi Geografici in archeologia, Roma 2002.
FORTE 2007
M. Forte, The Virtual Museum of landscape, in
MOSCATI 2007 a, 87-99.
FORTE-BELTRAMI 2000
M. Forte - R. Beltrami, A proposito di Virtual
Archaeology: disordini, interazioni cognitive e virtualità, in ACalc, 11, 2000, 273-300.
FURNARI 1994
Neapolis. La valorizzazione dei beni culturali e
ambientali, E. Furnari (ed.), I-III, Roma 1994.
GALLISON 2004
P. Gallison, Gli orologi di Einstein, le mappe di
Poincaré, Milano 2004.
GUERMANDI 1999
M. P. Guermandi, Dalla base di dati alla rete: l’evoluzione del trattamento dei dati archeologici, in
ACalc, 10, 1999, 89-99.
GUERMANDI 2003
M. P. Guermandi, Internet e multimedialità, in
ACalc, 14, 2003, 336-339.
GUERMANDI 2004
M. P. Guermandi, Nuovi linguaggi e vecchie tecnologie: comunicare la conoscenza archeologica attraverso la rete, in ACalc, 15, 2004, 483-496.
JANNELLI-STEFANI 2009
L. Jannelli - G. Stefani, Ricostruzione virtuale della
Villa Regina a Boscoreale, in Vesuviana 2009, 143149.
MANCINELLI 2004
M. L. Mancinelli, Sistema Informativo generale del
Catalogo: nuovi strumenti per la gestione integrata
della conoscenza sui beni culturali, in ACalc, 15,
2004, 115-128.
MANGO FURNARI 2006
M. Mango Furnari, Da ReMuNa a napolibeniculturali.it, in Castello Svelato 2006, 24-26.
58
MANGO FURNARI-DI NAPOLI 2003
M. Mango Furnari - C. Di Napoli, Distributed multimedia information systems for the World Wide Web.
A case study for cultural heritage, tourism and
publishing, Napoli 2003.
MANGO FURNARI-NOVIELLO 2006
M. Mango Furnari - C. Noviello, The Integration of
Cartographic Information into a Content
Management System, Proceeding of Internet Imaging
VII San Jose Convention Center in San Jose,
California U.S.A, 2006, 178-187.
MANGO FURNARI-NOVIELLO 2009
M. Mango Furnari - C. Noviello, I beni culturali e le
tecnologie dei sistemi cooperativi: il CMS Octapy nel
C.I.R. Campania, in Vesuviana 2009, 105-117.
MIELE 2001-02
F. Miele, Progetto di riedizione in formato digitale
della Pompeianarum Antiquitatum Historia, in
RStPomp, 12-13, 2001-02, 269-271.
MIELE 2002-03
F. Miele, Riflessioni sul sistema di tutela e di gestione dei beni culturali in Italia, in Quaderni
Meridionali, 2002-03, 87-115.
MIELE 2005
F. Miele, Il Progetto ReMuNa - Rete dei Musei di
Napoli, Rete virtuale dei Musei Napoletani, in
Scrinia, 2, 2005, 121-172.
MIELE 2006
F. Miele, Erede del sito web www.remuna.org, in
Castello Svelato 2006, 11.
MIELE 2007 a
F. Miele, Progetti integrati per i Sistemi Informativi
di Catalogo e Territoriali, in Rapporto 3.
Osservazione, studio e analisi dei processi di catalogazione: verso un Osservatorio per lo Stato e le
Regioni, A. F. Leon, E. Plances (edd.), Roma 2007,
48-56.
MIELE 2007 b
F. Miele, Il Progetto ARTPAST. Evoluzione delle tecniche di rilievo e documentazione dei monumenti,
pitture, mosaici, oggetti e antichità ercolanesi e pompeiani: dalle stampe e dai disegni alle tecnologie
digitali, in Atti del X Convegno Internazionale
dell’Association Internationale pour la Peinture
Murale Antique, I. Bragantini (ed.), Napoli 2007,
Venezia 2007, 871-877.
MIELE 2009 a
F. Miele, Conoscenza e fruizione dei beni archeologici e culturali: siti web istituzionali ed applicazioni
virtuali nel C.I.R. Cultura Campania, in Vesuviana
2009, 85-104.
MIELE 2009 b
F. Miele, Le attività della Soprintendenza per i Beni
Archeologici di Napoli e Caserta nel 2007, in
Rapporto 4. Osservatorio partecipato: le articolazioni del Catalogo nazionale, A.F. Leon, E. Plances
(edd.), Roma 2009, 63-68.
MIELE 2009 c
Il Sistema Informativo Geografico Territoriale della
Campania. I risultati del Progetto, F. Miele (ed.),
Catanzaro 2009.
MIELE 2010
F. Miele, Notazioni per una storia della documentazione dei mosaici pompeiani nel Museo Archeologico
Nazionale di Napoli: dalle Antichità Ercolanesi e dal
fondo storico dei disegni pompeiani alle tecnologie
informatiche e digitali, in Atti del XVI Colloquio
Internazionale dell’Associazione Italiana per lo studio e la conservazione del mosaico, Palermo 2010,
Tivoli 2010, 87-99.
MIELE 2012
F. Miele, La conservazione della memoria digitale
materiale e immateriale. Sistemi informativi di catalogo e territoriali in Campania, ACalc, 22, 2012, 734.
MIELE-DE GEMMIS 2001
F. Miele - M. De Gemmis, Pompei e il Museo
Archeologico Nazionale di Napoli. Progetto Esprit n.
22251 “VHF”, in Pompei. Scienza e società. 250°
Anniversario degli Scavi di Pompei, Atti del
Convegno Internazionale, P. G. Guzzo (ed.), Napoli
1998, Milano 2001, 275- 276.
MIELE et alii 1988
F. Miele - E. De Lellis - M. S. Pisapia, Elaborazioni
informatiche dei dati di ricognizione, in DE
SIMONE-VARONE 1988, 51-71.
MIELE-NAVA 2007
F. Miele - M. L. Nava, Le attività condotte nel 2006
dalla Soprintendenza per i Beni Archeologici di
Napoli e Caserta, in MiBAC. Ripensare i processi per
migliorare i servizi, Forum 18a Mostra - Convegno
dei servizi ai cittadini e alle imprese, Roma 2007, 4648.
MOSCATI 1998
Methodological Trends and Future Perspectives in
the Application of GIS in Archaeology, P. Moscati
(ed.), in ACalc, 9, 1998, 9-270.
MOSCATI 2003
P. Moscati, Dal mondo della statistica applicata, in
ACalc, 14, 2003, 340-344.
MOSCATI 2007 a
Virtual Museums and Archaeology. The Contibution
of the Italian National Research Council, P. Moscati
(ed.), in ACalc, suppl. 1, 2007.
MOSCATI 2007 b
P. Moscati, Virtuality and museums, some suggestions from the Italian National Research Council, in
MOSCATI 2007 a, 65-77.
MOSCATI 2009
La nascita dell’informatica archeologica, Atti del
Convegno Internazionale, P. Moscati (ed.), Roma
2008, in ACalc, 20, 2009.
MUSGRAVE 2005
A. Musgrave, Senso comune, scienza e scetticismo,
Milano 2005.
NAPPI 2007
M. R. Nappi, Aggiornamenti sulle comunicazioni del
Ministero per i Beni e le Attività Culturali in
Campania, in Atti del X Salone Europeo della comunicazione pubblica dei servizi al cittadino e alle
imprese, Bologna 2007, Roma 2007, 60-61.
NATALE-SACCOCCIO 2010
M.T. Natale - R. Saccoccio, Museo and Web: un kit
pratico per le istituzioni culturali che vogliono realizzare un sito Web di qualità, in ACalc, 21, 2010, 2747.
NICOLUCCI 2007
F. Nicolucci, Virtual Museum and archaeology: an
international perspective, in MOSCATI 2007 a, 1330.
ORLANDI 1999
T. Orlandi, Multimedialità e archeologia, in ACalc,
10, 1999, 145-147.
PIEROBON et alii 2005
R. Pierobon - F. Proto - A. Aiello - S. Brandi - M.
Mango Furnari, Concettualizzazione e contestualizzazione dei beni culturali archeologici, in ACalc, 16,
2005, 321-339.
PROTO 2009
F. Proto, Modelli di conoscenza contestualizzata e
prototipi di classificazione ontologica dei beni culturali, in Vesuviana 2009, 127-135.
SCAGLIARINI CORLAITA 2003
D. Scagliarini Corlaita, Archeologia virtuale e supporti informatici nella ricostruzione di una domus di
Pompei, in ACalc, 14, 2003, 237-274.
SIGNORE 2005
O. Signore, La gestione della conoscenza in archeologia: modelli, linguaggi e strumenti di modellazione
concettuale dall’XML al semantic Web, in ACalc, 15,
2005, 291-319.
VAN DER POEL 1983
B. Van der Poel, Corpus Topographicum Pompeianum,
Toponimy, Roma 1983.
Vesuviana 2009
Vesuviana. Archeologie a confronto, Atti del
Convegno Internazionale, A. Coralini (ed.), Bologna
2008, Bologna 2009.
Riferimenti iconografici
Archivi della Soprintendenza Speciale per i Beni
Archeologici di Napoli e Pompei: fig. 3, b-d.
59
CHIURAZZI et alii 1990: fig. 2, a-b.
DE CARO 2001: fig. 3, a.
FURNARI 1994: fig. 1, a-b.
http://appiantica.campaniabeniculturali.it: fig. 2, e-f.
MIELE 2009 b: fig. 1, c-f.
www.campaniabeniculturali.it: fig. 2, c-d.
www.campaniacrbc.it: fig. 3, e-g.
Floriana Miele
Soprintendenza Speciale per i Beni Archeologici di
Napoli e Pompei.
[email protected]
60
Renata Esposito
Fiona Proto
Modelli di conoscenza contestualizzata e prototipi di classificazione
ontologica dei beni culturali L’esperienza del C.I.R. Cultura
Campania
Abstract
The Italian cultural heritage asset is experiencing an increasing interest from a wider public, especially
from non specialized users. To cope with this emergent scenario web sites had an exponential grow.
Unfortunately didn’t happen the same for information quality, because many different and heterogeneous
information sources are currently active on Internet with imprecise and vague cultural heritage information.
Since the Italian Cultural Heritage Ministry is the main authority on cultural heritage, it seems to us urgent
for it to efficiently implement dissemination policy on top of its offices network (soprintendenze and istituti).
On doing so it would be possible to significantly improve information knowledge about the Italian landscape, historic monumental, and cultural assets.
The distributed document system designed and built (Circuito Informativo Regionale della Campania
- C.I.R.) is a net of autonomous systems at regional level that empower each soprintendenza and/or istituto to
independently manage their own contents and to also implement their own public offering policy. At same
time the participation to a collaborating community solicit the deployment of a unified cultural heritage knowledge offering. The main policy adopted on achieve this offering is to make explicit the associated cultural
context for each offered goods. On doing so each cultural heritage good is presented and hopefully perceived
together its web relationships with respect to its environmental pertinence. In other words, to contextualize a
cultural heritage goods means to suggest a way to reconstruct the existent relationships with the others exhibits and the origin sites.
In order to achieve a vide public acceptance of cultural heritage knowledge we are conscious that it is
not sufficient to propose a list of goods managed by a museum, but it is necessary to enrich this knowledge
with contextual ones in a structured way.
In the talk our motivation for each step on designing the structure and the content of C.I:R: are motivated and illustrated together the necessary process activated among the cultural heritage householders
1. Introduzione
I beni archeologici vengono spesso percepiti come un valore a sé stante e non come
componenti di un insieme integrato di valori, che invece è custodito dal territorio di pertinenza per i suoi contenuti storico-culturali. Tale fenomeno può accadere, da un lato, perché la stratificazione storica e la trasformazione dei luoghi hanno reso meno leggibile il
legame che intercorre tra il bene antico e le moderne aree urbane o extraurbane in cui è
stato individuato; dall’altro, perché il grado d’integrità delle evidenze archeologiche può
interferire sul successivo stato di conservazione e ostacolare la piena comprensione della
loro funzione originaria.
Pertanto, l’azione di ricostruzione dei contesti relativi a un modesto insediamento
o a una ricca necropoli o a singoli reperti di notevole rilevanza, necessita di interventi
61
comunicativi differenti. In particolare, il patrimonio archeologico mobile trova di solito
nelle strutture museali il luogo più idoneo per garantirne la conservazione e la conoscenza a ogni livello di fruizione. Ma spesso, per analoghe esigenze di tutela, anche i beni definiti “immobili per destinazione”, in quanto strettamente connessi alle strutture edilizie cui
aderiscono, possono essere asportati, a dispetto della loro natura, dal luogo di ritrovamento per essere custoditi in un museo, provocandone così la decontestualizzazione e, nel contempo, lo smembramento del complesso archeologico da cui provengono; ciò accade, ad
esempio, con gli affreschi, i mosaici e gli elementi architettonici.
Nel caso in cui aree archeologiche vengono “musealizzate”, si tende quasi sempre
a creare un percorso di visita che segua quello antico, oppure qualora non fosse possibile,
per rendere comprensibili siti e complessi monumentali, si sopperisce con pannelli didattici in cui vengono illustrate le fasi di trasformazione nel corso del tempo, eventualmente
anche suggerendone delle ricostruzioni ipotetiche. Non sempre, tuttavia, vengono indicati i reperti provenienti da quella determinata area, che sono esposti o custoditi nei musei,
cosicché spesso si perde la visione d’insieme della funzione originaria. All’interno del
museo, invece, attraverso appositi itinerari espositivi, didascalie e pannelli esplicativi si
cerca di ricostruire e illustrare il contesto di provenienza dei reperti. Spesso neanche questi strumenti risultano sufficienti a tracciare un quadro unitario del complesso archeologico di appartenenza, senza contare che talora oggetti pertinenti a un singolo contesto, per
ragioni diverse, possono trovarsi custoditi in più strutture museali distribuite sul territorio
o addirittura in paesi esteri.
Oggigiorno il riscontro evidente di una richiesta d’informazioni sempre più articolata sul nostro patrimonio culturale, anche da parte del pubblico non specialistico induce
a sviluppare modalità e percorsi fruitivi in cui l’offerta di servizi nell’ambito della promozione dei beni culturali non si limiti alla creazione di nuovi itinerari tematici di visita,
ma affronti il nodo problematico della contestualizzazione.
Attraverso quest’ultima, infatti, è possibile acquisire una conoscenza più approfondita e meditata della realtà antica, da una parte, rendendo intelligibili i siti archeologici,
dall’altra, rivitalizzando le strutture museali grazie a una migliore cognizione delle collezioni in esse contenute, anche al fine di ovviare alla tendenza, sempre più diffusa, di considerare i musei come contenitori indifferenziati il cui carattere deve essere, di volta in
volta, ridisegnato attraverso l’allestimento di mostre temporanee.
2. I progetti Archeologia online e ArcheoAtlante
Nell’ambito dei progetti Archeologia online e ArcheoAtlante1, promossi dal
Ministero per i Beni e le Attività Culturali, si è realizzato un circuito di cooperazione per
la valorizzazione e la fruizione dei beni culturali della Campania, nel quale la contestualizzazione è stata lo strumento cardine attraverso cui si è tentato di ricostruire il legame
esistente, non solo tra gli oggetti esposti nei musei e i rispettivi luoghi di provenienza, ma
anche tra le evidenze archeologiche e il territorio su cui insistono.
Per quanto riguarda il progetto Archeologia on line, la ricontestualizzazione di
reperti musealizzati è stata sperimentata nel Museo Archeologico Nazionale di Napoli2
(anche in considerazione dell’ampio ambito territoriale che esso può coprire), collegando
le sue collezioni con l’area archeologica vesuviana e in particolare con l’antica città di
Pompei. Rispetto a quest’ultima l’attenzione si è focalizzata, da un lato, su una tematica
strettamente legata al sito, ovvero la ricostruzione di tutte le fasi di scavo dal primo colpo
di piccone del 1748 fino ai giorni nostri, dall’altro, sulla sua rappresentazione all’interno
del museo tramite il plastico ideato da G. Fiorelli.
1
2
62
MIELE 2009.
PROTO 2009.
La scelta dei siti vesuviani trae origine dalla constatazione di come, nonostante tanti
filoni d’indagine s’impernino sui centri colpiti dall’eruzione del 79 d.C., l’analisi dei
manufatti esposti nel museo archeologico partenopeo, coniugata con l’investigazione delle
strutture edilizie di provenienza, sia un tipo di studio affrontato ancora in un ambito prevalentemente specialistico, sebbene rappresenti uno degli indirizzi di ricerca verso il
quale, sempre più di frequente, sembrano volgersi gli sforzi degli studiosi, attraverso scritti, mostre, convegni, ecc.
In tale prospettiva l’uso del supporto informatico è apparso imprescindibile per
azzerare la distanza esistente tra musei e siti archeologici, consentendo a entrambe queste
realtà di arricchirsi reciprocamente senza perdere il loro carattere specifico.
Utilizzando il sistema Octapy3 è stato, quindi, possibile realizzare il reinserimento
dei reperti archeologici negli edifici di provenienza tramite una contestualizzazione tridimensionale; infatti, la documentazione manoscritta, bibliografica, grafica e fotografica,
diversamente archiviata all’interno della Soprintendenza, può essere messa in rapporto,
tramite la creazione di un “oggetto digitale” ad hoc, con i testi approntati per descrivere i
reperti e i monumenti, al fine di ricostruire il “ciclo di vita” dei complessi architettonici
oggetto di indagine (fig. 1).
Nel circuito sono state realizzate schede tecniche descrittive così da ricoprire le
diverse tipologie di beni esposti nei vari musei o siti esistenti in ambito regionale. Nello
strutturare le schede si è optato per una terminologia che, pur essendo rivolta a un pubblico di non addetti ai lavori, tenesse presente gli standard catalografici stabiliti dall’ICCD4.
3
4
1. Il sistema
Octapy.
MANGO FURNARI-NOVIELLO 2009 (con bibliografia di riferimento).
La documentazione di riferimento sugli standard ICCD è disponibile sul sito: www.iccd.beniculturali.it.
63
Nelle schede RA immesse in rete, per esempio, le informazioni sono state riportate
all’interno del campo “Reperimento”, con cui sono state tradotte in una formulazione
facilmente accessibile i dati veicolati nei tracciati ICCD dai paragrafi LA (“Altre localizzazioni geografico-amministrative”) e RE (“Modalità di reperimento”).
In quest’ottica, ad esempio, è stato definito un unico campo “Descrizione” che racchiude al suo interno le informazioni che, nel tracciato RA (“Reperto archeologico”), sono
trasmesse attraverso i campi DESO (“Indicazioni sull’oggetto”) e DESS (“Indicazioni sul
soggetto”).
La funzionalità resa disponibile dal sistema Octapy di poter organizzare conoscenze relative ai beni culturali provenienti da fonti eterogenee, la cui cifra di fondo è, infatti,
il concetto di “oggetto digitale distribuito”, che consente di richiamare e mettere in relazione contenuti testuali, grafici, fotografici o altri oggetti digitali che vivono in archivi
separati e che, quindi, possono essere all’occorrenza diversamente aggregati.
Il sistema permette di aggregare contenuti sulla scorta di diversi criteri così da riprodurre non solo l’assetto museale fruibile con una visita effettiva, ma di arricchirne il significato culturale grazie alla possibilità di creare percorsi tematici trasversali tra i diversi
nodi culturali, utilizzando anche basi cartografiche georeferenziate fruibili attraverso siti
web e ricostruzioni 3D.
Tale struttura consente di superare l’ottica in cui i diversi i beni sono percepiti e presentati come valori a sé stanti, mostrandoli come componenti di un insieme integrato, che
s’incardina, profondamente, con i contenuti storico-culturali del territorio di pertinenza.
Viene in questo modo affrontato il punto nodale della contestualizzazione vista come lo
strumento attraverso cui è possibile ricostruire il legame esistente, non solo tra gli oggetti esposti nei musei e i rispettivi luoghi di provenienza, ma anche tra le evidenze archeologiche e il territorio su cui insistono.
Tutto ciò ha trovato applicazione concreta nel progetto ArcheoAtlante, progetto che
si incardina su una carta tecnica regionale in scala 1:5.000 in formato vettoriale, concependola, da un lato, come uno strumento esemplificativo per la correlazione delle testimonianze archeologiche documentate sul territorio, dall’altro, come un supporto tecnologico per l’aggregazione e la condivisione delle informazioni derivanti da fonti eterogenee,
come cartografie, immagini e documenti testuali. Le applicazioni che sono state prodotte,
fondate sulla nozione di “documento cartografico”, si rendono, infatti, non solo necessarie per gestire adeguatamente basi documentali indipendenti e consentire la cooperazione
tra enti competenti autonomi e attivi nello stesso territorio, ma anche utili per integrarle in
un sistema unitario di fruizione e di ricerca.
Nell’ambito del progetto ArcheoAtlante ci si è occupati specificamente della ricostruzione dell’antico percorso della Via consularis Appia, nel tratto campano che collegava le città di Sinuessa e Beneventum, passando per Calatia e Capua, con le sue diramazioni, la Via Domitiana e la Via Puteolis-Capuam, che da essa si dipartivano fino a raggiungere l’area flegrea. Lo studio della viabilità antica è stato preceduto da un lavoro di
ricerca bibliografica e archivistica, che ha permesso, tramite documentazioni di scavo,
foto aeree e ricostruzioni ipotetiche, di ridefinire i tracciati originari, visualizzandoli anche
via web, mediante l’uso di supporti informatici per il trattamento di documenti cartografici vettoriali e georiferiti5.
Per quanto riguarda la Via Appia e le relative strade secondarie, sono stati differenziati con vari livelli cartografici (layers) il percorso antico ancora conservato e individuato tramite indagini archeologiche, quello ipotizzato in base alle ricerche bibliografiche e
archivistiche, quello ricostruibile sulla base di foto aeree, e infine il tracciato dell’omonima strada statale moderna. Inoltre, lungo di essi sono stati posizionati i siti principali, i
monumenti e i miliari, a loro volta distinguendo tra quelli in positura testimoniata, ricostruita o ipotizzata, in modo da renderli selezionabili e interrogabili singolarmente, trami5
64
ESPOSITO 2009.
te l’interfaccia cartografica regionale, e visibili mediante un’icona esplicativa, collegata a
una scheda descrittiva. Quest’ultima è composta di una parte testuale, contenente la
descrizione analitica del bene d’interesse, illustrato da una o più immagini associate.
Le schede sono gestite dal sistema Octapy, che consente la condivisione e la cooperazione dei sotto-sistemi di gestione dei dati all’interno del circuito informativo e rende
fruibili le informazioni all’esterno mediante interfacce grafiche dei nodi web delle aree
archeologiche aperte al pubblico.
Il sistema cartografico in tal modo realizzato permette di creare percorsi di navigazione liberi, interrogando la base cartografica messa a disposizione, sulla quale ogni bene
è indicato con la propria descrizione e rappresentazione illustrativa.
Se, per esempio, si seleziona al suo interno l’area flegrea per conoscere quali siano
le testimonianze attestate in quella parte del territorio, il sistema mostrerà con livelli
distinti, siti, monumenti e reperti, consentendo di accedere, per esempio, alla scheda generale dell’antica Cuma. Si possono consultare, inoltre, informazioni di dettaglio sui complessi architettonici presenti nella città, come il Capitolium, e quindi visualizzare la relativa scheda descrittiva e quelle specifiche degli oggetti ivi rinvenuti, come, ad esempio, la
testa colossale di Giove (fig. 2), custodita al Museo Archeologico Nazionale di Napoli, o
il fregio dorico con raffigurazioni di centauromachia, proveniente dagli scarichi del monumento ed esposti nel nuovo allestimento del Museo dei Campi Flegrei a Baia6. Le schede
vengono richiamate direttamente dal nodo culturale del sito web del museo, potendo
anche vedere la collocazione all’interno della struttura.
L’aspetto più interessante del sistema è, dunque, quello di mettere in condivisione,
tramite il documento cartografico, reperti provenienti da un unico edificio, ma conservati
in strutture museali diverse.
Analogamente nel caso dell’anfiteatro dell’antica Capua, situato nell’attuale Santa
Maria Capua Vetere, dall’interrogazione della mappa archeologica si può risalire alla scheda descrittiva del monumento e dei reperti da esso provenienti, come, ad esempio, quella
dei plutei esposti nell’adiacente Museo dei Gladiatori, ma anche quella di una statua di
Venere, conservata al Museo Archeologico Nazionale di Napoli. Il “sistema documentale
cooperativo” che sta alla base del progetto permette anche di operare il processo inverso,
cioè dal sito web della struttura museale ricontestualizzare sul territorio i beni in essa conservati, in modo che sia sempre evidente il legame tra luogo di ritrovamento e luogo di
esposizione di un oggetto (fig. 3).
L’uso del “documento cartografico” come strumento di condivisione dei dati7, avendo enormi potenzialità nella distinzione e aggregazione delle informazioni, apre dunque la
strada a nuove forme di integrazione e gestione dei contenuti culturali, che possono essere organizzati su più livelli e con diversi gradi di fruizione e accessibilità in rapporto al
profilo dell’utente, dal visitatore medio all’esperto specialista del settore, soddisfacendone le specifiche esigenze di conoscenza.
3. La ricontestualizzazione dei reperti vesuviani conservati presso il MANN
La valorizzazione del nostro patrimonio culturale, tema divenuto assolutamente
centrale in questi ultimi anni, induce a sviluppare modalità e percorsi fruitivi che permettano a fasce sempre più ampie di pubblico di accostarsi ai nostri beni culturali comprendendone il valore e l’unicità.
Sicuramente, considerata l’impossibilità nella quasi totalità dei casi di conservare in
situ gli oggetti rinvenuti, resta essenziale per acquisire una conoscenza più approfondita e
meditata della realtà antica, affrontare il nodo problematico della contestualizzazione; in
grado, da una parte, di rendere intelligibili i siti archeologici, dall’altra di rivitalizzare le
6
7
ZEVI et alii 2008.
DI ROBERTO-ESPOSITO 2009.
65
2. Ricontestualizzazione dei siti e
dei monumenti
archeologici nel
territorio.
strutture museali grazie a una migliore cognizione delle collezioni in esse contenute.
Da queste considerazioni nasce la volontà di costruire un circuito di cooperazione
per la valorizzazione e la fruizione dei beni culturali della Campania, nel quale la contestualizzazione sia lo strumento attraverso cui si ricostruisca il legame esistente, tra gli
oggetti esposti nei musei e i rispettivi luoghi di provenienza.
In particolar modo, la scelta è ricaduta sull’area vesuviana che, pur nelle innumerevoli possibilità offerte ai visitatori grazie alla ricchezza dei contenuti diversificati che è in
grado di mostrare, essendo ormai quasi del tutto privata degli arredi e delle suppellettili
che corredavano gli edifici, consegna un’immagine molto parziale di se stessa. Ricreare,
dunque, i contesti originari permette non solo di superare tale frammentarietà, ma anche
di ripercorrere senza mediazioni, mostrando al visitatore quello che l’archeologo ha visto
al momento dello scavo, la dimensione concreta di uno spaccato di vita antica.
In tale prospettiva l’uso del supporto informatico appare imprescindibile per azzerare la distanza esistente tra musei e siti archeologici, consentendo a entrambe queste realtà di arricchirsi reciprocamente senza perdere il loro carattere specifico. Attraverso tale
strumento è stato possibile realizzare percorsi di visita virtuali all’interno del Museo
Archeologico di Napoli, la cui fisionomia risulta, per molti aspetti, ancora troppo profondamente segnata dall’opera di riorganizzazione dell’istituto che, nella seconda metà
dell’Ottocento, fu svolta da Fiorelli8.
Tra le diverse collezioni si è scelto d’indagare tre raccolte che, pur essendo concepite in base alla loro originaria localizzazione, per i limiti intrinseci legati a qualsiasi esposizione all’interno di una sala museale, risultano scarsamente leggibili a un pubblico non
specialistico: l’arredo scultoreo della Villa dei Papiri, i rivestimenti parietali e gli oggetti
8
66
POZZI PAOLINI 1977, 13-14.
tratti dal Tempio di Iside e, infine, i mosaici e i reperti mobili della Casa del Fauno.
Si tratta di oltre duecento oggetti per il cui studio e ricontestualizzazione si è resa
necessaria un’accurata analisi della documentazione archivistica, bibliografica9 e grafica
relativa sia a essi che ai siti di provenienza. Il vaglio di questo repertorio di fonti (fondamentalmente custodito presso la Soprintendenza Speciale per i Beni Archeologici di
Napoli e Pompei, nella biblioteca della Società Napoletana di Storia Patria, nell’Archivio
Storico e nella Biblioteca Nazionale di Napoli) e, in particolare, delle relazioni di scavo
settecentesche e ottocentesche, sia di quelle originali10 sia dei testi a stampa da esse ricavati11, unitamente all’esame delle stampe e dei disegni12 che riproducono le piante e gli
elevati dei luoghi di reperimento, ha permesso la ricostruzione precisa dei contesti di provenienza dei reperti e la loro collocazione puntuale all’interno dei complessi monumentali pompeiani ed ercolanesi.
La messe d’informazioni così raccolta ha trovato distinti livelli di applicazione,
ognuno dei quali si propone di offrire un differente percorso di fruizione.
Per una presentazione dei contenuti all’interno del Museo Archeologico Nazionale
di Napoli si sono approntati dei video, visibili attraverso un impianto di “teatro virtuale”
installato nella sala del Plastico di Pompei, mentre per una descrizione dettagliata degli
oggetti si è ritenuto utile l’impiego della rete Internet; a tale scopo si sono realizzate schede di catalogo corredate di immagini illustrative, consultabili sul sito web del museo inserito nell’ambito del “C.I.R. Cultura Campania” (http://www.campaniabeniculturali.it).
La descrizione dei tre complessi monumentali di provenienza è stata affidata a una
presentazione per punti chiave, in cui si mostrano sinteticamente le rispettive caratteristiche architettoniche e si ricostruisce la vita e lo scavo delle strutture.
Il lavoro di ricomposizione dei contesti originari dei reperti mobili esaminati ha trovato due forme di espressione distinte:
- per le presentazioni video si è scelto un gruppo significativo di oggetti pertinenti
alle tre collezioni indagate, utilizzando una forma grafica di tale ricontestualizzazione corredata da una breve descrizione;
- nelle schede immesse in rete, invece, le informazioni sono state riportate all’interno del campo “Reperimento”, con cui sono state tradotte in una formulazione facilmente accessibile i dati veicolati nei tracciati ICCD dai paragrafi LA (“Altre localizzazioni geografico-amministrative”) e RE (“Modalità di reperimento”)13.
9
Viene qui menzionata solo la bibliografia essenziale pertinente ai tre complessi monumentali indagati, in quanto lo
studio degli stessi ha portato al vaglio di oltre quattrocento testi. Per la Villa dei Papiri: SGOBBO 1971; SGOBBO
1972; PANDERMALIS 1983; WOJCIK 1983; WOJCIK 1986; GIGANTE 1998; ADAMO MUSCETTOLA 2000;
DE SIMONE-RUFFO 2002; DE SIMONE-RUFFO 2003; MATTUSCH 2005; PESANDO-GUIDOBALDI 2006.
Per il Tempio di Iside: DE ROSA 1835; AVELLINO 1851; ELIA 1941; TRAN TAM TINH 1964; DE VOS 1980;
Collezione egiziana 1989; SAMPAOLO 1989; Iside 1992; POOLE 1997; SAMPAOLO 1998, 732-849; SAMPAOLO 2003; POOLE 2004; DE CARO 2006; SAMPAOLO 2006. Per la Casa del Fauno: LEONHARD 1914; PERNICE 1938; ZEVI 1991; LA ROCCA et alii 1994; HOFFMANN-DE VOS 1994, 80-141; BORRIELLO et alii 1996;
PESANDO 1996; ZEVI 1998; DICKMANN 1999; ZEVI 2000; DE CARO 2001; GUIDOBALDI 2002; PESANDO
2002; PESANDO 2003.
10
Archivio Storico di Napoli, Archivio Borbone, 18, 20; Segreteria di Casa Reale detta Casa Reale Antica, FS. 1539,
1540, 1541; Casa Reale Amministrativa, III Inventario, Conti e cautele, FS. 1162, 1167, 1171, 1174; Soprintendenza
per i Beni Archeologici di Napoli e Pompei, Archivio Storico: di Napoli, fascc. VIII A 2-9, VIII C 3 1, VIII D 1 1,
3, 5-11, 13, 16-22, 24, 26-27, VIII D 2 7, 12-13, VIII D 3 8, VIII D 5 8, VIII E 1 1-6; Società Napoletana di Storia
Patria, Fondo Avellino (in attesa di catalogazione); Fondo Cuomo, ms. 1-4-54, 1-4-55, 1-4-56, 2-6-2; ms. XX B 19
bis.
11
FIORELLI 1860-64, I, 161-194; II, 240-255; III, 103, 114-118; FIORELLI 1875, 152-159, 358-362, n. 28; COMPARETTI-DE PETRA 1883; RUGGIERO 1885; GALLAVOTTI 1940; PANNUTI 1983.
12
Archivio Storico di Napoli: Piante e disegni, X, 22; Biblioteca Nazionale di Napoli: Sezione Manoscritti e Rari Ba
20 (2, 26; Museo Archeologico Nazionale di Napoli: I piano, sala CXV, Pianta Weber; I piano sala LXXXIV, nn.
7.15, 7.5, 8.1; Soprintendenza ai Beni Archeologici di Napoli e Pompei, Archivio Disegni di Napoli: Ercolano 55275529; Tempio di Iside: 890, 898-899, 901; Archivio Disegni di Pompei, P 647a-c; cartella n. 62 (in attesa di catalogazione), P/61715; AVELLINO 1851, tavv. IV, VII.
13
Cfr. supra.
67
3. Contestualizzazione di un bene
archeologico nel
sito archeologico
di provenienza e
nelle strutture
museali.
Le scelte fatte sono la diretta conseguenza di un approfondito esame dei contenuti
comunicati dai tracciati determinati dall’Istituto Centrale per il Catalogo e la
Documentazione, teso alla loro interpretazione ontologica concepita come “ontologia di
dominio”.
Nell’ontologia approntata, denominata ReMuNa-ICCD, sono stati presi in considerazione i tracciati, aggiornati in versione 3.00, descriventi i beni mobili14, immobili15,
urbanistico-territoriali16, nonché le schede relative alla documentazione multimediale17,
quelle rientranti sotto la comune definizione di archivio18 e, infine, quelle pertinenti alle
unità stratigrafiche19.
I diversi segmenti di cui si compongono i suddetti tracciati sono divenuti, a seconda delle loro caratteristiche, “classi”, “proprietà” o “istanze dell’ontologia”. Essa, sviluppata con il sistema Protégé20, non è una banale trasposizione dei “campi” ICCD in un formato a oggetti ma una struttura codificata21, in cui il modo di determinare le relazioni è
14
Tracciati: D, F, MI, NU, OA, RA, S, TMA.
Tracciati: A, CA, MA, PG, SAS.
16
Tracciati: SI.
17
Tracciati: ADM, AUD, DOC, IMR, IMV, VID.
18
Archivi: AU, BIB, DSC, RCG.
19
Tracciati: US, USD, USM, USR.
20
GENNARI 2003; KNUBLAUCH-MUSEN 2004.
21
Per l’ontologia il riferimento essenziale è la struttura gerarchica delle top-level ontologies, DOLCE e
ICOM/CIDOC-CRM.
15
68
profondamente diverso da quello definito dall’Istituto Centrale per il Catalogo e la
Documentazione. Per questo motivo è stato necessario cogliere ed estrinsecare la logica
implicita presente nelle strutture dell’ICCD; tale attività ha portato a distinguere i “campi”
presenti nei tracciati, sulla base dei contenuti da essi veicolati, in cinque macro-aree tematiche:
“descrittiva”, contenente i “campi” che trattano le proprietà fisiche, tecniche, materiali e analitiche del bene in esame;
“storica”, comprendente i “campi” atti a descrivere la condizione attuale del bene e
la sua storia, caratterizzati dalla presenza di un’indicazione temporale e dalla connessa
eventuale ripetitività, oltre a quelli riguardanti le operazioni riguardanti la realizzazione
delle schede ICCD (“compilazione”, “ispezione”, “trascrizione”, “revisione”, ecc.);
“documentaria”, includente i “campi” inerenti la documentazione di riferimento di
un bene culturale nelle sue diverse forme, bibliografica, fotografica, video-cinematografica, grafica, ecc.;
“identificativa”, racchiudente i “campi” strettamente correlati alla determinazione
del codice ICCD e di altri codici relativi al bene in esame;
di “relazione”, comprendente i “campi” attraverso cui il bene culturale viene correlato o con parti di cui esso stesso si compone o con altre entità con le quali intercorrono i
collegamenti privilegiati, codificati nello standard ICCD dal vocabolario chiuso RSER
(“tipo relazione”).
A partire da tali macro-divisioni si sono individuati i soggetti della nostra ontologia,
distinguendoli dagli strumenti usati per descriverli e, in seconda istanza, per determinare
quali ulteriori “classi” andassero predisposte si è dovuto discernere nell’ambito dei paragrafi, tra “campi strutturati” e “campi semplici”, quelli che ricorrono senza variazioni di
sorta in tutte le schede ICCD, da quelli specifici, destinati a definire una determinata tipologia di beni. La sopraccitata analisi dei tracciati, consentendo di interpretare il tipo d’informazione trasmessa da ciascun “paragrafo” e “campo” ha permesso, inoltre, di stabilire
se ognuno di essi fosse da considerarsi direttamente o indirettamente riferito all’entità (sia
esso un bene culturale, o meno) trattato nel tracciato stesso. A quest’attività di destrutturazione delle informazioni presenti nei tracciati ICCD è seguita un’opera di ricomposizione in modo che ogni elemento fosse riconoscibile; tale ricomposizione si è data attraverso tre passi fondamentali: in prima analisi, si sono individuati dei pattern, come quello denominato della “storicizzazione”, che rendessero conto di specifiche relazioni tra
“classi” e “proprietà” particolarmente significanti della nostra ontologia; in secondo
luogo, si sono “mappate” le corrispondenze esistenti tra ciascun “campo” ICCD e gli elementi costituenti ReMuNa-ICCD; infine, si è determinato per ciascun segmento dell’ontologia l’iter attraverso cui ricondurlo alle classi descriventi i diversi soggetti (reperto
archeologico, sito archeologico, architettura, disegno, ecc.) dei rispettivi standard catalografici.
L’impiego dei risultati derivati dalla ricerca sui complessi monumentali ercolanesi
come banco di prova per valutare l’ontologia ha messo in evidenza le potenzialità, ma
anche le debolezze del sistema. Infatti, la necessità di creare un’ontologia con un grado di
complessità particolarmente ridotto, costringendo a eliminare le restrizioni e i domini multipli inizialmente impiegati, ha portato a una struttura con centinaia di “classi” e “proprietà” priva al suo interno di qualsiasi strumento utile a indirizzare il sistema, durante le fasi
di consultazione, unicamente verso contenuti legati da rapporti significanti. L’esperienza
fatta induce, quindi, ad abbandonare l’ipotesi di un’unica ontologia comprensiva di tutta
la standardizzazione ICCD, a favore della realizzazione di più strutture, ognuna pertinente a uno specifico “dominio”, con un ridotto numero di “classi” e, quindi, notevolmente
più agili, ma in grado di dialogare tra loro tramite specifiche sopraclassi di riferimento.
Un punto nodale emerso da tale attività di analisi è che la reale valorizzazione dei
beni culturali non può avvenire semplicemente rendendo accessibili a più ampie fasce di
utenti le informazioni inerenti a reperti archeologici o quant’altro, nelle medesime forme
69
in cui tali informazioni vengono acquisite e veicolate dagli addetti ai lavori. La semplice
messa in rete di una scheda RA secondo la codifica ICCD non consentirà a un pubblico
non specialistico di avvicinarsi ai beni culturali; resta, infatti, essenziale una complessa
attività di decodifica e interpretazione delle informazioni che, lungi dal produrre una banalizzazione delle stesse, fornisca un substrato di conoscenze necessarie a un utente generico.
Il lavoro ha, inoltre, evidenziato come sia fondamentale sfruttare le grandi potenzialità dei mezzi informatici nell’articolazione delle informazioni, nell’ottica di una progressione delle conoscenze fornite, affinché l’utente possa scegliere a che livello di approfondimento fermarsi onde evitare di ricadere in soluzioni, che, volendo essere esaustive,
finiscano per essere respingenti.
70
Abbreviazioni bibliografiche
ADAMO MUSCETTOLA 2000
S. Adamo Muscettola, La Villa dei Papiri a Ercolano,
Napoli 2000.
AVELLINO 1851
F. M. Avellino, Il Tempio di Iside di Pompei, Napoli
1851.
BORRIELLO et alii 1996
Pompei. Abitare sotto il Vesuvio, Catalogo della
Mostra, M. R. Borriello, A. D’Ambrosio, S. De Caro,
P. G. Guzzo (edd.), Ferrara 1996.
COARELLI 2002
Pompei. La vita ritrovata, F. Coarelli (ed.), Udine
2002.
Collezione egiziana 1989
La Collezione egiziana del Museo archeologico
nazionale di Napoli, Napoli 1989.
COMPARETTI-DE PETRA 1883
D. Comparetti - G. De Petra, La Villa Ercolanese dei
Pisoni, i suoi Monumenti e la sua Biblioteca.
Ricerche e Notizie, Torino 1883.
DE CARO 2001
S. De Caro, I mosaici. La Casa del Fauno, Napoli
2001.
DE CARO 2006
S. De Caro, Il santuario di Iside di Pompei, Napoli
2006.
ELIA 1941
O. Elia, Le pitture del tempio di Iside, in Monumenti
della pittura antica scoperti in Italia, Sezione III, La
pittura ellenistico-romana, Pompei, III-IV, Roma
1941.
ESPOSITO 2009
R. Esposito, Applicazioni informatiche per la fruizione diffusa dei siti e dei musei archeologici della
Campania. I progetti ArcheoAtlante e Archeologia
online, in Vesuviana 2009, 137-142.
FIORELLI 1860-64
G. Fiorelli, Pompeianarum Antiquitatum Historia, IIII, Napoli 1860-64.
FIORELLI 1875
G. Fiorelli, La descrizione di Pompei, Napoli 1875.
GALLAVOTTI 1940
C. Gavallotti, Nuovo contributo alla storia degli
scavi di Ercolano (nella Villa dei Papiri), in
RendNap, 20, 1940, 269-306.
GENNARI 2003
J. Gennari, The evolution of Protégé-2000. An environment for knowledge-based systems development,
in International Journal of Human-Computer Studies,
58, 2003, 89-123.
GIGANTE 1998
M. Gigante, Lo scavo della Villa dei Papiri, in
CronErcol, 28, 1998, 5-57.
GUIDOBALDI 2002
M. P. Guidobaldi, La casa, in COARELLI 2002, 203377.
DE ROSA 1835
P. De Rosa, Memorie sopra un’arula di bronzo trovata nel tempio d’Iside in Pompei, in Memorie
dell’Accademia Ercolanese, 2, 1835, 27-36.
HOFFMANN-DE VOS 1994
A. Hoffmann - M. De Vos, Casa del Fauno (VI, 1,
12), in PPM, 5, 1994, 80-141.
DE SIMONE-RUFFO 2002
A. De Simone - F. Ruffo, Ercolano 1996-1998. Lo
scavo della Villa dei Papiri, in CronErcol, 32, 2002,
325-344.
Iside 1992
Alla ricerca di Iside. Analisi, studi e restauri
dell’Iseo pompeiano nel Museo di Napoli, Catalogo
della Mostra, Napoli 1992.
DE SIMONE-RUFFO 2003
A. De Simone - F. Ruffo, Ercolano. La Villa dei
Papiri alla luce dei nuovi scavi, in CronErcol, 33,
2003, 279-311.
KNUBLAUCH-MUSEN 2004
H. Knublauch - M. A. Musen, Editing Description
Logic Ontologies with Protégé OWL Plugin, in
Proceedings of the 2004 International Workshop on
Description Logics, Whistler, British Columbia,
Canada 2004.
DE VOS 1980
M. De Vos, L’Egittomania in pitture e mosaici romano-campani della prima età imperiale, in EPRO, 84,
1980.
DICKMANN 1999
J. A. Dickmann, Domus frequentata, München 1999.
DI ROBERTO-ESPOSITO 2009
M. V. Di Roberto - A. ESPOSITO, Dai sistemi informativi territoriali e catalografici ai modelli cooperativi e virtuali: la contestualizzazione delle conoscenze sui beni culturali, in Vesuviana 2009, 119-126.
LA ROCCA et alii 1994
E. La Rocca - A. De Vos - M. De Vos, Pompei,
Milano 1994.
LEONHARD 1914
W. Leonhard, Mosaikenstudien zur Casa del Fauno
in Pompeji, in Neapolis, II, 1914, 42-99, 135-152.
MANGO FURNARI-NOVIELLO 2009
M. Mango Furnari - C. Noviello, I beni culturali e le
tecnologie dei sistemi cooperativi: CMS Octapy nel
71
CIR Cultura campania, in Vesuviana 2009, pp. 105117.
prototipi di classificazione ontologica dei beni culturali, in Vesuviana 2009, 127-135.
MATTUSCH 2005
C. C. Mattusch, The Villa dei Papiri at Herculaneum.
Life and Afterlife of a Sculpture Collection, Los
Angeles 2005.
RUGGIERO 1885
M. Ruggiero, Storia degli Scavi di Ercolano ricomposta sui documenti superstiti, Napoli 1885.
MIELE 2009
F. Miele, Conoscenza e fruizione dei beni archeologici e culturali: siti web istituzionali ed applicazioni
virtuali nel C.I.R. Cultura Campania, in Vesuviana
2009, 85-104.
PANDERMALIS 1983
D. Pandermalis, Sul programma della decorazione
scultorea, in La villa dei Papiri, in CronErcol, 13,
1983, 19-50.
PANNUTI 1983
U. Pannuti, Il “Giornale degli Scavi” di Ercolano
(1738-1756), in MemLinc, 26, 1983, 163-380.
PERNICE 1938
E. Pernice, Pavimente und figürliche Mosaiken,
Berlin 1938.
PESANDO 1996
F. Pesando, Autocelebrazione aristocratica e propaganda politica in ambiente privato. La Casa del
Fauno di Pompei, in CahGlotz, 7, 1996, 189-228.
PESANDO 2002
F. Pesando, La casa del Fauno, COARELLI 2002,
220-239.
PESANDO 2003
F. Pesando, La casa del Fauno, in Storie da un’eruzione 2003, 248-254.
PESANDO-GUIDOBALDI 2006
F. Pesando - M. P. Guidobaldi, Pompei, Oplontis,
Ercolano, Stabiae, Roma-Bari 2006.
POOLE 1997
F. Poole, Ushabty di Payefheryhes, in Iside. Il mito, il
mistero la magia, Catalogo della Mostra, Milano
1997, 430-434.
POOLE 2004
F. Poole, Il culto di Iside a Pompei, in Pompei, Capri
e la Penisola Sorrentina, Atti del Quinto Ciclo di
Conferenze di geologia, storia e archeologia, Capri
2004, 209-243.
POZZI PAOLINI 1977
E. Pozzi Paolini, Il Museo Archeologico Nazionale in
due secoli di vita, in Da Palazzo degli Studi a Museo
Archeologico Nazionale, Napoli 1977, 1-27.
PPM
Pompei: pitture e mosaici, I-X, Milano 1990-2003.
PROTO 2009
F. Proto, Modelli di conoscenza contestualizzata e
72
SAMPAOLO 1989
V. Sampaolo, Le pitture, in Le collezioni del Museo
Nazionale di Napoli, I (1-2), Roma-Milano 1989, 3875.
SAMPAOLO 1998
V. Sampaolo, Tempio di Iside (VIII, 7, 27-28), in
PPM, 8, 1998, 732-849.
SAMPAOLO 2003
V. Sampaolo, Il tempio di Iside (VIII, 7, 27-28), in
Storie da un’eruzione 2003, 233-239.
SAMPAOLO 2006
V. Sampaolo, L’Iseo pompeiano, in Egittomania,
Catalogo della Mostra, Napoli 2006, 87-118.
SGOBBO 1971
I. Sgobbo, Panyassi il Poeta riconosciuto in un
ritratto della «Villa dei Papiri» di Ercolano, in
RendNap, 46, 1971, 51-74.
SGOBBO 1972
I. Sgobbo, Statue di oratori attici ad Ercolano dinanzi alla biblioteca della “Villa dei Papiri”, in
RendNap, 47, 1972, 241-305.
Storie da un’eruzione 2003
Storie da un’eruzione. Pompei, Ercolano, Oplontis,
Catalogo della Mostra, A. D’Ambrosio, P. G. Guzzo,
M. Mastroroberto (edd.), Milano 2003.
TRAN TAM TINH 1964
V. Tran Tam Tinh, Essai sur le culte d’Isis à Pompéi,
Paris 1964.
Vesuviana 2009
Vesuviana. Archeologie a confronto, Atti del
Convegno Internazionale, A. Coralini (ed.),
Bologna2008, Bologna 2009.
WOJCIK 1983
L. R. Wojcik, La Villa dei Papiri. Alcune riflessioni,
in CronErcol, 13, 1983, 129-134.
WOJCIK 1986
L. R. Wojcik, La Villa dei Papiri ad Ercolano.
Contributo alla ricostruzione dell’ideologia della
“nobilitas” tardo repubblicana, Roma 1986.
ZEVI 1981
F. Zevi, La storia degli scavi e la documentazione, in
Pompei 1748-1980. I tempi della documentazione,
Catalogo della Mostra, Roma 1981, 11-21.
ZEVI 1991
F. Zevi, La città sannitica, l’edilizia privata e la Casa
del Fauno, in Pompei, I, Napoli 1991, 47-74.
ZEVI 1998
F. Zevi, I mosaici della Casa del Fauno a Pompei,
Napoli 1998.
ZEVI 2000
F. ZEVI, La Casa del Fauno, in Studi sull’Italia dei
Sanniti, Milano 2000, pp. 118-137.
ZEVI et alii 2008
Il Museo Archeologico dei Campi Flegrei. Catalogo
generale. Cuma, F. Zevi, F. Demma, E. Nuzzo, C.
Rescigno, C. Valeri (edd.), Napoli 2008.
Referenze iconografiche
Autori: figg. 1-3.
Renata Esposito
Soprintendenza Speciale per i Beni Archeologici di
Napoli e Pompei
[email protected]
Fiona Proto
Soprintendenza Speciale per i Beni Archeologici di
Napoli e Pompei
[email protected]
73
Mario Mango Furnari
Carmine Noviello
Paolo Acampa
Octapy 3: una piattaforma open
source per un CMS cooperativo di
depositi documentali distribuiti
Abstract
In this paper we address the problem of making distributed document collection repositories mutually
interoperable. To cope with this kind of problems the notions of document, cooperative knowledge community and content knowledge authority are introduced. A set of methodologies and tools to organize the documents space around the notion of contents community were developed. Each content provider will publish a
set of data model interpreters to collect, organize and publish through a set of cooperative content management system nodes glued together by a web semantic oriented middleware.
Content delivery and information sharing across the network is today possible using a variety of technologies, such as distributed databases, service oriented applications, and so forth. However, technologies on
sharing content is only one aspect of content management in cooperative and distributed settlements. In fact,
contents need to be created, managed, revised and finally published. Contents may also to be aggregated in
collections, which in turn may be shared among stakeholders. Modern Content Management Systems (CMS)
have a complete environment to support users in content production and publishing for the web. However,
most CMSs have poor support for cross systems interoperability and cooperation over the network. They
mainly focus the attention to the users’ interaction and documents usage.
Prerequisite to share documents in machine understandable way is the adoption of de facto standards
for content and metadata representations. Aside of this standards, documents must provide both user and
machine oriented representations, and play an active rule in data sharing. In other words, it is worth to explore the possibility to map the document conceptual model on the object oriented programming model exploiting some of its methodological and technological features. Furthermore, the current semantic oriented exploitation attempts are mainly oriented to cope with the conceptualization of a single information source, they use
document semantic models as monolithic entities providing little support to specify, store and access them in
a modular manner.
The design methodologies described in this paper are based on the hypothesis that it is yet necessary
to develop an adequate treatment for distributed and heterogeneous document model interpretation to promote information sharing on the semantic web. Appropriate infrastructures for representing and managing distributed document model interpreters have also to be developed. To pursue these goals we introduced the
notion of “knowledge stakeholders community” that exchange modularized “document model interpretation”
together documents using a “document middleware”. Experimental implementation and tools were developed
to check the adequacy of the proposed methodologies; their deployment for the cultural heritage promotion
arena is also described.
1. Introduzione
L’Italia è uno dei paesi più ricchi di beni culturali al mondo, per cui è strategico
garantirne la sopravvivenza così che si tramandino nel tempo, nella consapevolezza che
l’eclisse della memoria/identità porterebbe al progressivo oscuramento delle nostre
75
coscienze, all’oblio del nostro lavoro, sino alla perdita della nostra identità. A questo proposito non va né sottaciuto né sottovaluto il fatto che la preservazione, conservazione e
promozione dei beni culturali è processo molto complesso che vede l’intreccio di competenze diverse.
Per la valorizzazione e fruizione un aspetto di non secondaria importanza è la distribuzione geografica dei luoghi di conservazione dei beni culturali che rende difficile formulare un’offerta unitaria dei beni culturali. È necessario pensare, quindi, a questi processi
in termini di un sistema globale di conservazione e promozione in cui i diversi soggetti,
forze e competenze fortemente diversificate possano agevolmente cooperare tra loro.
Appare ragionevole attendersi un contributo significativo dall’innovazione tecnologica anche se non può essere nascosto che innovare non sempre significa progredire, per
cui l’applicazione delle nuove tecnologie al mondo dei beni culturali necessita di un’approfondita analisi onde evitare di inseguire “mode” che si limitano ad ampliare il mercato di utilizzo delle specifiche tecnologie. Oggi questo appare ancora più cogente per quanto riguarda l’utilizzo delle tecnologie dell’informazione e delle telecomunicazioni. Infatti,
la significativa riduzione dei costi diretti e la maggiore semplicità di uso delle applicazioni sembra soddisfare più l’esigenza di ampliare i mercati piuttosto che un ripensamento e
semplificazione dei “processi di produzione”.
Da una prospettiva storica, lo sviluppo e l’utilizzo di sistemi informativi per la
gestione di contenuti ha subito un lungo processo di crescita ed evoluzione che è coinciso
sia con l’aumento delle potenzialità offerte dalle tecnologie dell’informazione sia con la
diffusione di reti di comunicazione.
Il primo passo è stato rivolto alla creazione di strumenti software per immagazzinare contenuti descritti da un unico (o al più una famiglia) modello di dati, che con lo sviluppo e la diffusione dei database si è avviato un processo di immagazzinamento sistematico di dati. Al contempo, istituzioni, enti, organi governativi e soggetti privati hanno
sempre più ampliato l’utilizzo di strumenti e tecnologie per la memorizzazione, catalogazione, indicizzazione e ricerca di “documenti”, ben oltre quelli rappresentabili con la struttura dati tipica dei Data Bases, cioè il tipo “record”. Nel tempo, infatti, il ruolo dei database si è spostato dall’essere elementi portanti e centrali dei sistemi informativi a quello
di “anello” di una catena ben più complessa in cui altre componenti software svolgono un
ruolo determinante: si parla di sistemi per la gestione di basi documentali o di Content
Management System (CMS).
In questo contesto, a cambiare è soprattutto il modo di operare delle istituzioni, preposte alla gestione - e spesso alla definizione - dei documenti e delle collezioni digitali,
che si trovano a dover cambiare il proprio ruolo da quello di semplici organi preposti al
mantenimento e alla catalogazione di contenuti e strutture il cui compito preciso è quello
di sviluppare tecniche organizzative, standard di rappresentazione e metadati che facilitino forme di cooperazione/interoperabilità tra istituzioni, con l’unico obiettivo comune di
creare una rete virtuale di conoscenza distribuita, in cui ogni nodo di questa rete ha la
responsabilità di “farsi interpretare” dagli altri. La “cooperazione” rappresenta l’elemento
cardine delle collezioni digitali o, di come attualmente si indica in maniera più generale,
delle biblioteche digitali1. In definitiva, la “gestione di contenuti” è un processo che mira
alla definizione di metodologie di trattamento dei dati, alla creazione di eventuali strutture e/o istituzioni preposte a tale trattamento e infine, ma non ultima per importanza, alla
realizzazione di specifiche tecnologie informatiche idonee ai compiti individuati.
Il modo più diffuso e consolidato di rappresentare i contenuti è dato dal documento, il cui ruolo è quello di contenitore, e la sua struttura è tale da garantire “identificabilità”, “leggibilità” e “ricuperabilità” sia di se stesso che delle informazioni contenute. Un
documento è quindi un oggetto virtuale che codifica le informazioni rendendole interpretabili da un “agente umano” o da un “agente software”, e convoglia più tipologie di infor1
76
BORGAMAN 2000.
mazioni: il “contenuto” (la rappresentazione di ciò che si vuol comunicare); la “presentazione” (le informazioni riguardanti le modalità potenziali di fruizione); la “struttura”, che
caratterizza il documento, evidenziando la struttura del contenuto, eventualmente non
lineare (ipertesto); i “metadati”, le annotazioni che facilitano l’utilizzo del documento e
catturano alcuni aspetti semantici del contenuto (fig. 1).
Con una tale organizzazione concettuale delle informazioni (conoscenze) è possibile fornire agli utenti sia gli oggetti che rappresentano l’informazione sia i contesti interpretativi degli stessi contenuti (conoscenze). Sistemi che utilizzano questo tipo di organizzazione sono da considerare esempi di sistemi software in cui i processi di “virtualizzazione” e “ipertestualizzazione” sono realizzabili e dove l’utente svolge il ruolo di “soggetto attivo” e di “mediazione del processo di comprensione”.
1. Struttura
concettuale del
“documento”.
77
2. Struttura
concettuale di
un’ “aggregazione
di documenti”.
In una “comunità virtuale” di sistemi documentali, tra loro cooperanti, il contenuto
svolge un ruolo attivo, espone struttura e funzionalità tali da utilizzarlo sia come elemento di una collezione di documenti sia come strumento di mediazione e cooperazione con
altri sistemi. In questo senso, il contenuto diventa documento e, allo stesso tempo, interfaccia per la cooperazione con altri sistemi, centro e periferia dello stesso sistema, nodo e
radice di una struttura gerarchica. Si passa quindi a un documento che ha più modalità di
fruizione e rappresentazione a un documento multivalente in grado di esprimere la sua
struttura e le interazioni con altri documenti e collezioni digitali2.
Dal punto di vista strutturale, la nozione di “documento digitale” è costruita ricorsivamente a partire da quella di “documento semplice”, cioè costituito dalla codifica digitale del contenuto e da un insieme di proprietà che lo caratterizzano. Si passa poi a definire il “documento composto”, costituito dalla rappresentazione digitale di una struttura di
aggregazioni di parti e dalle rappresentazione dei documenti associati a queste parti, dove
ciascuna parte è esso stesso un documento, sia semplice che composto. La profondità di
annidamento della ricorsione può essere resa arbitraria, consentendo così da rappresentare documenti sempre più complessi che modellano la tipologia organizzativa di un sistema documentale. Ad esempio, è possibile costruire la nozione di “collezione” di documenti rendendo esplicita la “relazione di aggregazione” ed è possibile considerare la collezione quale nuovo tipo di documento; si può, inoltre, aggregare collezioni o definire
documenti che rappresentano le relazioni tra collezioni. Continuando in questo processo
di astrazione, si può costruire la nozione di “Deposito di Documenti”, riunendo aggregati
di collezioni di documenti alla stessa stregua del documento. Un aspetto interessante di
questo modo di procedere è che la struttura del “Deposito di Documenti” è anch’essa rappresentabile mediante documenti (fig. 2).
Un sistema informatico (Sistema Informativo Documentale) costruito a partire dalla
nozione di documento consente di rappresentare: il contenuto esplicito di informazioni che
gestisce; le informazioni a proposito del sistema; le informazioni di raccordo tra i suoi
livelli organizzativi, informazioni che debbono essere definite in modo da essere elaborabili e interpretabili automaticamente.
2
78
GLUSHKO-MC GRATH 2005.
2. La piattaforma Octapy 3
La piattaforma Octapy CMS nasce con l’obiettivo primario di fornire funzionalità
per la realizzazione di comunità virtuali a tecnologia web, e quindi fornisce strumenti specifici per la cooperazione tra sistemi autonomi e indipendenti. Con Octapy ogni contenuto può essere reso di tipo distribuito, e quindi acquisibile da qualsiasi altro sistema partecipante a una rete di sistemi trusted. Questo è possibile grazie al fatto che in Octapy ogni
documento è fornito di più rappresentazioni digitali, che vanno da quelle user-oriented,
cioè per la fruizione da parte dell’utente finale, a quelle strutturate in XML per essere
interfacciate e interpretate da sistemi software locali e/o remoti. Il sottosistema di gestione distribuita e cooperativa consente di gestire qualsiasi contenuto remoto come se si stesse operando in locale.
Un nodo documentale è interamente configurabile, per quanto riguarda le politiche
cooperazione della comunità virtuale e la tipologia dei contenuti gestibili, specificati nello
Octapy Meta Language - OCML. Per garantire la interoperabilità fra differenti nodi documentali si è utilizzata la nozione di “contenitore”, un’entità che, indipendentemente dalla
localizzazione fisica, lega le entità Octapy. Dalla specifica dei documenti, espressa in
OCML, si generano le “componenti software contenuto” che, compilati con YODA, sono
poi incluse nell’ambiente di run-time e resi immediatamente disponibili all’utente. Questo
run-time è stato sviluppato costruendo uno strato software sulla piattaforma Zope/Plone
così da estenderlo in un’ottica di sistemi distribuiti, cooperativi e orientati ai contenuti.
L’intera piattaforma Octapy è realizzato utilizzando il linguaggio di programmazione
Python3.
Le funzionalità di correlazione tra documenti, dello stesso tipo o meno; di scambio
dei contenuti e/o dei metadati sono state organizzate in tre livelli tra loro distinti. Più in
particolare:
- Documents Definition Layer (DDL) è il livello che si occupa della definizione dei
documenti e del relativo modello di interpretazione. Con questo livello sono definibili
nuovi contenuti da rendere disponibili all’utente, nonché le interpretazioni dei singoli elementi della struttura del documento e gli eventuali vocabolari associati. I modelli di definizione fungono, inoltre, da elemento di mediazione tra i sistemi della comunità virtuale.
Lo scambio dei documenti di definizione permette di condividere le tipologie dei dati
gestisti da ciascun nodo e la loro struttura e modello di interpretazione. Il DDL è ampiamente utilizzato nei moduli di interazione con l’utente e in alcune componenti che garantiscono la cooperazione, come il sottosistema OAI.
- Content Components Layer: questo livello si occupa della generazione delle
“componenti contenuto”, con le quali è possibile effettuare tutte le operazioni tipiche di
un CMS (inserimento, modifica, cancellazione, gestione) e di interfacciare le componenti
che si occupano della gestione dei contenuti locali con i sottosistemi dei nodi di cooperazione, attraverso un processo di “remotizzazione” trasparente dei contenuti dei nodi della
comunità virtuale. Questo livello assicura l’indipendenza dal particolare modello dati, e
consente l’espansione e la personalizzazione del CMS in maniera flessibile ed efficiente.
- Distributed and Cooperative Layer: è il livello che si occupa della parte distribuita e cooperativa del CMS. I moduli di questo livello provvedono alla creazione delle differenti rappresentazioni dei contenuti, supportando il protocollo OAI, e gli standard di
interoperabilità dei metadati, quali il DC, MARC, PICO, nonché i modelli di rappresentazione basati su XML. Grazie a questi sottosistemi è possibile aggregare contenuti di altri
sistemi, esportarne i contenuti nonché aggregare, strutturare e correlare entità differenti,
quali documenti multimediali ed entità cartografiche.
3
NOVIELLO 2007; VON WEITERSHAUSEN 2007.
79
- Content Management Layer: è il livello che implementa il CMS propriamente
detto, in cui viene curata parte della logica di applicazione, la presentazione all’utente, la
gestione dei workflow. Questo livello è realizzato adoperando Plone 3.x, che fornisce elementi di “adattività” in base alle tipologie di utenza.
In definitiva, la piattaforma Octapy utilizzabile per realizzare comunità virtuali di
nodi cooperanti di sistemi di gestione documentali, dove la comunità è costituita da un
insieme finito di nodi di stretta gestione documentale, accessibili direttamente, ad esempio, come siti web, e da un insieme di nodi di servizio, ad esempio nodi aggregatori, nodi
di cross-walking, ecc. Questi ultimi nodi consentono di accedere ai contenuti/conoscenze
della comunità in modo unitario e trasparente per l’utente finale.
3. L’utilizzo di Octapy nei Beni Culturali
La principale area applicativa in cui si è verificato l’adeguatezza di Octapy è quella dei Beni Culturali, per la quale sono stati definiti le seguenti tipologie di documenti:
Oggetto archeologico, Monumento-complesso archeologico, Sito archeologico, Oggetto
artistico, Oggetto archivistico (foglio e fascicolo), Oggetto architettonico (museo ed edificio), Oggetto demoetnoantropologico. Per ciascuno di questi tipi sono forniti molteplici
schemi di presentazione. Ogni tipo di contenuto è correlato a rappresentazioni digitali dei
più diffusi vocabolari ICCD.
Le scelte tecnologiche adottate nello sviluppo di Octapy consentono: a ciascun
museo e soprintendenza di gestire in proprio e in piena autonomia i contenuti descrittivi
relativi ai suoi beni, scegliendo il proprio modello di gestione e di rappresentazione dei
dati e di realizzare la cooperazione tra le istituzioni con la realizzazione di Circuiti di
Promozione superando la logica dei siti e/o portali web. La piattaforma è ovviamente compatibile con gli standard di interoperabilità fissati dal MiBAC, oltre che con i principali
standard internazionali ed è in costante aggiornamento tecnologico, a cura dello stesso
CNR.
La cooperazione tra i diversi nodi partecipanti al circuito trova la sua concreta
estrinsecazione nella realizzazione di percorsi culturali comuni a più soggetti, i così detti
musei impossibili. Questa ultima possibilità è stata realizzata ideando un nuovo tipo di
documento, il “tematismo”, ossia itinerari culturali tematici trasversali ai singoli musei e
istituzioni culturali che si presentano tuttavia in maniera unitaria. In realtà sono composti
da documenti provenienti dai differenti nodi possessori dei documenti. Nella composizione di un “tematismo” è possibile scegliere documenti di qualsiasi natura, ad esempio, un
percorso culturale è “Napoli tra vedutismo e cartografia” composto da una collezione di
71 schede tra oggetti archivistici (gestiti dall’Archivio di Stato di Napoli), oggetti artistici (gestiti dalla Soprintendenza Speciale al Polo Museale Napoletano), ecc.
Oggi Octapy è adoperato con successo come piattaforma tecnologica in oltre 100
nodi documentali a tecnologia web che consentono la realizzazione di diversi circuiti virtuali di cooperazione. I principali circuiti sono:
- il Circuito Culturale della Campania (http://www.campaniabeniculturali.it) (figg. 3-5);
- il Museo dell’identità del territorio della Terra di Bari (http://www.memoriaeconoscenza.it) (fig. 6);
- la rete dei Musei Culturali della Puglia e dell’Albania (http://www.cchnet.it) (fig. 7);
- la promozione dei beni archeologici dell’Egitto minore in Italia (http://osiris.lab32.org);
I contenuti in esercizio sono alimentati dalle Direzioni Regionali del Ministero dei
Beni Culturali delle regioni Campania e Puglia. Oltre a ciò, la piattaforma è stata ceduta
in riuso per la PA alla Regione Puglia, al Comune di Bari e ad altri enti della PAL.
80
3. Circuito
Culturale della
Campania.
4. CIR - Il percorso
“Napoli tra
vedutismo e
cartografia”.
81
5. CIR - Luoghi
della cultura in
Campania.
6. Museo della
identità del territorio
della Terra di
Bari.
7. Musei Culturali
della Puglia e
dell’Albania.
82
5. Conclusioni
Il CMS Octapy è frutto di anni di esperienza scientifica e tecnica maturata nel settore dei Beni Culturali, settore che ha fornito un banco di prova sufficientemente significativo per verificare le funzionalità del CMS e le basi scientifiche e informatiche su cui si
fonda. Con il progetto ReMuNa (Rete dei Musei Napoletani)4, infatti, è stato possibile far
cooperare in rete le più significative istituzioni culturali e museali di Napoli (tra cui
Archivio di Stato di Napoli, Museo Archeologico Nazionale di Napoli, Museo di
Capodimonte, Certosa e Museo di San Martino, Museo Diego Aragona Pignatelli Cortes,
Museo di Palazzo Reale, Pinacoteca del Pio Monte della Misercordia, Museo del Tesoro
di San Gennaro, Parco della Tomba di Virgilio) con un’unica piattaforma software e sotto
un unico modello di interoperabilità, così da formare un circuito di siti web ognuno dotato di una propria autonomia di gestione, ma costituenti una rete di conoscenze comuni. I
risultati tecnico scientifici del progetto ReMuNa sono stati acquisiti dalla Direzione
Regionale per i Beni Culturali e Paesaggistici della Campania e sono confluiti nel progetto Circuito Informativo Regionale per la promozione e fruizione dei beni culturali della
Campania (C.I.R.) (www.campaniabeniculturali.it), che ha visto la creazione di una federazione di circuiti - ognuno associato ad una provincia della Campania - con un circuito
di oltre 100 siti web, in regime di cooperazione. Il circuito aderisce, inoltre, al progetto
europeo Michael, iniziativa finanziata dalla Comunità Europea dedicata allo sviluppo di
nuove tecnologie per la fruizione di contenuti culturali. Il Ministero per i Beni e le Attività
Culturali partecipa a questo progetto e la versione italiana del portale Michael è disponibile sul sito http://michael.beniculturali.it5. Questo progetto ha prodotto un documento di
specifica dei metadati che si intende utilizzare ed è consultabile in http://michael. michaelculture.org6.
4
REMUNA 2001.
MICHAEL 2002.
6
MICHAEL 2001.
5
83
Abbreviazioni bibliografiche
BORGAMAN 2000
C. L. Borgaman, From Gutenberg to the global information infrastructure, Cambridge 2003.
MICHAEL 2001
Progetto MICHAEL del Ministero per i Beni e le
Attività Culturali, 2002 (http://michael. michael-culture.org).
MICHAEL 2002
Progetto MICHAEL del Ministero per i Beni e le
Attività Culturali, 2002 (http://michael.beniculturali.it).
GLUSHKO 2005
R. J. Glushko - T. Mc Grath, Document Engineering,
Cambridge 2005.
NOVIELLO 2007,
C. Noviello, Il Component-Model di Octapy 3,
Technical Sheet Octapy CMS, Pozzuoli-Napoli 2007.
REMUNA 2001
Progetto ReMuNa, 2003 (http://www.remuna.org e
http://www.remuna.org/progetto).
VON WEITERSHAUSEN 2007
P. von Weitershausen, Web Component Development
with Zope 3, Berlin 2007.
Referenze iconografiche
Autori: figg. 1-7.
Mario Mango Furnari
Istituto di Cibernetica “E. Caianiello” CNR Pozzuoli.
[email protected]
Carmine Noviello
Istituto di Cibernetica “E. Caianiello” CNR Pozzuoli.
[email protected]
Paolo Acampa
Istituto di Cibernetica “E. Caianiello” CNR Pozzuoli.
[email protected]
84
Mirella Serlorenzi
Andrea De Tommasi
Simone Ruggeri
La filosofia e i caratteri Open Approach del Progetto SITAR Sistema Informativo Territoriale
Archeologico di Roma.
Percorsi di riflessione metodologica e di sviluppo tecnologico
Abstract
The goal of the SITAR project is the creation of the Archaeological Territorial Informative System of
Rome; it was launched by the Soprintendenza Speciale per i Beni Archeologici di Roma (SSBAR), the
governmental Institution in charge of the safeguard and exploitation of the exceptionally rich archaeological
heritage of Rome. The SITAR project is a technological and institutional challenge for the SSBAR, combining an informative system still under construction with the management of an enormous and heterogeneous
amount of data, deriving from the precious historical and urban context of a constantly evolving city like
Rome. The beginning and development of SITAR took place in a time characterized by the emergence of new
approaches in the management and use of data, even at the higher central levels of the Ministry of Cultural
Heritage (MiBAC). After decades of studies on the regulations of data description and exchange, on the taxonomic structures of several and partially accomplished informative systems, the MiBAC started a new season
of philosophical and methodological reflections on the construction of central administrative and scientific
data banks; in the last three years, all of this led to achieve essential results for the rationalization of the designed system. More specifically, the work of two MiBAC - Italian University commissions showed a new
direction in the discussion on the SIT, IDT (Territorial Data Infrastructures) and safeguard archaeology, together with a renewed belief in the necessity of developing the multifaceted experiences from several research
contexts and methodological and technological analysis coexisting in the current social Italian frame.
Moreover this evolution and this open institutional approach clarified the dimensions and perspectives of the
development of the public informative system projects designed for archaeology, safeguard, planned management and last but not least exploitation of the cultural heritage. At a central level, the most important result
is embodied in the recent establishment by the MiBAC of the SITAN (National Archaeological Informative
System), designed on the guidelines of the special peer MiBAC- University commission on SIT and IDT. The
SITAR is farther well framed into this broad institutional and technological context thanks to the active involvement of the SSBAR in the work of the institutional commissions on SIT/IDT and protective archaeology.
For all of this and for the collaboration with other Italian archaeological Soprintendenze, the SITAR represents the first pilot project for the shared construction of an archaeological SIT for Rome, and even of an
ambitious IDT with the participation of the Regione Lazio, Comune di Roma, Comune di Fiumicino,
l’Archivio di Stato di Roma, and some departments of the University of Rome Sapienza and Roma III.
1. Premessa
Il SITAR, Sistema Informativo Territoriale Archeologico di Roma, è stato avviato
e sviluppato dalla Soprintendenza Speciale per i Beni Archeologici di Roma, a partire dal
2007, con il fine di costruire uno strumento in grado di codificare in maniera rapida ed
efficace l’insieme dei beni archeologici presenti sul territorio metropolitano (fig. 1). Ciò
allo scopo di delineare un quadro conoscitivo sistematico e unitario all’interno del quale
organizzare i risultati delle attività di tutela e di ricerca attuate sul territorio, e al fine di
85
1. Il territorio di
competenza della
SSBAR (fonte:
WebGis SITAR).
supportare la pianificazione territoriale condivisa e la valorizzazione in modo più consapevole e rispettoso dello straordinario contesto storico-archeologico di Roma1.
2. Il quadro istituzionale
Probabilmente non a caso la nascita e lo sviluppo del SITAR si collocano in un arco
temporale che ha visto la maturazione di nuovi approcci alla gestione delle informazioni
e al loro utilizzo anche nei livelli superiori dell’amministrazione centrale del Ministero per
i Beni e le Attività Culturali. Dopo decenni di ricerche e di studi sulle normative di descrizione e scambio dati, sulle strutture tassonomiche dei tanti sistemi informativi ipotizzati e
poi solo in parte realizzati, il MiBAC ha dato vita a una nuova stagione di riflessioni filosofiche e metodologiche nell’ambito della costruzione delle banche dati amministrative e
scientifiche centrali, che negli ultimi tre anni hanno condotto ad alcuni risultati fondamentali in termini di semplificazione e razionalizzazione dei sistemi progettati. In particolare, il lavoro di due commissioni paritetiche MiBAC - Università ha portato in dote alla
discussione comune sui SIT, sulle IDT - infrastrutture di dati territoriali e sull’archeologia
1
Il contributo che qui si presenta è frutto dell’impegno comune di un ampio gruppo di lavoro che anche in questa
sede si ha il piacere di nominare e di ringraziare: Valentina Di Stefano, Giorgia Leoni, Ilaria Jovine e Claudia
Tempesta, Assistenti tecnico-scientifici della Soprintendenza Speciale per i Beni Archeologici di Roma; Valeria Boi,
Arjuna Cecchetti, Cristiana Cordone, Petra Gringmuth, Federica Lamonaca, Luisa Marulli, Cecilia Parolini, Stefania
Picciola, Alessandro Pintucci, Francesca Chiara Sabatini, Milena Stacca, collaboratori del Servizio SITAR della
SSBAR; Pasquale Porreca e Andrea Varavallo, del CED della SSBAR; Marco Loche, Marco Santamaria, Raniero
Grassucci, Andrea Vismara, Aldo Caprioli, Vittorio Fronza, consulenti tecnici esterni del Progetto SITAR. Molti
degli argomenti trattati in questa sede sono stati ulteriormente sviluppati in SERLORENZI 2011, con contributi specifici dedicati ai diversi aspetti istituzionali, metodologici e tecnologici del SITAR.
86
preventiva una nuova sensibilità, forse meglio una rinnovata convinzione della necessità
di valorizzare la molteplicità delle esperienze dei tanti contesti di ricerca e di sperimentazione metodologica e tecnologica che convivono nel nostro quadro sociale nazionale2.
Da ultimo, questa evoluzione di approcci, questo Open-approach istituzionale, ha
chiarito molto, sia a livello centrale che periferico, le dimensioni e le prospettive di sviluppo anche dei progetti e dei sistemi informativi pubblici dedicati all’archeologia, alla
tutela del patrimonio culturale, alla gestione programmata dei Beni, non ultimo, alla loro
valorizzazione. Probabilmente, il risultato più importante a livello centrale è stato il recentissimo varo del SITAN, il Sistema Informativo Territoriale Archeologico Nazionale che
il Ministero per i Beni e le Attività Culturali si accinge a sviluppare e diffondere. Il
SITAN, infatti, si prefigge di stabilire un minimo comun divisore al fine di mettere in relazione sistemi informativi archeologici differenti per finalità e impostazione.
A questo proposito è utile ricordare che recentemente l’ICCD ha fatto propria tale
filosofia, inserendo nell’interfaccia MODI un set minimo di dati come requisito indispensabile per poter rendere compatibile qualsiasi tipo di dato schedografico con il modello
logico del SIGEC, il Sistema Generale del Catalogo3.
In sostanza, si potrebbe ravvisare in questo approccio dell’amministrazione pubblica un rinnovato sforzo teso a delineare i caratteri minimi di un Open-format sia sul piano
del modello concettuale e logico del dato archeologico, sia sul piano dell’ambiente tecnologico utile alla condivisione, all’impiego e all’analisi specialistica delle informazioni. Dal
momento in cui verranno pubblicate, le norme tecniche e scientifiche del SITAN tracceranno, dunque, il percorso innovativo entro il quale costruire nuove esperienze nel campo
dei SIT e delle IDT, dedicati all’archeologia.
Quel che può apparire come un ulteriore sforzo di centralizzare e di gerarchizzare
la produzione e la gestione di dati amministrativi e scientifici da parte del MiBAC, è in
realtà un grande passo evolutivo che conduce all’opposto verso una concreta ripartizione
delle responsabilità istituzionali in merito al reperimento, alla conservazione e alla messa
a disposizione di tali informazioni, “pubbliche”per stessa definizione di legge. In altri termini, il SITAN predispone il terreno istituzionale più opportuno per la progettazione e per
la costruzione di sistemi tecnologici anche personalizzabili dalle utenze finali
(Soprintendenze, istituti del MiBAC, enti pubblici territoriali, altre pubbliche amministrazioni, Dipartimenti universitari, consorzi di ricerca, soggetti giuridici pubblici controllati
e soggetti privati), purché dotati di un comune “talento” di base dedicato al censimento
essenziale dei dati archeologici e territoriali, nonché, elemento fondamentale, provvisti
delle opportune interfacce di collegamento e di comunicazione interoperanti con il SITAN
e con gli altri sistemi informativi compatibili.
3. Il progetto per il Sistema Informativo Territoriale Archeologico di Roma
Il SITAR si inquadra bene in tale ampio contesto istituzionale e tecnologico, anche
in virtù della partecipazione attiva della Soprintendenza archeologica di Roma ai lavori
delle due commissioni paritetiche sui SIT e IDT e sull’archeologia preventiva. Per tali
ragioni e anche per essere già de facto l’oggetto di collaborazioni istituzionali con altre
2
Con il D.M. 24 gennaio 2007 il Ministro per i Beni e le Attività Culturali ha istituito la prima Commissione
Paritetica per la realizzazione di un Sistema Informativa Archeologico delle città italiane e dei loro territori
(CARANDINI 2008, 199-207), e con il D.M. 22 dicembre 2009 è stata istituita la seconda Commissione Paritetica
per lo sviluppo e la redazione di un progetto per la realizzazione del Sistema Informativo Territoriale Archeologico
del patrimonio nazionale - SITAN.
3
Maggiori informazioni sul MODI sono reperibili sul sito web dell’Istituto Centrale per il Catalogo e la
Documentazione, all’interno della sezione “Standard catalografici”, sottosezione “Normative in fase di sperimentazione” (http://www.iccd.beniculturali.it/index.php?it/211/sperimentazione-normative).
87
Soprintendenze archeologiche italiane, il SITAR si pone quale esperienza pilota nella
costruzione allargata e condivisa di un SIT archeologico del territorio metropolitano della
Capitale e, con maggiori ambizioni, di un’IDT pubblica compartecipata con la Regione
Lazio, il Comune di Roma e il Comune di Fiumicino, l’Archivio di Stato di Roma, alcuni Dipartimenti dell’Università “Sapienza” e della III Università di Roma.
Se gli standards ufficiali del SITAN rappresentano in qualche modo un primo
Open-format per la costruzione di sistemi gestionali del dato archeologico, nonché per la
modellazione elementare del dato stesso, il SITAR rappresenta già da tre anni la sperimentazione concreta e funzionale delle potenzialità di un design tecnologico semplificato
e aperto a numerose implementazioni logiche, sia immediate che future.
Scendendo nel dettaglio del sistema della Soprintendenza Speciale per i Beni
Archeologici di Roma, si possono evidenziare alcune peculiarità della filosofia e dei caratteri Open che consentono di ampliarne costantemente l’architettura logica e informativa
nelle più diverse direzioni. In effetti, seppur concepito nell’attuale linea dei SIT istituzionali archeologici, il SITAR intende valicare a breve termine il limite concettuale delle
classiche strutture logiche GIS, tentando anzitutto di riformularne quel paradigma in troppi casi ancora tipicamente verticale, per poter conferire una nuova “volumetria” all’architettura informativa, verso un’articolazione tridimensionale che aspira ad allinearsi, con le
dovute proporzioni, al concetto attuale della cloud4. In questo senso, il piano definibile
come orizzontale del sistema è quello passante per le competenze giuridiche della
Soprintendenza Archeologica e per le funzioni di pianificazione della tutela programmata, mentre la sfericità tridimensionale si potrà sviluppare in ogni direzione attraverso i collegamenti agli altri sistemi informativi pubblici, verso la costruzione di un sistema condiviso delle informazioni pubbliche e della conoscenza partecipata, una vera e propria IDT5.
È chiaro già da questa formulazione in quale misura sia stato necessario contemplare fin dalle prime fasi progettuali un’astrazione concettuale e logica piuttosto avanzata
e innovativa tra i caratteri fondamentali del SITAR. In altri termini, risulta evidente quanto l’importanza della semplicità e dell’ampiezza semantica sia stata tenuta sempre in
primo piano nello sviluppo del design degli oggetti logici del sistema. Il frutto di questo
orientamento è rappresentato nel SITAR da poche classi di entità logico-informative di
base cui si possono e si potranno connettere efficacemente molte delle classi logiche degli
altri sistemi informativi pubblici.
Questa necessaria astrazione fa appello a un’economia progettuale e a una “semplificazione” (non a una banalizzazione) descrittiva degli oggetti che lascia aperte molteplici linee di sviluppo futuro, tanto a livello della singola classe logica, quanto del sistema
nella sua complessità. È chiaro che tale carattere di sintesi e di pulizia del design tecnologico richiede sforzi maggiori in termini di riflessioni metodologiche e di risoluzioni operative per evitare di penalizzare in qualsiasi modo la completezza descrittiva degli oggetti astratti, ma tale impegno è ampiamente ripagato dalla modularità del sistema espandibile praticamente ad libitum.
C’è un altro aspetto fondante della filosofia del SITAR, che si coniuga bene con le
tendenze attuali in tema di sperimentazione e applicazione degli ambienti operativi dedicati all’ambito GIS\SIT\IDT, ovvero la maturazione di una posizione neutrale rispetto a
scuole di pensiero e tradizioni consolidate in tema di infrastruttura tecnologica a supporto del sistema, compresi i softwares impiegati nella costruzione dell’architettura logica,
nella modellazione dei dati, nella gestione e nell’editing delle informazioni geo-spaziali,
nella loro pubblicazione sul web.
Questo superamento appare come un elemento forse poco rilevante, ma in molti
4
Cfr. la voce relativa pubblicata su Wikipedia (http://it.wikipedia.org/wiki/Cloud_computing).
Per maggiori informazioni sull’argomento IDT nel quadro europeo risulta utile consultare la voce dedicata su
Wikipedia e i rimandi alla Direttiva INSPIRE ivi contenuti (http://it.wikipedia.org/wiki/INSPIRE).
5
88
casi alcuni limiti tecnici di un’esperienza progettuale sono connessi troppo intimamente
non tanto con le scelte tecniche iniziali della progettazione quanto con la reale incapacità
di rimodulare progressivamente gli strumenti operativi in base alle nuove esigenze che
emergono durante lo sviluppo di un sistema informativo. Forse questo è realmente il passaggio cruciale rispetto al quale bisogna essere pronti a modificare tutte quelle sezioni dell’architettura logico-operativa che, dopo le opportune sperimentazioni, risultino meno prestanti ed efficienti.
4. Gli orientamenti tecnologici del SITAR
Nel contesto del SITAR queste correzioni di rotta sono state preventivate fin dall’avvio della progettazione, anche in considerazione delle numerose variabili operative
che un sistema informativo territoriale comporta in sé. Volendo porre in evidenza quelle
salienti, alcune già affrontate e risolte, altre ancora in corso di analisi e di soluzione, si
possono individuare le seguenti aree di azione (fig. 2):
- RDBMS dedicato alla gestione dei dati archeologici, amministrativi e della tutela
archeologica del territorio di Roma e di Fiumicino. Qui la scelta si è indirizzata fin dall’inizio sugli standards open-source di PostgreSQL, a partire dalla versione 8.4, esteso da
PostGIS, a partire dalla versione 1.4;
- Web applications dedicate al data-entry dei dati archeologici e amministrativi e
della tutela. Qui l’opzione iniziale aveva previsto uno sviluppo improntato su Ruby onrails, mentre la scelta successiva si è orientata sul framework di Symfony 1.4.9;
- WebSIT dedicato alla pubblicazione web, sia in intranet che in internet, dei dati
scientifici e amministrativi pubblici. Qui la scelta si è rivolta fin da subito alla piattaforma tecnologica Autodesk Map Guide Enterprise, versione più prestante del noto web spatial data engine open-source Map Guide OS, dunque OGC compliant, che è stata dotata
da Autodesk di alcuni tools basici di editing delle mappe e dei web-layouts, e soprattutto
di apposite web-extentions che ne migliorano molto le funzionalità del motore cartografico. Per quest’area progettuale si prevede di implementare a breve l’ambiente di sviluppo
delle interfacce utente del webGis del SITAR anche con strumenti open-source disponibili sul web e con alcune personalizzazioni degli applicativi basate su PHP e Ajax, con una
finalità avanzata di realizzare nel medio termine un’interfaccia utente dotata anche delle
funzionalità di editing cartografico direttamente all’interno del browser web;
- Desktop editing dei dati geo-spaziali. In questo settore operativo, l’utilizzo massiccio di pacchetti stand-alone e di rete di Autodesk Autocad Map 3D + Raster Design
2009\2011 e di GeoGraph che viene fatto nel laboratorio interno del SITAR, può essere
affiancato dall’impiego di vari softwares FOSS o commerciali, soprattutto per poter accogliere tutte le altre istanze interne ed esterne alla Soprintendenza archeologica;
- Analisi e rielaborazione dei dati scientifici. Per questo ambito specifico di applicazione si stanno seguendo alcuni indirizzi primari che in buona sostanza corrispondono
per adesso alle funzionalità più o meno peculiari di ciascun software commerciale o FOSS
disponibile sul mercato o sul web; l’attesa nel medio termine è quella di implementare le
funzioni specialistiche di analisi e di rielaborazione avanzata delle informazioni geo-spaziali, particolarmente di quelle archeologiche, nelle web applications sviluppate all’interno del SITAR, delegando temporaneamente le funzioni analitiche più complesse alla
costante sperimentazione di strumenti prodotti e rilasciati dalle differenti communities di
sviluppo;
- Modellazione dei dati 3D, visualizzazione e interazione con gli standards di codifica più diffusi. In questo ambito - in generale ancora un po’ ristretto per numero di sperimentazioni che riescano a focalizzare concretamente le problematiche di modellazione,
soprattutto, e, in diretta proporzione a essa, di gestione dinamica del dato 3D - il SITAR
sta compiendo per ora i suoi primi passi, partendo anzitutto da una mappatura delle espe89
2. L’architettura
software del
SITAR.
rienze trans-nazionali che appaiono come portatrici di reali innovazioni e da un focus sulle
reali esigenze gestionali proprie del sistema. L’attesa in tema di 3D per il SITAR è quella
di poter concludere nel medio termine una prima riflessione sul modello concettuale e sul
modello dati più opportuni per la descrizione, l’archiviazione e la gestione delle informazioni spaziali e descrittive, contemplando ogni aspetto filosofico e procedurale utile tra
quelli attualmente in voga (GML, CityGML6, KML, SVG, ecc.). A valle di questo primo
risultato e in cooperazione con altri enti pubblici e auspicabilmente con il supporto tecnologico di una o più software-house, l’obiettivo primario è senza dubbio la definizione e
realizzazione di un ambiente che sia realmente 3D-operativo sul piano quantomeno della
modellazione e dell’analisi specialistica dei dati di base, e che risulti opportunamente prestante sul piano della visualizzazione più o meno realistica degli stessi. In sostanza, l’istanza di cui il SITAR si fa portatore è quella di una cooperazione istituzionale “alta” per
conquistare un primo obiettivo concreto in termini di operatività e di trattamento delle
informazioni spaziali archeologiche, tanto nella scala territoriale, quanto nel dettaglio del
singolo manufatto.
5. Il SITAR e il web
La rete costituisce per il SITAR un carattere infrastrutturale fondamentale, sia nel
suo insieme di elementi fisici e virtuali che supportano le interazioni del sistema, sia nel
traffico interno dei flussi di lavoro e dei dati prodotti, modificati, analizzati, sia infine nelle
connessioni con gli altri sistemi informativi esterni all’istituto.
Nel caso del SITAR il termine “rete” ha assunto un’ambivalenza legata al network
sul quale il sistema si sta sviluppando. In effetti, le sedi della Soprintendenza archeologica sono rilegate tra loro attraverso il Sistema di Pubblica Connettività - SPC (fig. 3) che
6
90
Cfr. http://www.citygml.org; http://www.citygmlwiki.org; http://www.opengeospatial.org/standards/citygml.
dovrebbe agevolare tutte le interazioni tra l’istituto e le altre pubbliche amministrazioni,
le università e gli enti locali territoriali interessati dalla futuribile IDT dedicata alla governance compartecipata del territorio di Roma e di Fiumicino. Tuttavia, alcuni attuali limiti
tecnologici del network SPC, specie in stretta relazione al centro-stella della intranet della
Soprintendenza (sede di Palazzo Massimo alle Terme, nel Centro storico di Roma), hanno
indotto già da tempo ad analisi tecniche più opportune in termini di connessione telematica da e per l’esterno, rivolgendo un’attenzione particolare alla rete ad alta capacità e
velocità gestita in Italia dal Consortium GARR (Gruppo per l’Armonizzazione delle Reti
della Ricerca), organismo no-profit co-fondato da CNR, INFV, CRUI e altri soggetti della
ricerca nazionale.
È evidente, difatti, come la scelta di progettare, di costruire e di diffondere il SITAR
abbia comportato per la Soprintendenza archeologica di Roma la necessaria opzione di
porsi anche in una nuova veste di provider di dati, web applications e web-services specialistici per il settore archeologico della Capitale, nei confronti di un’utenza che si fa ogni
giorno più variegata e che, tendenzialmente, nel medio termine utilizzerà quali strumenti
di lavoro quotidiano il WebGis e il WebDatabase, punti di forza della dotazione strumentale del SITAR.
La scelta di un mezzo di connessione telematica ad alte prestazioni è fondamentale
anche in termini di aumento dell’utenza complessiva e, di ritorno, sotto il profilo dell’accelerazione dei tempi di debug delle applicazioni e dell’infrastruttura tecnologica, secondo un paradigma ben noto nel mondo dell’open-source7. Tutto ciò con un’attenzione
costante alla semplificazione del funzionamento degli applicativi e alla partecipazione
concreta degli utenti nel processo generale di miglioramento del sistema.
7
3. Schematizzazione dell’Intranet
della Soprintendenza archeologica
di Roma.
Resta fondamentale, al riguardo, STEVEN RAYMOND 1998.
91
6. La tracciabilità e l’apertura dei dati e delle informazioni nel SITAR
Naturalmente, la prospettiva di aprire il sistema a una moltitudine di utenze differenti, nonché l’aggiornamento della stessa normativa sulla digitalizzazione delle pubbliche amministrazioni, impone quale obbligo costante nelle fasi di acquisizione, di produzione e di pubblicazione delle informazioni di base, quello di mantenere ben distinti - in
modo assolutamente trasparente - i dati scientifici e amministrativi elementari da ogni successiva rielaborazione più o meno complessa operata su di essi, sia all’interno dell’istituto, sia all’esterno. Questo risultato viene ottenuto valorizzando al massimo gli aspetti legati alla tracciabilità delle informazioni e del processo cognitivo e rielaborativo che li ha
generati, ponendo al contempo la massima attenzione alla garanzia della loro costante
accessibilità, ben strutturata secondo opportune policies di accesso e di autenticazione
degli utenti rispetto agli applicativi e alle basi di dati del SITAR8. Ciò anche al fine di tutelare tanto i proprietari legittimi dei dati quanto gli autori, nonché gli utenti intermedi e
finali del SITAR in ordine alla qualità complessiva dei dati utilizzabili, e di non precludere le possibili future interazioni tra istituzioni pubbliche e soggetti privati nella gestione
delle conoscenze sui beni culturali e delle informazioni correlate, anche nell’ottica di una
reale common knowledge9.
La prospettiva di voler rendere pienamente e correttamente accessibile il SITAR e
il suo patrimonio informativo, anche in maniera tale che esso possa contribuire concretamente alla costruzione condivisa e compartecipata di una IDT istituzionale, è dunque la
direttrice primaria lungo la quale si muovono il Progetto SITAR, lo sviluppo modulare del
SIT e tutte le riflessioni volte alla sua estensione ed evoluzione continua, tendenzialmente multi-disciplinare.
Tale prospettiva, per conseguenza, ha informato necessariamente anche le scelte
prioritarie connesse con l’ampia varietà di utenze, di necessità operative attese e di contenuti culturali che verranno richiesti nel tempo al sistema stesso, richiamando fin dall’inizio l’attenzione del gruppo di sviluppo sull’apertura dei dati e delle informazioni derivate, sulla flessibilità dell’architettura generale e della piattaforma tecnologica che la supporta, e soprattutto sulla costante verifica dell’approccio metodologico complessivo,
aspetti sui quali d’altronde si va concentrando anche la più recente normativa nazionale.
L’intenzione, dunque, è certamente quella di realizzare un proprio SIT accessibile,
superando gradualmente quelle visioni e posizioni ideologiche, sia interne che esterne, per
così dire meno Open-, ma è soprattutto quella di “fare sistema” con tutti gli altri soggetti
istituzionali e privati coinvolti, per poter estendere il concetto di compartecipazione e di
cooperazione anche al processo di definizione dell’accessibilità e dell’apertura del patrimonio di conoscenze pubbliche, certamente con una regia alta che spetta alle istituzioni
preposte dall’ordinamento nazionale corrente (DigitPA, ICCD, ICCU, Autorità Garanti,
ecc., solo per citarne alcune), ma con il necessario, irrinunciabile contributo concreto di
tutti gli attori che animano il settore dei Beni Culturali.
7. La logica informativa del SITAR
L’architettura informativa del sistema consta di quattro livelli logici e informativi generali,
necessari alla costruzione di un catasto dinamico delle informazioni scientifiche e amministrative10
(fig. 4).
8
Nel SITAR è stato appositamente implementato un sistema di ruoli e di permessi per ciascun utente, basato su uno
schema RBAC che prevede quattro elementi cardine: utente, ruolo, permesso e associazione tra i primi tre elementi.
9
Cfr. Wikipedia, s.v. Common knowledge (http://en.wikipedia.org/wiki/Common_knowledge).
10
Si vedano in proposito i contributi dedicati alla logica del sistema ed alle procedure di elaborazione dei dati, pubblicati in SERLORENZI 2011. A questi primi livelli costitutivi dell’architettura, opportunamente sotto-articolati al
loro interno, si stanno aggiungendo quelli correlati con la gestione della conoscenza pregressa delle architetture
archeologiche. Questi ultimi livelli informativi sono stati l’oggetto di una prima esperienza di sinergia operativa tra
il Servizio SITAR e l’équipe interdisciplinare di lavoro istituita dal Commissario delegato agli interventi di urgenza
nelle Aree archeologiche di Roma e Ostia che, in stretto affiancamento alle strutture funzionali della Soprintendenza,
è stata incaricata della redazione delle prime linee guida per l’analisi e la riduzione del rischio sismico dei singoli
manufatti architettonici, ai fini della opportuna messa in sicurezza. Cfr. CECCHI 2011.
92
Altri livelli tuttora in corso di progettazione riguardano il “potenziale archeologico”, ovvero la determinazione di coefficienti che permettano di attribuire a ogni singola
area territoriale un grado di rischio predittivo delle possibili interferenze tra le presenze
storico-archeologiche e le nuove espansioni urbanistiche, oltreché di evidenziare alcuni
elementi di valutazione indiretta in ordine alla ricostruzione progressiva dei paesaggi antichi.
4. Il modello logicoconcettuale del
SITAR. In colore
arancio le classi
logiche già
contemplate nelle
fasi di analisi,
ancora da
implementare nel
SITAR; in colore
verde le classi
logiche già
implementate nel
SITAR; in colore
azzurro le classi
logiche comuni
ad altri SIT.
La logica fondante del SITAR è articolata, dunque, in quattro momenti consecutivi
che rispondono anche a esigenze trasversali tra differenti settori operativi dell’istituto e
che coincidono con i quattro livelli informativi seguenti (figg. 5-7):
1.
le Origini dell’Informazione (acronimo OI), ovvero i contesti amministrativi e\o scientifici entro i quali sono generati tutti gli elementi parziali o complessivi
della conoscenza archeologica e topografica della città antica; dal punto di vista spaziale
ciascuna Origine dell’Informazione corrisponde all’area complessiva di una singola indagine archeologica o di uno studio monografico di un complesso o di un monumento;
2.
le Partizioni Archeologiche (o analitiche; acronimo PA), ovvero i rinvenimenti materiali individuati all’interno di ciascuna Origine dell’Informazione; per ciascuna Origine dell’Informazione, le Partizioni rappresentano le vere acquisizioni conoscitive,
pur a volte solo frammentarie e spesso anche fortemente disallineate tra loro;
3.
le Unità Archeologiche (acronimo UA), ovvero gli aggregati logici delle
diverse Partizioni che devono essere analizzate contestualmente e secondo criteri di
coerenza cronologica e funzionale, per condurre a una prima identificazione e designazione degli insiemi storico-topografici che hanno costituito i tessuti insediamentali storici
della città e del suo territorio;
4.
i Dispositivi di Tutela archeologica e monumentale (acronimo DT), ovvero l’esito intermedio tra l’azione di salvaguardia immediata e puntuale, nella maggior
parte dei casi, del patrimonio antico e la più ampia progettazione della valorizzazione del
territorio urbano e extraurbano, condivisa tra gli enti e i soggetti istituzionalmente preposti, quali il MiBAC, la Regione, la Provincia, i Comuni, le Associazioni, i Cittadini.
L’obiettivo immediato del SITAR, conseguito proprio mediante l’implementazione
costante di questi livelli informativi primari, è la conoscenza dei monumenti antichi
93
5. Schema riassuntivo del workflow di tipo bottomup che esemplifica
il caso di tre
indagini archeologiche, condotte
tra il 1975 e il
1993, le quali
hanno prodotto
complessivamente
sei partizioni
archeologiche.
L’analisi e l’interpretazione critica dei
dati ha permesso
l’identificazione di
una villa romana
e di un’area sepolcrale, cioè due
unità archeologiche
distinte.
6. Schema riassuntivo del workflow di tipo topdown che esemplifica la schedatura
di un complesso
termale il cui studio
analitico avviene
successivamente,
suddividendolo in
diverse partizioni
archeologiche,
sulla base della
cronologia e della
funzionalità degli
ambienti.
7. Schematizzazione dei livelli
informativi della
tutela archeologica
e monumentale.
94
(secondo standards che gradualmente divengano realmente condivisi), delle loro dimensioni fisiche attuali e di quelle originarie. Tale conoscenza si basa sempre sul binomio fondante della cronologia e della funzionalità e può essere sostanziata all’interno dell’architettura logica del SITAR mediante una descrizione complessiva, sia sintattico-semantica
che geometrico-spaziale, dei periodi di fondazione o impianto, di vita funzionale, di utilizzo e di ri-funzionalizzazione, di abbandono e di degrado, di riscoperta e di valorizzazione, insomma: di vita storica del Bene in senso lato.
8. I primi risultati del SITAR
Nel periodo di lavoro compreso tra il 2008 e il 2009, sono stati inseriti circa 8.500
records, tra Origini dell’Informazione e Partizioni analitiche, mediante la digitalizzazione
di circa 7.000 documenti d’Archivio, quasi tutti afferenti a formati e standards di produzione molto disomogenei, legati per lo più alle differenti epoche di redazione delle documentazioni scientifiche (fig. 8).
A partire dal mese di gennaio 2010 l’attività del Servizio SITAR si è concentrata
nell’area circoscritta dalle Mura Aureliane (I Municipio - Centro storico), in relazione alla
quale sono stati inseriti circa 4.500 records. Il lavoro è tutt’ora in corso e si conta di completare entro la fine del 2011 anche le aree del Palatino, del Campo Marzio e di Trastevere
(fig. 9).
Alla mole di dati processati dalla Soprintendenza si aggiungono, inoltre, quelli elaborati e forniti al SITAR dal Dipartimento di Archeologia Classica dell’Università
“Sapienza” di Roma, con la quale, in virtù di un apposito Protocollo d’intesa, si sta realizzando un proficuo interscambio, operativo già dal 2009.
8. Prospetto statistico dei dati
digitalizzati nel
biennio 2009-2010.
9. Carta delle
Partizioni archeologiche censite
nel territorio del I
municipio di
Roma (fonte:
WebGis SITAR).
95
10. Gli scavi per
l’apertura di via
dei Fori Imperiali.
96
9. Conclusioni
La tutela del patrimonio culturale ormai deve interessare anche le nuove strategie di
conservazione degli apparati documentali digitali che, da diverse angolature, descrivono e
identificano ciascun Bene e che ne possono aumentare le opportunità di valorizzazione. In
tale direzione, è proprio la mappatura digitale, la rappresentazione pur astratta, schematica e virtuale - che in ogni caso deve essere pubblica e quindi condivisa - che può sostenere, passo dopo passo, i nuovi processi di ri-elaborazione virtuosa e di valorizzazione del
Patrimonio storico-territoriale, rappresentando di fatto l’unica soluzione per un suo riconoscimento univoco e convenzionale, e quindi per una tutela integrata: è regola fondante
della cartografia, di qualsiasi cartografia, il rappresentare solo ciò che esiste, ciò che ha
valore convenzionale, ciò che non va dimenticato. Allora, mappare un Bene è ammettere
che un Bene esista e che abbia davvero il suo valore, per tutti (fig. 10).
Molta strada va ancora percorsa, tentando di restare al passo con la rapida evoluzione della scienza informatica. È probabile che il successo del sistema e la sua evoluzione futura potrà avvenire solo con il supporto tecnologico del cloud computing in direzione di una “nuvola di sistemi”, in cui occorrerà tenere in debita considerazione anche il
potenziale straordinario delle informazioni 3D, soprattutto dal punto di vista della progettazione di nuovi softwares.
Tutte queste aperture necessiteranno di un grande impegno in termini istituzionali e
tecnologici, poiché si tratta di relazioni e di interazioni con le altre esperienze progettuali
che meritano la massima attenzione. Dalle nuove forme di diffusione integrata dei dati territoriali e scientifici di livello pubblico, strutturate già da tempo da diverse istituzioni, fino
ai canali del geo-social-networking che oggi si trova in una fase di sviluppo rapidissimo,
grazie alle enormi risorse finanziarie investite dai colossi mondiali dell’informazione globale (Google, Microsoft, ecc.).
È indubbio l’appeal esercitato sul grande pubblico da questi progetti di raccolta e
diffusione gratuita delle informazioni geografiche, culturali e commerciali, per cui è
importante che anche l’archeologia si arricchisca di questo valore aggiunto per essere di
nuovo elemento culturale di grande attrazione e divenire una disciplina “aperta” al contributo delle communities scientifiche e civiche.
97
Abbreviazioni bibliografiche
CARANDINI 2008
A. Carandini, Archeologia Classica, Torino 2008.
CECCHI 2011
Roma Archaeologia - Interventi per la Tutela e la
Fruizione del Patrimonio Archeologico -Terzo
Rapporto, R. Cecchi (ed.), Roma 2011.
SERLORENZI 2011
SITAR - Sistema Informativo Territoriale
Archeologico di Roma. Atti del I Convegno (Roma,
26 ottobre 2010), M. Serlorenzi (ed.), Roma 2011.
STEVEN RAYMOND 1998
E. Steven Raymond, La Cattedrale e il Bazaar, pubblicazione on-line su Wikisources, 1998.
Web links
Conferenza GARR 2010
http://www.garr.it/eventiGARR/conf10/programma.html
http://www.garr.it/eventiGARR/conf10/docs/detommasi-abs-conf10.pdf
http://www.garr.it/eventiGARR/conf10/docs/serlorenzi-pres-conf10.pdf
Convegno SITAR 2010
http://lnx.aiac.org/agenda/2010/Allegati_2010/locandina%20sitar.pdf
Web site del SITAR
h t t p : / / w w w . c o m m i s s a r i o archeologiaroma.it/opencms/export/CommissarioAR
/sitoCommissarioAR/Strumenti/Cartografia/index.ht
ml
Web site della SSBAR
http://archeoroma.beniculturali.it
15th Conference on Urban Archaeology 2010
http://www.stadtarchaeologie.at/?page_id=725
http://www.stadtarchaeologie.at/?page_id=889
http://www.stadtarchaeologie.at/?page_id=886
Web page SITAR su Wikipedia
http://it.wikipedia.org/wiki/Sistema_Informativo_Territoriale_Archeologico_di_Roma"
Referenze iconografiche
Comune di Roma - Sovraintendenza per i Beni
Culturali: fig. 10.
Servizio SITAR della SSBAR: figg. 1-9.
Ministero per i Beni e le Attività Culturali.
Soprintendenza Speciale per i Beni Archeologici di
Roma.
Servizio SITAR - Sistema Informativo Territoriale
Archeologico di Roma.
98
Piazza dei Cinquecento - 00185 Roma.
Email: [email protected]
Website SITAR: www.commissario-archeologiaroma.it (alla sezione “Cartografia”), "http://sitar.archeoroma.beniculturali.it/"
Website culturale: http://archeoroma.beniculturali.it
Francesca Cantone
Open workflow, cultural heritage
and university. The experience of
the Master Course in Multimedia
Environments for Cultural
Heritage
Abstract
This paper focuses on a case study of open approaches to the cultural heritage workflow in the academic context of the master course in Multimedia Environments for Cultural Heritage at the University of
Naples Federico II: cultural strategies, main features, outcomes and future developments of the project will be
discussed.
The formulation of the master course has its first methodological background in the activities carried
on by an interdisciplinary research group on New Technologies and Humanities at the University of Naples
Federico II. The master course didactical modules outline the operating workflow in the cultural heritage activities (from acquisition to management, analysis, output and dissemination of cultural heritage data) and
explore transformations, enrichment, prospects of related disciplines in the forthcoming challenges emerging
with technological evolution. Multimedia environments support the whole process shaping new possibilities
of approach and research.
The cultural strategy of the project is even complicated by further considerations about management
and dissemination of public cultural data in the national and international scene: open approaches to cultural
heritage data anticipate a massive circulation of such contents and their interaction and integration with a
wider range of other layers of information from the economic, to the logistic and manufacturing ones.
A higher education project, therefore, in the field of cultural heritage should prepare new professionals to the present and upcoming cultural heritage open workflow, both for the methodological and technological aspects.
Open approaches implemented in the master course project will be discussed in order to outline
methodological outcomes, best practices and future developments:
- open /free software laboratory;
- open didactical materials repository;
- open cultural heritage network;
- open didactical approaches;
- cultural heritage ICT prototypes.
1. Multimedia environments and cultural heritage: a master course experience in Federico II Naples University
«The protection of the archaeological heritage is a process of continuous dynamic
development. Time should therefore be made available to professionals working in this
field to enable them to update their knowledge. Postgraduate training programs should be
developed with special emphasis on the protection and management of the archaeological
heritage»1.
1
ICOMOS 1990.
99
The ICOMOS statement about archaeological professionals training can be expanded to the whole cultural heritage field, needing constant updating because of its deep and
continuous methodological and technological development2.
Such crucial consideration of cultural heritage education requirements was the main
basis for establishing a postgraduate master course in Multimedia Environments for
Cultural Heritage, harmonizing humanities and ICT disciplines and balancing contents
and skills.
Two main fields of experimentation of new open approaches can be identified in the
project:
- workflows for cultural content creation, sharing, circulation, by means of interdisciplinary, modular, distributed federated repositories;
- definition of skills portfolios for next generation professionals, to be supported by
innovation in didactical approaches and technological tools.
2. Methodological background: open e-learning and cultural heritage
In the last decades the application of Information and Communication technologies
to Archaeology and Cultural Heritage has been considered in association with communication and didactics even more tightly and more often than being in relation with research
and methodological investigation.
Indeed the possibilities of cultural communication were immensely enriched thanks
to new technologies, sometimes with an implicit belief in their capability to impress and
to appeal3.
For a better use and exploitation of such potentials it is crucial to investigate communication theoretical models and didactical strategies involved in the process and to
verify their expected implications.
For instance, a lack of a deep consideration of didactical and communication structures has been already identified as a main reason for failure in museum multimedia presentations4.
Correspondingly, in designing cultural heritage learning courses a strong investigation of the methodological implications of technologies application in educational design
is required in order to construct efficient courses and to apply suited models, strategies and
solutions for different educational purposes.
In Technology Enhanced Learning scientific debate it is established that the current
information revolution scenario demands people to acquire new skills to deal with continuous change5.
Many didactical models were discussed to train and expand these capabilities. In
particular, an increasing active role of students is one of the main topics in the scientific
discussion about socio-costructivistic didactical models6.
In particular the recently created “E-learning 2.0” definition identifies new models
in which students take part in content construction, by using not only the technological
tools (such as wikis, blogs, forums, shared repositories, image and video sharing tools, 2.0
platforms) but mainly the participative approaches typical of the new web scenario7.
2
CRISTOFANI 1994; BUFFARDI 2004; SETTIS 2007.
E-learning in cultural heritage is the topic of one of the DIGICULT issues, the well-known reports dedicated to the
technological trends in cultural heritage (DIGICULT 2003). In Italy the national institution for catalogues and documentation, ICCD; developed an e-learning initiative related to its SIGEC information management system (E-SIGEC
http://www.iccd.beniculturali.it/elearning/web/sito.html). For archaeological case studies: POLITIS 2008; VAN
LONDEN et alii 2010.
4
GUERMANDI-SANTORO BIANCHI 1996.
5
CNIPA 2007; OLIMPO 2010.
6
MIDORO 2002; TRENTIN 2005; CALVANI 2002; CALVANI 2011.
7
BONAIUTI 2006.
3
100
In this context Open Learning initiatives set up, Boston MIT OpenCourseWare
being the best known8, with a growing notoriety and consistency, and a rich debate about
the cultural, economic, social implications of the free circulation and massive open access
to high-quality didactic contents9.
In the cultural heritage field Open Learning and Open Content Repositories issues
seem to be strictly interconnected involving creation, sharing, dissemination, fruition of
knowledge in a possibly uninterrupted workflow in a community joining university,
research institutions, territorial authorities from the micro to the macro scale, students,
citizens, private companies.
3. Multimedia Environments for Cultural Heritage: open approaches
The design and implementation of a Master course in Multimedia Environments for
Cultural Heritage is one of the main didactic outcomes of the studies by a research group
on the interactions between cultural heritage and ICT active in the last fifteen years in
Federico II University10.
A complete cultural heritage workflow is outlined, from planning to data acquisition and management to analysis and communication, introducing and discussing the wide
range of new methodologies and approaches emerging with the digital revolution.
Furthermore this project didactical approaches are based on the results of another
research line in the same university about didactical technologies experimentation both in
academic and life-long learning11.
In 2009 a Blended Learning SCORM module on “Information and Communication
Technologies and Archaeology” was realized and tested12. Its methodological outcomes
were enriched with further extensive experiences and finally for the master course a complete catalogue of fifteen blended modules was developed, embracing a wide range of
disciplines of humanities and their interaction with new technologies.
In the following a brief overview of the activities will be described, focusing on the
main open approaches implemented: open workflow/didactical approaches, open community/repository; open source software/laboratory and a preliminary report on the four
demo prototypes realized13.
The overall didactical methodological background of the activities carried on in the
last years by the project research group was outlined in a communication in 2009
ArcheoFOSS meeting dealing with a Blended Course on Information and Communication
Technologies and Archaeology and the related shared content repository and virtual community14.
The research agenda drawn in that experience has been followed and enriched in the
master course project, identifying present limitations and best practices, expanding boundaries and opening new challenges for future work.
One of the main topics has been the definition of a workflow for the shared repository of cultural content, that has been widened to cover a broad range of humanities and
ICT disciplines, with different didactic curricula, needs and purposes.
The Campus Unina environment was intensely used to support different levels of
distributed creation, sharing and access to different kind of materials, from private drafts
8
http://ocw.mit.edu/index.htm.
FULANTELLI et alii 2011.
10
CANTONE et alii 2009 b.
11
ANDRONICO et alii 2002; TORTORA 2003; CANTONE et alii 2009 a; CHIANESE et alii 2010.
12
CANTONE et alii 2009 b.
13
For a deeper presentation and discussion of overall master course issues, methodologies, strategies see also the
proceedings of the dedicated workshop at Federico II University (CANTONE c.s.).
14
CANTONE et alii 2009 b.
9
101
1. The Master
Campus Unina
content sharing
community (open
contents
screenshot).
to shared working documents to open access contents freely available15 (fig. 1).
The 2009 project experience made it clear that the content repository could be
improved by the participation of a wide community of users to the content creation and
sharing activities. Starting from this basis a deeper interaction with web 2.0 communities
was encouraged to explore the possibilities associated with the various interest communities, from the general to the specialized ones (fig. 2).
In this regard, the traditional institutional website (http://www.archeo.unina.it/master)
and email contact ([email protected]) were increased with master accounts and
active presence on the main social networks as listed in the following:
Facebook: ambienti multimediali per i Beni Culturali;
Youtube: mastermultibec;
Twitter: mastermultibec;
Linkedin: master ambienti multimediali per i Beni Culturali;
Academia.edu: AMBIENTIMULTIMEDIALI BENICULTURALI.
This brought to the quick constitution of a wide interest community, made of thousands of students, scholars, experts, institutions, common people, going on and growing
also after the master course end with exchange of opinions, information, events (fig. 3).
This way it supports the realization of one of the main project goals: encouraging
and supporting the methodological discussion about the perspectives of approach to cultural heritage in the context of updating professional skills and cultural knowledge.
Furthermore the experimentations carried on in the last years identified another
field of operations to emphasize even more: the open source software support.
In order to develop this methodological main line, the master course is supported by
open source software both for overall didactic activities (for instance: office automation,
didactical services, networking, community based learning, learning management systems
and so on), and for the laboratory and project-work phases (for instance: image proces-
15
102
CANTONE et alii 2009 a.
sing, XML based cataloguing, web editing, structured didactical content authoring and
management and so on).
A new laboratory was set up jointly with the master course, dedicated to multimedia application to cultural heritage, hosted in Federico II Montesantangelo venue and
equipped with the software instruments selected for the project work implementation.
It may be useful to sum up the operating chain defined and the main open source
software tools used.
Besides is to be remarked that the 2.0 learning approach to the project work development allows students to customize their didactical needs.
2. The Master
Campus Unina
content sharing
community
(community
contents
screenshot).
3. The Master
Facebook fan
page.
103
For this reason the grid presented in the following is not meant to propose a definitive approach to a open source workflow in cultural heritage but principally it reflects a
course framework developed by and with the 2009/2010 community (students, tutors,
experts, teachers) choosing among the various possibilities of open tools presented.
4. Demo prototypes report
In the project work phase four groups were established (based on the assessment of
a wide range of features, from curricula to interests, skills, inclinations, personal interactions).
Each group delineated and developed a demonstrator prototype in a specific field of
interaction between cultural heritage and technologies, that will be briefly described in the
following with a scheme reporting: theme, title, abstract, main open source software support, screenshot.
Theme
Archeology, new media, new methods.
Title
C.S.A. Computer System in Archaeology: georeferencing, cataloguing,
3D reconstructing of Elea/Velia territory (Rosa Ciccarelli, Pietro
Melchionna, Annamaria Santamaria, Saverio Serafino, Pasquale
Visone).
16
Websites of the cited open projects, listed as presented in the text, and visited last time on 30 december, 2011:
http://inkscape.org/;
http://www.gimp.org/;
http://wordpress.com/;
http://www.openoffice.org/;
http://www.joomla.org/; http://www.chamilo.org/; http://moodle.org/; http://camstudio.org/; http://www.virtualdub.org/; http://www.syntext.com/products/serna-free/; http://www.blender.org/; http://www.qgis.org/; http://audacity.sourceforge.net; http://musescore.org/.
104
Abstract
The project methodological background is the application
of information and communication technologies in the
archaeological discipline17. The focus is the study and definition of an integrated interpretation model of Focean
colonies in the ancient Mediterranean Basin. The first prototype implemented is aimed at an analysis of the urban
features of Elea/Velia, in the South of Italy, and of its development between IV and III centuries b.C18. supported by
GIS methodologies and technologies19. Furthermore a project website has been developed for the project results
divulgation and for scientific networking purposes:
http://csaproject.altervista.org/.
Main open source software
Gimp, Inkscape, Qgis, Wordpress.
4. C.S.A.
Prototype
Screenshot.
C.S.A. Prototype Screenshot (fig. 4)
Theme
Digital products and multimedia for territorial development.
Title
MediaMiglio - Museum and documentation center of
Miglio d’oro (Loredana Riccardi).
Abstract
The project aims at the territorial development and touristic exploitation of the cultural heritage of the Vesuvian
area called Miglio d’Oro. The main outcome of the prototypal phase has been the proposal of a private business
networking group, focused on the use of multimedia products for cultural communication. As a first step, a website has been realized to divulge cultural information about
the monuments of the area and of the related development
project: http://migliodoro.altervista.org/.
Main open source software
Gimp, Inkscape, Open data.
17
MOSCATI 2009.
GRECO 2003.
19
DJINDJIAN et alii 2008; AZZENA 2009.
18
105
5. MediaMiglio
Prototype
Screenshot.
MediaMiglio Prototype Screenshot
(fig. 5)
6. Napoli Virtual
Look Prototype
Screenshot.
Theme
Virtual museums and new comunication approaches.
Title
Napoli Virtual Look (Anna Cozzolino, Annalisa Esposito,
Roberta Gargiulo, Licia Pucella, Viviana Zafarana).
Abstract
The methodological context of this project are new virtual
museologies and their use to promote knowledge sharing
in the cultural heritage field20. The topic of interest is
Napoli fashion and costume between ‘800 and ‘900. The
proposal is a virtual museum in a Tridimensional
Multiuser Virtual Environment, with 3D reconstruction of
the clothes (thanks to the cooperation of Fondazione
Mondragone, Textile and Fashion Museum “Elena
Aldobrandini”) and links to the related scientific information (descriptions, pictures, archival documents, and so
on). The prototypal phase main outcomes are: the implementation of the project website, the outline of a 3D
Fashion and Costume Virtual Museum on Second Life; a
review of contemporary fashion stylist on Second Life and
of their opinions about the interaction between fashion, the
virtual world, users needs; the definition of a scientific
cataloguing schema for the costumes of the Mondragone
Museum and their 3D and 2D photographic documentation. The virtual world prototype has been developed in
Second Life to make the most of the interaction with the
well established and numerous community of expert users,
but a second phase of the project is to be developed in a
open source 3D MUVE21. Screenshots, prototypal materials
and further details in: http://napolivirtualook.jimdo.com/.
Main open source software
Gimp, Inkscape, Blender, Gimdo,Virtualdub.
Napoli Virtual Look Prototype
Screenshot (fig. 6)
20
ANTINUCCI 2007; MOSCATI 2007; Minerva 2008; GRECO et alii 2008.
Also by making the most of the previous experimentations on developing 3D environments for e-learning cultural
heritage communities, presented and discussed in CANTONE et alii 2011.
21
106
Theme
Evolving scenarios in communication and didactics of cultural heritage.
Title
Educational Village (Daniela Di Monaco, Filomena
Gliottone, Claudio Iannotta, Assunta Vanacore).
Abstract
The project goal is to use new technologies to enhance
communication and didactics of cultural heritage. The prototype realized is an e-learning course on Caserta medieval
village, developed in standard SCORM format by means
of IDEA software, an experimental tool developed by
Federico II researchers to support the diffusion of technology enhanced education22. The Caserta medieval village
multimedia is a first step in the implementation of a rich
set of didactical and divulgation services about Campania
medieval cultural heritage. One of the main project outcomes has been the definition of a start up in the cultural tourism services field. These services will be supported by the
open source tools for E-learning materials authoring and
course management tested (among them Chamilo and
Moodle seem to be the most promising technologies for
the Educational Village project purposes). Furthermore the
website developed to publish information about the project
is the first prototype of a e-commerce portal, to support on
line booking of the services proposed and merchandising
of local products: http://eduvillage.altervista.org/.
Main open source software
Inkscape, Gimp, Idea, Chamilo, Moodle, Virtualdub.
Educational
Village
Screenshot (fig. 7)
7. Educational
Village Prototype
Screenshot.
Prototype
5. Open approaches to cultural heritage in the academic context. The
Multimedia Environments for Cultural Heritage master course experience: outcomes, best practices, present limitations, future developments.
This paper presented an experimentation carried on in the academic context with the
implementation of open approaches to cultural heritage communication.
The master course in Multimedia Environment for Cultural Heritage was the last
22
CANTONE et alii 2009 b.
107
step of previous research lines on the application of new technologies to cultural heritage
and to didactics.
The main open approaches experimented were described: open workflow/didactical
approaches, open community/repository; open source software/laboratory and cultural
heritage ICT demo prototypes.
Many encouraging outcomes confirmed the project hypotheses and good expectations deriving from applying open didactical approaches: students showed better results in
final curricular exams with an interesting improvement in skills, knowledge and group
interaction and personal maturity.
Shared construction of knowledge supported by open semantic repositories was one
of the best tests developed during the master course. These results were perfectly coherent
with the ones of previous steps of experimentation of blended didactic strategies in
archaeology in the academic curriculum.
Furthermore the interdisciplinary open content repositories developed during the
course are still alive after the end of 2009/10 didactic activities, sustaining easy transformations from learning communities to practice and work communities.
Further efforts are needed to enrich such strategies and to support a stronger linking
of the communities developed to the territorial professional structures and official institutions23.
More studies will be dedicated also to the definition of requirements and the development of highly specialized contents and courses for particular curricula24.
This way the emerging new approaches can impact the whole workflow of Open
Cultural contents creating, analyzing, sharing, by supporting information circulation,
interdisciplinary integration, shared construction of knowledge25.
Use of existing open source tools and development of new software can contribute
to the whole process in order to match the needs of the public administration forthcoming
standards and to fulfill the cultural heritage specific needs.
This kind of practice will support a better integration of contents and skills in order
to improve the technology dissemination and innovation diffusion for the exploitation of
cultural heritage and territorial development by making the most of new professionals and
specialists.
23
MAUTONE 2006.
For case studies and a discussion of e-portfolio development in e-learning: BONAIUTI 2006.
25
JONES 2007.
24
108
Abbreviazioni bibliografiche
IV Workshop, P. Cignoni, A. Palombini, S. Pescarin
(edd.), Roma 2009, ACalc, suppl. 2, 2009, 309-319.
ANDRONICO et alii 2002
A. Andronico - A. Chianese - B. Ladini (edd.), ELearning. Strumenti, metodi e esperienze a confronto. Didamatica 2002. Informatica per la didattica,
Napoli 2002.
ANTINUCCI 2007
F. Antinucci, Musei Virtuali, Roma 2007.
CANTONE et alii 2011
F. Cantone - A. Chianese - V. Moscato - S. Serafino,
La casa dei Pithoi a Serra di Vaglio. Una sperimentazione di ambiente 3D Open Source per la fruizione
di beni archeologici, in ArcheoFOSS Open Source,
Free Software e Open Format nei processi di ricerca
archeologica, Atti del V Workshop, G. De Felice, G.
Sibilano (edd.), Foggia 2010, Bari 2011, 125-134.
AZZENA 2009
G. Azzena, Punto di non-ritorno (Cartografia numerica, Sistemi Informativi Territoriali, Analisi spaziali), in ACalc, 20, 2009, 169-177.
CHIANESE et alii 2010
A. Chianese - V. Moscato - A. Picariello, I fondamenti dell’informatica per gli umanisti. Un viaggio
nel mondo dei BIT, Napoli 2010.
BONAIUTI 2006
G. Bonaiuti, E-Learning 2.0. Il futuro dell’apprendimento in rete, tra formale e informale, Trento 2006.
CNIPA 2007
Vademecum per la realizzazione di progetti formativi
in modalità e-learning nelle pubbliche amministrazioni, in I Quaderni Centro Nazionale per
l’Informatica nella Pubblica Amministrazione, 32,
2007(http://www2.cnipa.gov.it/site/_files/cnipa_qua
d_32.pdf).
BUFFARDI 2004
A. Buffardi, La formazione professionale tra tradizione e innovazione, in Educazione al Patrimonio
Culturale: problemi di formazione e di metodo, Atti
del Convegno Nazionale, M. R. Iacono, F. Furia
(edd.), Caserta 2002, Caserta 2004, 87-96.
CALVANI 2002
A. Calvani, Elementi di didattica. Problemi e strategie, Roma 2002.
CALVANI 2011
A. Calvani, Principi dell’istruzione e strategie per
insegnare. Per una didattica efficace, Roma 2011.
CRISTOFANI 1994
Beni Culturali. Ricerca, Didattica, Profili professionali, Atti del Convegno, M. Cristofani (ed.), Napoli
1991, Napoli 1994.
DIGICULT 2003
Learning Objects from Cultural and Scientific
Heritage Resources, DIGICult Thematic Issue, 4,
2003.
CANTONE c.s.
Ambienti Multimediali per i Beni Culturali, Atti del
Workshop, F. Cantone (ed.), Napoli 2010, Napoli c.s.
DJINDJIAN et alii 2008
F. Djindjian - H. Noizet - L. Costa - F. Pouget,
Webmapping dans les sciences historiques et archéologiques, Actes du Colloque International, Paris
2008, ACalc, 19, 2008.
CANTONE et alii 2009 a
F. Cantone - A. Chianese - G. Cirillo - V. Curion, Una
piattaforma di servizi integrati per la didattica universitaria. L’esperienza di Campus all’Università
degli Studi di Napoli Federico II, in Si-El 2009, VI
Congresso della Società italiana di E-Learning 2009
(atti su cd-rom).
FULANTELLI et alii 2011
G. Fulantelli - M. Gentile - D. Taibi - M. Allegra, La
centralità dei docenti per il successo delle risorse
educative aperte, in TD. Tecnologie Didattiche, 19,
2011, 80-87.
CANTONE et alii 2009 b
F. Cantone - A. Chianese - V. Moscato, Archeologia
Virtuale in Blended Learning. Esperienze, metodologie e strumenti all’università Federico II di Napoli,
in ArcheoFOSS Open Source, Free Software e Open
Format nei processi di ricerca archeologica, Atti del
GRECO 2003
Elea-Velia. Le nuove ricerche, Atti del Convegno di
Studi, G. Greco (ed.), Napoli 2001, Pozzuoli 2003.
GRECO et alii 2008
G. Greco - B. Ferrara - F. Cantone, Museo Narrante.
The Foce Sele Hera Sanctuary Virtual Museum, in
109
Layers of perception, Proceeding of the 35th
International Conference on Computer Applications
and Quantitative Methods in Archaeology (CAA), A.
Posluschny, K. Lambers, I Herzog (edd.), Berlin
2007, Berlin 2008, 418-425.
GUERMANDI - SANTORO BIANCHI 1996
M. P. Guermandi - S. Santoro Bianchi, Didattica e
informatica nei musei archeologici: un binomio
incompiuto. Riflessioni a margine di una indagine in
museo, in ACalc, 7, 1996, 1077-1089.
ICOMOS 1990
Charter for the protection and management of the
archaeological heritage, prepared by the
International Committee for the Management of
Archaeological Heritage (ICAHM) and approved by
the 9th General Assembly in Lausanne 1990
(http://www.international.icomos.org/charters/arch_e
.htm).
JONES 2007
C. Jones, Institutional Repositories: Content and
Culture in an Open Access Environment, Oxford
2007
MAUTONE 2006
M. Mautone, Linee strategiche e criteri di sviluppo
per le attività del Dipartimento Patrimonio
Culturale, Roma 2006.
MIDORO 2002
V. Midoro, Dalle comunità di pratica alle comunità
di apprendimento virtuali, in TD. Tecnologie
Didattiche, 25, 2002, 3-10.
Minerva 2008
Minerva Handbook on cultural web user interaction,
2008 (http://www.minervaeurope.org).
MOSCATI 2007
Virtual museums and archaeology. The Contribution
of the Italian National Research Council, P. Moscati
(ed.), ACalc, suppl. 1, 2007.
MOSCATI 2009
La nascita dell’informatica archeologica, Atti del
Convegno Internazionale, P. Moscati (ed.), Roma
2008, ACalc, 20, 2009.
POLITIS 2008
D. Politis, E-Learning Methodologies and Computer
Applications in Archaeology, in Information Science
Reference, Athens 2008.
OLIMPO 2010
G. Olimpo, Società della conoscenza, educazione,
tecnologia, in TD. Tecnologie Didattiche, 50, 4-16.
SETTIS 2007
S. Settis, Italia S.p.A. L’assalto del patrimonio culturale, Torino 2007.
110
TORTORA 2003
G. Tortora, On/off Learning, Napoli 2003.
TRENTIN 2005
G. Trentin, Apprendimento cooperativo in rete: un
possibile approccio metodologico alla conduzione di
corsi universitari online, in TD. Tecnologie
Didattiche, 36, 2005, 47-61.
VAN LONDEN et alii 2009
H. Van Londen - M. S. M. Kok - A. Marciniak, ELearning Archaeology: Theory and Practice,
Amsterdam 2009.
Per tutti i riferimenti web ultimo accesso in data
18/04/2012.
Referenze iconografiche
Autore: figg. 1-7.
Francesca Cantone
Università degli Studi di Napoli Federico II.
Laboratorio di informatica applicata all’archeologia.
[email protected].
Federico Morando
Prodromos Tsiavos
Diritti sui beni culturali e licenze
libere (ovvero, di come un decreto
ministeriale può far sparire il pubblico dominio in un paese)
Abstract
This article analyses the Italian Cultural Heritage Law (Legislative Decree 42/2004, Art. 107) and
makes some references to similar laws, such as the Greek one (Law 3028/2002, Art. 46), highlighting how
these sets of norms produce a quasi-intellectual-property protection concerning the cultural heritage of these
nations.
The so-called cultural heritage of a Nation, in the theory of copyright, should fall by definition into
the public domain: «the wealth of information that is free from the barriers to access or reuse usually associated with copyright protection» and which also represents a fundamental «basis of our self-understanding
as expressed by our shared knowledge and culture» (see the Manifesto of the Public Domain).
However, the analysis of the legislation on cultural heritage (at least in Italy and Greece) shows that
most of the objects which are historically, archaeologically, architecturally significant, and so on, even when
their authors have died for well over 70 years (the term of duration of copyright), are far from being freely
reusable by anyone. Conversely, one faces the paradox that almost everything that is older than fifty years
ends up being protected by “cultural heritage rights”, even before escaping the constraints created by copyright.
In short, Italy and Greece do not enjoy a public domain concerning the images of their statues, their
churches, their paintings, their manuscripts and, in general, their cultural heritage and their monuments. One
of the practical consequences of such a situation is that it is extremely difficult (if not impossible, at least theoretically) to publish photos of objects preserved in our museums on user generated platforms such as
Wikipedia. And this legal setting also implies that a researcher would face complex legal issues, if he or she
wanted to publish online some scientific articles featuring images of cultural heritage goods.
In this context, the first part of this article analyses the Italian Code of Cultural Heritage and
Landscape for the part related to the creation of reproductions of cultural heritage goods. Then, the second
part of the article drafts some approaches, which are alternative to the existing legal scenario and under which
cultural institutions would be able to pursue most of their current goals, without impoverishing the public
domain.
1. Introduzione
Questo articolo analizza brevemente alcuni aspetti della legge sui beni culturali italiana (Decreto Legislativo 42/2004), evidenziando come questa e simili normative (ad
esempio quella greca, ai sensi della Legge 3028/2002) creino un quasi-diritto-di-proprietà-intellettuale sul patrimonio culturale di queste nazioni.
Il cd. patrimonio culturale di una nazione, nella teoria del diritto d’autore, ricade
per antonomasia nel pubblico dominio: quella «preziosa risorsa di informazioni che è libera dalle barriere all’accesso o al riuso generalmente associate alla tutela del copyright» e
111
che rappresenta anche una fondamentale «espressione del bagaglio comune di conoscenze e cultura» di un popolo (Manifesto del Pubblico Dominio)1. Tuttavia, analizzando la
normativa sui beni culturali (almeno in Italia e in Grecia) si evince come la maggior parte
degli oggetti storicamente, archeologicamente, architettonicamente rilevanti e così via,
anche quando i loro autori sono morti da ben più dei 70 anni di durata del diritto d’autore, siano ben lungi dall’essere liberamente riutilizzabili da parte di chiunque. All’opposto,
si finisce in un paradosso per cui quasi tutto ciò che è più antico di una cinquantina d’anni finisce per essere imbrigliato da vincoli all’utilizzo, legati a vari cultural heritage
rights, ancor prima di sfuggire ai vincoli creati dagli intellectual property rights.
Insomma, Italia e Grecia si trovano prive di un pubblico dominio sulle immagini
delle loro statue, delle loro chiese, dei loro codici miniati custoditi nelle biblioteche pubbliche e, in generale, dei loro beni culturali e dei loro monumenti. Le conseguenze pratiche di una situazione del genere sono varie, per esempio, l’estrema difficoltà (se non l’impossibilità, almeno teorica) di pubblicare su Wikipedia foto di oggetti custoditi nei nostri
musei. Ma anche la necessità di attendere complesse autorizzazioni prima di poter pubblicare vari tipi di articoli e/o libri, in particolare qualora questa pubblicazione avvenga sul
Web.
In questo contesto, l’articolo consiste in una prima parte che analizza in un certo
dettaglio la normativa sui beni culturali italiana (per la parte relativa alle riproduzioni dei
beni culturali). La seconda parte dell’articolo si propone invece di descrivere alcune soluzioni, alternative allo scenario attuale, grazie alle quali le istituzioni culturali riescano a
perseguire i propri scopi di tutela e valorizzazione, senza impoverire il pubblico dominio
e senza frustrare gli obiettivi di disseminazione e arricchimento della cultura che sono al
fondamento della loro stessa esistenza2.
2. Panoramica sull’interazione tra diritti sui beni culturali e pubblico dominio
Le leggi a tutela dei beni culturali (Cultural Heritage Protection Laws o CHPL)
prevedono in alcuni stati membri dell’UE (ad esempio in Italia, ai sensi dell’art. 107 del
D.lgs. 42/2004, o Grecia, secondo l’art. 46 della Legge n. 3028/2002) misure inerenti al
controllo dell’accesso ai beni culturali (in taluni ordinamenti definiti anche risorse culturali o monumenti) nonché alle loro riproduzioni3. Questo genere di controlli di accesso,
spesso esercitati dallo Stato attraverso il Ministero della Cultura o le sue divisioni locali
e/o regionali, può imporre un livello di restrizioni addizionali rispetto all’utilizzo di lavori altrimenti liberamente riproducibili in termini di diritto d’autore (o copyright).
Ciò pone una prima serie di problemi di base: un turista finlandese che scatta una
fotografia del Partenone di Atene potrebbe violare la disciplina greca in materia di protezione del patrimonio culturale, specialmente se lo stesso avesse intenzione di pubblicare
l’immagine sul Web. Lo stesso potrebbe accadere in Italia, di certo all’interno dei musei,
1
Disponibile a http://publicdomainmanifesto.org/manifesto (ultima visita, 14 luglio 2011).
Gli autori ringraziano per gli spunti forniti (e riportati nella seconda parte del presente articolo) tutti i partecipanti
alla riunione del gruppo di lavoro 3 (WG3 on Libraries, museums and archives) del network tematico europeo sul
pubblico dominio digitale COMMUNIA (http://communia-project.eu/), tenutasi il 10 dicembre 2010 a Istanbul e
finalizzata all’elaborazione di raccomandazioni di policy inerenti la tutela del patrimonio culturale e il pubblico
dominio. Un ringraziamento particolare va a Stefano Costa di Open Knowledge Foundation Italia.
3
Si noti che una sistematica analisi di diritto comparato sarebbe necessaria a individuare altri paesi che, sia all’interno che all’esterno della EU, prevedono normative che restringano le riproduzioni fotografiche dei loro beni culturali. Ad esempio, la Turchia prevede, ai sensi dell’art. 34 della Legge 2863/1983 che: «Shooting of photographs
and films [...] of the movable and fixed cultural assets existing in the ruins and museums reporting to the Ministry
of Culture and Tourism for instruction, education, scientific research and promotion purposes is subject to the permission of the Ministry of Culture and Tourism. Relevant principles are established through regulations».
2
112
ma eventualmente anche per ciò che concerne la riproduzione di monumenti visibili dalla
pubblica via4. D’altra parte, alcuni stati hanno adottato approcci più mirati in questo
campo: ad esempio, il Portogallo avrebbe elencato solo cinque edifici di rilevanza artistica e culturale, che non possono essere liberamente fotografati5. Apparentemente, invece,
molti paesi del Nord Europa non porrebbero limiti alla fotografia di beni culturali, sia che
si tratti di edifici storici che di opere artistiche.
Al riguardo, si osservi che le leggi a tutela del patrimonio culturale sono state, perlopiù, concepite in epoca pre-digitale e anche quelle che sono state recentemente rivisitate (come per il caso italiano, che sarà descritto nel prosieguo) a quanto pare trascurano la
facilità con cui è attualmente possibile creare riproduzioni digitali dei beni culturali (a
costo quasi zero e senza rischio di danneggiare gli stessi) e soprattutto le relative opportunità, anche in termini di crescita e partecipazione culturale dei cittadini.
A questo riguardo è importante sottolineare come talune istituzioni culturali detengano diritti di quasi-proprietà intellettuale concernenti non solo le opere di cui sono custodi, ma anche le loro immagini o altre riproduzioni, ponendo così gravi restrizioni non solo
all’uso personale, ma anche allo sviluppo di archivi pubblici come Wikimedia Commons6.
Per quanto molte di queste istituzioni siano impegnate attivamente in collaborazioni con i
creatori di contenuti aperti online, è importante che il legislatore e queste stesse istituzioni si chiedano costantemente se i diritti relativi alla circolazione delle immagini dei beni
da esse detenuti non rischino di rappresentare più un limite che un’opportunità per la diffusione della conoscenza, nel contesto del Web 2.0.
Riguardo le licenze adottate dalle istituzioni culturali, poi, la frequente distinzione
tra uso commerciale e non-commerciale risulta essere particolarmente dannosa, ponendo
più problemi di quanti ne risolva. In particolare, questa distinzione non tiene conto dell’esistenza dei beni comuni (commons) e del pubblico dominio, in altre parole, di contenuti che hanno allo stesso tempo caratteristiche di creazione e uso frequentemente noncommerciale, ma che verrebbero resi meno utili dalla “sterilizzazione” dei potenziali riutilizzi commerciali a valle. Un fotografo, ad esempio, potrebbe voler pubblicare le sue fotografie di korai arcaiche sotto una licenza Creative Commons7, Attribuzione, Condividiallo-stesso-modo (CC BY-SA), consentendo in tal modo qualsiasi tipo di riutilizzo, dalla
incorporazione in Wikimedia Commons alla pubblicazione di una guida turistica o un libro
di testo. Tuttavia, vietare l’uso commerciale della foto imporrebbe al fotografo di utilizzare a sua volta una licenza di tipo Non-Commerciale (es. CC BY-SA-NC), il che rende-
4
Come vedremo in seguito, pare andare in questo senso l’interpretazione della lettera della normativa italiana. In
merito alla riproduzione fotografica di beni culturali visibili dalla pubblica via, si veda tuttavia la risposta che, in data
5 febbraio 2008, il Governo ha fornito all’interrogazione parlamentare (n. 4-05031) in tema di “libertà di panorama”.
Nell’ambito di tale risposta (che gli autori di questo lavoro condividono in linea di principio) si affermava che «In
Italia, non essendo prevista una disciplina specifica, deve ritenersi lecito e quindi possibile fotografare liberamente
tutte le opere visibili [dalla pubblica via], dal nuovo edificio dell’Ara Pacis al Colosseo, per qualunque scopo anche
commerciale».
(Per
ulteriori
dettagli,
si
rimanda
anche
ahttp://it.wikipedia.org/wiki/Utente:Alcuni_Wikipediani/Libert%C3%A0_di_panorama#La_risposta_del_Governo;
e http://punto-informatico.it/2189657/PI/News/governo-diritto-panorama.aspx; visitati per l‘ultima volta il 14 luglio
2011). Per un’articolata discussione in dottrina, che raggiunge simili conclusioni, v. RESTA 2009.
5
Gli autori ringraziano per questa indicazione i partecipanti al WG3 del network tematico europeo sul pubblico
dominio digitale COMMUNIA: v. supra, nt. 2.
6
Wikimedia Commons (http://commons.wikimedia.org) è un archivio di immagini liberamente riutilizzabili, che fornisce - in particolare - una fonte preziosa per le illustrazioni dell’enciclopedia online generata dagli utenti Wikipedia.
A oggi (14 luglio 2011), Wikimedia Commons ospita 10.541.773 contenuti multimediali liberamente riutilizzabili,
molti dei quali di tipo fotografico.
7
Per un’introduzione alle licenze Creative Commons, per altro funzionale all’analisi della loro applicabilità alla distribuzione di riproduzioni di beni culturali: DE ANGELIS 2009 a; DE ANGELIS 2009 b. Disclosure: Prodromos
Tsiavos è legal project lead per Creative Commons England and Wales e Creative Commons Greece; Federico
Morando è membro del gruppo di lavoro di Creative Commons Italia.
113
rebbe impossibile l’uso su Wikipedia e in numerosi altri contesti che - pur di per sé non
commerciali - vogliono offrire al pubblico solo materiale liberamente riutilizzabile (anche
per fini commerciali).
Qui è opportuna un’ulteriore precisazione: in termini di diritto d’autore, la maggior
parte dei beni culturali appartengono alla sfera del pubblico dominio (ad esempio, poiché
sono stati realizzati secoli or sono, mentre la durata del diritto d’autore è limitata - a oggi
in Europa - a settant’anni dopo la morte dell’autore). Ciò vale per il bene in quanto tale,
ma il discorso è più complesso per le sue riproduzioni digitali. Se la riproduzione è fondamentalmente un’operazione meccanica, a rigore, si potrebbe sostenere che nessun diritto d’autore venga a originarsi in relazione alla riproduzione stessa8. Tuttavia, questo è
facilmente argomentabile per una scansione di un documento o di un’opera bidimensionale, mentre nel caso della fotografia (e in particolare della fotografia di oggetti tridimensionali), la distinzione tra un lavoro creativo e uno che non lo sia risulta tanto incerta che,
nella pratica, è prudente assumere che qualsiasi riproduzione sia protetta dal diritto d’autore o - negli ordinamenti come quello italiano che lo prevedono - quantomeno dal diritto
connesso relativo alle semplici fotografie9. Sulla fotografia di un bene culturale, dunque,
vengono a sovrapporsi due diversi diritti, con diversi titolari: il diritto relativo al bene culturale, che in alcuni ordinamenti si estende alle sue riproduzioni ed è sostanzialmente esercitato dal “custode” del bene stesso, e quello relativo all’immagine in quanto opera dell’ingegno e che nasce in capo al fotografo. Ognuno di questi diritti è un diritto esclusivo,
esercitabile erga omnes, e ciascun titolare è soggetto al “potere di veto” dell’altro rispetto
alla maggior parte delle utilizzazioni rilevanti (e certamente rispetto alla fattispecie di pubblicazione sul Web).
3. La normativa italiana
Per l’Italia, la disciplina relativa alla creazione e divulgazione delle riproduzioni
(analogiche o digitali) dei beni culturali è dettata dal Codice dei Beni Culturali e del
Paesaggio (D. lgs. 22 gennaio 2004, n. 42 e successive modificazioni10 - nel seguito, il
Codice) e relativi decreti attuativi11.
L’ambito di applicazione della disciplina è strettamente legato alla definizione di
“beni culturali”, prevista dall’art. 2, comma 2 del Codice, la quale ricomprende «le cose
immobili e mobili che, ai sensi degli articoli 10 e 11, presentano interesse artistico, storico, archeologico, etnoantropologico, archivistico e bibliografico e le altre cose individuate dalla legge o in base alla legge quali testimonianze aventi valore di civiltà». Il citato art.
11 riguarda appunto le «cose oggetto di specifiche disposizioni di tutela», mentre l’art. 10
fornisce ampie elencazioni, in base alle quali sono beni culturali «le raccolte di musei,
pinacoteche, gallerie e altri luoghi espositivi dello Stato, delle regioni, degli altri enti pub8
114
In Italia, la legge sul diritto d’autore (LdA, legge 633/1941) disciplina i diritti relativi alle fotografie in vari punti,
distinguendo tra ben tre diverse tipologie di fotografie: le opere fotografiche, dotate di carattere creativo e dunque
tutelate dal diritto d’autore in senso proprio (al pari, per esempio, di un dipinto o di un romanzo); le fotografie cosiddette “semplici”, di cui all’art. 87 primo comma LdA, che godono della tutela dei diritti connessi (v. sotto, nota 9);
le fotografie di documenti e oggetti simili, menzionate nel secondo comma del medesimo articolo a cui non viene
riconosciuta alcuna tutela.
9
In prima approssimazione, il diritto esclusivo sulle fotografie può essere considerato equivalente a una sorta di diritto d’autore limitato e la cui durata temporale è stabilita in vent’anni dalla produzione della fotografia stessa.
10
Il codice è stato emanato dal Governo nell’esercizio della delega prevista dall’art. 10 della legge n. 137 del 6 luglio
2002 e successive modifiche sono state operate dal D. lgs. 24 marzo 2006, n. 156, dal D. lgs. 24 marzo 2006, n. 157,
dal D. lgs. 26 marzo 2008, n. 62 e dal D. lgs. 26 marzo 2008, n. 63.
11
Si veda, in particolare, il Decreto 20 aprile 2005 del Ministero per i Beni e le Attività Culturali (“Indirizzi, criteri
e modalità per la riproduzione di beni culturali, ai sensi dell’articolo 107 del decreto legislativo 22 gennaio 2004, n.
42”), GU, n. 152 del 2 luglio 2005 (discusso diffusamente nel prosieguo).
blici territoriali, nonché di ogni altro ente e istituto pubblico», ma anche una vasta gamma
di archivi e raccolte librarie di enti pubblici, nonché altri beni e archivi (anche non di proprietà dello Stato) che siano stati dichiarati beni culturali in virtù del particolare interesse
che rivestono. Rimandando alla normativa per la definizione completa di “beni culturali”,
ci limitiamo qui a ricordare come il comma 4 dell’art. 10 espliciti ulteriori categorie di
beni culturali, rappresentati dalle cose (ivi comprese le architetture) che «abbiano carattere di rarità o di pregio» e che interessino la paleontologia, la preistoria e le primitive civiltà, la numismatica, e molti altri campi di interesse artistico, storico …».
In conclusione, la definizione di “beni culturali” è ampia ed esclude quasi soltanto
quei beni che - pur di interesse storico, artistico, ecc. - siano opera di autore vivente o la
cui esecuzione non risalga a oltre cinquanta anni. Semplificando - ma non troppo - dal
punto di vista di un comune cittadino si può sostenere che le cose di un qualche interesse
culturale e artistico che siano più vecchie di cinquant’anni abbiano una buona probabilità
di essere considerate beni culturali. È dunque cruciale comprendere quali siano le norme
che regolano le riproduzioni di tali beni, in quanto - oltre che tramite la fruizione diretta il bene culturale può essere goduto indirettamente, in particolare tramite riproduzioni fotografiche, le quali rappresentano la più comune forma di fruizione online e nell’ambito
digitale.
La disciplina rilevante è dettata dagli artt. 107 e 108 del Codice. L’art. 107 disciplina l’uso strumentale e precario e la riproduzione di beni culturali, riconoscendo al
Ministero, alle Regioni e agli altri enti pubblici territoriali (cui si farà riferimento nel prosieguo anche come ai “custodi” del bene) la facoltà di «consentire la riproduzione nonché
l’uso strumentale e precario dei beni culturali che abbiano in consegna12». Al contempo,
l’art. 108 si occupa di determinare i canoni di concessione e i corrispettivi per la riproduzione (in base a criteri quali il tipo e tempo di utilizzazione degli spazi e dei beni, ma anche
l’uso e la destinazione delle riproduzioni, nonché i «benefici economici che ne derivano
al richiedente»). Il favore del legislatore per la circolazione della cultura è comunque confermato dal fatto che (al comma 3 dell’articolo in questione) si stabilisce che «nessun
canone [sia] dovuto per le riproduzioni richieste da privati per uso personale o per motivi
di studio, ovvero da soggetti pubblici per finalità di valorizzazione». In questi casi, i
richiedenti sono solo tenuti al rimborso delle spese sostenute dall’amministrazione concedente.
Vale qui la pena di sottolineare come l’apertura alle attività di valorizzazione da
parte degli enti pubblici sia particolarmente rilevante, a causa dell’ampiezza del concetto
di “valorizzazione”, come definito dall’art. 6 del Codice: «La valorizzazione consiste nell’esercizio delle funzioni e nella disciplina delle attività dirette a promuovere la conoscenza del patrimonio culturale e ad assicurare le migliori condizioni di utilizzazione e
fruizione pubblica del patrimonio stesso, anche da parte delle persone diversamente abili,
al fine di promuovere lo sviluppo della cultura. Essa comprende anche la promozione e il
sostegno degli interventi di conservazione del patrimonio culturale». In questo contesto,
per esempio, parrebbe lecito immaginare che un ente pubblico possa richiedere di riprodurre un bene culturale e magari possa richiedere di mettere a disposizione del pubblico
queste riproduzioni con una licenza libera Creative Commons, al fine di promuovere la
conoscenza e fruizione del bene stesso.
Una dose addizionale di prudenza, tuttavia, è imposta all’interprete interessato
all’applicazione di licenze libere alle immagini di beni culturali dal Decreto 20 aprile 2005
del Ministero per i Beni e le Attività Culturali: «Indirizzi, criteri e modalità per la riproduzione di beni culturali, ai sensi dell’art. 107 del decreto legislativo 22 gennaio 2004, n.
12
L’art. 107 fa (ovviamente) salve le disposizioni di cui al comma 2 dell’articolo stesso (ordinario divieto di trarre
calchi) e quelle in materia di diritto d’autore (siccome è ben possibile - data la durata mediamente centaria del diritto d’autore - che un bene culturale sia anche tutelato dal diritto d’autore, nel qual caso il custode del bene non godrebbe di sufficienti diritti per autorizzarne al riproduzione).
115
42». Come già osservato in dottrina, questo provvedimento, che si pone esplicitamente
come il principale strumento interpretativo dell’art. 107 del Codice, «pone dei limiti che,
prima facie, mal si adattano a una diffusione della riproduzione fotografica del bene culturale sulle reti telematiche o, quantomeno, riducono le libertà del fruitore nel condividere la riproduzione fotografica secondo gli schemi di utilizzazione degli strumenti offerti
dalle nuove tecnologie e secondo gli usi invalsi dai cd. internauti»13.
Infatti, già gli artt. 3 e 4 del Decreto citato, nel tratteggiare la procedura autorizzativa e i relativi corrispettivi, dispongono che il responsabile dell’istituto che ha in consegna i beni tenga conto di elementi quali le «finalità della riproduzione, anche sotto il profilo della compatibilità con la dignità storico-artistica dei beni da riprodurre» e il «numero delle copie da realizzare». Per quanto questo tipo di valutazioni siano in linea con i normali criteri di remunerazione per la riproduzione di immagini, ad esempio nel mercato dell’editoria artistica, la definizione di un preordinato numero di copie è di per sé difficilmente compatibile con utilizzazioni online e anche una chiara definizione delle finalità di
riproduzione è largamente incompatibile con un approccio aperto e decentralizzato alla
valorizzazione, quale, per esempio, quello che potrebbe essere praticato nell’ambito di
comunità online, che fanno dell’uso inatteso e della serendipità uno dei loro punti di forza.
Ma è l’art. 5 del Decreto in questione a rendere più ardua la compatibilità tra questa procedura autorizzativa e l’uso di licenze libere, poiché al comma 2 dello stesso si stabilisce
che «il materiale relativo ai beni culturali e idoneo a ulteriori riproduzioni (stampe fotografiche, negativi, diapositive, film, nastri, dischi ottici, supporti informatici, calchi, rilievi grafici ed altro) non può essere riprodotto o duplicato con qualsiasi strumento, tecnica
o procedimento, senza preventiva autorizzazione dell’amministrazione che ha in consegna
il bene e previo pagamento dei relativi canoni e corrispettivi». Ciò implica che il controllo dei custodi dei beni non si limita alla prima riproduzione delle immagini degli stessi,
ma segue - teoricamente all’infinito - la catena delle riproduzioni e delle riutilizzazioni.
Analogamente, il comma 3 stabilisce che «ogni uso delle copie ottenute, diverso da quello dichiarato nella domanda, è autorizzato dall’amministrazione che ha in consegna il
bene». Merita un’ultima menzione la previsione dettata dal comma 4 dell’art. 5, concernente il fatto che «ogni esemplare di riproduzione reca l’indicazione, nelle forme richieste dal caso, delle specifiche dell’opera originale (nome dell’autore, bottega o ambito culturale, titolo, dimensioni, tecniche e materiali, provenienza, data), della sua ubicazione,
nonché della tecnica e del materiale usato per la riproduzione. Esso riporta altresì la dicitura che la riproduzione è avvenuta previa autorizzazione dell’amministrazione che ha in
consegna il bene, nonché l’espressa avvertenza del divieto di ulteriore riproduzione o
duplicazione con qualsiasi mezzo». Se la prima parte di questo comma non fa che creare
una sorta di “clausola di attribuzione” ad hoc per i beni culturali, il tassativo divieto di
ulteriore riproduzione non autorizzata sancisce ulteriormente l’incompatibilità di questa
normativa con un approccio “alla Creative Commons” e coi progetti che fanno leva sui
contenuti generati dagli utenti14.
Come è già stato osservato15, questo tipo di norme «fotografano [...] una realtà che
le innovazioni tecnologiche hanno già di fatto superato […] La scelta del legislatore è
chiara. La strada della valorizzazione del bene culturale non deve percorrere quella di una
struttura a rete, mediante comunicazione diretta tra fruitore e fruitore, ma soltanto attraverso una struttura piramidale», in cui si demanda all’istituzione custode del bene una
valutazione caso per caso, collegata alla (supposta) necessità di preventivo controllo «per
13
DE ANGELIS 2009 b, 68.
Questa previsione è non di rado disattesa, persino nell’ambito di progetti di visibilità internazionale. Ad esempio,
si veda il (peraltro lodevole) Google Art Project (http://www.googleartproject.com/), che riporta numerose immagini di opere della Gelleria degli Uffizi in altissima risoluzione, senza recare alcuna «espressa avvertenza del divieto
di ulteriore riproduzione o duplicazione con qualsiasi mezzo» (sito visitato l’ultima volta il 14 luglio 2011).
15
DE ANGELIS 2009 b, 70. Cfr. anche BRAY 2009 e ESCHENFELDER-CASWELL 2010.
14
116
prevenire azioni che non valorizzino il bene culturale o che non siano compatibili con la
dignità storico-artistica del bene da riprodurre».
Infine, alcune questioni interpretative restano aperte. Ad esempio, la lettera delle
norme parrebbe far sempre riferimento ad autorizzazioni caso per caso, ma pare possibile
ipotizzare anche autorizzazioni “in blocco”, almeno per alcune tipologie di creazione di
immagini e relativi utilizzi. Questo è indirettamente confermato dalla prassi applicativa
all’interno di alcune istituzioni culturali, che, per esempio, appongono cartelli o avvisi del
tipo «Sono ammesse fotografie, senza flash e cavalletto, per esclusivo uso personale».
4. Ratio della disciplina in materia di protezione del patrimonio culturale
Questa seconda parte dell’articolo tenta di definire la natura e la portata delle
CHPL, onde abbozzare alcune raccomandazioni volte alla massimizzazione dei benefici
per la società e alla minimizzazione degli effetti negativi sui beni comuni (commons) e il
pubblico dominio. La ratio legis della maggior parte delle CHPL è, infatti, molto sfaccettata e gli obiettivi di tali leggi si declinano in diversi ordini di questioni.
In primo luogo, la tutela. Conservare i beni culturali è forse l’elemento chiave della
disciplina e si riferisce alla capacità di uno Stato di preservare determinate risorse che, in
riferimento a una specifica giurisdizione, sono considerate di rilevante valore culturale. In
tale contesto, il controllo di accesso è il risultato della necessità di preservare il bene culturale fisico. Le leggi in oggetto disciplinano in tal senso principalmente gli aspetti tecnici della conservazione dei beni e non hanno a che fare con le versioni digitali dei contenuti culturali16. Ad esempio, il Codice dei beni culturali italiano prevede (all’art. 107) che
sia «di regola vietata la riproduzione di beni culturali che consista nel trarre calchi dagli
originali di sculture e di opere a rilievo in genere», mentre si prevede che siano «ordinariamente consentiti […] i calchi da copie degli originali già esistenti»; chiaramente, la disparità di trattamento tra “copie di originali” e “copie di copie” deriva da una preoccupazione relativa alla preservazione fisica del bene culturale originale in relazione al processo fisico di riproduzione17.
In secondo luogo, il controllo dell’accesso. Come già accennato sopra, al fine di
facilitare la tutela dei beni culturali, le istituzioni culturali mantengono il controllo relativo all’accesso alle opere stesse. Se i controlli di tale accesso sono stati originariamente stabiliti con lo scopo di risolvere problemi di accesso fisico, questo stesso controllo degli
accessi fisici può venire progressivamente mutato in controllo all’accesso digitale.
La terza ratio possibile, infatti, è il controllo sulla diffusione delle copie del prodotto culturale in quanto tali. Ancora una volta, il controllo sulla produzione di copie è
stato originariamente pensato in relazione alle copie fisiche o alle fotografie analogiche,
che dovevano essere utilizzate a fini commerciali tipicamente legati a una pubblicazione.
Se tali restrizioni potevano avere senso in ambiente analogico - pur con l’effetto collaterale di diventare una sorta di prelievo gravante su settori quali l’editoria artistica e culturale - è dubbio che le stesse possano risultare efficaci (e, soprattutto, opportune) in
ambiente digitale, in cui i costi di acquisizione e riproduzione di immagini e video di opere
culturali sono estremamente contenuti (e in cui il concetto di pubblicazione, grazie a
Internet, si svincola dal possesso di mezzi di produzione industriali/professionali). Senza
una rivisitazione delle normative sui beni culturali, ci troviamo quindi di fronte alla criminalizzazione della maggior parte delle attività turistiche, ad esempio, nei siti archeologici. Questo effetto è esacerbato nel caso tali pratiche siano abbinate all’uso di social net16
Fa, ovviamente, eccezione la “prima copia”, la quale può essere regolamentata a fini di conservazione, ad esempio vietando l’uso del flash per non danneggiare opere fotosensibili.
17
Lo stesso articolo del Codice prevede che sia comunque richiesta l’autorizzazione del sovrintendente per la realizzazione di copie di calchi. Questa autorizzazione, che di norma sarà concessa, ha una ratio legis presumibilmente differente (e probabilmente legata al controllo sulla realizzazione di copie in quanto tali).
117
work o altri strumenti online (ad esempio, è probabile che un blog individuale sia seguito
dallo stesso numero di persone che in passato potevano riunirsi a guardare l’album delle
foto delle vacanze dell’odierno blogger, ma mentre quest’ultimo uso di eventuali immagini di beni culturali era chiaramente personale, l’upload su un blog potenzialmente accessibile a chiunque è senz’altro una vera e propria pubblicazione).
Infine, le norme in questione possono avere un altro, duplice, obiettivo: da un lato,
ottenere un ritorno economico, dall’altro gestire l’attribuzione/menzione della fonte e/o
controllare la circolazione e qualità delle riproduzioni. Infatti, la necessità di controllare la
riproduzione di opere culturali è anche giustificata dalla necessità di recuperare parte degli
investimenti per la digitalizzazione e/o pubblicazione di tali opere (o, semplicemente,
dalla necessità di finanziare l’attività di tutela). Tale controllo è inoltre legato all’obiettivo di mantenere un livello minimo di qualità dell’immagine culturale di un certo paese e
a quella di attribuirne correttamente le opere. La non-pubblicità/non-attribuzione della
fonte può essere uno strumento in questo contesto, per escludere che usi impropri o
approssimativi di un’immagine possano essere associati all’istituzione culturale che custodisce il relativo bene culturale. Per tutti questi motivi la diffusione di informazioni culturali è disciplinata dallo Stato, che fornisce autorizzazioni restrittive per la riproduzione di
opere culturali, specialmente per quanto riguarda l’ulteriore diffusione e utilizzazione
delle riproduzioni stesse. Come già accennato, tuttavia, nell’ambiente digitale queste politiche sono sempre più difficili da gestire e i relativi meccanismi di controllo diventerebbero sempre più costosi, sicché, di fatto, l’applicazione stessa della legge è spesso carente, almeno nei confronti dei singoli utenti della rete (mentre risulta più agevole nei confronti di grandi piattaforme, quali Wikipedia)18.
5. Un aspetto trascurato: gli effetti sul pubblico dominio
Se fossero state scritte tenendo in considerazione gli interessi degli utenti della rete,
le CHPL sarebbero probabilmente molto diverse dal modello che emerge tratteggiando la
normativa italiana (o da quello che emergerebbe analizzando la simile normativa greca).
Buona parte degli obiettivi delle CHPL, infatti, potrebbero probabilmente essere raggiunti da ben calibrati diritti di accesso, che non pongano limitazioni per le copie successive a
una prima riproduzione, una volta che questa sia avvenuta19. Inoltre, qualora si decida che
un certo grado di controllo e una contropartita per l’uso commerciale delle riproduzioni ci
debbano essere, il processo relativo ad autorizzazioni e pagamenti dovrebbe essere facile
e veloce. In particolare, dovrebbe trattarsi di una sorta di diritto a compenso (fatto scattare da alcuni tipi di utilizzazione delle riproduzioni) e non di un diritto di proprietà (che
richiede la preventiva autorizzazione per la creazione dell’immagine stessa). La politica
inerente ai visitatori dei musei, ad esempio, dovrebbe essere quella dell’“aperto salvo indicazione contraria” (open by default) e le istituzioni potrebbero eventualmente indicare le
opere la cui riproduzione sia vietata o regolamentata in modo particolare20.
La necessità di far evolvere la politica culturale si basa sulla comprensione del fatto
(o sulla considerazione della concreta eventualità, se si preferisce) che il patrimonio culturale sia protetto e non minacciato dalla promozione dei beni comuni, dei contenuti generati dagli utenti e del dominio pubblico. D’altro canto, le opposte argomentazioni che
sostengono che la digitalizzazione del patrimonio culturale possa essere economicamente
18
Per esempi in proposito, si vedano i link forniti in nt. 4.
Una modalità di tariffazione particolarmente facile da applicare, per esempio, è relativa al pagamento di un
“biglietto per la macchina fotografica”, che includa l’autorizzazione a realizzare fotografie (senza flash o cavalletto
e con eventuali restrizioni alle forme di licenza delle immagini stesse).
20
L’ipotesi sottesa a questo ragionamento è che, ad esempio, le tariffe relative alla riproduzione di un ristretto numero di opere celebri sia all’origine della maggior parte dei proventi di una data istituzione culturale. Tale ipotesi
andrebbe, ovviamente, approfondita empiricamente.
19
118
sostenibile attraverso la concessione di licenze di accesso e/o riproduzione, paiono basate
più su una sorta di scommessa che su una solida analisi economica dei benefici che i paesi
come l’Italia o la Grecia possono trarre da normative restrittive in questa materia. Solide
analisi empiriche in questo campo sarebbero dunque necessarie. Infine, anche ammettendo che si voglia utilizzare la licenza dei diritti sulle immagini per finanziare la digitalizzazione, sarebbe opportuno esplorare la possibilità che l’introduzione di un regime efficiente di licenze commerciali gestite automaticamente online possa continuare a soddisfare questo obiettivo, garantendo che l’accesso ai contenuti per fini non-commerciali
rimanga libero.
Le seguenti raccomandazioni sono un primo (e preliminare) contributo all’individuazione di una strategia attraverso la quale la disciplina inerente il patrimonio culturale
possa raggiungere i suoi obiettivi, aumentando al contempo le possibilità di accesso ed
evitando restrizioni non necessarie del dominio pubblico.
Più analiticamente, gli obiettivi delle raccomandazioni sono:
- assicurare la conservazione di beni culturali e relative informazioni;
- garantire il mantenimento di un livello qualitativo minimo delle informazioni diffuse;
- ridurre i costi di transazione, se e quando vengano previsti adempimenti economici relativi alle autorizzazioni/licenze/utilizzazioni;
- non limitare il dominio pubblico (o, quantomeno, non limitarlo più di quanto sia
strettamente necessario per raggiungere gli altri obiettivi di policy delle norme relative ai
beni culturali).
6. Riflessioni preliminari su alcune opzioni di policy alternative
Il problema della sovrapposizione tra la disciplina in materia di tutela del patrimonio culturale e pubblico dominio può essere risolto in vari modi, alcuni dei quali sono sintetizzati nelle opzioni che seguono.
A) Abolire la disciplina in materia di riproduzioni dei beni culturali (per la
parte che si pone in contrasto con il concetto di pubblico dominio ai sensi del diritto d’autore): questa è l’alternativa più radicale e, allo stesso tempo, la soluzione più semplice.
L’abolizione della disciplina in questione, infatti, garantirebbe che nessuna ulteriore restrizione al pubblico dominio venga imposta. Questa soluzione, tuttavia, è di difficile attuazione a causa della riluttanza dei legislatori nazionali ad accettare una soluzione che allenti il controllo attualmente esercitato sul flusso di informazione culturale nonché per la
potenziale perdita di entrate provenienti dalla vendita di licenze commerciali. Una concreta e realizzabile raccomandazione di policy, tuttavia, potrebbe riguardare l’analisi di
scenari alternativi, tra cui quello nel quale la riproduzione dei beni culturali sia libera.
B) Armonizzare la disciplina in materia di riproduzioni dei beni culturali: il
principale vantaggio di tale approccio è relativo al trattamento uniforme di accesso alle
informazioni culturali in tutta l’UE, il che darebbe anche un impulso ai modelli di utilizzo di tali informazioni, riducendo gli attuali problemi di incertezza e i relativi costi di
transazione. La questione che si solleva, però, a partire da questa soluzione è relativa alla
tendenza dei legislatori (testimoniata nel campo della proprietà intellettuale, sia nello scenario europeo che in quello internazionale) a operare le armonizzazioni normative nella
direzione degli ordinamenti che offrono la maggior tutela, piuttosto che nella direzione
suggerita dagli ordinamenti più permissivi. Il problema della compressione del pubblico
dominio a opera delle CHPL, dunque, avrebbe buone probabilità di non essere ridotto, ma
di estendersi a paesi che ne sono stati per il momento risparmiati.
C) Operare una transizione graduale verso minori e più razionali restrizioni:
l’idea alla base di questo approccio è che il sistema della tutela del patrimonio culturale
adotti gradualmente pratiche compatibili con quelle degli utenti che generano contenuti
119
culturali digitali. Il processo può essere descritto in una road map simile alla seguente
(alcuni punti della quale potrebbero essere presi in considerazione anche da singole istituzioni culturali, nell’ambito dello scenario normativo vigente):
C1. Rendere il processo di autorizzazione semplice ed economico: l’attuale iter
di autorizzazione risulta complicato ed è perlopiù gestito off-line e senza alcuna considerazione del modo in cui i servizi Web 2.0 possono operare. Il suggerimento è quello di rendere l’eventuale registrazione per l’utilizzo non-commerciale di immagini facoltativo e
agevole e l’eventuale pagamento per uso commerciale gestibile online in modo automatico e standardizzato.
C2. Assicurare che, qualora esista un sistema di tariffe e/o regole di “attribuzione”:
- vi siano eccezioni in relazione a usi non-commerciali delle opere;
- quando l’attribuzione/indicazione dell’origine sia posta come una condizione,
questa sia supportata (nel senso di resa più facile e utile) da strumenti tecnici (ad esempio, URI stabili per l’attribuzione e adozione delle tecnologie del Web semantico).
C3. Uso di soft law: ogni volta in cui questo sia possibile, non imporre obblighi formali per gli utenti finali per quanto riguarda l’attribuzione, o simili, ma piuttosto invitare
gli utenti a collaborare con le istituzioni a tal fine, eventualmente utilizzando anche strumenti tecnologici di supporto (vedi C2).
C4. Chiarire il concetto di uso personale delle riproduzioni digitali:
- l’uso personale dovrebbe includere la diffusione delle informazioni su homepage,
blog, social network ed equivalere essenzialmente all’uso non commerciale (dal punto di
vista dell’utilizzatore stesso e anche su canali, come Facebook o YouTube, che siano di
per sé chiaramente commerciali);
- in questo contesto, ogni eventuale considerazione riguardante gli effetti (negativi)
dell’uso personale in rapporto allo sfruttamento commerciale delle riproduzioni21 dovrebbe essere superata dalle considerazioni relative alla libera espressione dei cittadini e alla
loro partecipazione alla vita culturale della società.
C5. I diritti sulle riproduzioni del patrimonio culturale non devono essere trattati come diritti assoluti (erga omnes), vale a dire che, una volta che il permesso alla
prima riproduzione (ed eventualmente alla prima diffusione) viene accordato al primo
soggetto, non ci dovrebbe essere nessun controllo ulteriore sulla diffusione delle informazioni culturali (si ha una sorta di “esaurimento” dei diritti dopo la prima autorizzazione).
C6. Utilizzare la disciplina in materia di tutela del patrimonio culturale per
rafforzare e proteggere il pubblico dominio:
- la disciplina in materia di tutela del patrimonio culturale potrebbe essere utilizzata per proteggere il pubblico dominio, se l’autorizzazione originaria fosse accompagnata
dall’obbligo di contrassegnare il bene culturale stesso come opera di pubblico dominio
(per esempio usando strumenti quali il Public Domain Mark (PDM)22;
- più in generale, un uso delle CHPL più in linea con i modelli di utilizzo delle informazioni online da parte degli utenti potrebbe consistere nell’imporre alcuni modelli di
licensing che un’istituzione valuti idonei a garantire che le riproduzioni dei beni culturali
non siano oggetto di forme di diritti di proprietà intellettuale che ne sottraggano la fruizione al pubblico (e alle stesse istituzioni culturali)23.
21
120
Si fa qui riferimento alla possibilità che la disponibilità di riproduzioni amatoriali e disponibili solo per uso noncommerciale sia comunque in concorrenza con il mercato delle licenze per uso commerciale da parte dell’istituzione culturale stessa. Un esempio di situazione di questo genere è quella in cui il divieto di fotografare un certo bene
culturale viene giustificato con la motivazione di preservare la vendita delle cartoline o simili riproduzioni disponibili a pagamento (e, di norma, fornite da un operatore commerciale, che ha preso in licenza le immagini stesse, a fini
di sfruttamento commerciale).
22
Il PDM è uno strumento sviluppato da Creative Commons, in interazione con Europeana, al fine di “etichettare” e
comunicare chiaramente (sia agli esseri umani che a eventuali software) lo status di pubblico dominio di un’opera.
Si veda anche https://creativecommons.org/press-releases/entry/23755 (consultato il 15/07/2011).
23
Per alcuni esempi di licenze atte a tale scopo, si veda il punto C7.
C7. Utilizzare la disciplina in materia di tutela dei beni culturali per assicurare l’uso di licenze libere per le relative riproduzioni digitali:
- nel caso sussista qualche forma di proprietà intellettuale sulle riproduzioni dei beni
culturali (in capo ai creatori delle riproduzioni stesse), le CHPL possono essere usate per
imporre l’adozione di una licenza permissiva, quale CC Zero (che tende a porre la riproduzione in pubblico dominio) o CC BY (che richiede la sola attribuzione della paternità
dell’opera);
- l’approccio appena descritto assicurerebbe che la riproduzione così licenziata non
possa essere completamente “appropriata” dal creatore, ma circoli liberamente, concorrendo alla valorizzazione del bene culturale; tale risultato potrebbe essere “rafforzato”
imponendo l’uso di licenze “persistenti” o “virali”, quali CC BY-SA, che però hanno effetti collaterali in termini di libertà di mescolare contenuti culturali tra loro e riutilizzarli liberamente24;
- l’imposizione dell’uso di una certa licenza per le riproduzioni dei beni culturali
potrebbe ottenersi con due procedure (alternative):
1) tramite il trasferimento della piena proprietà dei diritti d’autore e connessi all’istituzione culturale, che dovrebbe poi rilasciare la riproduzione sotto una licenza CC Zero, CC BY o CC BY-SA; oppure
2) tramite licenza diretta del lavoro sotto licenza libera da parte del creatore della riproduzione (questa seconda soluzione appare preferibile, anche perché più
facilmente amministrabile);
- l’uso di una licenza libera per le riproduzioni potrebbe anche non essere obbligatorio, ma - in caso il creatore di una riproduzione non voglia adottare una licenza libera si potrebbe aumentare la tariffa relativa all’autorizzazione per la riproduzione stessa.
C8. Distinguere tra il rilascio delle immagini di opere culturali (già in possesso
delle istituzioni) e il permesso di creare nuove immagini (ad opera di terze parti):
- nel primo caso, il principio cardine dovrebbe essere quello secondo cui il contenuto di pubblico dominio dovrebbe rimane di pubblico dominio: il PDM dovrebbe essere
usato per contrassegnare chiaramente le opere di pubblico dominio; se la riproduzione
gode di un’autonoma protezione, la stessa dovrebbe resa riutilizzabile in modo completamente libero con strumenti quali CC Zero, oppure essere rilasciata con una licenza libera
quale CC BY (l’uso di CC BY-NC o BY-SA non appare raccomandabile, ma rimandiamo
ad altro contributo un approfondimento delle ragioni che rendono tale soluzione sub-ottimale)25;
- nel secondo caso, si veda il punto C7.
7. Conclusioni
Il problema dell’interazione tra la disciplina in materia di protezione del patrimonio
culturale e il pubblico dominio (e la circolazione della conoscenza in genere e sulle reti
digitali in particolare) costituisce un ambito di ricerca ancora largamente inesplorato. Allo
stesse tempo, si tratta di un tema di grande potenziale rilevanza per l’Europa che è attivamente impegnata nel processo di digitalizzazione dei suoi beni culturali e i cui stati ambi24
In sintesi, l’uso di licenze “virali” del tipo Creative Commons Condividi-allo-stesso-modo (Share-alike) ha l’effetto collaterale di rendere più complesso il mescolare tra loro contenuti con origine diversa. Se si applicano ai contenuti A e B due diverse licenze con obbligo di attribuzione, per esempio, è possibile che sia lecito rilasciare un’opera C, derivata da A e B, sotto una qualsiasi delle licenze originali; di contro, siccome una licenza virale impone di
rilasciare le opere derivate con la licenza stessa è molto probabile che - in assenza di esplicite clausole di interoperabilità tra le due licenze in questione - la creazione di C sia semplicemente illecita (mentre resta possibile modificare A e B per realizzare A’e B’, da licenziarsi sotto la medesima licenza di A e B rispettivamente).
25
Per alcune, preliminari riflessioni, si veda sopra, nt. 24 oltre a quanto discusso nel penultimo capoverso della sezione 2 in merito alle licenze non-commerciali.
121
scono a coinvolgere la cittadinanza nella vita culturale.
A oggi, in alcuni paesi tra cui l’Italia, la disciplina in materia di protezione del patrimonio culturale crea uno strato di diritti (ulteriori e indipendenti rispetto a quelli di proprietà intellettuale) che di fatto riducono le possibilità di valorizzazione dei beni culturali
sulla rete. Ad esempio, è un dato facilmente verificabile che la localizzazione in lingua italiana di Wikipedia sia relativamente povera di immagini di beni culturali, in virtù del fatto
che la comunità degli utenti di Wikipedia stessa non solo non viola la normativa, ma si
attiva anche per non permette a eventuali utenti ignari delle norme di violare la normativa italiana in merito alle riproduzioni dei beni culturali26.
Questo articolo è dunque un invito a riflettere sulle modalità per rendere le discipline nazionali relative alla tutela e valorizzazione dei beni culturali compatibili con le
pratiche di produzione di contenuti culturali generati dagli utenti online. È anche un invito a considerare esplicitamente gli effetti di tali normative sul pubblico dominio, che oggi
viene compromesso, con significativa compressione delle libertà di espressione e partecipazione alla vita culturale dei cittadini, ma senza che lo Stato ne tragga alcun beneficio
concretamente misurabile (o, almeno, misurato).
Inoltre, questo lavoro è un invito a valutare alcune strategie alternative, in cui la
disciplina relativa alle riproduzioni dei beni culturali diventi uno strumento per facilitare
l’identificazione dei beni in pubblico dominio ed eventualmente favorisca la circolazione,
sotto licenze libere, delle riproduzioni fotografiche dei beni culturali. Infine, questo articolo è un invito a considerare, qualora si impongano tariffe relative alle riproduzioni per
uso commerciale dei beni culturali, tutti i costi (anche indiretti) che tali tariffe impongono. Nel caso si segua la via dell’imposizione di tariffe, si invita a considerare in particolare l’opportunità di esentare dal pagamento delle stesse chi rilasci una riproduzione sotto
una licenza libera, che può rappresentare una forma di compensazione “in natura” della
società, grazie alla quale la condivisione della conoscenza sostituisce la compensazione
monetaria.
26
122
In merito, si veda ad esempio http://it.wikipedia.org/wiki/Utente:Alcuni_Wikipediani/Lettera_aperta_sulle_leggi_sul_copyright (visitato l’ultima volta il 14 luglio 2011).
Abbreviazioni bibliografiche
BRAY 2009
P. Bray, Open Licensing and the Future for
Collections, in, Museums and the Web 2009:
Proceedings, J. Trant e D. Bearman (edd.), Toronto
2009 (http://www.archimuse.com/mw2009/).
DE ANGELIS 2009 a
D. De Angelis, Brevi note in tema di applicabilità
delle licenze Creative Commons ai beni pubblici culturali (prima parte), in DigItalia, Rivista del digitale
nei
beni
culturali,
4,
2009,
9-23
(http://digitalia.sbn.it).
DE ANGELIS 2009 b
D. De Angelis, Brevi note in tema di applicabilità
delle licenze Creative Commons ai beni pubblici culturali (seconda parte), in DigItalia, Rivista del digitale nei beni culturali, 4, 2009, 61-73 (http://digitalia.sbn.it).
ESCHENFELDER-CASWELL 2010
K. R. Eschenfelder - M. Caswell, Digital cultural
collections in an age of reuse and remixes, in First
Monday, 15, 2010 (http://firstmonday.org/).
RESTA 2009
G. Resta, Chi è proprietario delle piramidi?
L’immagine dei beni tra property e commons, in
Politica del diritto, 4, 2009, 567-604 (http://www.mulino.it/rivisteweb/scheda_articolo.php?id_articolo=31408).
Federico Morando
Centro NEXA su Internet & Società. Dipartimento di
Automatica e Informatica, Politecnico di Torino,
[email protected].
Prodromos Tsiavos
Innovation and Information System Group.
Management Department, London School of
Economics.
[email protected].
123
Documentare e ricostruire: strumenti e metodi aperti.
Angelo Chianese
Vincenzo Moscato
Antonio Picariello
Un framework per la creazione di
ambienti virtuali 3D
Abstract
Augmented Reality (AR) is an emerging technology that promises significant results in a variety of
applications. In this paper a framework, that allows museums and Cultural Heritage Institutions to build and
manage virtual areas based on 3D models of artefacts, is presented. To facilitate the creation of emergent AR
applications, a novel data model and a simple building and querying language for 3D objects are presented,
designed in order to be sufficiently powerful to include the functionalities and characteristics of modern 3D
description languages, such as X3D and Collada, and at same time simple for optimization aims. Several
examples from real Italian Cultural Heritage sites are provided and preliminary results are commented and discussed, showing the main advantages of the proposed system for both creation and retrieval goals.
1. Introduzione
Lo scopo della “realtà virtuale” è quello, da un lato, di ricreare, tramite computer,
mondi e oggetti che sono la trasposizione digitale di ambienti reali o di fantasia, dall’altro, di studiare i metodi di interazione tra utenti e i mondi virtuali.
Oggi i mondi virtuali si possono unire ad altre tecnologie come, ad esempio, gli
strumenti di comunicazione e collaborazione e quelli di ricostruzione tridimensionale e
simulazione, per trasformarsi in sistemi incredibilmente utili per un ampio insieme di settori applicativi quali l’archeologia virtuale, l’e-learning, i musei virtuali, ecc.
Nei differenti settori applicativi c’è una problematica di ricerca comune: quella di
potere ricreare, attraverso una serie di tool di semplice utilizzo, ambienti tridimensionali
complessi (siti archeologici, chiese, palazzi storici, piazze, uffici, ecc.), eventualmente
sfruttando oggetti 3D già precedentemente creati da altri utenti, memorizzati in appositi
formati (X3D, Collada, ecc.) e organizzati in apposite basi di dati.
Un esempio motivante potrebbe essere quello di un archeologo che all’interno di
scavi effettua il ritrovamento di parte di un’anfora e ne vuole ricreare nell’ambiente virtuale una possibile riproduzione 3D. Osservando degli artefatti già creati da altri archeologi, l’archeologo può ricreare l’oggetto modificando degli oggetti esistenti (per esempio
aggiungendo una tessitura differente ad un’anfora presente nella base di dati o effettuando semplici operazioni di estrusione e scaling su un altro vaso simile), oppure ricrearlo ex
novo, eventualmente sfruttando e assemblando componenti dell’oggetto già presenti nella
base di dati.
In un siffatto contesto, l’obiettivo del presente lavoro è quello di proporre un framework per la ricostruzione di ambienti 3D che fornisca all’utente un’interfaccia di semplice utilizzo per la definizione di mondi e oggetti virtuali.
Tale framework include:
1. la definizione di un modello per la rappresentazione di oggetti 3D e delle operazioni ammissibili per gli oggetti (introducendo anche il concetto di similarità tra oggetti);
127
2. la definizione di un’algebra che consenta la creazione di oggetti 3D e il retrieval
(anche basato su esempi, i.e. query by example) da basi di dati 3D;
3. l’implementazione di un tool software che supporta in maniera semplice e intuitiva i suddetti processi di creazione e interrogazione per consentire all’utente di creare con
tempi e sforzi ridotti, e attraverso un apposito linguaggio, ambienti 3D di elevata complessità (ovvero composti da un elevato numero di oggetti).
In particolare il lavoro è organizzato come segue.
La sezione 2 illustra il modello dei dati utilizzato che si ispira al modello B-rep1,
classificato in letteratura come approccio surface-based2, e utilizza 4 entità fondamentali
(vertici, spigoli, facce e reticoli) per descrivere la geometria di un qualsiasi oggetto 3D.
Su tali oggetti vengono poi definite una serie di operazioni che permettono di modificarne la struttura e di assemblare oggetti semplici in forme più complesse.
La sezione 3 descrive poi come gli oggetti 3D possono essere “mappati” in apposte
“relazioni” e come su di esse è possibile definire un’algebra di interrogazione in cui viene
introdotto, da un lato, il concetto di “similarità” di oggetti, dall’altro, l’operatore di selezione attraverso cui risulta semplice implementare meccanismi di retrieval3 di oggetti da
basi di dati 3D, anche attraverso query basate sul contenuto degli oggetti stessi4.
L’algebra contiene, quindi, primitive sia per la creazione e composizione di oggetti
3D (una colonna può essere ottenuta attraverso l’unione di un cilindro con due parallelepipedi), sia per l’interrogazione in basi di dati 3D5 capaci di sfruttare oltre ai metadati
(semantica) e le features degli oggetti, anche un concetto di “similarità” tra forme.
Le sezioni 4 e 5 presentano il tool software sviluppato, la relativa architettura e alcuni dettagli implementativi. È disponibile per gli utenti finali un’interfaccia dei comandi
basata su linguaggio naturale6 per specificare le istruzioni che consentono la ricostruzione
di ambienti 3D.
Infine, la sezione 6 descrive come casi di studio la creazione, attraverso il framework proposto, di un sito archeologico e di un reperto e come queste attività possono essere semplificate attraverso l’utilizzo del tool sviluppato, mentre nella sezione 7 sono riportate le conclusioni del presente lavoro.
2. Il Modello dei dati
In questa sezione viene presentato il modello dei dati che descrive, da un lato, quelle che sono le entità di base in cui un oggetto 3D può essere scomposto e, dall’altro, le
relative operazioni utilizzate per creare, gestire e trasformare un oggetto 3D generico.
2.1. Entità Base
Le entità fondamentali usate per costruire oggetti generici sono: vertice, spigolo,
faccia e reticolo (fig. 1) e di seguito se ne riportano le definizioni formali.
Definizione 1 (Vertice V)
Sia D3 un sottoinsieme finito di R3, ad esempio D3 ⊆ R3. Un vertice V è un qualsiasi elemento appartenente a D3.
1
ABDUL RAHMAN-PILOUT 2007.
ARENS et alii 2005.
3
CHAU-CHITTAYASOTHORN 2007.
4
BIMBO-PALA 2006.
5
ESCOBAR-MOLAN et alii 2007.
6
KAWAI et alii 1999.
2
128
Definizione 2 (Relazione topologica λ)
Una Relazione topologica λ è una qualsiasi relazione spaziale tra 2 entità del modello nello spazio 3D.
1. Entità base del
modello dei dati.
Definizione 3 (Spigolo E)
Uno spigolo E è una tripla di elementi composta da una coppia di vertici e dalla
relazione topologica λ tra di essi, ad esempio: E=〈Vs,Ve, λ〉.
Definizione 4 (Faccia F)
Una faccia F di lunghezza N è una sequenza ordinata di spigoli 〈{E1,E2,…,EN},C,T〉,
essendo {E1,E2,…,EN} una sequenza ordinata di vertici tali che per ogni i∈[1,N-1], Vei≡
Vsi+1 e Vs1≡ VeN, essendo Vei ,Vsi∈Ei; C, T sono invece il colore della faccia e la sua texture.
Definizione 5 (Reticolo di ordine k)
Un reticolo di ordine k è un set di k facce, dove k è l’ordine del reticolo, insieme a
una label di annotazione l, Rk=〈{F1,F2,…,Fk},l〉.
Possibili label per gli oggetti creati nel sistema in esame sono: Triangle, Rectangle,
Circle, Square in uno spazio 2D; Box, Sphere, Cylinder, Cone in uno spazio 3D.
2.2. Operazioni
Le operazioni applicabili ad un reticolo possono essere classificate in quattro categorie:
-operazioni di definizione: creazione e copia;
-operazioni geometriche: spaziali e strutturali;
-operazioni di assemblaggio: merge e join;
-operazioni varie: etichettatura, colorazione, settaggio delle texture.
La prima classe di operazioni consente la “creazione” di un nuovo reticolo o la
129
“copia” di un reticolo già esistente in uno spazio 3D. In particolare, la creazione di un
nuovo oggetto è ottenuta definendo i vertici, gli spigoli, le facce e, infine, la label del reticolo.
È assunta l’esistenza di un insieme di reticoli predefiniti chiamati reticoli di default
per i quali la creazione viene eseguita più facilmente, definendo solo la label e le dimensioni di base.
Le operazioni geometriche modificano le proprietà del reticolo, trasformando quindi un reticolo assegnato in uno nuovo. Si distinguono in spaziali e strutturali.
In particolare, le operazioni spaziali definite nel modello sono rotazione, traslazione e scaling. Queste operazioni sfruttano formule geometriche per il calcolo delle nuove
coordinate dei vertici del reticolo in un apposito sistema di riferimento cartesiano, come
mostrato di seguito.
Rotazione - La rotazione ϕ(Rk,ω,θ) è una trasformazione applicata al reticolo Rk
che causa un movimento circolare di tutti i vertici del reticolo di un angolo θ (angolo di
rotazione) intorno all’asse ω (asse di rotazione).
Traslazione - La Traslazione π(Rk,ι) è una trasformazione lineare che sposta ogni
vertice del reticolo Rk di un apposito vettore di traslazione ι=〈ιx,ιy,ιz〉.
Scaling - Lo scaling δ(Rk,ε) è una trasformazione lineare che allarga o riduce il reticolo Rk di un fattore di scaling ε=〈εx,εy,εz〉 in tutte le direzioni, traslando i relativi vertici.
Le operazioni strutturali definite nel modello sono invece l’estrusione, la deformazione, l’estrusione di una singola faccia, la rimozione di una faccia e la rimozione di uno
spigolo. Tutte queste operazioni agiscono su un reticolo modificandone la struttura interna. Si riportano, a titolo di esempio, le sole definizioni di estrusione e deformazione.
Estrusione - L’estrusione ψ(Rk,ι,ε) è una trasformazione applicata su un reticolo 2D
Rk; essa crea un reticolo 3D che ha Rk, e le sue copie scalate, come profilo delle sezioni
trasversali; ι e ε sono i vettori di traslazione e scaling usati per applicare l’estrusione.
Deformazione - La deformazione γ(Rk,Fi,ε) è una trasformazione che applica un
operazione di scaling di un fattore ε sulla faccia Fi appartenente al reticolo Rk.
Le operazioni di assemblaggio definite in questo modello sono chiamate merge e
join. Esse agiscono su due o più reticoli e restituiscono un singolo reticolo (fig. 2).
Merge - L’operazione di merge μ(Rk11,Rk22,…,Rknn) è una trasformazione che coinvolge due o più reticoli (ogni reticolo deve avere un vertice in comune con almeno un altro
reticolo) che permette di ottenere un reticolo singolo composto dall’unione dei vertici
appartenenti ai differenti reticoli (le caratteristiche geometriche di ogni operando sono
mantenute).
Join - Il join Rk11 Θ F1i=F2j Rk22 è una trasformazione binaria che coinvolge due reticoli Rk11, Rk22 che riesce a unire gli stessi in un singolo reticolo sulla base di una faccia
comune che è ottenuta allineando e sovrapponendo le due facce F1i, F2j.
In altre parole, l’operazione di join è eseguita traslando il secondo reticolo in modo
che il baricentro della faccia F2j, appartenente al secondo reticolo, si sovrapponga al baricentro della faccia F1i, appartenente al secondo reticolo.
Le operazioni varie definite nel modello sono l’etichettatura, la colorazione e il settaggio della texture. Esse agiscono sul reticolo senza modificare la struttura geometrica relativa.
130
Etichettatura - L’etichettatura è un’operazione che permette di modificare la label
del reticolo.
Colorazione - L’operazione di colorazione permette di modificare il colore del reticolo o di una sua faccia.
2. Alcuni esempi
di operazioni sul
modello dei dati:
(a) Merge, (b)
Join.
Settaggio della texture - Questa operazione permette di modificare la texture del
reticolo o di una sua faccia.
3. L’algebra di query
Il principale obiettivo dell’algebra di query definita è quello di fornire alcune primitive per la ricerca di oggetti 3D che soddisfano delle specifiche o che sono simili ad altri
oggetti in termini di caratteristiche geometriche.
L’algebra si basa sul concetto di similarità tra reticoli che si basa, a sua volta, su
quello di similarità tra facce, come riportato dalle seguenti definizioni.
Operatore di similarità tra Facce - siano Fi e Fj due facce, un operatore di similarità tra facce è un operatore binario Fi ≅τ Fj che restituisce un valore booleano vero se
esiste una trasformazioneτ, composizione di rotazioni, traslazioni e scaling, che permette
di sovrapporre completamente la faccia Fi alla faccia Fj.
Operatore di similarità tra reticoli - siano Rk1 e Rk2 due reticoli di ordine k, un
131
operatore di similarità tra reticoli è un operatore booleano Rk1 ≅τ Rk2 che è vero se per ogni
faccia del primo reticoli ne esiste una simile nel secondo e viceversa.
Altri operatori di similarità molti importanti sono quelli che consentono di determinare l’ordine di similarità (k-similarità) tra reticoli e se un reticolo è “contenuto” in un
altro (similarità di inclusione).
Operatore di k-similarità tra reticoli - siano Rk11 e Rk22 due reticoli di ordine k1 e
k2 e k appartenente a N-{0}, un operatore di k-similarità tra reticoli è un operatore booleano Rk11 ≅τk Rk22 che è vero se esiste un sottoreticolo di ordine k di Rk11 che è simile a un
sottoreticolo di ordine k di Rk22.
Operatore di similarità di inclusione tra reticoli - siano Rk11 e Rk22 due reticoli di
ordine k1 e k2}, un operatore di similarità di inclusione tra reticoli è un operatore booleano Rk11 ⊆ Rk22 che è vero se esiste un sottoreticolo di ordine k1 di Rk22 che è simile a Rk11.
Infine è possibile definire delle similarità che lavorano sui metadati degli oggetti,
comparando le relative label.
Operatore similarità tra label di reticoli - siano Rk11 e Rk22 due reticoli, un operatore di similarità tra label di reticoli è un operatore binario booleano Rk11 ≅l Rk22 che è vero
se la label del primo reticolo è contenuta nella label della secondo.
Operatore similarità tra label - sia Rk un reticolo e L una label un operatore di
similarità tra label è un operatore booleano Rk =l L che è vero se la label del reticolo sulla
sinistra è contenuta nel label in ingresso.
Gli operatori di similarità di base tra facce, reticoli e label, presentati precedentemente, possono essere utilizzati nell’algebra delle query per esprimere condizioni atomiche e complesse all’interno di una data query 3D.
Introdotto poi, il concetto di relazione 3D come un insieme di reticoli identificati
univocamente da un apposito codice, è possibile ridefinire su di essa il classico operatore
di selezione dell’algebra relazionale.
Nella nostra algebra un operatore di selezione è un operatore capace di estrarre da
una data relazione i soli reticoli che soddisfano determinate proprietà basate sul soddisfacimento di apposite condizioni atomiche e/o complesse.
4. L’architettura del sistema e il workflow supportato
L’architettura di riferimento del nostro 3D Building System (3DBS) è basata su un
approccio multilayer e su tecnologie open-source. I principali moduli del sistema sono
analizzati in seguito (fig. 3).
3DBS engine - è il componente principale del sistema che implementa il modello
dei dati e tutte le relative operazioni (building e query) descritte, fornendo nel contempo,
un’astrazione di ogni entità del modello.
3DBS di object database - è il componente responsabile della memorizzazione,
dell’organizzazione e della ricerca dei dati 3D, garantendone l’integrità e la consistenza.
3DBS file manager - questo componente interagisce con il file system locale per
l’importazione e l’esportazione di oggetti 3D da/nei formati standard di descrizione 3D,
come X3D e Collada. In particolare, un modulo di questo componente è specializzato nel132
3. Architettura di
riferimento del
sistema 3DBS.
4. Schermata
principale del
sistema 3DBS.
l’eseguire query sul Google 3D Web Warehouse.
3DBS shell - questo modulo è la shell del sistema (fig. 4). Esso consente agli utenti di inserire i comandi, interpretando questi sulla base del linguaggio grammaticale definito.
3DBS language manager - questo modulo permette di definire il linguaggio di cui
un utente ha bisogno di sapere al fine di interagire con il sistema.
3DBS player - questo modulo permette di visualizzare in anteprima gli oggetti 3D.
In altre parole, l’architettura proposta è tipica dei sistemi basati su un linguaggio
naturale, che sono in grado di modellare scene 3D attraverso un’interfaccia da linea di
comando che supporta le espressioni del linguaggio naturale.
Un utente fornisce al sistema una serie di istruzioni per gestire la scena e i risultati
133
possono essere visualizzati attraverso un generico dispositivo di output (ad esempio, smart
phone, schermi 3D e così via), consentendo di migliorare l’aspetto della scena fino a che
non si raggiunge un risultato ritenuto soddisfacente.
Il workflow di base è il seguente:
-un utente immette una serie di istruzioni che descrivono la scena desiderata; è possibile sfruttare anche oggetti già creati:
-recuperandoli da apposite query,
-ricercandoli sul 3D Google Web Warehouse;
-la shell analizza le istruzioni e produce un albero sintattico che viene poi convertito dall’interprete in una sequenza di istruzioni, usando le operazioni definite in precedenza;
-l’oggetto 3D è cosi creato, modellato, traslato, ruotato o scalato in base alla
sequenza mnemonica inserita;
-il risultato è visualizzato su un dispositivo di output;
-l’utente può applicare nuove trasformazioni alla scena fino a quando non è soddisfatto.
Gli oggetti possono essere finalmente memorizzati con uno pseudonimo nel database del sistema. Se l’utente vuole riutilizzare gli oggetti memorizzati, può semplicemente recuperare le informazioni dal dizionario correlato.
5. Dettagli implementativi
La logica di business e la presentazione del sistema sono realizzate utilizzando tecnologie JAVA. Per ciò che invece concerne il livello dati, il modello per gli oggetti 3D
definito è stato implementato utilizzando un approccio Object Relational per mezzo del
DBMS PostgreSQL.
Le entità fondamentali che compongono il modello dei dati (reticoli, facce, spigoli
e vertici) sono state mappate in tabelle SQL che memorizzano le informazioni corrispondenti alle diverse parti in cui ciascun reticolo può essere decomposto.
Purtroppo, la semplice decomposizione di un reticolo nelle quattro entità di base, di
cui sopra, non consente di eseguire efficientemente sui reticoli inseriti nel database le operazioni di ricerca basate sulla similarità.
Per tale motivo, è stato utilizzato un metodo di ripartizione delle facce di un reticolo in triangoli chiamato Triangolazione, che permette di suddividere le facce di un reticolo in una serie di triangoli, partendo dalle coordinate di un punto fisso (ad esempio il baricentro) della faccia da ripartire. Infatti è possibile suddividere ogni figura piana in una
serie di triangoli, semplicemente unendo ogni vertice della faccia con il baricentro.
Il vero vantaggio che è possibile ottenere dall’applicazione della tecnica appena
descritta è che siamo in grado di determinare con precisione, ad esempio, se due oggetti
(un rombo e un quadrato) sono simili semplicemente verificando che i triangoli base che
li compongono sono simili l’uno con l’altro.
Per poter applicare questa tecnica, è necessario aggiungere una quinta entità (triangolo) al modello, che contiene le informazioni di base dei triangoli che costituiscono le
facce di un reticolo e che vengono utilizzate durante le differenti operazioni di similarità.
Dopo la creazione delle tabelle di mappatura delle entità del modello, sono state
realizzate una serie di procedure di memorizzazione (in PL/pgSQL) per implementare
tutte le operazioni previste dal modello per la creazione, modifica e query sui reticoli.
Infine, notiamo che uno degli obiettivi principali del nostro sistema è quello di fornire un semplice linguaggio testuale che permetta a utenti non esperti (ad esempio archeologi, geologi, ecc.) la creazione di uno scenario virtuale. Gli oggetti 3D che compongono
il mondo possono essere creati ex novo, definendo e assemblando nuovi reticoli oppure
modificando reticoli esistenti.
134
Il linguaggio proposto è conforme alle regole di una grammatica, definita utilizzando il tool ANTLR, che è composta da tre principali tipologie di dichiarazioni: definizione di entità, operazioni di manipolazione e operazioni di query. I comandi appartenenti alla prima categoria consentono di creare un reticolo nuovo, definendo i suoi vertici e le
sue facce. Al contrario, nelle operazioni di manipolazione e query si modificano e recuperano reticoli già esistenti.
5. Andria. Castel
del Monte.
6. Casi di studio
In questa sezione presentiamo due casi di studio per il dominio dell’archeologia virtuale.
Il primo scenario riguarda la modellazione e la ricostruzione 3D, supportate dal
nostro sistema, e l’esportazione in Google Earth di Castel del Monte, un edificio del XII
secolo (fig. 5), situato ad Andria (Italia).
In tal caso il flusso di lavoro fornito dal nostro sistema, per il caso di studio proposto, è il seguente: raccolta di tutta la necessaria documentazione sul castello; modellazione 3D attraverso la decomposizione dell’oggetto in una serie di oggetti 3D più elementari; costruzione e assemblaggio degli oggetti componenti attraverso il linguaggio definito;
applicazione di texture; esportazione nel formato Collada; importazione nell’ambiente di
Google Earth.
In particolare, il castello può essere visto composto da un corpo centrale di forma
ottagonale e una serie di 8 torri laterali (fig. 6).
Per costruire il corpo del castello, in primo luogo, abbiamo generato la struttura di
base definendo i suoi vertici e le sue facce e quindi abbiamo ottenuto la struttura completa, applicando una serie di operazioni di estrusione.
Al contrario, per costruire le torri laterali abbiamo effettuato due operazioni di join
su una serie di 3 poligoni ottagonali sottoposti a diverse operazioni di estrusione e rotazione. Le torri sono poi state traslate in corrispondenza di ogni vertice della struttura di
base e unite al corpo centrale.
Successivamente, i dettagli della facciata del castello sono stati ottenuti da apposi135
6. Elementi base
del castello.
7. Ricostruzione
3D del castello
importata in
Google Earth.
te operazioni di rotazione, traslazione ed estrusione su una serie di forme di base.
A titolo di esempio, si riportano di seguito le istruzioni del linguaggio usate per la
costruzione di una torre laterale.
R1=Create (Polygon,8,1.25);
R2=Extrusion (R1,0,1,0,1,0,1,0,1);
R3=FaceExtrusion (R2,2,0,0.01,0,1.03,0,0.03,0,1);
R4=R3;
R5=Rotation (R4,3.14,0,0);
R6=R3.F19 Join R5.F19;
R7=FaceExtrusion (R6,36,0,0.1,0,1.01,0.1,0.1,0,0.1);
R8=Create (Polygon,8,1.35);
R9=Extrusion (R8,0,0.3,0,1,0,0.3,0,1);
R10=R9.F2 Join R7.F1
Infine, abbiamo applicato le apposite texture sulle facce dell’oggetto ottenuto ed
esportato l’oggetto finale nel formato Collada. L’oggetto 3D è stato poi importato in
Google Skecthup e poi esportato in Google Earth (fig. 7).
136
Nel secondo scenario si considera un
archeologo che durante alcuni scavi presso
delle rovine etrusche recupera una parte di
un’anfora (fig. 8, a), in particolare la sua base,
e vuole ottenere attraverso il suo smartphone
l’anteprima di una sua rappresentazione 3D.
A questo punto, l’archeologo può generare il semplice modello 3D della base dell’anfora (composto da due poligoni estrusi e da un
cono ruotato), usando il nostro linguaggio di
costruzione, ad esempio, attraverso le seguenti
istruzioni.
8. Processo di
creazione
dell’anfora etrusca:
(a) reperto
iniziale, (b)
riscotruzione 3D
della base, (c)
risultato della
query.
9. Tempi di
costruzione di un
oggetto in
funzione del
numero di facce.
R1=Create (Polygon,24,1.5);
R1=Extrusion (R1,0,1,0,1.2,0,1,0,1.1);
R2=Create (Cone,1.5,1);
R2=Rotate (R2,1.56,0,0);
R3=Create (Polygon,24,1.5);
R3=Extrusion (R3,0,0.5,0,0.5,0,0.5,0,0.5);
R3=Translation (R3,0,-1.5,0);
R4=R1 Merge R2 Merge R3
Una volta ottenuto il nuovo oggetto
(fig.8, b), il reticolo correlato può essere utilizzato come oggetto per una query basata sull’operatore di similarità di inclusione che restituisce tutte le anfore etrusche nel nostro database 3D (fig. 8, c) che contengono una base simile a quella osservato dall’archeologo.
Inoltre, i risultati della query possono essere raffinati, utilizzando anche un operatore di
similarità tra label attraverso l’istruzione riportata di seguito.
R=Select (subset_similairty(R5) AND label_similarity(‘Etruscan amphora’).
Si riporta infine (fig. 9) l’andamento dei tempi di costruzione degli oggetti 3D al
variare del numero di facce da cui sono composti. Come è possibile notare, un limite per
l’efficienza è data da oggetti composto di circa 2000 facce. Questo limite non è un problema reale se si considerano reperti archeologici che sono geometricamente semplici da
costruire.
137
7. Conclusioni
Questo lavoro ha presentato un modello di dati per oggetti 3D e uno strumento in
grado di creare, gestire, visualizzare, eseguire query e memorizzare in un database relazionale oggetti 3D attraverso la definizione di un semplice linguaggio di creazione e
query. Alcuni esempi nell’ambito dell’archeologia virtuale hanno evidenziato l’utilità del
sistema per la creazione semplificata di ambienti 3D.
Gli sviluppi futuri saranno incentrati su: 1) l’espansione del modello geometrico e
la definizione di nuovi operatori di query; 2) l’integrazione di interfacce grafiche per semplificare la gestione dei oggetti 3D; 3) una sperimentazione più dettagliata del sistema.
138
Abbreviazioni bibliografiche
ABDUL RAHMAN-PILOUT 2007
A. Abdul Rahman - M. Pilout, Modelling for 3D GIS,
Springer 2007.
ARENS et alii 2005
C. Arens - J. Stoter - P. Oosterom, Modelling 3D spatial objects in a geo-dbms using a 3d primitive, in
Computers and Geosciences, 1, 2005, 165-177.
BIMBO-PALA 2006
A. D. Bimbo - P. Pala., Content based retrieval of 3D
models, in ACM Trans. Multimedia Computing,
Communication and Applications, 2, 2006, 1-24.
CHAU-CHITTAYASOTHORN 2007
V. T. N. Chau - S. Chittayasothorn, A temporal metadatabase system for 3D objects, in Proceedings of the
7th IEEE International Conference on Computer and
Information Technology, Fukushima 2007,
Washington 2007, 151-156.
ESCOBAR-MOLAN et alii 2007
M. Escobar-Molan - D. Barrett - E. Carson - N.
McGraw, Representation for databases of 3D
objects, in Computers, Environment and Urban
Systems, 31, 2007, 409-425.
Kawai et alii 1999
Y. Kawai - Y. Higashiyama - K. Koyama - M. Okada,
A fundamental study on a natural-language-based
3D cg modelling, in Proceedings of the IEEE
International Conference on Systems, Man, and
Cybernetics (SMC), Washington 1999, 714-719.
Referenze iconografiche
Autori: figg. 1-4; 6-9.
Wikipedia: fig. 5.
Angelo Chianese
Dipartimento di Informatica e Sistemistica.
Università degli Studi di Napoli Federico II.
[email protected].
Antonio Picariello
Dipartimento di Informatica e Sistemistica.
Università degli Studi di Napoli Federico II.
[email protected].
Vincenzo Moscato
Dipartimento di Informatica e Sistemistica.
Università degli Studi di Napoli Federico II.
[email protected].
139
Luca Bezzi
Nicolò Dell’Unto
Rilievo tridimensionale di reperti
archeologici: tecniche a confronto
Abstract
This contribution is intended to present the results of some comparative tests between different techniques for tridimensional digital documentation, applied to archaeological finds. Both open source and proprietary solutions have been analyzed, investigating pros and cons of their approach and considering the characteristics of hardware and software components from an archaeological point of view.
Our attentions was especially focused on Computer Vision applications (mainly based on software)
with a comparison of Microsoft’s product Photosynth with the GPL licensed Bundler. Another point of interest (hardware side) has been the investigation on optic sensors, which took us to concentrate on the triangolation laserscan Next Engine (proprietary) and on the structured light Three Phase Scan (open source)1.
1. Il rilievo dei reperti archeologici: lo stato dell’arte
Il rilievo dei reperti costituisce una delle fasi imprescindibili della disciplina
archeologica. Da esso, infatti, dipende tutta quella branca di studi tipo-cronologici su cui
si fondano, in ultima istanza, anche le analisi e le interpretazioni di più ampio respiro,
volte a individuare, nei loro limiti spaziali e temporali, le diverse sfaccettature della cultura materiale (siano esse ascrivibili a gruppi etnici, facies, vere e proprie culture o a semplici influenze stilistiche). Per questo motivo nel corso dei decenni è stata sviluppata una
serie di convenzioni grafiche condivise, atte a rappresentare i singoli manufatti oggetto di
indagine (nella maniera più chiara e accurata possibile); si è andato cioè delineando quell’insieme di codifiche alla base del disegno archeologico. Solo in questo modo è stato possibile studiare intere collezioni di reperti, composte da centinaia di esemplari, oppure
comparare analiticamente manufatti rinvenuti o conservati a notevole distanza, evitando i
1
Gli autori intendono ringraziare tutte le persone e le istituzioni che hanno reso possibile la stesura del presente articolo, e in particolare: lo HumLab (http://www.humlab.lu.se/) dell’Università di Lund (Svezia), per aver fornito lo
scanner Next Engine e le macchine di calcolo; i dott.ri Sandra Heinsch e Walter Kuntner della Innsbruck Universität
e il prof. Vakhtang Licheli della Javakhishvili Tbilisi State University (Georgia) per i dati provenienti dallo scavo di
Khovle Gora; la dott.ssa Nicoletta Pisu della Soprintendeza per i Beni Librari, Archivistici e Archeologici di Trento,
per i dati provenienti dallo scavo della chiesa di S. Andrea presso Storo; il dott. Viktor Jansa del TUWA (Tauchverein
fűr Unterwasserarchäologie), per le foto subacquee; la dott.ssa Sara Caramello, la dott.ssa Paola Matossi l’Orsa e la
Fondazione Museo delle Antichità Egizie di Torino per i dati provenienti dal Museo Egizio di Torino.
I diversi rilievi registrati durante le sperimentazioni condotte per la stesura del presente articolo sono stati effettuati tramite strumentazione hardware e software differente, che può aver influito, almeno in parte, sulla tempistica
generale dei test. In particolare, per i test riguardanti Photosynth e Next Engine è stata utilizzata una macchina DELL
(8 GB di RAM, scheda grafica Nvidia Quattro con sistema operativo Windows 7). Diversamente per i test su Bundler
e su Three Phase Scan ci si è appoggiati a un laptop Acer Aspire 5685WLMi (2 GB di RAM, scheda grafica Nvidia
GeoForce Go 7600) con sistema operativo ArcheOS.
141
problemi logistici di un esame diretto degli oggetti. A tutt’oggi il disegno archeologico,
nonostante i suoi limiti, rappresenta il metodo più utilizzato per registrare e condividere le
caratteristiche metriche e morfologiche dei reperti ed è inoltre soggetto a un’evoluzione
metodologica, derivante dalle nuove possibilità offerte dalla computer grafica2.
Negli ultimi anni, tuttavia, il continuo sviluppo di tecniche e strumentazioni di rilievo tridimensionale e il relativo abbassamento dei loro costi hanno posto le basi per una
rivalutazione complessiva del problema, imponendo all’attenzione della comunità scientifica gli evidenti vantaggi di una documentazione dei manufatti in tre dimensioni.
Proprio il confronto tra alcune di queste tecniche 3D è l’oggetto principale del presente contributo in cui si tenta di analizzare non solo la capacità geometrico-descrittiva,
ma anche il grado di accessibilità e versatilità delle metodologie proposte, siano esse open
source o a codice chiuso.
2. Tecniche di rilievo prese in esame
Nel vasto panorama delle tecniche di rilievo tridimensionale attualmente disponibili, ci siamo limitati ad analizzare le metodologie considerate più accessibili, quelle cioè
che per il loro basso costo possono essere utilizzate nella maggior parte dei casi di studio
archeologici, senza incidere in maniera significativa sul budget a disposizione. Per questo
motivo sono stati esclusi dai test tutti quegli strumenti hardware che per la loro complessità intrinseca raggiungono cifre che esulano dalla disponibilità economica di un progetto
di media grandezza; inoltre non è stata presa in considerazione la tipologia dei laser-scanner ibridi (a modulazione e tempo di volo).
Un’ulteriore selezione è stata operata in base all’effettiva possibilità di applicazione al delicato campo dei beni culturali, escludendo, in tal modo, tutti quei sensori che
necessitano di un contatto diretto con l’oggetto da rilevare (con il rischio di danneggiare
il reperto). Sono dunque state eliminate tutte le sonde appartenenti alla categoria nota con
il nome di “tastatori”.
In sostanza, in base a ulteriori considerazioni riguardanti la tempistica e la complessità di work-flow, si è ristretto il campo delle varie metodologie possibili a due tecnologie principali: la Computer Vision e i sensori ottici (figg. 1-6). All’interno di queste due
categorie si è cercato di mettere a confronto sistemi open source e sistemi chiusi, verificando di volta in volta vantaggi e svantaggi dei due approcci. Infine, si sono valutate a
livello complessivo le diverse tecniche esaminate, cercando di arrivare a una comparazione impostata su quattro parametri discrezionali: velocità, precisione, versatilità e prezzo.
2.1. La Computer Vision
Grazie alle innovazioni introdotte di recente nel campo della Computer Vision e, in
particolare, nel settore della Structure from Motion (SfM), è oggi relativamente facile ottenere un rilievo tridimensionale utilizzando una fotocamera digitale e programmi specifici
per il processamento dei dati3.
La prima tecnica da noi sperimentata appartiene a questa branca dell’informatica,
dove la ricostruzione delle tre dimensioni è gestita interamente da una combinazione di
software, il cui input si riduce a un semplice set di immagini dell’oggetto da riprodurre.
Scopo primario dei test effettuati tramite SfM è stato quello di mettere a confronto
le due principali applicazioni esistenti in questo settore, ovvero il prodotto di casa
Microsoft, Photosynth (fig. 1), a codice chiuso, e l’alternativa open source Bundler. Per
2
3
142
BEZZI et alii 2010 a.
BEZZI et alii 2010 b.
1. Schermata
iniziale della
applicazione web
Microsoft
Photosynth.
2. Finestra principale di PPT-GUI.
3. Lo scanner
Next Engine.
4. L’interfaccia di
ScanStudio.
5. L’hardware
utilizzato per il
Three Phase
Scan.
6. Il software di
controllo del
Three Phase
Scan.
raggiungere risultati soddisfacenti a livello archeologico, si è dovuto tuttavia integrare la
pipeline di entrambi i programmi con applicazioni di Image-Based Modeling (IBM) e, in
particolare, di Multiple View Stereovision (MVS), al fine di ottenere nuvole di punti sufficientemente dense, in grado di rappresentare in maniera accurata gli oggetti rilevati. In
questa prospettiva si è aggiunto al workflow complessivo il software a codice aperto
PMVS2, mentre per l’elaborazione finale e il post-processing (ovvero la creazione delle
mesh) si è utilizzato Meshlab, anch’esso open source. In definitiva i due metodi esaminati si compongono di una pipeline completamente FLOSS (Free/Libre e Open Source
Software), ovvero Bundler-PMVS2-MeshLab, e di un sistema ibrido, formato dal software proprietario Photosynth, unito ai soliti PMVS2 e Meshlab. Questa soluzione è stata dettata, da una parte, dalla mancanza di valide alternative chiuse per le fasi di IBM e MVS,
dall’altra, dall’eccezionale livello tecnico raggiunto da Meshlab, ormai di fatto una “killer
application” nel campo del mesh processing.
2.2. I sensori ottici
Per quanto riguarda i sensori ottici presi in esame, la prima scelta è caduta sullo
143
7. Una fase di
scansione con
Three Phase
Scan (proiezione
di un pattern
sull’oggetto).
8. I tre pattern di
Three Phase
Scan.
scanner Next Engine (fig. 3), uno strumento accurato e low-cost, spesso utilizzato nell’ambito dei beni culturali4. Questo apparecchio appartiene alla famiglia degli scanner a
triangolazione, ovvero a quell’insieme di macchinari che basano il rilievo 3D su formule
trigonometriche in grado di definire la posizione di una linea laser proiettata sull’oggetto
da rilevare e catturata da un sensore CCD (una videocamera), sistemato a una distanza
nota rispetto a quella dell’emettitore di luce. L’hardware è gestito da un programma proprietario molto solido, ScanStudio (fig. 4) che consente di controllare un elevato numero
di parametri attraverso un’interfaccia grafica intuitiva. Rispetto ad altri scanner commerciali della stessa categoria, questo strumento è uscito sul mercato a un prezzo estremamente contenuto, cosa che ha permesso una sua distribuzione su larga scala nel settore dei
beni culturali.
Purtroppo, nel tentativo di comparare lo scanner proprietario Next Engine con un
prodotto omologo open source, si è dovuto fare i conti con l’attuale assenza di valide alternative libere. Per questo motivo si è deciso di sperimentare un’altra tipologia di sensore
ottico, ovvero lo scanner a luce strutturata Three Phase Scan. Questo progetto utilizza
componenti hardware molto semplici che, nella sua configurazione base, si riducono a un
miniproiettore e a una webcam (fig. 5), mentre, per il lato software, si appoggia a diversi
programmi a codice aperto (Processing, ControlP5, Peasycam, Structured-light) (fig. 6). Il
suo funzionamento è relativamente facile e dipende dalla proiezione di tre diversi pattern
codificati (generalmente barre bianche e nere) (fig. 8) che vengono deformati dalla superficie dell’oggetto da rilevare (fig. 7). Contemporaneamente un sensore CCD registra le tre
immagini corrispondenti e, attraverso la triangolazione, il software è in grado di ricostruire la morfologia dell’oggetto rilevato.
Ulteriori test sono stati effettuati anche su un’altra tipologia di sensore ottico open
source, ovvero sul progetto di scanner a silhouette Splinescan. In questo caso la registrazione tridimensionale degli oggetti è effettuata attraverso il riconoscimento di una serie di
profili continui, evidenziati dalla silhouette proiettata da una linea laser. Per facilitare il
compito del software di controllo, l’oggetto da rilevare è di norma posto su un piano a
rotazione costante (nel nostro caso un normale espositore da vetrina). L’insufficiente risoluzione delle scansioni ottenute e la bassa attività del progetto negli ultimi anni, hanno
però spinto a sospendere temporaneamente le sperimentazioni, in attesa di ulteriori sviluppi.
Infine, al momento della stesura del presente articolo, sono stati effettuati nuovi
test, basati sul promettente sensore MakerScanner, che potrebbe in futuro costituire una
valida alternativa a Next Engine. Allo stato attuale, però, l’eccessiva instabilità del software e i continui crash hanno suggerito, anche in questo caso, di interrompere gli esperimenti in vista una stabilizzazione del programma.
4
144
TRUPPIA 2007.
Nel campo dei sensori ottici, dunque, il confronto tra tecnologie a codice chiuso e
soluzioni a codice aperto, oggetto principale di questo contributo, è stato effettuato essenzialmente su due strumenti appartenenti a categorie diverse (scanner a triangolazione e
scanner a luce strutturata) ed è, quindi, da considerarsi con le dovute cautele.
9. L’oggetto
utilizzato per i
test.
3. Il modello di riferimento
Il modello utilizzato nell’ambito dei vari test è stato scelto in base a delle specifiche che lo rendessero un campione di difficoltà medio-alta. In particolare si è cercato di
trovare un oggetto che replicasse alcune tra le caratteristiche più comuni a varie tipologie
di reperti, ma che allo stesso tempo rappresentasse un caso limite per le diverse tecniche
di rilievo sottoposte a esame. In particolare, si è puntata l’attenzione sulla presenza del
colore nero (che poteva causare problemi sia a metodologie basate sulla Computer Vision,
sia ai sensori ottici); sulle ridotte dimensioni (4 cm circa); sulla simmetria regolare
(aumentando il gradiente di difficoltà per le tecniche di SfM, soggette a potenziali confusioni tra due facce simili in una simmetria assiale); sulla presenza di elementi irregolari o
in grado di causare zone d’ombra durante la scansione e, infine, su di una superficie che
presentasse aree dalle caratteristiche diverse, tra cui almeno alcune zone lucide o parzialmente riflettenti (che potevano ingenerare disturbi e rumori vari sia durante la proiezione
di luce, laser o strutturata che fosse, sia durante l’acquisizione di immagini tramite dispositivi CCD). L’oggetto visibile in fig. 9, ha pienamente soddisfatto tutte queste esigenze,
fornendo un campione sufficientemente complesso per i diversi test.
4. I test di rilievo 3D
I risultati ottenuti dai test sono stati incoraggianti se non addirittura ottimali.
Tuttavia i diversi sistemi presentano caratteristiche proprie, non solo per quanto riguarda
la qualità dei dati raccolti, ma anche per quanto riguarda la tempistica dell’intero flusso di
lavoro, senza considerare i differenti problemi logistici connessi alle specifiche esigenze
dell’hardware di volta in volta utilizzato.
Nei paragrafi seguenti verranno, quindi, analizzati più in dettaglio i vari metodi
presi in esame, proponendo anche una veloce valutazione da un punto di vista archeologico.
4.1. Photosynth
Il flusso di lavoro necessario per ottenere buone repliche 3d di reperti tramite il software Photosynth prevede, in prima istanza, l’acquisizione di un set di fotografie che ritraggono l’oggetto interessato da varie angolazioni. Questo passaggio è relativamente semplice e può essere effettuato con una normale fotocamera digitale, senza la necessità di ser145
10. I risultati di
Photosynth.
virsi di apparecchiature professionali. Ovviamente quanto migliori saranno le foto di partenza tanto migliore sarà il modello finale, con positive ricadute anche sui tempi di elaborazione. Per questo motivo è consigliabile eseguire una buona serie di riprese, curando sia
l’illuminazione ambientale (con una distribuzione omogenea della luce su tutte le superfici), sia l’angolazione di scatto. In generale, i migliori risultati si ottengono in laboratorio,
ruotando intorno all’oggetto (o facendo ruotare l’oggetto su uno sfondo nero) e fotografandolo ogni dieci gradi circa, magari aggiungendo passaggi integrativi nel caso di zone
d’ombra.
Una volta terminata questa prima fase, bisogna caricare il set di foto sui server
Microsoft dove verrà processato mediante le tecniche di Structure from Motion, eseguendo lo Sparse Bundle Adjustement. Di norma, nonostante la grande quantità di dati da analizzare, si tratta di un passaggio che non richiede delle tempistiche lunghe, rispetto, ad
esempio all’elaborazione in locale che caratterizza l’alternativa open source Bundler.
Tuttavia, l’upload delle immagini, parte imprescindibile dell’intero processo, impone la
variabile della velocità di connessione internet, rendendo la metodologia inadatta in situazioni di scarsa connettività alla rete.
Come anticipato precedentemente, il risultato ottenuto durante questa prima fase
non è di norma sufficiente per un rilievo accurato di un reperto archeologico. Si pone,
quindi, la necessità di raffinare il dato superando la fase di SfM e affidandosi a un software come PMVS2 (open source), per rendere la nuvola di punti più densa attraverso le
tecniche di Image Base Modeling e Multi View StereoVision. Il modello così ottenuto è
pronto per la fase di mesh processing (ricostruzione della superficie dalla nuvola di punti)
all’interno di un programma specifico come MeshLab (fig. 10).
In definitiva Photosynnt si configura come uno strumento adatto anche a un uso
professionale e sufficientemente versatile. Il flusso di lavoro è abbastanza veloce, vista
anche la rapidità della fase di Structure from Motion, e in particolare dello Sparse Bundle
Adjustment. Tuttavia, la dipendenza del metodo da un accesso a internet impone la variabile dei tempi di upload delle immagini, strettamente collegati alla disponibilità di banda
della connessione utilizzata. I modelli finali raggiungono, nel complesso, una buona risoluzione, qualora (come nell’esperimento proposto) venga affiancato al software di casa
Microsoft un programma per rendere le nuvole di punti più dense (PMVS2). Per quanto
riguarda la proprietà dei dati, da un punto di vista legale, non ci sono particolari restrizioni nell’uso di Photosynth e, nello specifico, l’unica clausola posta da Microsoft riguarda
l’accettazione del Microsoft service Agreement, che in fatto di contenuti caricati dall’utente dichiara: «Except for material that we license to you, we don’t claim ownership of
the content you provide on the service. Your content remains your content. We also don’t
control, verify, or endorse the content that you and others make available on the service».
4.2. Bundler
La principale alternativa FLOSS a Photosynth è Bundler, un programma con cui
146
l’applicazione Microsoft condivide la genesi e di cui rappresenta in pratica un fork nato in
seguito all’esperienza di Photo Tourism (il software sviluppato congiuntamente da
Microsoft Research e dall’Università di Washington).
Trattandosi anche in questo caso di un programma di Structure from Motion è ovvio
che il primo passaggio del work-flow riguardi l’acquisizione dei dati tramite una fotocamera digitale. Non è il caso tuttavia di soffermarsi ulteriormente su questa fase poiché
quanto è stato precedentemente descritto per Photosynth vale anche per Bundler, soprattutto se si considera il modo estremamente simile di lavorare delle due applicazioni, vista
la comune origine.
Per quanto riguarda il flusso di lavoro è bene invece sottolineare che l’utilizzo di
Bundler viene notevolmente semplificato dal software Python Photogrammetry ToolBox
(PPT) e della sua interfaccia PPT-GUI (fig. 2) che permette di concatenare in un’unica
applicazione sia le vere e proprie fasi di Structure from Motion, sia quelle di Image Based
Modeling e Multiple StereoVision (PMVS2), introducendo, inoltre, la possibilità (tramite
il programma CMVS di “clasterizzare” la mole di dati da elaborare in gruppi ridotti di
immagini, il cui numero rimane a discrezione dell’operatore. Questo sistema appare quindi più intuitivo e meno interattivo rispetto a Photosynth, i cui continui cambiamenti di software possono disorientare gli utenti più inesperti, rendendo nel suo complesso l’intera
metodologia un po’ meno immediata e scorrevole.
Dal punto di vista dei risultati (fig. 11), non vi sono grandi differenze tra quanto è
possibile ottenere mediante la combinazione di Photosynth e PMVS2 rispetto ai modelli
prodotti da PPT. Il principale punto di forza di Bundler consiste nella possibilità di elaborare i dati direttamente in locale, senza delegare a terzi questo delicato passaggio, come al
11. I risultati di
Bundler.
contrario avviene nel caso del prodotto di casa Microsoft e di altre applicazioni simili (ad
esempio, Arc3D o Autodesk Photofly 2.0). La possibilità di lavorare sul proprio computer
permette un più stretto controllo sull’intera “filiera” dei programmi coinvolti e, allo stesso tempo, una maggiore versatilità del sistema. Inoltre in questo modo è possibile processare i dati anche in ambienti privi di una connessione internet (come i cantieri archeologici). Tuttavia questo vantaggio è controbilanciato dalle tempistiche di elaborazione dei dati,
decisamente più lunghe rispetto a Photosynth, e dall’utilizzo di un hardware di elevata
capacità computazionale. Da questo punto di vista però appare molto promettente la continua e rapida evoluzione dei prodotti a codice aperto, che si avvantaggiano di molti sviluppatori (professionisti e non) sparsi per il mondo e del contributo di una comunità in
continua crescita.
In conclusione un utilizzo in campo archeologico di Bundler appare già possibile,
al pari di Photosynth, soprattutto per la risoluzione raggiungibile nei modelli tridimensionali, la cui elaborazione tramite Meshlab risulta peraltro molto semplice (trattandosi di
un’unica nuvola di punti o di più nuvole già allineate, nel caso si utilizzi anche CMVS).
Come si è visto, l’unica nota negativa riguarda la tempistica di processamento, legata alla
potenza dell’hardware a disposizione per elaborare i dati.
147
12. I risultati dello
scanner Next
Engine.
148
4.3. Next Engine
I migliori risultati (fig. 12), sia da un punto di vista della tempistica, sia per quanto
riguarda la risoluzione dei modelli, sono stati ottenuti mediante lo scanner a triangolazione Next Engine. Questo sistema si avvantaggia soprattutto dell’estrema precisione e della
relativa rapidità raggiungibile da questa particolare tipologia di scanner, il cui funzionamento è già stato brevemente descritto. Il suo utilizzo appare, inoltre, complessivamente
semplice e, tramite alcune accortezze, garantisce la possibilità di documentare reperti
anche mediamente complessi.
Il principale punto debole di questa tecnica, invece, è rappresentato dalla sua scarsa versatilità, dovuta soprattutto all’apparecchiatura hardware necessaria, ossia lo scanner
vero e proprio. Lo strumento risulta, infatti, meno maneggevole di una macchina fotografica ed è inoltre vincolato a un utilizzo su un piano d’appoggio stabile. Questo fatto impone di pianificare attentamente le scansioni prima di passare alla fase operativa vera e propria (almeno nei casi in cui non sia possibile muovere l’oggetto da documentare e sia quindi necessario spostare lo scanner per evitare zone d’ombra). L’utilizzo di un normale
cavalletto per attrezzatura fotografica può comunque aiutare qualora si debba fissare lo
scanner in posizioni angolate. In queste situazioni limite è, inoltre, consigliabile utilizzare il software MeshLab per l’elaborazione dei modelli e l’allineamento delle diverse nuvole di punti prodotti, in quanto più performante di ScanStudio, il programma a codice chiuso fornito con lo scanner.
Un altro limite dello strumento riguarda invece le dimensioni degli oggetti da documentare, che possono essere scansionati in modalità Macro (coprendo un’area di 129×96
mm) oppure Wide (con un’area di rilievo di 345×256 mm). Anche in questo caso è possibile però ovviare al problema, producendo più scansioni (spostando lo strumento o l’oggetto da rilevare) e assemblandole poi in post-processing. Viste le ridotte dimensioni del
campione utilizzato durante i test, non si è manifestata tuttavia la necessità di operare
accorgimenti particolari e, anzi, tramite una semplice procedura standard, si è ottenuto un
ottimo modello tridimensionale.
Nel suo complesso, dunque, lo scanner Next Engine si è rivelato uno strumento
molto performante. Veloce e accurato, al momento rappresenta probabilmente la migliore
soluzione per un utilizzo professionale, specialmente in presenza di grandi quantità di
reperti da documentare. Per quanto riguarda i suoi punti deboli, invece, al di là della già
citata scarsa versatilità (che ne limita di fatto l’uso al solo campo dei reperti), va aggiunto il costo. Rispetto, infatti, alle alternative legate alla Structure from Motion, che per
Photosynth come per Bundler non prevedono costi di alcun genere (se non quelli dovuti
all’acquisto di una normale fotocamera), la spesa complessiva per lo scanner Next Engine
si aggira sui 5000 $, tra hardware e software.
4.4. Three Phase Scan
Vista la mancanza di soluzioni open source in grado di competere con un prodotto
professionale come lo scanner Next Engine, si è deciso, come è stato già anticipato, di
condurre i test su un apparecchio a codice aperto appartenente a una diversa categoria di
sensori ottici e, più precisamente, alla famiglia degli scanner a luce strutturata. Il progetto selezionato si chiama Three Phase Scan ed è composto da un hardware molto semplice. In sostanza è sufficiente un proiettore di qualsiasi genere e un dispositivo CCD (nel
nostro caso abbiamo utilizzato un microproiettore e una webcam, per una spesa complessiva di 150 $). La parte software è invece leggermente più articolata ed è formata da un
gruppo di programmi rilasciati sotto varie licenze aperte. Nello specifico è necessario: il
decoder Structured-light (New BSD License), che lavora all’interno dell’ambiente di sviluppo Processing (GNU GPL); l’applicazione PeasyCam (Apache Public License 2.0), per
fornire, all’interno dello stesso ambiente, una finestra di visualizzazione delle nuvole di
punti; la libreria di controllo ControlP5 (GNU Lesser GPL), in grado visualizzare un’interfaccia per applicare alcuni filtri e modificare i parametri principali dei modelli.
Il funzionamento del sistema è abbastanza semplice e praticamente immediato: il
videoproiettore illumina con tre diversi pattern l’oggetto da scannerizzare, mentre la
camera registra le tre corrispettive immagini. A questo punto il software elabora le foto e
ricostruisce una nuvola di punti, cui si possono applicare alcuni filtri standard, oltre a
modificare dei parametri nel tentativo di ottenere un modello il più realistico possibile.
Da un punto di vista strettamente tecnico, i risultati ottenuti con questo metodo non
sono stati soddisfacenti, probabilmente per le ridotte dimensioni dell’oggetto documentato (4 cm circa) e per la scarsa qualità delle immagini registrate dalla webcam (il sistema
non sembra comunque in grado di reggere immagini a più alta risoluzione, evidentemente per limiti legati alla componente software). Inoltre, durante l’intero procedimento l’accuratezza del prodotto finale è delegata in maniera eccessiva all’esperienza dell’operatore che deve saper regolare i parametri in maniera corretta e applicare i filtri giusti all’interno del software di controllo. Infine all’interno del modello sono comparsi degli errori
spiegabili solo da un punto di vista di malfunzionamento del software durante la fase di
riconoscimento ottico. Tali errori nell’ambito dei test da noi effettuati, si sono concentrati nell’area delle braccia della statuetta utilizzata (fig. 13), ma sono stati riscontrati anche
nei modelli prodotti utilizzando le immagini campione allegate al programma structuredlight.
Ciononostante il Three Phase Scan presenta qualche lato positivo, soprattutto considerando la rapidità con cui si ottiene un modello tridimensionale. Purtroppo però ciò non
è sufficiente a controbilanciare la scarsa precisione e densità della nuvola di punti prodotta; anzi ulteriori problemi, in fase di mesh processing, sono causati dall’estrema regolarità nella disposizione dei punti rilevati all’interno della nuvola stessa (probabilmente dovuta alla regolarità dei pattern proiettati.
13. I risultati di
Three Phase
Scan.
149
14. Scavo presso
la Chiesa di S.
Andrea in Storo
(TN).
In definitiva, al momento, il progetto non sembra adatto a un uso professionale nella
documentazione dei reperti. Maggiori potenzialità, vista la rapidità del work-flow, sembra
presentare nel campo della modellazione 3D per le ricostruzioni archeologiche, in quanto
sarebbe in grado di fornire in tempi brevi dei modelli su cui lavorare. Tuttavia vi sono
anche in questo caso ampi margini di miglioramento, soprattutto per quel che riguarda la
componente software.
5. Considerazioni finali
In base ai test effettuati, lo strumento migliore per il rilievo tridimensionale dei
reperti archeologici è risultato essere lo scanner Next Engine, almeno per quanto riguarda la velocità del flusso di lavoro complessivo e la risoluzione dei modelli ottenuti. Queste
caratteristiche fanno sì che tale sistema si configuri come la soluzione ideale per tutti quei
progetti in cui vi è la necessità di registrare una grande quantità di dati in tempi ristretti e,
di fatto, la sua efficacia è, ad esempio, dimostrata dal suo utilizzo nell’ambito della creazione del Pottery Informatics Database5 del CISA3 (Center of Interdisciplinary Science for
Art, Architecture and Archaeology) del California Institute for Telecommunications and
Information Technology.
Considerando, però, anche la variabile del prezzo, le proposte migliori, anche se
dispendiose in termini di tempo, appaiono essere le tecniche che si basano sulla combinazione di software di Structure from Motion di Dense Stereo Matching, che, a fronte di una
spesa complessiva pari a zero, restituiscono modelli virtuali molto accurati e assolutamente accettabili da un punto di vista archeologico; la risoluzione è spesso paragonabile
a quella degli scanner a tempo di volo e in ogni caso implementabile mediante l’uso di
ottiche macro6. L’estrema versatilità della suite di software di PPT rappresenta, inoltre, un
ottimo strumento da utilizzare nei casi più difficili, come le missioni all’estero (fig. 16), le
situazioni di emergenza (magari caratterizzate da condizioni di luce non ottimali e tempi
ristretti nell’acquisizione) (fig. 17), l’archeologia subacquea (fig. 15) e le documentazioni
tramite dispositivi di remote sensing (ad esempio, UAVP, fig. 14).
5
6
150
http://cisa3.calit2.net/arch/research/digitalpotery.php
HERMON et alii c.s.
Concludendo, si può affermare che la documentazione tridimensionale dei reperti è
orami una tecnica applicabile in archeologia a qualsiasi livello, grazie al basso costo e alla
relativa semplicità delle tecnologie necessarie. I risultati sono soddisfacenti e assolutamente adatti ai bisogni di ricerca della disciplina. Sotto molti punti di vista i modelli digitali tridimensionali sono in grado di veicolare le informazioni relative a un reperto in
maniera molto più efficace di quanto non si possa fare attualmente col disegno archeologico, e questo non solo per la precisione del rilievo (scevro da errori umani ed eccessive
distorsioni) ma anche per la velocità con cui possono essere trasmessi i dati e duplicati in
rete. Inoltre i rilievi tridimensionali rappresentano delle riproduzioni più oggettive rispetto al disegno manuale, in quanto non sono generalmente influenzate dall’interpretazione
dell’autore, né sono percepibili in esse le influenze stilistiche della mano di chi le ha prodotte. Non va, inoltre, sottovalutata la possibilità di ottenere in maniera automatica o semiautomatica dei disegni archeologici più aderenti alla realtà e codificati secondo le convenzioni normalmente accettate, proprio partendo da modelli digitali tridimensionali.
15. Rilievo SfM
subacqueo (foto
di Viktor Jansa,
elaborazione
Arc-Team).
16. Scavo di
Khovle Gora in
Georgia. Esempio
di rilievo SfM
durante una
missione all’estero
(Scavo Università
di Innsbruck e
Università Statale
di Tiblilisi, rilievo
Arc-Team).
17. Rilievo SfM in
situazione
estrema dovuta a
cattive condizioni
di illuminazione,
presso il Museo
Egizio di Torino
(rilievo sperimentale operato da
Luca Bezzi per
gentile concessione della
Fondazione
Museo delle
Antichità Egizie di
Torino).
151
Abbreviazioni bibliografiche
ARCHEOFOSS 2010
ARCHEOFOSS Open Source, Free Software e Open
Format nei processi di ricerca archeologica, Atti del
V Workshop, G. De Felice, M. G. Sibilano (edd.),
Foggia 2010.
BEZZI et alii 2010 a
A. Bezzi - L. Bezzi - S. Cavalieri, Proposta per un
metodo informatizzato di disegno archeologico, in
ARCHEOFOSS 2010, 113-123.
BEZZI et alii 2010 b
A. Bezzi - L. Bezzi - B. Ducke, Computer Vision e
Structure From Motion, nuove metodologie per la
documentazione archeologica tridimensionale: un
approccio aperto, in ARCHEOFOSS 2010, 103-111.
HERMON et alii c.s.
S. Hermon - D. Pilides - N. Amico - A. D’Andrea - G.
Iannone - M. Chamberlain, Arch3D and LaserScanner. A comparison of two alternate technologies
for 3D data acquisition, 38th Computer Application
in Archaeology, Granada 2010, c.s.
TRUPPIA 2007
L. Truppia, Scansioni di oggetti 3D: guida metodologica e casi di studio, Tesi di Laurea, G. Gallo, G.
Impoco (edd.), Università degli Studi di Catania, a.a.
2007.
Referenze iconografiche
Archivio Fotografico Arc-Team: figg. 2, 5-17.
Archivio Fotografico Soprintendenza per i Beni
Librari Archivistici e Archeologici di Trento: fig. 14.
Archivio Fotografico TUWA (Tauchverein für
Unterwasserarchäologie): fig. 15.
Archivio Fotografico Università di Innsbruck: fig.
16.
Archivio Fotografico Università di Lund: figg. 10,
12.
Sito ufficiale Microsoft hardware: fig. 5.
Sito ufficiale di Microsoft Photosynth: fig. 1.
Sito ufficiale di Next Engine: figg. 3-4.
Sito ufficiale di Optoma: fig. 5.
Luca Bezzi
Arc-Team.
[email protected]
Nicolò Dell’Unto
Lund University. Department of Archaeology and
Ancient History.
[email protected]
152
Pier Moulon
Alessandro Bezzi
Python Photogrammetry Toolbox:
a free solution for ThreeDimensional Documentation
Abstract
The modern techniques of Structure from Motion (SfM) and Image-Based Modelling (IBM) open new
perspectives in the field of archaeological documentation, providing a simple and accurate way to record
three-dimensional data. In the last edition of the workshop, the presentation “Computer Vision and Structure
from Motion, new methodologies in archaeological three-dimensional documentation. An open source
approach.” showed the advantages of this new methodology (low cost, portability, versatility), but it also identified some problems: the use of the closed feature detector SIFT source code and the necessity of a simplification of the workflow.
The software Python Photogrammetry Toolbox (PPT) is a possible solution to solve these problems.
It is composed of python scripts that automate the different steps of the workflow. The entire process is
reduced in two commands, calibration and dense reconstruction. The user can run it from a graphical interface
or from terminal command. Calibration is performed with Bundler while dense reconstruction is done through
CMVS/PMVS. Despite the automation, the user can control the final result choosing two initial parameters:
the image size and the feature detector. Acting on the first parameter determines a reduction of the computation time and a decreasing density of the point cloud. Acting on the feature detector influences the final result:
PPT can work both with SIFT (patent of the University of British Columbia - freely usable only for research
purpose) and with VLFEAT (released under GPL v.2 license). The use of VLFEAT ensures a more accurate
result, though it increases the time of calculation.
Python Photogrammetry Toolbox, released under GPL v.3 license, is a classical example of FLOSS
project in which instruments and knowledge are shared. The community works for the development of the
1
software, sharing code modification, feed-backs and bug-checking .
1. Introduction
3D Digital copy can be done by various technology, laser (ground), lidar (aerial),
structured light, photogrammetry. They have their pros and cons. Laser and Lidar are
accurate (millimeter precision) but expensive, even in rental agency, and their use requires
formation. Photogrammetry is more and more accessible with the recent progress in electronics that make compact digital camera cheaper but less precise (centimeter precision).
Photogrammetry with consumer camera does not reach the same performance as the laser
but is accessible to anybody. Today Computer Vision algorithms are mature to be used by
non technical users. It’s a very active research domain and a lot of progress have been
done in the last decade. Such progress are visible with web-service like the Microsoft
1
This work have been made possible due to many individual Open-Source initiative. We thanks particularly Noah
Snavely for Bundler sources, Yasutaka Furukawa for CMVS/PMVS sources and Vladimir Elistratov for the osmbundler initiative.
153
Photosynth Project2.
Our objective consist in providing a tool-chain in order to make 3D digital copy
easy. This tool-chain should be Free, Open Source and Cross-Platform to be accessible
without constraint. Our pipeline draws largely from existing solution that have proven to
be functional and adequate.
2. Related Work
The reconstruction of a scene captured from different viewpoints by a set of 2D
images is a computer vision problem that have been studied for decades. Such 3D reconstructions are able to describe the structure (3D points) of the scene and the configuration
(motion) of the camera for the registered pictures.
The 3D reconstruction problem could be decomposed into three main steps:
1. Correspondences between pairs of images are found and 3D configuration of
image pairs is estimated (estimation of relative camera pose);
2. The two-view geometries are fused in a common coordinates system (estimation
of global camera pose);
3. Having a complete camera calibration, a homogeneous dense model of the scene
surfaces is computed using all images.
While the two-view camera calibration is a well-studied problem, the multi-view
camera calibration remains a challenging task. This multi-view calibration is crucial as it
will determine the precision of the scene reconstruction and the quality of the resulting
dense 3D model.
The most impressive progress in SfM and MVS make possible to compute a 3D representation of a city from web pictures3, with aerial or ground images. But only a few free
or open solution exists. Recent research gave birth to companies that have efficient products such as Pix4d4 and Acute3D5.
A short history 3D reconstruction from pictures starts with project like Façade6,
Canoma7 and PhotoModeler8 that use corresponding points selected by the user in various
pictures to determine the 3D position of cameras and thus provide the user with an interface to model the pictured scene by hand . The process was long and required a lot of
expertise. Progress in image matching and wide baseline matching allows now to determine the correspondences automatically thanks to contributions like SIFT9 or SURF10.
In recent years, a lot of commercial products and web services make 3D reconstruction more accessible but computed 3D data are not always provided to the users. The
main example is Photosynth. It only provides a 3D visualization service to travel through
the set of photos but 3D data cannot be used for your own purpose. The web service uses
the cloud as a storage and computational platform, so the pictures and computed data
usage are not under your control. Some web services are free (ARC3D11 or CMP SFM
2
http://photosynth.net.
AGARWAL et alii 2009; FRAHM et alii 2010.
4
http://www.pix4d.com/
5
http://www.acute3d.com/
6
http://ict.debevec.org/~debevec/Research/
7
http://www.canoma.com/
8
http://www.photomodeler.com/
9
LOWE 2004.
10
BAY et alii 2008.
11
http://homes.esat.kuleuven.be/~visit3d/webservice/v2/
3
154
WebService12) but again they use a cloud for computation so there is no control over data
(pictures) usage.
1. Structure from
Motion/ImageBased Modeling's
standard workflow.
Thanks to the emergence of Open Source frameworks (Bundler13, CMVS/PMVS14)
that perform multi-view calibration and dense 3D point cloud computation, we aim to
develop a free and easy to use pipeline in order to make 3D digital copy easy. We provide
the user a self-contained solution that gives him control on the whole data flow. As pictures are under user’s property we chose a user-side pipeline. The main drawback of our
approach is that computation speed depends from user’s computer. It could have some
drawbacks for large scenes or large images but a compromise between performance and
quality can be done by reducing image size dynamically in the toolbox.
3. 3D from pictures, the basis
Building 3D “model” from pictures consists in recovering 3D camera positions
related to pictures and 3D positions of particular content of the images. It is done by identifying similar content between N views and solve 3D geometry problems. User input consists of an image collection and camera parameters. The computed output is a set of 3D
camera positions and 3D points (fig. 1).
3D from pictures is an active research domain that rely on Computer Vision and
more specifically, Image retrieval/matching, Structure from Motion (SfM) and Multiple
View Stereovision (MVS).
- Image matching finds common local sub-image between two pictures.
- Structure from Motion estimates the relative camera position from anchor points
computed at the previous step.
- Multiple View Stereovision estimate a dense representation of the 3D model
(Dense point cloud).
3.1. Matching
Image matching identifies pictures that can be used to compute the relative orientation of 2 cameras and thus to calibrate a network of images. This process of image mat-
12
http://ptak.felk.cvut.cz/sfmservice/
SNAVELY et alii 2008.
14
FURUKAWA 2010.
13
155
2. Three steps of
Image Matching
and final
geometric graph.
ching is performed in 3 steps:
1. compute local content on each image (Feature and Descriptor computation, for
instance SIFT);
2. find putative matches between two pictures (find the nearest descriptor in the
other image of the pairs);
3. check the geometry of the putative matches (Epipolar geometry).
Once the image matching between all possible pairs is performed, a geometric
graph is built (fig. 2). An edge is added if a geometric connection exists between two pictures.
3.2. Pose estimation
Camera pose estimation finds the camera positions by solving the relative pose estimation problem. Relative pose estimation consists in estimating a rigid motion between
two cameras, a rotation R and a translation T (fig. 3). This relative geometry between two
views is faithfully described by an “Essential” matrix15.
This Essential 3×3 matrix relates corresponding points in stereo images assuming
that the cameras satisfy the pinhole camera model. This E matrix could be computed from
8 points with a linear method or with 5 points16. The 5 points method is preferred because
it is the minimal case and it allows to add more constraint on the estimated matrix and so
provides more accurate results. The image matching step is thus crucial: the more common points we get between pictures, the more accurate we can estimate image positions.
The position of a camera can also be computed from correspondences between 3D
points and corresponding projections in the image plane. This 3D-2D correspondence
problem is known as Resection (fig. 4). It consists in estimating Pi (rotation, translation
and internal parameters of the camera) with a ray constraint geometry. It finds the Pi configuration that minimize the re-projection errors between the rays passing through optical
camera center to 3D points and the 2d image plane coordinates. Once two cameras are
related with an Essential matrix and 3D points X are build, we can add incrementally new
camera to the scene by using successive resection.
Based on those computations (Essential, Resection) we can perform Incremental
Structure from Motion. It’s the algorithm that is implemented in the 3D calibration software we use (Bundler).
15
16
156
http://en.wikipedia.org/wiki/Essential_matrix
NISTER 2004.
3. Essential
matrix E.
4. Resection.
3.3. Incremental Structure from Motion
Bundler is one of the state-of-the-art implementation of incremental SfM. It takes
as input an image series and camera information (like focal values extracted from Exif jpg
data and CCD sensor size available on camera manufacturer website or dpreview.com).
From an initial image network, Bundler chooses a pair of images, computes the relative pose with the Essential Matrix and try to add incrementally the remaining images in
the 3D scene by using successive resections. In order to avoid incremental error, bundle
adjustments17 is used to refine non linearly the estimated camera parameters and 3D point
positions, and thus reduce the error across computed data whose size is growing.
17
http://en.wikipedia.org/wiki/Bundle_adjustment
157
This pseudo algorithm can be pictured as in fig. 5:
5. Bundler’s
workflow.
Input:
▪ image network of geometrically coherent pictures;
▪ internal camera parameters (Focal length, CCD sensor size).
Output:
▪ camera position;
▪ sparse point cloud.
Bundler suffers from some defaults. It’s code is not very clean and sometimes the
3D reconstruction fails due to drift error. But it has the advantage of being nearly the only
Open-Source viable solution over internet with such performance. Recent community initiative like the libmv project18 is a prelude to a cleaner implementation of “Bundler
clones”. This bricks could be replaced in the tool-chain in a near future.
3.4. Multiple View Stereovision
Multiple View Stereovision (MVS) consists in mapping image pixel to 3D points
fcposes, (images point cloud). This dense representation can be a dense point cloud or a
dense mesh. In order to find a 3D position for each corresponding pixel of the image
sequence, MVS uses multiple images to reduce ambiguities and estimate accurate content
(fig. 6).
One of the interesting state-of-the-art method is the Patch approach called PMVS
(Patch MultiView Stereo)19. It is based on a seed growing strategy. It finds corresponding
patches between images and locally expands the region by an iterative expansion and fil-
18
19
158
http://code.google.com/p/libmv/
FURUKAWA 2010.
tering steps in order to remove bad correspondences (fig. 7). Such an approach finds additional correspondences that were rejected or not found at the image matching phase step.
Fig. 8 shows benefit of using PMVS (empty 3D zones correspond to poorly textured
or too ambiguous image zones):
4. The Python Photogrammetry Toolbox
20
The Python Photogrammetry Toolbox (PPT) implements a pipeline to perform 3D
reconstruction from a set of pictures. Its design follows the classic reconstruction process.
It takes pictures as input and performs automatically the 3D reconstruction for the images
for which 3D registration is possible. PPT hides from the user the boring task of data conversion and files listing that are required to communicate through the various software
components of the chain. Open Source software has been chosen to perform the intensive
computational parts of the reconstruction pipeline: Bundler for the camera pose estimation
and CMVS/PMVS for the dense point cloud computation.
20
6. Multiple View
Stereovision
(MVS) allows to
convert image
pixel to 3D points
starting fcposes,
photos point
cloud.
7. Initial seed
(left), patch
expansion
(middle) and
problem
parametrization
(right).
Source code is accessible from http://code.google.com/p/osm-bundler/
159
8. Bundler result
(calibration) on
the left and
PMVS result
(dense point
cloud) on the
right.
Initially Bundler and CMVS/PMVS are provided with some shell scripts that automates launching tasks, but one of the main drawback of shell is that it is not cross-platform. It cannot be used under Windows. Compilation of those software are not managed
through the same basic interface (Makefile on Linux and vcproj on Windows) and so
requires double maintenance for smooth compilation on both platform. Design choices in
PPT make it cross-platform:
▫ it uses Python21 as a cross-platform script language to handle communication and
software launching operations. It handles all the tasks that are required for our purpose
(directory listing, file listing, images conversion, Exif reading, Sqlite database management);
▫ it uses Cmake22 for the compilation configuration of the chosen code-that is available under the Open Source Photogrammetry code repository23.
PPT provides a tool-chain that is easier to maintain and use than the previous
approaches. It defines a clear pipeline to handle 3D reconstruction. This pipeline is
designed as python module with a High Level API in order to be extensible in the future.
It results in a 3-level application: Interface, Python modules and Software.
A graphic wrapper has been developed to hide the command-line calls that are
required to use the chain through python modules. It provides a 2-step reconstruction
workflow.
The multi-level application makes maintenance easier. Each bottom module can be
updated as long it respects the designed High Level API. This makes the interface easily
extensible. For example the python wrapper uses a design pattern interface in order to
have various feature detection/description algorithm for the image matching step (the user
can use the David Lowe SIFT24 or the Open Source implementation VLFEAT25).
Data workflow is organized in a temp directory created at the beginning of the
process. All the required data to process the 3D reconstruction is located in this directory.
Data is updated by the different element of the tool-chain and showed at the end to the user
via a directory pop-up. The main workflow is illustrated in fig. 9. It’s interesting to take a
21
http://www.python.org/
http://www.cmake.org/
23
https://github.com/TheFrenchLeaf
24
http://www.cs.ubc.ca/~lowe/keypoints/
25
http://www.vlfeat.org/
22
160
closer look to the 2-step process workflow (RunBundler and RunCMVS) to better see the
job of the python scripts.
RunBundler (fig. 10) performs the camera calibration step. It computes the 3D camera pose from a set of images with corresponding “camera model”/”CCD width size”
embedded in a Sqlite database. In fig. 10, orange coloured items (bottom squares) are the
created files. We recognize image matching tools (sift, matchFull) and the 3D pose estimation software (Bundler).
RunCMVS (fig. 11) takes as input the images collection, cameras poses and perform the dense 3D point cloud computation. Data conversion from Bundler format to
CMVS/PMVS format is done by using Bundle2PMVS and RadialUndistort. Dense computation is done by PMVS as well as CMVS, that is an optional process to divide the input
scene in many smaller instances to make the process of dense reconstruction faster.
9. Python
Photogrammetry
Toolbox pipeline.
10. RunBundler
pipeline.
161
11. RunCMVS
pipeline.
12. Python
Photogrammetry
Toolbox GUI.
PPT-Gui (fig. 12) is the graphical interface to interact easily with the photogrammetry toolbox26. The GUI part is powered by PyQt427, a multi-platform gui manager. The
interface is designed in two different parts: a main window composed by numbered panels which allows the user to understand the steps to perform, and a terminal window in
which the process is running. The GUI is deliberately simple and it is build for people who
are not familiar with command-line scripts. The four panels lead the user to the end of the
process through only two steps: Run Bundler (panel 1) and Run CMVS\PMVS (panel 2).
Running CMVS before PMVS is highly recommended, but not strictly necessary: there is
also the possibility to use directly PMVS (panel 3). Panel 4 provides a fast solution to integrate the SQL database with the CCD width (mm) of the camera, without using external
software.
26
27
162
Source code is accessible from https://github.com/archeos/ppt-gui/.
http://wiki.python.org/moin/PyQt4
5. Application
Archaeological field activity is mainly a working process which ends, in most
cases, with the complete destruction of the site. Usually a ground layer is excavated to
investigate the underlying level. In the lack of particular expensive equipment (laserscanner, calibrated camera) or software (photogrammetric applications), field documentation
is composed by pictures (digital or films), manual drawings, total station measurements
and bi-dimensional photo-mosaics. At best all the data are connected together inside a
Geographical Information System (GIS).
The last years’ progresses of Computer Vision open new perspectives, giving to
everybody the possibility to record three-dimensional data. The benefits of this technique
are different:
▪ it is a software-based technology in continuous development (data analysed today
could be processed in future ending in better results);
▪ it is well represented by Free and Open Source solutions;
▪ it needs only the equipment which is normally used in an excavation (digital camera and total station);
▪ easily portable hardware components allow archaeologists to work under critical
or extreme conditions (e.g. in high mountain, underwater or inside a cave);
▪ the flexibility of this technique facilitates the documentation of a wide range of
situations.
13. Mesh of an
archaeological
layer in Georgia.
The next chapters introduce some examples of application in different scales: from
macro (layers, structure) to micro (finds).
5.1. Layers
Normally archaeological layers are documented using photomapping techniques, a
bi-dimensional projection of reality which produces rectified images starting from zenith
pictures and ground control points (GCP). Using the same instruments (digital camera and
total station) it is possible to record also the morphology of the level (figg. 13-14). The
163
14. Stratigraphy
(both vertical and
horizontal) of an
archaeological
trench.
data acquisition is fast and simple: it consists exclusively in taking pictures of the area of
interest (both horizontal surfaces and vertical sections) paying attention to include at least
four measured marks, which will be used in data processing to georeference the final
model. The same rules of the traditional photography are to be followed: centre the desired
object in each picture, avoid extreme contrast shadow/sun, use a tripod in low-light condition.
There are no limits around the number of images: it depends on the complexity of
the surface and on the power of the hardware (RAM) which will process the data.
5.2. Architectonic Structure
This technique is particularly indicated for architectonic monuments (figg. 15-16).
In this case the main difficulty is to cover the whole object with a good photo set, in order
to avoid holes in the final mesh. Most of the time it is possible to solve logistical problems
related to the complexity of the structure, using specific hardware like telephoto lenses or
remote sensing devices (UAV).
164
15. Dense point
clouds of the
Mausoleum of
Theodoric in
Ravenna.
16. Inside the
Mausoleum of
Theodoric in
Ravenna.
165
17. Mesh of an
ancient vase
documented in
situ.
5.3 Finds (artefacts and ecofacts)
Archaeological finds can be documented in situ, taking pictures moving around the
object (fig. 17), or in laboratory using a turntable and a black background (fig. 18). In this
last case the position of the camera during data acquisition is fixed, but will be split in
more poses during data processing (fig. 19). Good results were reached taking a picture
each 10 degrees, 36 photos for a complete revolution of the object. It is possible to use
macros to obtain model of a small artefact.
5.4. 3D-data recovering from old or historical photo sets
One the most interesting approaches of SfM is the ability to extract three-dimensional information from old or even historical photographs taken by amateurs for other
purposes. The critical point of this application is to reach the minimal number of images
needed to start the reconstruction process (3). It is much easier to find an appropriate photographic documentation since digital cameras have become a widespread phenomenon
166
18. 3D model of a
loom weight
documented in
laboratory.
19. Dense point
clouds of a
human skull (left)
extracted from
pictures taken by
a fix camera and
“false” viewpoints
(right). The object
was rotating
using a turntable.
167
20. Sparse point
clouds of a
ancient vase
obtained from
pictures taken by
amateurs for
other purposes.
(figg. 20-21). If a monument in the present is not longer in his original conservation status or even completely destroyed (e.g. the Banyan Buddhas), Computer Vision is a valid
method to recover the original morphology.
6. Conclusion
Python Photogrammetry Toolbox (PPT) is an user-friendly application to perform
3D digital copies of pictured scenes. It provides a low-cost, portable solution that opens a
direct access to Structure from Motion (SfM) and Image-Based Modelling (IBM) to every
owner of a consumer camera. It opens particularly interesting perspective in the field of
archaeological documentation due to the fact that a reflex camera is much cheaper than a
laser scanner. A possible drawback of the current solution is that it uses a feature detector/descriptor for image matching (SIFT algorithm) that is under Patent in the USA. A
rewritten and optimized version of SIFT is included inside VLFeat (an Open and Portable
Library of Computer Vision Algorithms, released under GPL v. 2). This can’t completely
solve the license problem but most of the users are aware of those constraints.
A direct comparison between SfM/IBM and hardware technology (laser scan) or
other photogrammetric applications is certainly possible, but it is not the objective of this
168
article. All these techniques are different in their approach, but they lead to similar results.
The choice of one of these methods depends on various factors: environmental characteristics of the site, economic budget of the project and technical skills of the staff. Anyway
SfM/IBM is able to satisfy some of the basic needs of a typical archaeological project: the
reduction of costs related to equipment, a fast and simple data collection process and a
low-interactive and easy data processing. For these reasons SfM/IBM is a viable alternative to more expensive (laserscan) or more technically complex (stereo-photogrammetric
restitution) methods. From an archaeological point of view, the final intent is to acquire
three-dimensional morphology of the layers that the excavation irreparably destroyed and
to create a virtual copy of the archaeological record to allow continuous monitoring and
further analysis. The good results achieved in a such fast way can be used to extract 3D
volume (voxel) of each stratigraphic level, applying free software like GRASS, Blender
and ParaView28.
PPT is an open source solution, that make 3D reconstruction from images easier, in
which user contribution will produce benefit for all the community. It is an example of
how the combination of FLOSS projects can contribute to scientific and methodological
progress. The future implementation will consider multi-thread computation, performance
improvement and functionality addition.
28
21. Morphology
of a wall surface
extracted from
photos taken in
2005, three years
before the
release of
Bundler 0.1.
BEZZI 2006.
169
Abbreviazioni bibliografiche
http://imagine.enpc.fr http://mikrosimage.eu
[email protected]
AGARWAL et alii 2009
S. Agarwal - N. Snavely - I. Simon - S. M. Seitz - R.
Szeliski, Building Rome in a day, in ICCV, 2009, 7279.
Alessandro Bezzi
Arc-Team s.n.c.
http://www.arc-team.com/
[email protected]
BAY et alii 2008
H. Bay - A. Ess - T. Tuytelaars - L. Van Gool, SURF:
Speeded Up Robust Features, in CVIU, 2008, 346359.
BEZZI 2006
A. Bezzi - L. Bezzi - D. Francisci - R. Gietl, L’utilizzo
di voxel in campo archeologico, in Geomatic
Workbooks, 6, 2006.
FRAHM et alii 2010
J. M. Frahm - P. Georgel - D. Gallup - T. Johnson - R.
Raguram - C. Wu - Y. H. Jen - E. Dunn - B. Clipp S. Lazebnik, Building Rome on a Cloudless Day, in
ECCV, 2010, 368-381.
FURUKAWA 2010
Y. Furukawa - B. Curless - S. M. Seitz - R. Szeliski,
Towards Internet-scale multi-view stereo, in CVPR,
2010, 1434-1441.
LOWE 2004
D. G. Lowe, Distinctive image features from scaleinvariant keypoints, in IJCV, 2004, 91-110.
NISTER 2004
D. Nister, An Efficient Solution to the Five-Point
Relative Pose Problem, in IEEE Trans. Pattern Anal.
Mach. Intell., 2004, 756-777.
SNAVELY et alii 2008
N. Snavely - S. M. Seitz - R. Szeliski, Modeling the
World from Internet Photo Collections, in IJCV,
2008, 189-210.
Referenze iconografiche
Autori: figg. 1-12.
Institut fuer Alte Geschichte und Altorientalistik.
University of Innsbruck (S. Heinsch, W. Kuntner):
figg. 13, 20.
Soprintendenza per i beni archeologici del Friuli
Venezia Giulia (M. Frassine): figg. 14, 17.
Soprintendenza per i beni librari, archivistici e
archeologici della Provincia Autonoma di Trento (N.
Pisu): figg. 18-19, 21.
University of Udine (S. Marchi): figg. 15-16.
Pierre Moulon
IMAGINE/LIGM, University Paris Est & Mikros
Image.
170
Micaela Spigarolo
Antonella Guidazzoli
Open Source e ricostruzione
archeologica: l’esperienza del
Cineca per il progetto Museo della
Città
Abstract
This paper presents the almost entirely Open Source pipeline developed at Cineca in order to address
the challenge of employing three-dimensional philologically accurate reconstructions (in part coming from
previous projects made by Cineca with the University, CNR ITABC, the cultural department of Bologna City
Council and civic museums) as sets in a 3D stereoscopic film whose aim is relating the history of Bologna.
In 2009 Cineca was involved in the Genus Bononiae (www.genusbononiae.it) Musei nella Città cultural project, which has restored and opened to public several historical buildings in the centre of Bologna in
order to define an integrated walk among these sites. The Cineca MDC Project developed a film whose concept is the big Bang of the history of Bologna and which is now part of the museum itinerary in Palazzo
Pepoli, i.e. the ancient building dedicated to the history of the city, and displayed in the immersion room especially designed for it by Cineca. The aim is to take advantage of computer-based visualization methods to deliver information (culture) minimizing cognitive overload («visual is explained by visual», i.e. visual entities
can be better explained by visual tools).
This aim of the film actually raised a twofold challenge concerning both communicational and implementation issues. From a communicational point of view, the film enables a philological approach within an
emotional/narrative process. The implementation challenge was not only related to finding the most suitable
software for a traditional 3D film pipeline production, but had to face also the specific requirements of the
project, such as integrating the traditional pipeline production with philological constraints.
Open Source provided the most suitable tools to manage such a complex project, first of all Blender.
The Open Source peculiar capability of exporting their output into a wide range of different file format made
possible the interchange with the only proprietary software adopted (i.e. City Engine) in our Open pipeline.
Furthermore, the Open Source model as «a set of heuristics about how to encourage participation and innovation» (O’Reilly, www.oreillynet.com/lpt/wlg/3017), enhanced a community actively engaged in the process
(Cineca’s partners for this work are Spark Digital - www.sparkde.com, which has already produced short
movies with the software Blender, and Lilliwood - www.lilliwood.eu, as the 3D stereography supervisor).
As a result, this real production pipeline has been considered as a Blender Open Project, i.e. as a chance to study, in a real workflow production, requirements interesting for virtual heritage projects in general
terms. For instance, a modeling approach which enhances reusability for 3D reconstructions. This made, as
well, the MDC project a case-study for V-MusT.Net, the European Network of Excellence dedicated to Virtual
Museums (www.V-MusT.net)1.
1. Introduzione
Le possibilità offerte dall’ICT e il diffondersi di tecnologia COTS (Commodity Off
the Shelf) aprono oggi nuove opportunità per la divulgazione e la fruizione di Cultural
1
Si ringrazia il dott. D. De Luca per il contributo alla stesura dei paragrafi 4 e 5 a partire dal suo impegno nel progetto MDC
che si è formalizzato nella tesi di Laurea Magistrale in Scienze di Internet discussa nel 2011 presso l’Ateneo di Bologna.
171
Heritage (CH). Se da una parte l’interattività, come peculiarità del mezzo, determina per
l’utente la possibilità di essere reso protagonista di una personale esperienza, lo strumento digitale ha introdotto una nuova logica del database2 nell’accesso all’informazione. Si
aprono così nuove vie di condivisione del sapere secondo un modello sempre più affine a
quello di produzione e distribuzione del software open source: creazione di community di
sviluppo e libera partecipazione da parte dei singoli, diminuzione dei tempi di accesso ai
risultati, condivisione in forma di oggetti del sapere, sviluppo del software cablato sulle
reali esigenze determinate da una community.
In questo processo di passaggio dal filologico all’emozionale e al tempo stesso di
democratizzazione dell’opera d’arte, la modellazione 3D funge da ponte tra divulgazione
e studio. Essa agevola la comprensione del messaggio collegato a ciascuna opera d’arte in
quanto segno3 e al tempo stesso si rende oggetto di scambio per gli addetti ai lavori, avvalendosi del principio per cui «il visivo si spiega da solo» (ovvero, tutto ciò che è visivo
può essere meglio spiegato da qualcosa che a sua volta sia visivo).
In questo contesto si inserisce il progetto Cineca (www.cineca.it) MDC, acronimo
per Museo della Città. Esso fa capo all’iniziativa Genus Bononiae (www.genusbononiae.it) Musei nella Città, patrocinata dalla Fondazione Cassa di Risparmio di Bologna, il
cui intento è riunire in un percorso interculturale comune (artistico e museale) alcuni edifici del centro storico di Bologna, recentemente restaurati e recuperati all’uso pubblico.
Il progetto ha impegnato un team eterogeneo (collaboratori esterni per l’animazione e la direzione della stereoscopia, nonché numerosi consulenti scientifici per la validazione dei contenuti e delle fonti storiche) nella sfida di realizzare un cortometraggio 3D
stereo che raccontasse la storia della città di Bologna a partire da modelli filologicamente
corretti, impiegati come set cinematografici in una narrazione.
L’esperienza del Cineca nella ricostruzione archeologica ha consentito di selezionare gli strumenti più adatti per affrontare quella che si è ben presto rivelata una duplice
sfida: da una parte, trasmettere correttamente il messaggio culturale intrinseco alla narrazione, dall’altra, affrontare le problematiche implementative tradizionali e insieme specifiche del progetto.
Numerose le esperienze di virtual heritage che oggi si avvalgono della modellazione 3D per determinare nuove vie di accesso e studio all’opera d’arte e di cui si è fatto portavoce il progetto europeo V-MusT.Net (www.V-MusT.net). Quello che ha reso il progetto
Cineca sui generis nel suo campo è stata l’idea di tessere intorno a queste ricostruzioni una
narrazione che fungesse da espediente per trasmettere allo spettatore il contenuto culturale, con il minimo sforzo cognitivo ma il massimo risultato in termini di apprendimento
“significativo”, nell’accezione costruttivista del termine4. Le ambientazioni assumono,
dunque, importanza pari al personaggio protagonista, l’etrusco Apa, che funge da filo conduttore del racconto e che possiede anch’esso radici filologiche. Esso è stato, infatti,
desunto dai rilievi su un’antica situla etrusca conservata presso il museo archeologico
della città (fig. 1).
Dal punto di vista implementativo, l’impegno si è principalmente declinato in due
forme: da una parte, la realizzazione della pipeline tradizionale per un cortometraggio 3D
stereoscopico, dall’altra, la gestione delle esigenze specifiche del progetto, prima tra tutte
la gestione dei vincoli introdotti dall’approccio filologico alla ricostruzione dei set. Non si
è trattato, pertanto, solo di selezionare il software più adatto per la ricostruzione delle
ambientazioni e per la loro composizione all’interno della scena (nonché integrazione con
modelli già esistenti, eredità del Cineca a partire dai numerosi progetti di virtual heritage
sviluppati nel passato), ma anche di individuare gli strumenti migliori per la cooperazione e il dialogo tra i partner di progetto e per la conseguente integrazione di strumenti software eterogenei e talvolta vincolati dalle specifiche IT di appartenenza.
2
MANOVICH 2001.
ANTINUCCI 2010.
4
JONASSEN et alii 2003.
3
172
In questo ambito, la scelta open source si è rivelata particolarmente adatta ad affrontare entrambi i contesti, introducendo, come valore aggiunto, gli strumenti per massimizzare lo sforzo del singolo a supporto del gruppo in termini di costruzione di quella architettura della partecipazione che O’Reilly individua oggi come peculiarità dell’approccio
open source, più significativa della condivisione stessa del codice
(www.oreillynet.com/lpt/wlg/3017). Per tale ragione, parallelamente al processo di produzione, sono stati sviluppati strumenti di collaborazione quali, per esempio, un blog.
Il presente articolo illustra i software più significativi che sono entrati a far parte
della filiera impiegata nel progetto MDC, evidenziando le caratteristiche che rendono ciascuno di essi idoneo a essere impiegato in una simile formula di produzione. Si tratta, dunque, di software open source, fatta eccezione per il solo caso di City Engine, software proprietario di modellazione procedurale del quale non si è potuto fare a meno poiché non esiste, al momento, alternativa open altrettanto valida. Un piccolo excursus verrà fatto a tal
proposito per mostrare come in realtà la scelta open si sia rivelata appropriata anche all’
integrazione del software proprietario all’interno di una pipeline open.
Il resto dell’articolo è strutturato come segue. Il paragrafo 2 introduce il progetto
Cineca MDC. Il paragrafo 3 fornirà le motivazioni alla scelta open source in termini generali mentre il paragrafo 4 scenderà nei particolari dell’implementazione, suddividendo la
presentazione del software in due categorie: implementazione della pipeline di produzione tradizionale di un filmato 3D (paragrafo 4.1) e gestione delle particolarità introdotte dal
progetto (paragrafo 4.2). Infine, il paragrafo 5 fornirà alcune osservazioni sul valore
aggiunto dall’impiego di software open source in termini di supporto al lavoro di gruppo.
Conclusioni e previsioni di lavoro futuro sono fornite nel paragrafo 6.
1. Concept 2D e
realizzazione 3D
del personaggio
protagonista,
l’etrusco Apa,
fuoriuscito da una
situla in una notte
di temporale.
2. Studio per la
realizzazione
della sala
immersiva per
Palazzo Pepoli,
Museo della
Città.
2. Cineca MDC Project
Il progetto Cineca MDC (Museo della Città) fa capo all’iniziativa Genus Bononiae,
Musei nella Città, patrocinata dalla Fondazione Cassa di Risparmio di Bologna, che nasce
con l’intento di restituire all’uso pubblico e riunire in un percorso interculturale comune
(artistico e museale) alcuni edifici del centro storico di Bologna recentemente restaurati o
nelle fasi finali di restauro.
In questo contesto viene chiesto al Cineca di realizzare un filmato 3D stereoscopico che racconti la storia di Bologna nelle sue tappe fondamentali; fin
da subito si decide di porlo al centro del percorso museale del palazzo che sarà dedicato appunto alla storia della città, Palazzo Pepoli
Vecchio.
Il tema del filmato viene fissato nella frase «Il big bang della
storia di Bologna» e l’importanza comunicativa attribuitagli è rinforzata dalla concomitante richiesta di progettare la sala immersiva (di
cui mostriamo in fig. 2 uno degli studi 3D di realizzazione) dedicata
alla sua proiezione.
L’esperienza ha coinvolto per circa due anni (2009-11) un
team di venti persone appartenenti a gruppi eterogenei (lo staff del
Cineca si è avvalso della collaborazione di Spark DE, www.sparkde.com/intro.html
per
l’animazione
e
di
Lilliwood,
www.lilliwood.eu, per la stereoscopia), impegnati nella realizzazione di un cortometraggio 3D stereo che raccontasse la storia della città
di Bologna a partire da modelli filologicamente corretti.
Il filmato mostra, pertanto, Bologna attraverso i secoli in base
alle ipotesi prevalenti di storici e archeologi. Si è trattato della sfida,
peraltro già altre volte raccolta dal Cineca, di ricostruire ambientazioni 3D filologicamente corrette e impiegarle come interfaccia di accesso all’informazione correlata5. In questo caso, però, il contesto applicativo si sposta da quello tradizionale (di studio) a uno intermedio tra entertainment ed edutaiment.
5
ViSMan: DIAMANTI et alii 2010.
173
3. La scelta open source
La scelta di privilegiare software open source (per quanto sia stato possibile) è frutto dell’esperienza Cineca nel campo delle ricostruzioni archeologiche. Precedenti collaborazioni con l’università6, ma anche con il CNR Itabc, il settore Cultura del comune e i
musei civici, avevano già dato modo di sperimentare i vantaggi offerti da questa tipologia
di software, tra cui ricordiamo:
- la possibilità di far fronte alle difficoltà aggiungendo le nuove funzionalità necessarie;
- l’ottima reperibilità e la buona compatibilità;
- la possibilità di fare affidamento su di una ricca community di sviluppatori.
A queste peculiarità di carattere generale, si sono aggiunte le funzionalità specifiche per affrontare le sfide del progetto. La possibilità di esportare in numerosi formati, per
esempio, unita a una buona compatibilità mantenuta dall’open source, ha consentito di
affrontare il problema della comunicazione tra software diversi. Questa possibilità ha,
infatti, permesso di integrare nella catena di produzione open anche un software proprietario come City Engine, di cui non si è potuto fare a meno poiché non esiste ancora un’alternativa open altrettanto valida. L’impiego di formati aperti garantisce, inoltre, il riutilizzo del modello nel tempo, in sintonia con le esigenze di digital preservation. Non si
dimentichino, infine, le possibilità offerte dalla virtualizzazione (appliance di macchine
virtuali) contro l’aging del software, per esempio, o in termini di digital preservation di
progetti di virtual heritage.
La scelta open si è, inoltre, rivelata valido supporto alla collaborazione nel processo produttivo. Tramite Google Docs è stato possibile utilizzare la formula del Cloud computing per gestire il ciclo di vita degli asset (ovvero, qualsiasi elemento costituente uno
scenario 3D) indipendentemente dai singoli strumenti di produzione.
Infine, come valore aggiunto, l’open source ha incentivato l’implementazione di
strumenti per la cooperazione che consentissero di valorizzare e massimizzare lo sforzo
del singolo a supporto del gruppo. Per tale ragione, parallelamente al processo di produzione, sono stati sviluppati strumenti di collaborazione quali un blog e, ancora, la condivisione di documenti in formato Google Docs. Nei prossimi paragrafi, saranno approfonditi i software più significativi entrati a far parte della filiera open del progetto MDC, suddividendoli nei termini dei differenti ambiti di impiego in cui sono stati introdotti: gestione della pipeline (tradizionale e specifica) e sostegno al lavoro di gruppo.
4. Open source per la gestione della pipeline
L’adozione di software open source è risultata particolarmente favorevole sia per
gestire le problematiche inerenti la realizzazione di una pipeline di produzione di un filmato 3D stereo, sia per affrontare le problematiche specifiche di progetto.
Nel primo caso, infatti, si è trattato non soltanto di selezionare il software più adatto, ma di farlo anche dialogare nei vari formati in uscita. Per esempio, programmi per la
modellazione del terreno (Grass) e della città (City Engine) nelle varie epoche storiche
così come i dati provenienti da sistemi informativi o acquisiti tramite scansione laser (per
esempio, il Nettuno) dovevano essere integrati nei set (file .blend di Blender) insieme ai
numerosi modelli di cui era già in possesso il Cineca, provenienti dai precedenti progetti
di virtual heritage. Strumenti di dialogo e collaborazione sono stati, inoltre, necessari per
i partner di progetto (Spark D.E. e Lilliwood). Si voleva, cioè consentire a ciascun gruppo di produrre internamente gli asset con il software più consono alle esigenze della spe6
174
Per esempio, BOCCHI-SMURRA 2010.
cifica IT interna, astraendo, invece, a un più alto livello, le fasi della pipeline di produzione.
Parallelamente, è stato necessario selezionare gli strumenti migliori per affrontare
le sfide specifiche di progetto: a) integrare la gestione dei vincoli filologici nel processo
di produzione della pipeline tradizionale di un filmato 3D; b) determinare una modalità di
produzione dei modelli volta al riutilizzo. Come già accennato, infatti, le ambientazioni
sono ricostruzioni filologiche supportate dalle fonti e realizzate insieme agli storici con un
continuo feedback degli esperti e del regista, cercando di coniugare il rigore scientifico e
le esigenze della storia. In prima istanza, l’inserimento dei vincoli filologici all’interno
della pipeline di produzione ha causato l’integrazione di un nuovo sotto-albero inerente le
fonti storiche nell’albero di repository (deposito centralizzato dei file) per la gestione degli
asset.
In secondo luogo, particolare attenzione è stata posta sul processo di produzione dei
set. Esperienze come quelle realizzate dal progetto (ovvero l’impiego del visivo per trasmettere il messaggio connesso all’oggetto d’arte in quanto segno, riducendo lo sforzo
cognitivo e, al tempo stesso, determinando apprendimento “significativo”) sono fortemente meaning-driven. Uno stesso modello, cioè, può dar luogo a numerose differenti
esperienze di un oggetto d’arte a seconda dello specifico messaggio che si voglia privilegiare e quindi trasmettere per esso.
A seguire una breve panoramica sul software open source impiegato, con particolare attenzione sugli elementi che si sono rivelati maggiormente significativi per la gestione di entrambi gli aspetti: realizzazione della pipeline tradizionale per un filmato 3D e
gestione delle specificità del progetto (integrazione con i vincoli filologici e insieme riusabilità dei modelli).
4.1. Pipeline tradizionale
I software impiegati nella pipeline tradizionale di produzione del progetto MDC
sono prevalentemente Ubuntu Linux, come piattaforma, Blender e The GIMP come applicativi. Intorno ad essi gravitano strumenti specifici come Grass e Qgis per la ricostruzione dei terreni a partire dalle georeferenziazioni; MeshLab e Arch 3D per la gestione dei
dati acquisiti tramite scanner (ad esempio Il Nettuno e la situla etrusca già citata).
Approfondiamo qui di seguito l’impiego e gli specifici contributi nella pipeline di produzione solo per i primi tre.
4.1.1. Linux Ubuntu
Ubuntu è una distribuzione Linux nata nel 2004, basata su Debian, che si focalizza
sull’utente e sulla facilità di utilizzo. È corredata da un’ampia gamma di applicazioni
“libere”, scaricabili e installabili gratuitamente, senza alcuna procedura di configurazione:
sono presenti oltre trentamila pacchetti software free appartenenti all’universo Linux, tra
cui programmi come Inkscape (grafica vettoriale), GIMP (fotoritocco), Blender (grafica
3D) e molti altri. Per tale motivo, Ubuntu è la piattaforma principale su cui è stato sviluppato il progetto.
Il sistema operativo Ubuntu Linux, inoltre, con le sue derivate Xubuntu e Lubuntu,
preferibili per via dell’impiego di gestori desktop più performanti e leggeri, ha consentito
di far fronte all’aging rendendo nuovamente utilizzabili macchine con sistemi hardware
datati. È stato possibile, per esempio, creare network-renderfarm per Blender per i test di
rendering parziali e in alternativa alla renderfarm di progetto. Una tale architettura (fig. 3)
è stata impiegata, per esempio, per le fasi di prova del rendering di una scena complessa:
il volo verso Roma che Apa compie a metà del filmato per mostrare la Mappa Vaticana,
splendido oggetto d’arte conservato in Vaticano, raffigurante l’intera città di Bologna nel
175
Cinquecento con un mirabile connubio di precisione
urbanistica e accuratezza iconografica e resa pittorica.
Ricordiamo, infine, le funzionalità, integrate
nella piattaforma, offerte da strumenti come Ubuntu
One per la memorizzazione di file ovunque accessibili
sulla rete e Remote desktop che ha consentito di utilizzare, attraverso un’interfaccia unificata, più macchine
fisiche come se si trattasse di un’unica risorsa.
3. Esempio di
renderfarm creata
tramite Bender
+Ubuntu con
hardware COTS.
Potenza di calcolo
raggiunta 16.8
GHz con 7 core a
disposizione.
4.1.2. Blender
Blender è il software maggiormente impiegato nel progetto MDC non solo per la
creazione delle scenografie e dei personaggi ma anche per l’animazione, l’illuminazione,
il rendering e il compositing (fig. 4). Tutte queste operazioni possono essere performate
all’interno di questo potente tool.
Blender, infatti, non è soltanto un programma di modellazione 3D dotato di un
robusto insieme di funzionalità paragonabili, per caratteristiche e complessità, ad altri noti
programmi proprietari come Softimage XSI, Cinema 4D, 3D Studio Max, LightWave 3D
e Maya. Esso consente anche rigging, animazione, compositing e rendering di immagini
tridimensionali tutto all’interno di un unico prodotto. Dispone, inoltre, di funzionalità per
mappature UV, simulazioni di fluidi, di rivestimenti, di particelle, altre simulazioni non
lineari e creazione di applicazioni/giochi 3D. È disponibile per vari sistemi operativi, tra
cui: Microsoft Windows, Mac OS X, Linux.
Tra le funzionalità offerte da Blender vi è anche l’utilizzo di raytracing e la possibilità di customizzarne il comportamento tramite script (in linguaggio Python). E proprio
avvalendosi di questa capacità è stato possibile implementare una versione del programma che comprendesse le funzionalità della camera stereo (stereo target e stereo distance)
per le riprese in stereoscopia.
La peculiarità di accesso al codice ha inoltre consentito di ricompilare il programma per poterlo integrare nel cluster di super calcolatori del Cineca al fine di realizzare la
renderfarm che ha renderizzato appunto l’intero filmato.
4.1.3. The Gimp
The GIMP (GNU Image Manipulator Program) è un software professionale di fotoritocco ed elaborazione di immagini 2D. Esso supporta gli addons e i plugin, così da estendere in modo teoricamente illimitato le proprie potenzialità e funzioni. All’interno del progetto MDC è stato utilizzato al fine di elaborare le texture per renderle adattabili alle mesh
3D e credibili in termini di ripetibilità.
Tale potente strumento è stato, inoltre, proficuamente impiegato dall’Art Director
del progetto (E. Valenza) per effettuare alcuni studi in termini di mockup (fig. 5). Ancor
prima di avere la scena 3D finale, completa di colori e texture definitive, effetti grafici
sono stati applicati con strumenti tecnologici (tavoletta grafica) congiuntamente a quelli
tradizionali (colori e pennelli) direttamente sulla trasposizione in immagine jpg dei rendering grezzi (soltanto le geometrie) dei modelli, al fine di visualizzare il risultato che si
intendeva raggiungere in termini di resa, atmosfera, impatto e cromia.
Grazie ai giochi di colore, infatti, è stato possibile ottenere un layout per le location
maggiormente significative che potesse essere non solo validato dal committente ma
anche condiviso (e assaporato) dai partecipanti al progetto come obiettivo a cui mirare per
la resa finale.
Attualmente The GIMP è distribuito in una versione stabile (la 2.6.x) e in una di sviluppo (la 2.7.x, che convoglierà il suo development nella futura 2.8). Quest’ultima intro176
duce notevoli miglioramenti e funzionalità, in modo tale da uniformarsi a software professionali come Photoshop e Paint Shop Pro. Oltre ad ampliare il comparto funzionale,
vengono implementate capacità studiate per la UserExperience, che quindi abbracciano
tutta l’interfaccia grafica (UI): dalla presentazione dei comandi all’immediatezza di alcune funzioni. Il software, pur soffrendo qualche lacuna in termini di supporto e controlli
della cromia avanzata per la stampa digitale o la tipo/seri-grafia, può considerarsi professionale nell’implementazione delle sue altre peculiarità. Ultimo aspetto, da non sottovalutare, è la customizzazione del prodotto (grazie al libero accesso al codice) in termini di
modifiche ed estensioni che possono essere apportate a piacimento, in ogni sua forma e
non solo mediante l’aggiunta degli addon o plugin. In mancanza di una funzione sentita
come necessaria, tale possibilità consente l’implementazione, da parte del comparto informatico, di qualsivoglia modifica o miglioramento. Per quanto riguarda il progetto MDC,
il programma non ha presentato lacune e/o necessità di ampliamenti e ha corrisposto alle
esigenze di progetto senza problemi di sorta.
4. Differenti
impieghi di
Blender 2.49
nella pipeline di
produzione del
progetto MDC.
5. Bologna.
Visuale diurna
utilizzata per uno
studio sulla
colorazione ambientale (elab. di E.
Valenza).
4.1.4. City Engine
City Engine è l’unico strumento proprietario inserito nella pipeline di produzione
open voluta dal Cineca. Faremo un breve accenno alle sue funzionalità per illustrarne l’importanza ai fini del progetto ma non ci dilungheremo a descrivere il prodotto. Troviamo,
invece, interessante spiegare come sia stato possibile comprenderlo nella pipeline open del
progetto.
City Engine è un software di modellazione procedurale che consente, attraverso l’elaborazione di mappe reali e dati GIS, di ricostruire interi spazi urbani in pochi semplici
passi. Questo ha permesso di realizzare ricostruzioni della città di Bologna attuale, nonché di quella medievale e di alcune evoluzioni tra le varie epoche che si sono potute così
mantenere fedeli a un modello o a studi effettuati a monte. La peculiarità del software in
questione, infatti, è quella di permettere una malleabilità totale del modello procedurale,
anche a partire da dati GIS. Il programma si avvale, cioè, di un sistema che consente l’acquisizione, la registrazione, l’analisi, la visualizzazione e la restituzione di informazioni
derivanti da dati geografici (georiferiti).
Ottenuti i dati georeferenziati storici e quelli attuali, riguardanti le principali strade,
gli edifici chiave del complesso urbano e, se disponibile, anche la vegetazione presente, il
software si occupa semi-automaticamente, guidato da un semplice linguaggio di programmazione interno, della creazione delle costruzioni, delle strade storicamente fedeli e
di tutto ciò che caratterizzava effettivamente la città. Successive manipolazioni dei dati
GIS possono portare a un ulteriore aggiornamento da parte del programma delle zone interessate da modifiche, riprocessando e ricalcolando i parametri per adattare le costruzioni
all’informazione aggiunta. Per il progetto MDC è stato talvolta necessario aggiungere
costruzioni chiave in zone ben definite a seguito delle segnalazioni fornite da storici e
archeologi che hanno validato i modelli. In tal caso City Engine lascia ampio raggio di
azione per le personalizzazioni, adattandosi a qualunque tipo di modifica. Attualmente non
177
esiste alternativa open altrettanto potente.
Il problema principale nell’impiego di questo programma, come dei molti altri
all’interno della pipeline, è stato quello di trovare una modalità di “dialogo”. Ciascuna
scena, infatti, è passata attraverso molteplici fasi di realizzazione a partire da programmi
differenti. I software open source, per merito attribuibile a Internet, sono molto diffusi
anche a livello non professionale e vengono rilasciati con supporto e compatibilità verso
una grande quantità di sistemi e configurazioni. Questo ha reso possibile individuare un
formato di scambio (obj) tra le ricostruzioni realizzate con City Engine e la composizione
della scena in Blender che consentisse di comporre il prodotto finale.
4.2. Pipeline integrata
Sull’esempio degli open project per Blender, anche il progetto MDC è stato affrontato come l’occasione per studiare sul campo, ovvero all’interno di una pipeline di produzione reale, gli strumenti e le funzionalità interessanti in termini generali: a) studio di una
modalità per l’integrazione dei vincoli filologici all’interno di una pipeline di produzione
di un cortometraggio 3D stereoscopico; b) individuazione di una forma di implementazione dei modelli che ne favorisca il riutilizzo. Come conseguenza diretta, sono stati evidenziati ambiti di ricerca di carattere generale per progetti di virtual heritage che hanno
reso il progetto MDC un caso di studio anche nell’ambito di V-MusT.Net.
4.2.1. Integrazione dei vincoli filologici
Una conseguenza diretta della gestione dei vincoli filologici si ripercuote sull’implementazione (e gestione) del repository tradizionale per la lavorazione e il mantenimento degli asset.
L’intento filologico delle ricostruzioni, infatti, implica una modellazione basata su
materiale di riferimento accurato che, tradizionalmente, si fonda sulla conoscenza diretta
dell’oggetto e/o sulla conoscenza (indiretta) acquisita tramite il confronto diretto con
esperti del settore o di testi di riferimento.
Sottolineiamo, a tale proposito, come l’open source espanda l’approccio tradizionale alle fonti (de visu, documentale, incontro con esperti) con gli strumenti messi a disposizione dalla tecnologia, prima fra tutte Internet, che fornisce possibilità di indagine storica alla portata di tutti. Servizi come i motori di ricerca, le mappe online e tutte le fonti
digitalizzate rappresentano solo una minima parte delle possibilità offerte. I maggiori servizi utilizzati ai fini del corto sono stati:
- Reperimento di fonti con motori di ricerca, in primis Google e Bing;
- Reperimento di immagini e foto mediante Google Immagini;
- Confronto di mappe e location grazie a Google Maps e Bing Maps;
- Interrogazione di Wiki e altre enciclopedie online;
- Uso di Wikimapia per effettuare match tra le location e le relative fonti storiche.
Tutto questo materiale deve essere mantenuto nel repository di progetto a cui si
aggiunge un sotto-albero di filesystem inerente le fonti. Per il progetto MDC, il repository
è organizzato come mostrato in fig. 6. La sua gestione (e modalità di accesso) in termini
di Cloud computing si è resa oggetto di studio in termini generali.
4.2.2. Cloud computing per astrarre il ciclo di vita degli asset
L’approccio al progetto MDC come open project ha evidenziato la necessità di
implementare servizi di supporto alla collaborazione. Come già evidenziato, infatti, il pro178
getto MDC è frutto di un lavoro di équipe. Questo ha posto il problema di supportare la
collaborazione tra team non solo eterogenei e talvolta geograficamente distribuiti (per
esempio, Spark D.E. ha sede a Roma), ma anche vincolati a strumenti di produzione
appartenenti alle specifiche IT a disposizione dei singoli gruppi.
Spark impiega un software implementato internamente (SPAM) per la gestione del
ciclo di produzione (ciclo di vita) degli asset che non è stato possibile portare in Cineca.
Esso, infatti, avrebbe richiesto l’impiego di tecnologia NFS che in Cineca (per l’architettura intrinseca della IT - macchine di super calcolo) non avrebbe determinato le medesime performance. Al Cineca si è pertanto implementata un’architettura basata su rapid
SVN (un software di versionamento generalmente impiegato dai programmatori per mantenere le varie release di implementazione del codice) e un repository centralizzato su un
cluster di supercalcolo interno (plx).
Al fine di consentire una gestione unificata del ciclo di vita degli asset, indipendentemente dalle specifiche tecnologie di produzione, si è pensato di astrarlo impiegando
il paradigma di Cloud computing implementato dai Goolge Docs (fig. 7).
La possibilità di consentire a ciascun team di implementare asset con le tecnologie
interne più consone, mantenendo a più alto livello la gestione del ciclo di vita degli asset
stessi, è una caratteristica interessante in termini generali che ci si prefigge di meglio automatizzare come lavoro futuro.
6. Architettura di
base per il
repository MDC.
7. Porzione di un
documento sulla
organizzazione
delle scene in
sviluppo per il
cortometraggio.
5. Open Source e Community
Il lavoro di équipe è una metodologia che il Cineca ha standardizzato nel tempo e
dalla quale non è più pensabile prescindere oggi, a meno di rischiare di perdere in significatività della proposta.
Le opportunità offerte dalla tecnologia, infatti, sono molteplici e abbracciano ormai
tutto l’ambito del sapere. Ma per essere significativi e proporre soluzioni che durino nel
tempo occorre avvalersi del contributo di professionalità specifiche che trovano nel gruppo il supporto e la comunità di intenti tali da convogliare lo sforzo di ciascuno nel raggiungimento del risultato comune.
L’attitudine al lavoro di gruppo non solo è supportata dall’istinto insito nell’uomo
a costituirsi in comunità (di cui oggi sono un esempio lampante il proliferare dei social
network) ma anche, e soprattutto, trova riscontro nelle nuove teorie sull’apprendimento,
che vedono la costruzione della conoscenza principalmente come un atto sociale7.
Questo atteggiamento sta sorprendentemente accomunando i vari tipi di sapere in
una modalità di creazione e divulgazione affine a quella che caratterizza la distribuzione
del software open source: sviluppo del sapere «cooperativo, decentralizzato e fondato sul
libero accesso alle risorse comuni a tutti»8.
7
8
Costruttivismo: VON GLASERSFELD 1999.
LATRIVE 2004.
179
L’approccio open di base del progetto non solo ha implicitamente condiviso questa
attitudine, ma ha anche fornito gli strumenti più adatti alla creazione di una community di
supporto al processo di sviluppo.
Per tale ragione, parallelamente alle fasi di realizzazione delle scene, sono stati
curati un blog (https://rvn05.plx.cineca.it:12001/php/MDC/portal/wordpress) e numerosi
documenti Google Docs. L’impiego del Cloud computing, implementato dai Documenti di
Google, infatti, è stato proficuo anche per il supporto al lavoro collaborativo. Uno stesso
documento può essere condiviso da più utenti; i Docs si aggiornano in tempo reale e qualunque modifica da parte di un partecipante risulta immediatamente visibile anche sul
documento contemporaneamente aperto da altri.
5.1. Community di supporto
È opinione ormai condivisa che la concezione del sapere in termini di scatole indipendenti da consegnare come competenza professionale una volta e per tutte sia il retaggio della società industriale del secolo scorso, ormai superata oggi dall’avvento delle
nuove tecnologie9. Il paradigma di apprendimento che si viene a delineare oggi è quello
del life long learning, ovvero dell’apprendimento delle capacità necessarie per continuare
ad apprendere per il resto della propria vita.
Nell’ambito informatico, l’enorme velocità con cui evolvono gli ambiti del sapere
ha reso necessario un supporto continuo e decentralizzato. Nasce in ambito open source,
e si allarga a macchia d’olio a qualsiasi altra forma di produzione del software, il concetto di comunità online a supporto di specifici e capillari argomenti e/o software.
Tali comunità online, nell’accezione comune del termine, sono composte da un
insieme di persone interessate a un determinato argomento che corrispondono tra loro
attraverso una rete telematica, oggigiorno in prevalenza Internet e le reti di telefonia, costituendo una rete sociale con caratteristiche peculiari.
Questa diffusione capillare ha portato alla necessità di documentazione e di servizi
di agglomerazione della conoscenza, che hanno mosso i singoli utenti all’auto-organizzazione in comunità internet specifiche. Sistemi open source come Ubuntu Linux, ad esempio, hanno documentazioni globali attribuibili alla ditta distributrice del sistema, la
Canonical, e comunità che forniscono documentazioni locali, sparse in tutto il mondo,
come la prolifica comunità italiana, rintracciabile all’indirizzo www.ubuntu-it.org, che ha
tradotto e prodotto un grosso comparto documentaristico online, sotto forma di wiki.
Questa mobilitazione ha creato, nel corso degli anni, notevoli risorse online per software
utilizzati anche in questo progetto, quali Blender e The GIMP.
5.2. Il blog MDC
Il progetto MDC ha impiegato il blog (fig. 8) come strumento di aggregazione e
community: uno spazio Internet pubblico dove i partecipanti al progetto hanno autorità di
editing al fine di poter condividere idee, comunicare e creare materiale di pubblica utilità.
Il blog è stato realizzato tramite l’open source Wordpress, una piattaforma di CMS
(Content Management System) per la gestione decentralizzata dei contenuti attraverso
un’interfaccia che consente la creazione di “siti internet” e WebLog senza necessariamente possedere conoscenze tecniche avanzate.
L’adozione di un diario di bordo web per il progetto MDC ha avuto una duplice funzione: da un lato, è servito a dare visibilità online al progetto stesso mediante la pubblica9
180
MANOVICH 2001.
zione di news, locandine ed eventi importanti; dall’altro, ha consentito a stagisti, laureandi e chiunque orbitasse intorno al progetto di contribuire mediante la pubblicazione di
tutorial, guide e tricks di interesse generale. In tal modo, il blog stesso si aggiunge al materiale gratuito composto da risorse e strumenti, creato da comunità grafiche online.
8. Screenshot di
una delle pagine
del blog per il
progetto MDC.
9. Logo del
progetto
V—MusT.net.
6. Conclusioni e sviluppi futuri
Il presente lavoro ha illustrato l’implementazione di una pipeline di produzione
quasi interamente open source per il progetto Cineca MDC, scendendo nello specifico di
problematiche e peculiarità di impiego tra le più significative della pipeline di produzione. In particolare, sono state messe in evidenza problematiche come l’implementazione
della pipeline tradizionale per la realizzazione di un filmato 3D stereoscopico che raccontasse la storia di Bologna e la gestione delle peculiarità di progetto (gli scenari che fanno
da set al filmato sono filologicamente corretti e frutto di un lavoro di équipe).
Quest’ultimo aspetto, in particolare, ha sollevato problematiche di interesse generale, tuttora ambito di studio presso il Cineca come contributo al progetto V—MusT.net
(fig. 9): l’inserimento dei vincoli filologici nel processo di produzione e l’impiego di una
modalità di realizzazione delle ricostruzioni 3D volta al riutilizzo.
Il presente lavoro non solo ha mostrato come l’approccio open si sia rivelato il più
adatto ad affrontare le problematiche di produzione (in particolare, ha consentito di comprendere all’interno della pipeline il software proprietario City Engine), ma ha anche sottolineato le capacità di supporto alla collaborazione intrinseche all’approccio e da cui non
è possibile prescindere oggi senza mancare in significatività di una proposta.
Tra gli sviluppi futuri, internamente al progetto V—MusT.net, ci si propone di raffinare il meccanismo di astrazione del ciclo di vita degli asset. Si intende automatizzare il
paradigma di Cloud implementato da Gooogle Docs in uno strato di servizi sulla rete. Allo
stesso modo, si intende implementare una forma di accesso virtualizzato al sotto-albero di
repository per la gestione delle fonti. Si sta studiando, cioè, una forma di Cloud customizzata con opportuni meccanismi di virtualizzazione apportati ad hoc sullo specifico
livello di astrazione (virtualizzazione a granularità più fine rispetto a quella appena
descritta) che consenta l’accesso al sotto-albero del repository in una duplice maniera:
secondo il modello breadcrumb (discesa in directory e sottodirectory nella metafora dell’albero) e attraverso una interfaccia che consenta all’utente di riorganizzare le informazioni in termini delle singole esigenze senza andare a modificare la gerarchia del repository, che deve rimanere adatta a un approccio breadcrumb conveniente.
181
Abbreviazioni bibliografiche
ANTINUCCI 2010
F. Antinucci, Comunicare nel museo, Roma-Bari
2010.
BOCCHI-SMURRA 2010
La storia della città per il Museo Virtuale di Bologna.
F. Bocchi, R. Smurra (edd.), Bologna 2010.
DIAMANTI et alii 2010
T. Diamanti - P. Diarte Blasco - A. Guidazzoli - M.
Sebastjian Lopez - E. Toffalori, ViSMan: an OpenSource Visualization Framework for Virtual
Reconstructions and Data Management in
Archaeology, in VAST 2010. The 11th International
Symposium on Virtual Reality, Archaeology and
Cultural Heritage, A. Artusi (ed.), Paris 2010, Goslar
2010, 47-53.
JONASSEN et alii 2003
D. H. Jonassen - J. Howland - J. Moore e R. M.
Marra, Learning to solve problems with technology:
a constructivist perspective. Columbus 2003.
LATRIVE 2004
F. Latrive, Du bon usage de la piraterie: culture
libre, sciences ouvertes, Paris 2004.
MANOVICH 2001
L. Manovich, The language of new media,
Cambridge (Massachusetts) 2001.
VON GLASERSFELD 1999
E. von Glasersfeld, Social constructivism as a philosophy of mathematics, in Zentralblatt für Didaktik
der Mathematik, 99, 1999, 71-73.
Referenze iconografiche
Cineca MDC Project: figg. 1, 4-5, 8.
Cineca, studio di realizzazione della sala immersiva
(2009): fig. 2.
Logo progetto V—Must.net: fig. 9.
Tesi di Laurea Dott. D. De Luca (2011): figg. 3, 7.
Micaela Spigarolo
Università degli Studi Bologna.
[email protected]
Antonella Guidazzoli
CINECA, [email protected]
182
La conoscenza archeologica: approcci aperti alla gestione ed analisi
D. Leone
N. M. Mangialardi
M. G. Sibilano
D. Balzano
La Storia emersa e sommersa: un
database per l’archeologia dei
paesaggi subacquei
Abstract
The Project Liburna Archeologia Subacquea in Albania, created in 2006 by a synergy between Italian
and Albanian institutions, has developed over the 2007-2010 period through the scientific coordination
between the Department of Human Sciences of University of Foggia and the National Institute of Albanian
Archaeology Research Centre. The project has set as its main goal the preparation of an archaeological map
of the Albanian coast based on the research data from surveys and excavations. It will provide a Geographic
Information System able to manage different investigation areas, through a complex activity of data “systematization”, directing the analysis of the spatial location of the underwater evidences through the review of the
published and unpublished literature. In this first phase the investigations were concentrated in four main
areas spread from N to S along the western coast: Durres Bay, the area of Butrint, the Valona Bay and the
Porto Palermo Bay.
The realization of an analytical and queried archaeological map, that could provide a storage and
allow the search and the rapid contextualization of the scientific data in the territory under investigation, has
facilitated the creation and strengthening of analytical tools and data storage in use. The first part of the IT
project ended with the implementation of a relational database based on PostgreSQL and a web-based application developed on PHP platform.The need of a unified approach in the research activities carried out by the
archaeological team of the University of Foggia was reflected in a strategy aimed not at implementing a duplication of the resources and tools available. It is therefore currently a restructuring of the repository IREMAS
for a regional scale data management. Based on proven methodology used in the landscape archaeology the
underwater topographic units (UTS) is the minimum element of the grid for the information standardization,
the data collection and their projection in the space. The UTS sheet was divided into generic and descriptiveinterpretative sections. It has been related to the tables realized for the storage of the graphic and photographic
documentation, underwater finds and literature and historical sources.
1. I dati: il progetto LIBURNA
Nel corso del quadriennio 2007-2010 si è svolta operativamente una prima fase del
progetto Liburna. Archeologia Subacquea in Albania (fig. 1), così intitolato dal nome
della tipica imbarcazione illirica nota dalle raffigurazioni monetali antiche e moderne. Le
ricerche sono state condotte con il coordinamento scientifico del Dipartimento di Scienze
Umane dell’Università degli Studi di Foggia (DISCUM), in collaborazione con l’Istituto
Nazionale di Archeologia del Centro Studi Albanologici e il supporto tecnico
dell’Associazione A.S.S.O. (Archeologia Subacquea Speleologia Organizzazione) Onlus di
Roma1.
1
Le attività del Progetto Liburna svoltesi dal 2007 al 2010 sono state coordinate dal Dipartimento di Scienze Umane
185
1. Posizionamento
delle UTS lungo
la costa del
promontorio di
Karaburun.
Il progetto, connotato da una prospettiva spiccatamente “globale” dell’archeologia
tesa a coniugare ricerca, formazione, tutela e valorizzazione del patrimonio culturale sommerso2, si è posto come obiettivo principale la redazione di una carta archeologica del litorale albanese attraverso la realizzazione di un Sistema Informativo Geografico in grado di
gestire, mediante una complessa attività di “sistematizzazione”, i dati prodotti in questi
anni orientando l’analisi all’effettiva articolazione spaziale delle evidenze subacquee,
edite ed inedite, censite. A tal fine sul campo sono state condotte ricognizioni mirate,
scavi, classificazioni dei materiali archeologici, prospezioni e rilievi diretti subacquei,
rilievi topografici strumentali; si è proceduto in contemporanea alla raccolta dei dati noti
da bibliografia, da archivio, da tradizione locale e da segnalazioni orali, e alla lettura della
cartografia storica e/o tematica reperita3.
In previsione di un’indagine che allargherà il proprio orizzonte all’intero litorale
albanese sono state privilegiate in questa prima fase del progetto, in base alle attuali informazioni disponibili e a una serie di considerazioni di carattere tecnico-scientifico, quattro
aree dislocate da N a S lungo il litorale occidentale: la Baia di Dürres, l’area di Butrinto,
la Baia di Valona, in particolare Orikum, e la Baia di Porto Palermo. Nel 2009 è stato sistematicamente indagato il litorale del promontorio di Karaburun, costellato da cave antiche
dell’Università degli Studi di Foggia (G. Volpe, D. Leone, M. Turchiano) e dall’Istituto Nazionale di Archeologia del
Centro Studi Albanologici (A. Anastasi, A. Hoti), con il supporto tecnico-scientifico dell’Associazione A.S.S.O. di
Roma (M. Mazzoli, B. Rocchi, M. Vitelli), le attività sono state svolte grazie all’impegno e alla partecipazione dei
dottori di ricerca (A. De Stefano, G. Disantarosa, N. Mangialardi) e studenti (C. Donnanno, A. Pastorino, R. Corvino,
M. Lo Muzio) dell’Università di Foggia. Il progetto è l’esito della convergenza delle volontà di numerosi istituzioni italiane e albanesi tra cui la Regione Puglia-Assessorato al Mediterraneo, il Ministero per gli Affari Esteri e il
Ministero della Cultura Albanese, l’Agenzia per il Patrimonio Culturale Euro Mediterraneo di Lecce e la Guardia di
Finanza-Nucleo Frontiera Marittima di Durazzo.
2
Tra gli obiettivi principali del progetto: la formazione professionale di archeologi, tecnici subacquei, personale militare albanese; lo sviluppo delle relazioni di cooperazione scientifica e culturale tra Italia e Albania e, in generale tra
tutti i paesi adriatici e dell’area balcanica; lo sviluppo della ricerca, della tutela e della valorizzazione del patrimonio archeologico subacqueo albanese; il potenziamento e lo sviluppo del settore di archeologia subacquea
dell’Istituto Nazionale di Archeologia, con dotazioni strumentali e trasferimento di conoscenze e competenze e la
divulgazione dei risultati mediante vari strumenti.
3
Per un quadro più dettagliato del progetto: ANASTASI-VOLPE 2006, 1-3; VOLPE et alii 2008-09; VOLPE et alii,
c.s.
186
per l’estrazione di materiale da costruzione e da baie che costituivano approdi naturali
lungo la navigazione, come la Baia di Dafine o la Baia dell’Orso e la Baia di Grama, sede
di un santuario marittimo sulle cui pareti rocciose si conservano centinaia d’iscrizioni in
greco, latino e albanese databili tra antichità ed età moderna. Lungo tutto il litorale di
Karaburun sono stati inoltre individuati, a partire dalla costa fino a una profondità di 40
m, numerosi siti di interesse archeologico che coprono un ampio ventaglio cronologico
dall’età arcaica fino al Medioevo4.
Ricerca e formazione hanno costituito finora due aspetti centrali e qualificanti del
progetto Liburna, che si propone quale obiettivo principale la creazione di un sistema territoriale integrato di tutela e di valorizzazione dei beni sommersi al fine di costruire una
prima carta del potenziale archeologico subacqueo che partendo dal litorale albanese si
estenda all’intero Adriatico meridionale5.
2. Nuovi strumenti per lo studio del paesaggio subacqueo
Il 2 novembre 2001 la Conferenza Generale dell’Organizzazione delle Nazioni
Unite per l’Educazione, la Scienza e la Cultura (l’UNESCO) ha approvato la Convenzione
sulla Protezione del Patrimonio Culturale Subacqueo6, dichiarando i beni culturali sommersi quale parte integrante del Patrimonio Culturale dell’Umanità, elemento fondamentale della storia dei popoli e delle nazioni e attribuendone ai singoli Stati la tutela e la salvaguardia7. Tale trattato internazionale (ratificato dall’Italia solo nel gennaio 2010) guarda, infatti, ai beni culturali subacquei nella stessa ottica della «contemporanea archeologia»: incentivandone la ricerca e la conoscenza, favorendone la tutela, garantendone la
conservazione in situ, promuovendone la valorizzazione e invitando gli Stati firmatari a
investire e a cooperare ai fini della formazione e del trasferimento di tecnologie e di competenze in materia di «giacimenti culturali subacquei»8.
L’esperienza pluriennale del gruppo di lavoro del DISCUM nello studio delle evidenze archeologiche sommerse e la mole di dati raccolta, in particolare durante lo svolgimento del progetto Liburna, hanno fatto emergere in modo sempre più evidente l’esigenza di allargare la “sistematizzazione” delle procedure e delle informazioni, ormai ampiamente adottata per l’analisi archeologica dei paesaggi terrestri9, alle ricerche in ambiente
subacqueo.
A partire dagli anni Ottanta, la diffusione di un approccio teorico non di tipo gerarchico, ma inclusivo in relazione allo studio del paesaggio, ha comportato progressivamente l’adozione di una prospettiva archeologica “globale” e “complessa”10 attenta a
4
I materiali recuperati sono prevalentemente anfore commerciali. Il rinvenimento di maggior pregio riguarda una
statuina di bronzo raffigurante Atena, databile al I-II sec. d.C., in ottimo stato di conservazione, forse parte di una
stadera, oltre a un elemento in bronzo della nave e a una moneta bronzea dell’imperatore Gallieno (253-268 d.C.),
recuperati in una baia intensamente frequentata dalle imbarcazioni antiche: VOLPE et alii 2008-09, 2-16.
5
VOLPE et alii 2008-09, 3.
6
http://portal.unesco.org/en/ev.php-URL_ID=13520&URL_DO=DO_TOPIC&URL_SECTION=201.html
7
http://portal.unesco.org/en/ev.php-URL_ID=13520&URL_DO=DO_TOPIC&URL_SECTION=201.html
La Convenzione definisce patrimonio culturale subacqueo «tutte le tracce dell’esistenza umana di carattere culturale, storico o archeologico che sono state parzialmente o completamente sott’acqua, periodicamente o continuamente, per almeno 100 anni, quali siti, strutture, edifici, manufatti e resti umani. Insieme con il loro contesto archeologico e naturale» (art. 1).
8
http://portal.unesco.org/en/ev.php-URL_ID=13520&URL_DO=DO_TOPIC&URL_SECTION=201.html.
Convenzione sulla Protezione del Patrimonio Culturale Subacqueo - articolo 21.
9
VOLPE 2005, 299-314; VOLPE 2006, 13-36.
10
S’intende fare riferimento alla prospettiva avviata negli anni Ottanta dalle ricerche di archeologia globale di
Tiziano Mannoni (MANNONI 1985), approccio epistemologico che di recente ha visto ulteriori sviluppi nella teorizzazione dell’archeologia globale dei paesaggi globali (VOLPE 2007; VOLPE 2008) e dell’archeologia della complessità (BROGIOLO 2007).
187
cogliere e documentare nel paesaggio tutte le tracce espressione delle comunità umane. Il
superamento della visione isolata del bene e dell’«incultura dell’areale»11 ha allargato il
concetto di contesto e di paesaggio come spazio geografico, abitativo, lavorativo e ideologico determinato e prodotto da una lunga serie di esperienze storiche12, oggi inteso come
palinsesto stratificato scevro da limiti cronologici e tematici aprioristici13.
Secondo tale ottica e all’indomani della strutturazione della Carta dei Beni Culturali
della Puglia (CBC)14 si è, pertanto, dato avvio a un progetto di espansione concettuale
della CBC, comprendendo anche il patrimonio culturale sommerso, a oggi escluso dal
sistema di gestione dati messo a punto per la Regione Puglia, tra i beni da censire e da
archiviare in un unico contenitore, che è così chiamato ad avere per oggetto l’intero paesaggio.
La sistemazione e la gestione delle informazioni accumulate durante il progetto
Liburna e la loro modellazione in forma di catasto territoriale interrogabile ha così incentivato il potenziamento degli strumenti di analisi, di archiviazione e di consultazione dati
attualmente in uso nell’ambito delle ricerche subacquee da parte del gruppo di lavoro di
archeologi del DISCUM.
L’elaborazione di un modello di archiviazione su base digitale ha perciò comportato, in primo luogo, la creazione di un database relazionale. La progettazione concettuale
del sistema ha, pertanto, richiesto come primo passo l’individuazione di un “elemento
comune” tra i dati archeologici capace di determinarne l’aggregazione e guidare sia la normalizzazione delle informazioni sia una loro adeguata proiezione nello spazio.
Il Patrimonio Culturale Subacqueo, come indicato anche nell’art. 1 della
Convenzione UNESCO, è piuttosto multiforme per genere; a esso appartengono tutti i tipi
d’insediamenti o documenti materiali individuati sott’acqua, dai relitti (i più comuni) a
singoli elementi strutturali o dispersioni di reperti, ma anche i porti, gli ormeggi, gli
impianti per l’allevamento del pesce e in generale tutti i siti sommersi o perché tali già in
antico o perché coperti successivamente dall’acqua in seguito a modificazioni morfologiche15. Le diverse tipologie di giacimento, inoltre, possono differenziarsi per la loro distribuzione nel tempo e nello spazio.
La variabilità degli oggetti che caratterizza l’archeologia dei paesaggi rende più
complessa l’elaborazione e l’archiviazione dei dati e improduttiva l’adozione di metodi
troppo rigidi (come sottolineato di recente da F. Cambi, la produzione scientifica nell’ambito dell’archeologia dei paesaggi manca di un «minimo comune denominatore paragonabile a quello raggiunto con successo nel campo dello scavo stratigrafico»16). Per questi
motivi, in base alla consolidata metodologia impiegata nelle indagini sul campo17, è stata
identificata come elemento minimo comune su cui definire la griglia di raccolta dei dati
l’Unità Topografica (UT), quale unità minima documentabile a livello topografico18, in
questo caso denominata Unità Topografica Subacquea (UTS).
L’UTS è stata intesa, pertanto, come singola cellula topografica collegabile al territorio tramite una coppia di coordinate, caratterizzate da una continuità fisica dell’eviden-
11
CAMBI 2011, 15.
BROGIOLO 2009, 3-4; CAMBI 2011, 15.
13
BROGIOLO 2009, 3-4.
14
Per un quadro complessivo sulla strutturazione della Carta dei Beni Culturali della Regione Puglia si veda il contributo di A. De Stefano, M.G. Sibilano, G. Volpe presente in questo volume e la bibliografia ivi citata.
15
Per una descrizione esauriente delle diverse tipologie di giacimento archeologico sommerso: GIANFROTTAPOMEY 1981; BELTRAME 1998; VOLPE 2000; FELICI 2002.
16
CAMBI 2011, 36.
17
Rispetto alle diverse opinioni in relazione al rapporto fra Sito e Unità Topografica (Non Sito), nell’ambito dell’archeologia dei paesaggi è ormai consolidata la ricognizione quale metodologia di operazione sul campo: CAMBI
2011, 157-188.
18
Per una recente sintesi sulle diverse definizioni di Unità Topografica: CAMBI 2011, 171-173.
12
188
za archeologica19. Una singola UT può, come è noto, rappresentare più insediamenti,
diversi per funzione e per cronologia e viceversa più UT possono definire un unico complesso (sito). Premesso ciò, si è preferito mantenere l’UT quale unità minima a livello
topografico, rispettando la scomposizione di tipo gerarchico esistente fra Sito e UT così
da non sovrapporre la fase descrittiva (individuazione - registrazione delle UT) con quella interpretativa (definizione - riconoscimento del sito), evitando anche il rischio, ben evidenziato da D. Manacorda, della moltiplicazione dei siti derivante dall’attribuzione del
rango di sito a qualunque tipo di evidenza archeologica20.
Tale scomposizione di tipo gerarchico rispecchia la strutturazione teorica e operativa della Carta del patrimonio culturale pugliese che su ampia scala dispone l’UT, il Sito e
il Sito pluristratificato21, dall’entità più semplice alla più complessa a livello stratigrafico
e topografico.
2.1. Un DBMS per l’archeologia dei paesaggi subacquei: la progettazione concettuale
L’obiettivo è, dunque, quello di creare archivi digitali che caratterizzati dallo stesso
modello concettuale e formale siano in grado di interfacciarsi al fine di costituire un’efficace e incrementabile banca dati di verifica dell’esistente, un inventario di supporto alla
ricerca, alla tutela e alla pianificazione territoriale.
A tal fine la scheda di UTS è stata formulata in connessione con quella di UT terrestre: sono stati strutturati in comune i campi preposti all’identificazione geografica/anagrafica e potenziate le voci specifiche di descrizione e connotazione delle evidenze
archeologiche sommerse. All’UTS sono state, inoltre, correlate apposite tabelle deputate
all’archiviazione della documentazione grafica e fotografica, della bibliografia, delle fonti
e delle informazioni sui materiali associati. La natura dialettica delle informazioni ha trovato, pertanto, aderente strutturazione in un archivio relazionale attraverso una serie di
tabelle poste in collegamento reciproco: ciascuna di queste gestisce, infatti, dati di natura
testuale, numerica, digitale (grafica e fotografica) propri dell’entità in esame e li mette in
relazione con i dati delle altre entità, così da ottimizzare tempi e modalità di gestione della
documentazione e da garantire una comunicazione integrata tra informazioni eterogenee.
La scheda di UTS nel dettaglio, è suddivisa in due registri: il primo (Dati anagrafici) raccoglie le informazioni note relative alla collocazione geografica e topografica, che
permettono di identificare e localizzare l’unità in esame in maniera assoluta, tramite l’impiego di lemmi in parte omologhi alle altre tabelle:
Nazione - Comune - Provincia di appartenenza dell’UT;
Toponimo utilizzato dalla cartografia IGM o dalla consuetudine locale;
Genere, terrestre o subacqueo;
Coordinate, indicazione delle coordinate assolute dell’UT; il campo prevede l’eventuale immissione di più punti per la determinazione topografica di un solo nucleo edilizio da visualizzare sulla pianta relazionata;
IGM, per indicare il riferimento dell’UT nella cartografia geografica militare;
19
Si è preferito adottare l’Unità topografica come elemento minimo topografico, non volendo inserire altre entità teoriche, ma rispettando piuttosto la strutturazione gerarchica che attribuisce al rango del sito il momento dell’interpretazione storica e che è solitamente adottata in ambito terrestre. A differenza di tale impostazione nel progetto di realizzazione del Sistema Informativo Territoriale Alto Adriatico si è optato per l’adozione dell’entità Evidenza
Archeologica (EA) per definire e descrivere una o più UT di cui si è riconosciuta funzione e cronologia. Sul concetto di Evidenza Archeologica: RICCOBONO 2008. Sul progetto Alto Adriatico: AURIEMMA-KARINJA 2008.
20
MANACORDA 2007, 12-17.
21
Sul concetto di Sito Pluristratificato: MANACORDA 2007, 12-17; VOLPE 2008; CAMBI 2011, 82-87.
189
Anno, cronologia della ricerca;
Modalità d’individuazione, in cui è possibile selezionare da un dizionario terminologico (ulteriormente incrementabile) il metodo con il quale si sia identificata l’UTS;
Modalità di posizionamento; Metodi di ricognizione visiva; Metodi di prospezione
strumentali: campi comuni anche alla scheda di UT terrestre nei quali vengono indicate in
base a menu a scelta le procedure adottate per l’individuazione dell’unità;
Visibilità, in cui indicare secondo un grado numerico la visibilità delle acque e della
vegetazione.
La seconda sezione della scheda (Dati descrittivi), anch’essa caratterizzata dalla
presenza di molte voci in comune con l’ambito terrestre, raccoglie i dati connotativi dell’evidenza archeologica, descrivendone la morfologia attraverso diversi campi testo o con
eventuali vocabolari a scelta:
Orientamento;
Viabilità;
Descrizione del luogo;
Contesto, se marino-fluviale-lacustre-palustre-ipogeo;
Morfologia del fondale, campo con la stessa finalità di descrizione dell’andamento
del terreno;
Descrizione UT;
Stato di conservazione in cui poter effettuare una stima delle condizioni di conservazione e di giacitura rispetto al fondale;
Rapporti con altre UT;
Reperti lasciati sul luogo;
Notizie orali;
Extra-sito;
Una serie di voci, impostate in maniera analoga a quelle della Carta dei Beni
Culturali della Puglia, per dettagliare la cronologia dell’evidenza archeologica.
Appositi tracciati, richiamabili all’interno della scheda di UTS e strutturati come
archivi separati e correlabili, sono stati predisposti per acquisizione dei dati editi: Archivio
Bibliografico, delle fonti documentarie; Archivio Documentaristico, delle fonti grafiche/fotografiche; Archivio Grafico. Organizzate per campi descrittivi le schede distinguono e dettagliano per tipologia le diverse fonti, cercando di trarre da queste informazioni
difficilmente reperibili dai dati materiali. I prototipi presentati seguono l’impostazione
argomentativa presente nella scheda di unità topografica subacquea e si articolano in alcuni campi che definiscono i dati di provenienza e in altri che raccolgono il contenuto delle
informazioni.
Nel dettaglio la scheda Archivio Bibliografico è finalizzata alla catalogazione dell’edito, posto in relazione all’UT, in base alle seguenti voci:
Anno edizione;
Luogo edizione;
Autore;
Titolo;
Tipologia, dove è possibile distinguere fra categorie pre-impostate ma ulteriormente incrementabili;
N. pagine;
Argomento;
Informazioni topografiche e Informazioni cronologiche, due campi testo nei quali
definire sinteticamente quelle informazioni che possono fornire con immediatezza all’utente la pertinenza o meno del testo citato alla propria ricerca.
Le fonti relative all’UT registrate nell’Archivio documentaristico vengono distinte
e archiviate in base a:
190
Luogo e data di redazione;
Tipologia se fonte pubblica; fonte privata; documenti di archivio (una sintetica serie
anche per facilitarne la ricerca in fase d’interrogazione);
Collocazione;
Riferimento;
Soggetto promotore;
Redattore del documento;
Destinatario;
Oggetto in cui illustrare sinteticamente l’argomento;
Contesto istituzionale-amministrativo;
Testo in cui effettuare la trascrizione dell’intero documento;
Toponimi e informazioni topografiche, in cui isolare già le informazioni di maggiore rilevanza.
L’apparato grafico riferibile alle UT individuate viene, infine, anch’esso indicizzato in base a:
Data di esecuzione;
Oggetto, in cui è possibile fare riferimento a un dizionario terminologico aperto;
Supporto, dove indicare la tipologia del supporto secondo i termini di un vocabolario interno, incrementabile;
Esecutore;
Denominazione;
Dimensioni;
Informazioni topografiche e cronologiche.
Alla base della progettazione concettuale vi è, dunque, una pluralità tipologica di
dati complementari e riconducibili essenzialmente a due macro-categorie, l’una dei dati
spaziali (topografici o geometrici), presenti in forma numerica o grafica e relazionati alle
tabelle, e l’altra di quelli alfanumerici, strutturati in specifiche schede di registrazione.
Tale scansione argomentativa è strutturata in lemmi a cui corrispondono campi
descrittivi o, nella maggior parte dei casi, una casistica di risposte predefinite22, ma ulteriormente incrementabili23, utili ai fini di una prima validazione esplicita dei dati: le voci
elencate all’interno di vocabolari controllati servono, infatti, a descrivere concetti chiave
bilanciando risposte generiche e risultati puntuali24.
2.2. Un DBMS per l’archeologia dei paesaggi subacquei: la progettazione logica e fisica
All’avvio della progettazione del repository destinato alla gestione dei dati provenienti dallo studio dei paesaggi subacquei la scelta degli strumenti da utilizzare ha inevitabilmente previsto l’impiego di tecnologia FOSS.
All’origine di questa decisione hanno contribuito diversi fattori: primo fra questi
22
L’impiego dei vocabolari controllati ha diversi vantaggi (come più banalmente eliminare i problemi derivanti dalle
varianti ortografiche), ma gli svantaggi principali consistono nel fatto che i nuovi argomenti possono non essere ben
rappresentati, mentre, analogamente, se il vocabolario definisce i soggetti troppo generici non sarà possibile eseguire ricerche mirate e ben definite.
23
Sono stati impostati, infatti, per la maggior parte dizionari editabili con l’aggiunta di nuovi termini. I termini dei
vocabolari sono stati impostati in base alla consolidata metodologia di ricerca: GIANFROTTA-POMEY 1981; BELTRAME 1998; FELICI 2002; VOLPE 2000; PIETRAGGI-DAVIDDE 2007.
24
Per distinzione tra thesauri, vocabolari controllati, dizionari: D’ANDREA 2006, 101-104.
191
l’esigenza di fornire strumenti di condivisione della conoscenza acquisita liberamente
fruibili ed editabili, tali da garantire agli enti pubblici coinvolti nell’attività progettuale un
sistema di gestione e fruizione dei beni sottoposti a indagine priva di vincoli applicativi e
una politica di formazione del personale addetto all’archiviazione e consultazione dei dati
basata su strumenti a costo zero. L’aspetto economico, pur marginale in un movimento da
anni intento a evidenziare la natura libera e gratuita del software in uso, riveste indubbiamente un ruolo essenziale per quei paesi, oggi sempre più numerosi, caratterizzati da una
difficile condizione economico-finanziaria.
Una simile decisione aderisce, d’altra parte, alle scelte ormai da tempo maturate
all’interno del Laboratorio di Archeologia Digitale25 dell’Università degli Studi di Foggia,
dal 2008 impegnato a sostenere forme sempre più concrete di “democratizzazione” dei
processi di ricerca archeologica, promuovendo diverse iniziative di confronto accademico-professionale e investendo tempo e risorse a favore di un percorso di crescita intellettuale basato anche sull’attività di formazione della comunità studentesca più giovane (tirocinanti, laureandi, ecc.).
Il database per l’archeologia dei paesaggi subacquei si inserisce in questo filone di
ricerca, fornendo un’ulteriore conferma all’idea che la filosofia open source possa trarre
maggior beneficio non dalla mera raccolta di soluzioni applicative, frutto di isolate esperienze individuali, quanto piuttosto da una rete sociale, su base digitale, costruita sul collaborazionismo tra persone, metodologie e tecnologie condivise.
Da qui la scelta di evitare un’ulteriore duplicazione delle risorse e degli strumenti a
disposizione, registrando l’ennesimo episodio di frammentazione conoscitiva ancor prima
che applicativa che da lungo tempo si osserva nel campo dell’informatica applicata ai Beni
Culturali. Ovvia è apparsa, al contrario, la volontà di procedere a un progressivo ampliamento di uno strumento di indagine già attualmente impiegato nella gestione della documentazione stratigrafica terrestre, integrando l’ambito di analisi con il settore dell’archeologia dei paesaggi subacquei.
A tal fine si è scelto di operare, nell’ambito di una tesi di laurea triennale in
Metodologia della Ricerca Archeologica, con il chiaro intento di favorire l’apprendimento e permettere una progressiva diffusione dei principi basilari e degli strumenti applicativi propri dell’open source anche nell’ambito della catalogazione e dell’archiviazione digitale, articolando ulteriormente il processo didattico già da alcuni anni in atto all’interno
del LAD sinora rivolto al solo settore della grafica tridimensionale.
Si è, pertanto, operata una ristrutturazione del repository IREMAS finalizzata a una
gestione dei dati su scala territoriale26.
Sono state, a tale scopo, modellate 10 nuove entità tabellari deputate all’archiviazione dei dati inerenti l’Unità Topografia Subacquea, la sua documentazione grafica e
fotografica, le informazioni sui materiali associati, la bibliografia esistente e le fonti (fig.
2).
Nella tabella UT_GENERALE sono contemplate tutte le informazioni anagrafiche
25
Con il coordinamento del dott. G. De Felice.
Come si è avuto modo di descrivere in altra sede IREMAS è realizzato in PostgreSQL, il sistema open source di
gestione di database relazionale a oggetti (ORDBMS), mentre per lo sviluppo di un’interfaccia grafica sono state
impiegate le tecnologie del Web 2.0 (PHP, XHTML, CSS, AJAX, JAVASCRIPT, ecc.): DE FELICE et alii 2009,
251-257; DE STEFANO-SIBILANO 2009, 95-114; BUGLIONE et alii 2012;. È importante sottolineare come
attualmente l’accesso on line al DBMS avvenga in maniera circoscritta alla fruizione della banca dati da parte dell’équipe archeologica del DISCUM. Accedendo all’home del sistema è possibile eseguire la procedura di preliminare identificazione dell’utente. Gli estremi necessari (username e password) vengono forniti all’utente dall’amministratore di sistema in fase di registrazione al Db. È plausibile ipotizzare che, una volta stabilite le credenziali di accesso al web Db, tuttora in via di definizione con i diversi responsabili scientifici delle attività oggetto di indagine, l’accesso al repository divenga pubblico. Si può, infatti, immaginare che la fruizione di ciascun archivio dati, derivato
dal modello IREMAS, avverrà direttamente dalle pagine del sito www.archeologia.unifg.it, contestualmente alla
descrizione delle diverse attività di ricerca svolte dall’Area di Archeologia del DISCUM.
26
192
dell’Unità Topografica utili per una descrizione generica dell’UT all’interno del territorio
di riferimento. La tabella UTS raccoglie, al contrario, al suo interno i dati descrittivi peculiari dell’Unità Topografica Subacquea.
Per quanto attiene alla documentazione cartacea e digitale è stato necessario creare
una serie di archivi che comprendessero tutte le informazioni essenziali per documentare
in maniera completa l’UT di riferimento. Nell’entità ARCHIVIO GRAFICO/FOTOGRAFICO sono presenti tutti i dati riguardanti il materiale grafico/fotografico (planimetrie,
modelli grafici 3D, fotografie, stampe, ecc.) di pertinenza dell’UT e a esso sono associate anche alcune informazioni dimensionali, topografiche e cronologiche.
Le fonti bibliografiche sono inserite nella tabella ARCHIVIO BIBLIOGRAFICO,
un’entità che fornisce indicazioni dettagliate circa l’anno e il luogo di edizione, l’autore,
il titolo oltre anche alle varie informazioni topografiche e cronologiche di tutte le fonti
quali saggi, monografie, articoli, riviste, consultate nel prosieguo dell’indagine dell’unità
topografica. L’ultimo archivio a tal fine considerato è quello riferito alla tabella ARCHIVIO DOCUMENTARISTICO, esso consente di registrare una serie di informazioni
riguardanti il tipo di fonte documentaristica consultata, con l’opportunità di indicarne la
data e il luogo di edizione, la collocazione, i riferimenti, il contesto istituzionale/amministrativo e altro ancora, fornendo una scheda completa a livello di reperimento futuro della
fonte medesima.
Per quanto concerne la gestione dei reperti si è scelto di limitare in questa fase l’analisi ai reperti ceramici e ai cd. rinvenimenti particolari altrimenti noti come Small Finds.
Entrambe queste entità, in associazione alla tabella destinata al computo quantitativo complessivo dei reperti rinvenuti, derivano dalla sezione stratigrafica di IREMAS e sono state
adattate aggiungendo la dicitura “topografica” alla loro denominazione tabellare, al fine di
distinguerle da quelle finalizzate all’archiviazione dei dati delle unità stratigrafiche.
Progressivamente si cercherà di rendere compatibili con questa sezione anche le restanti
categorie di reperti già implementate nel database stratigrafico, tra cui i reperti lapidei, i
reperti faunistici e i materiali fittili.
Per la realizzazione dei vocabolari funzionali alla schedatura delle UTS sono state,
inoltre, progettate 21 tabelle destinate a fornire all’utente elenchi terminologici a risposta
singola, definendo relazioni uno-a-molti, o a risposta multipla, definendo relazioni moltia-molti.
2. Schema
Entità-Relazioni
della tabella
Ut_generale.
193
3. IREMAS_Sezione
Topografica: Dati
generali e Dati
descrittivi
dell’UTS.
4. IREMAS_Sezione
Topografica: gli
Archivi
(Grafico/Fotografi
co; Bibliografico;
Documentaristico)
dell’UTS.
194
Lo sviluppo del sistema web-based della sezione topografica condivide chiaramente l’area destinata all’accesso al DBMS e alla gestione degli utenti già sviluppata per la
sezione stratigrafica. Essa è costituita da una preliminare fase di login, superata la quale
l’utente visualizza un ulteriore pannello in cui scegliere se procedere nell’analisi
dell’Indagine Stratigrafica o dell’Indagine Topografica (fig. 3).
Eseguita la scelta l’utente entra nel pannello principale. L’applicativo dispone di
un’unica videata utilizzabile per le varie fasi di inserimento, modifica, visualizzazione e
ricerca a seconda delle autorizzazioni fornite all’utente in fase di login. Più specificatamente, l’interfaccia grafica si compone di pannelli a scomparsa che sono richiamati in
base alle esigenze dell’utente.
Nel caso di selezione dell’area topografica l’utente visualizza sul lato sinistro, in
maniera permanente, le informazioni cd. anagrafiche di ciascuna Unità Topografica, raccolte nella denominazione “Descrizione generale”. In fase di data entry l’utente stabilisce
la natura dell’Unità Topografica, se terrestre o subacquea, determinando l’attivazione dei
campi di pertinenza dell’UTS e, di conseguenza, la disattivazione dei campi propri
dell’Unità Topografica di natura terrestre.
La compilazione dei campi obbligatori all’interno della sezione “Descrizione generale” permette all’utente di abilitare l’accesso ai pannelli secondari: una serie di pulsanti
opportunamente etichettati e ubicati nella porzione superiore dello schermo guida, infatti,
l’utente alla fruizione dei dati descrittivi dell’UT, finalizzati a un’analisi più miratamente
descrittivo-interpretativa dell’UTS sottoposta a indagine; della sezione “Reperti”, distinta
in reperti ceramici e Small Finds; della sezione “Archivi”, a sua volta distinta in GraficoFotografico, Bibliografico e Documentaristico per la gestione dell’intero apparato grafico
associato all’Unità Topografica indagata e per l’analisi delle fonti e della bibliografia disponibili per il territorio oggetto di studio.
3. Conclusioni
Pur rispettando lo schema teorico alla base della Carta dei Beni Culturali, ritenuta
un prezioso modello a cui rifarsi sul piano dell’impostazione concettuale questa banca dati
non soltanto riempie quel vuoto informativo lasciato dalla CBC circa i paesaggi subacquei, ma ne supera, d’altra parte, l’approccio meramente catalogativo, cercando di rendere il database uno strumento rispondente sul piano strettamente metodologico e, pertanto,
funzionale anche alle esigenze di un’attività che si svolge principalmente sul campo.
Ne consegue la strutturazione di un archivio multimediale capace di raccogliere e
ordinare grandi masse di dati secondo uno schema specifico e formalizzato, al fine di agevolare una rapida ed efficace integrazione fra documenti archeologici e parametri geografici all’interno di un Sistema Informativo Territoriale: in questo modo s’intende creare sia
un supporto indispensabile a un’analisi complessiva e sistematica che intenda descrivere
le trasformazioni del paesaggio, sia un valido strumento di tutela.
I beni culturali subacquei, anche se “meno visibili”, sono parte integrante di quel
contesto storico al quale ormai l’archeologia dei paesaggi si propone di restituire «una tangibilità nelle sue tre dimensioni»27 e in quanto tali devono essere chiamati a partecipare
alla costruzione di nuove e più complete narrazioni. Se la mancata considerazione della
“cultura del contesto” ha causato molti dei problemi attualmente incontrati nella conservazione e nella gestione dei beni culturali, il “sommerso” ha anche pagato gli svantaggi di
una minore evidenza28.
L’esperienza progettuale maturata in seno al progetto Liburna conferma ancora una
volta l’esigenza di una gestione il più possibile sistematizzata della conoscenza prodotta
dalla ricerca archeologica, pur con le ovvie eccezioni e remore di cui si è più volte scritto29 e di cui si è già avuto modo di discutere anche nel corso nel corso degli appuntamenti annuali di ArcheoFOSS. Al momento attuale risulta, infatti, fondamentale sistematizzare il censimento dei giacimenti archeologici subacquei sia per contribuire a una più complessa ricostruzione storica del paesaggio sia per fornire agli enti presenti sul territorio un
archivio, condiviso e partecipato, in continuo aggiornamento utile alla pianificazione territoriale e alla prevenzione30, come in Italia sta già dimostrando il progetto Alto Adriatico.
27
CAMBI 2011, 51.
Sull’accezione plurisemantica del termine “sommerso” si veda quanto espresso nel contributo di A. De Stefano,
M. G. Sibilano, G. Volpe in questo stesso volume.
29
Sebbene originariamente indirizzata al settore meramente storico la prima puntuale disamina sull’inadeguatezza
dei database relazionali alla pratica delle discipline umanistiche è in THALLER 1993, 51-86. La rivista Archeologia
e Calcolatori ha saputo brillantemente illustrare, dal 1990 a oggi, le diverse posizioni e opinioni maturate nel progressivo passaggio dalla fase dei “grandi entusiasmi” alla fase dei ripensamenti e delle critiche verso l’uso delle banche dati in archeologia: fra tutti, GUERMANDI 1999, 89-99. Per una recente analisi sui caratteri, i limiti e i vantaggi impliciti nell’uso dei DBMS nella pratica archeologica: D’ANDREA 2006, 47-52.
30
In riferimento all’evoluzione del dibattito sul ruolo e la gestione della pianificazione territoriale e della tutela, e
sul rapporto tra archeologia preventiva e archeologia d’emergenza cfr. per gli esordi della discussione Archeologia
Medievale 1979; allo stato attuale per una sintesi VOLPE 2007; CARANDINI 2008; BROGIOLO 2009.
28
195
In questa prospettiva il sostegno delle tecnologie informatiche FOSS, sempre più
democratiche sul piano delle competenze eterogenee coinvolte, delle soluzioni applicative impiegate e della libera fruizione che ne consegue, rivela un ruolo ormai nodale rispetto alle diverse esigenze di ricerca, didattica, tutela o comunicazione del nostro patrimonio
archeologico emerso e sommerso.
196
Abbreviazioni bibliografiche
ANASTASI-VOLPE 2006
A. Anastasi - G. Volpe, L’archeologia subacquea in
Albania, in L’Archeologo subacqueo, 12, 2006, 1-3.
Archeologia Medievale 1979
Archeologia Medievale VI. Archeologia e
Pianificazione dei centri abitati, Seminario
Interdisciplinare, Rapallo 1978, Firenze 1979.
AURIEMMA-KARINJA 2008
Terre di mare. L’archeologia dei paesaggi costieri e
le variazioni climatiche, Atti del Convegno
Internazionale di Studi, R. Auriemma, S. Karinja
(edd.),Trieste 2008.
BELTRAME 1998
C. Beltrame, Processi formativi del relitto in ambiente marino mediterraneo, in Archeologia subacquea.
Come opera l’archeologo sott’acqua. Storie dalle
acque, G. Volpe (ed.), Firenze 1998, 141-166.
BROGIOLO 2007
G. Brogiolo, Dall’Archeologia dell’architettura
all’Archeologia della complessità, in Pyrenae, 38, 738.
BROGIOLO 2009
G. Brogiolo, La tutela dei paesaggi storici tra
archeologia preventiva e archeologia d’emergenza,
in V Congresso Nazionale di Archeologia Medievale,
G. Volpe, P. Favia (edd.), Firenze 2009, 3-6.
BUGLIONE et alii 2012
A. Buglione - G. De Venuto - M. G. Sibilano,
Strumenti open source per la gestione dei reperti faunistici: l’Itinera Repository Management System
(IREMAS), in Atti del 6° Convegno Nazionale di
Archeozoologia, J. De Grossi Mazzorin, D. Saccà, C.
Tozzi (edd.), Orecchiella 2009, San Romano in
Garfagnana-Lucca 2012, 3-6.
CAMBI 2011
F. Cambi, Manuale di archeologia dei paesaggi.
Metodologie, fonti, contesti, Roma 2011.
CARANDINI 2008
A.Carandini, Archeologia classica. Vedere il tempo
antico con gli occhi del 2000, Torino 2008.
D’ANDREA 2006
A. D’Andrea, Documentazione archeologica, standard e trattamento informatico, Budapest 2006.
DE FELICE et alii 2009
G. De Felice - E. Di Sciascio - R. Mirizzi - G.
Piscitelli - M. G. Sibilano - E. Tinelli - M. Trizio - G.
Volpe, Un sistema web-based per la gestione, la classificazione e il recupero efficiente della documentazione di scavo, in ARCHEOFOSS. Open Source, Free
Software e Open Format nei processi di ricerca
archeologica, Atti del Workshop, P. Cignoni, A.
Palombini, S. Pescarin (edd.), Roma 2009, in ACalc,
suppl. 2, 2009, 251-257.
DE STEFANO-SIBILANO 2009
A. De Stefano - M. G. Sibilano, Un modello per la
catalogazione digitale dei reperti lapidei: l’Itinera
Repository Management System (IREMAS), in
Marmora. An International Journal for Archaeology,
History and Archaeometry of Marbles and Stones, 5,
2009, 95-114.
FELICI 2002
E. Felici, Metodi e tecniche del lavoro archeologico
subacqueo, Roma 2002.
GIANFROTTA-POMEY 1981
P. A. Gianfrotta - P. Pomey, Archeologia subacquea.
Storia, tecniche, scoperte e relitti, Milano 1981.
GUERMANDI 1999
M. P. Guermandi, Dalla base dati alla rete: l’evoluzione del trattamento dei dati archeologici, in ACalc,
10, 1999, 89-99.
MANACORDA 2007
D. Manacorda, Il sito archeologico: fra ricerca e
valorizzazione, Roma 2007.
MANNONI 1985
T. Mannoni Archeologia globale a Genova, in
Restauro & Città, 2, 1985, 33-47.
PIETRAGGI-DAVIDDE 2007
R. Pietraggi - B. Davidde, Archeologia sott’acqua.
Teoria e pratica, Roma 2007.
RICCOBONO 2008
D. Riccobono, Il GIS, in R. Auriemma, V. Degrassi,
P. Donat, D. Gaddi, S. Mauro, F. Oriolo, D.
Riccobono, Terre di mare: paesaggi costieri dal
Timavo alla penisola muggesana, in AURIEMMAKARINJA 2008, 181-186.
THALLER 1993
M. Thaller, Historical Information Science: Is There
Such a Thing? New Comments on an Old Idea, in
Discipline Umanistiche e Informatica, Orlandi T.
(ed.) Roma 1993, 51-86.
VOLPE 2000
G. Volpe, s.v. Archeologia Subacquea, in Dizionario
di archeologia, R. Francovich, D. Manacorda (edd.),
Roma 2000, 319-327.
197
VOLPE 2005
G. Volpe, Paesaggi e insediamenti rurali dell’Apulia
tardoantica e altomedievale, in Paesaggi e insediamenti rurali in Italia meridionale fra Tardoantico e
Altomedioevo, Atti del I Seminario sul Tardoantico
Altomedioevo in Italia meridionale, G. Volpe, M.
Turchiano (edd.), Foggia 2004, Bari 2005, 299-314.
Scienze Umane.
[email protected]
VOLPE 2006
G. Volpe, Archeologia aerea, archeologia dei paesaggi e archeologia globale della Daunia (Aerial
Archaeology, landscape archaeology and ‘total’
arcaheaology in Daunia), in Paesaggi sepolti in
Daunia. John Bradford e la ricerca archeologia dal
cielo (1945-1957), F. Franchin Radcliffe (ed.),
Foggia 2006, 13-36.
D. Balzano
[email protected]
VOLPE 2007
G. Volpe, L’archeologia “globale” per ascoltare la
“storia totale” del paesaggio, in SudEst, 20, 20-32.
VOLPE 2008
G. Volpe, Per una “archeologia globale dei paesaggi” della Daunia. Tra archeologia, metodologia e
politica dei beni culturali, in Storia e Archeologia
della Daunia. In ricordo di Marina Mazzei, Atti delle
Giornate di Studio, G. Volpe, M. J. Strazzulla, D.
Leone (edd.), Foggia 2005, Bari 2008, 447-462.
VOLPE et alii 2008-09
G. Volpe - A. Anastasi - D. Leone - M. Turchiano - G.
Disantarosa, Il progetto Liburna: due anni di ricerche in Albania, in L’Archeologo subacqueo, 15,
2008-09, 2-16.
VOLPE et alii c.s.
G. Volpe - A. Anastasi - G. Disantarosa - D. Leone M. Mazzoli - M. Turchiano, Progetto Liburna.
Archeologia subacquea in Albania, in III Convegno
Nazionale di Archeologia Subacquea, Manfredonia
2007, c.s.
Referenze iconografiche
Autori (M. Lomuzio): fig. 1.
Autori (D. Balzano): figg. 2-4.
Danilo Leone
Università degli Studi di Foggia. Dipartimento di
Scienze Umane.
[email protected]
Nunzia Maria Mangialardi
Università degli Studi di Foggia. Dipartimento di
198
Maria Giuseppina Sibilano
Università degli Studi di Foggia. Dipartimento di
Scienze Umane.
[email protected]
Alessandra De Stefano
Maria Giuseppina Sibilano
Giuliano Volpe
La città nascosta: un DBMS per
il censimento e l’analisi delle
strutture ipogee del centro storico
di Foggia
Abstract
The agreement signed in 2010 between the University of Foggia - Department of Human Sciences and
the Municipality of Foggia was born in implementing the Accordo di Programma Quadro of the Basin
Authority of Puglia, the Municipality and the Province of Foggia. The aim of the agreement was to monitor
needs and safety of the urban areas at risk of static stability and structural vulnerability. The research, still
ongoing, involves the census, surveying and cataloging of underground and man-made cavities located in the
town of Foggia for the creation of a database implemented also on thematic and geo-referenced maps. The
main objective is the recovery of the cultural identity of the historic city of Foggia through his historical reevaluation, based on the necessary redevelopment of the historical, archaeological and artistic heritage here
represented. The DBMS for the census of underground cavities is an attempt in this direction. It is placed, on
the theoretical setting, in continuity with the Charter of Cultural Heritage of Puglia, a project started in
September 2007 on the initiative of the Assessorato all’Assetto del Territorio of Puglia, in collaboration with
the Assessorato al Diritto allo Studio e Beni Culturali, and the participation of four universities from Puglia
(Foggia, Bari, Salento and Politecnico of Bari) and the Regional Department for Cultural and Landscape
Heritage of Puglia. Unlike the Charter of Cultural Heritage of Puglia the database of underground cavities of
Foggia is characterized by a choice application not only directed to the use of commercial products, but more
appropriately geared to the vast potential offered by the world of free software and open source. For the implementation and management of the repository is used PostgreSQL, the most advanced open-source object-relational database (ORDBMS) in the open source community; GUI development technologies have been used
Web 2.0 (PHP, AJAX, XHTML, etc.). The database, then, is the result of the analysis and survey of a sample
of urban underground represented by man-made environments of the late medieval and modern age. It is
designed to collect basic descriptive information of each cavity (description, analysis, general technical info
on the owners), starting from a generic level of description (the ipogeo) to reach the minimum unit of analysis (individual rooms), It provides general guidance of scientific and chronological data (technical description,
history, archaeological risk index, published and unpublished documents), aimed at the protection, enhancement and enjoyment of each evidences analyzed.
1. La Carta degli Ipogei del comune di Foggia
Nell’immaginario collettivo passato e moderno discutere di archeologia significa
naturalmente parlare di “evidenze sommerse”.
L’espressione “sommerso”, non casualmente utilizzata di rado da addetti e non
addetti al lavoro, pur essendo emblematicamente rappresentativa del carattere proprio di
questa disciplina, ha però acquisito nel tempo un significato complesso, a tratti spinoso,
perché di frequente associato a una rappresentazione semantica a prevalente accezione
negativa. Parallelamente a un’attribuzione di natura topografica il termine “sommerso”
199
può, infatti, richiamare alla mente un’immagine dai tratti sfocati, di origine incerta, per lo
più oscillante tra una necessaria legittimazione di esistenza, spesso negata, e un rifiuto cronico all’attuazione della sfera normativa da parte di un’ampia fetta della società civile.
La crescente assenza di una manifestazione oggettiva, dal valore storico unanimemente condiviso e, laddove possibile, opportunamente tutelato, di ogni forma di “espressione archeologica” distribuita intorno a noi, si è tradotto in questi ultimi decenni in un’ininterrotta attività di denuncia verso le profonde trasformazioni dell’attuale paesaggio
urbano e rurale, esito della realizzazione di grandi infrastrutture, di opere di natura pubblica e privata, di un’incontrollata meccanizzazione dell’agricoltura e della sempre presente “piaga” dello scavo clandestino e del traffico illegale di opere e beni che ne consegue1.
Ciascuno di questi interventi costituisce un’allarmante spia di un patrimonio “sommerso”, costantemente minacciato e incapace di opporsi alla totale scomparsa e all’incessante degrado di numerosi siti ed evidenze archeologiche a cui ogni anno noi tutti assistiamo.
Un patrimonio per il quale si riconosce ormai l’impossibilità di un’attività di conservazione a tappeto che non sia frutto di opportuni criteri selettivi2. Da qui l’esigenza di
una più mirata ed efficace opera di indagine, associata all’urgenza di immediati interventi di tutela a carattere “inclusivo”: interventi, cioè, basati sul coinvolgimento pieno delle
università (non soltanto destinatarie passive della pratica della concessione di scavo) e
degli enti locali, attribuendo alle soprintendenze un ruolo di coordinamento e un’attività
di tutela non circoscritta al mero aspetto vincolistico (L. 1089 del 1939), ma opportunamente preventiva (L. 109 del 2005)3.
L’introduzione di recenti, ma a oggi circoscritte, forme di cooperazione, su nuove
basi legislative, tra enti preposti alla tutela, alla ricerca, alla pianificazione territoriale e
soggetti privati, per una diversa gestione del patrimonio culturale e territoriale e per nuove
forme di integrazione politica e sociale della ricerca scientifica, ha progressivamente prodotto, nella cerchia degli addetti ai lavori, l’esigenza di restituire all’opinione pubblica la
giusta consapevolezza dell’agire umano in senso storico e diacronico, “risvegliando”, e in
tal modo tutelando, la memoria collettiva insita nel concetto stesso di bene culturale4.
In quest’ottica si è giunti all’ideazione della Carta degli Ipogei del comune di
Foggia, un progetto finalizzato alla catalogazione delle cavità ipogee distribuite nel sottosuolo del centro storico foggiano, frutto di un modello positivo di cooperazione tra enti
differenti e con funzioni distinte.
La Carta degli Ipogei nasce nell’ambito dell’Accordo di Programma Quadro Difesa
del Suolo - Delibera CIPE 20/2004. Studio di fattibilità per il monitoraggio e la messa in
sicurezza delle aree urbane a rischio di stabilità statica e vulnerabilità strutturale nella città
di Foggia - Convenzione Autorità di Bacino della Puglia - Comune di Foggia e Provincia
di Foggia n. 0004819 del 20.05.20085, finalizzato al monitoraggio del rischio sismico in
alcune aree della città di Foggia. La Carta degli Ipogei intende porsi quale naturale prosecuzione6 di quanto realizzato con la redazione della Carta dei Beni Culturali (CBC) della
Regione Puglia recepita dal nuovo Piano Paesaggistico Territoriale Regionale (PPTR)7.
La CBC regionale, nata dalla collaborazione tra le quattro università pugliesi e la
1
GRAEPLER-MAZZEI 1996.
RICCI 1996.
3
VOLPE 2007, 20-32.
4
RICCI 1999, 97-127.
5
Il progetto, promosso dal Comune di Foggia (nelle persone di. Ing. Francesco Paolo Affatato - Responsabile Unico
del Procedimento, Ing. Alfredo Ferrandino - Coordinatore di Progetto) e dall’Autorità di Bacino della Regione
Puglia, ha visto la collaborazione, per affidamento, del Dipartimento di Scienze Umane dell’Università di Foggia.
6
Si è ritenuto opportuno intitolarla Carta degli Ipogei per ribadire il legame concettuale con la Carta Regionale dei
Beni Culturali.
7
VOLPE et alii 2008, 75-90; VOLPE 2009, 264-269; VOLPE et alii 2009, 1887-1894; VOLPE 2010, 7-19; VOLPE
2011, 21-28.
2
200
direzione regionale per i Beni Culturali e Paesaggistici della Puglia con il supporto tecnico della società InnovaPuglia s.p.a., ha, infatti, previsto il censimento sistematico di tutti
i beni immobili di interesse culturale (archeologici e architettonici) presenti sul suolo
regionale, al di fuori delle città. Per quanto concerne i centri urbani, con la CBC regionale si è esclusivamente provveduto, in ambiente GIS, all’individuazione e alla definizione
dei limiti esistenti tra “città storica” e “città moderna”, ovvero tra un organismo urbano
complesso prodotto da particolari processi storici e la sua espansione moderna. Nel caso
della città di Foggia, la “città storica” è visualizzabile all’interno della Carta come un poligono irregolare esteso a comprendere il settore che gravita nell’area della Cattedrale, i
quartieri settecenteschi, la stazione e l’area della “villa comunale”.
La Carta degli ipogei va a riempire parte di questo poligono, per quanto concerne
la zona ritenuta di popolamento più antico, che gravita nell’area della Cattedrale e dei
quartieri settecenteschi, limitando l’oggetto di censimento alle evidenze ipogee (grandi
vani sotterranei di età moderna, in taluni casi comunicanti fra loro, caratterizzati da soffitti voltati, destinati verosimilmente allo stoccaggio delle derrate), che costituiscono un
carattere peculiare e ancora poco conosciuto e valorizzato della città di Foggia8 (fig. 1).
1. Foggia. Gli
ipogei della
Chiesa di San
Tommaso, della
Chiesa di San
Giuseppe, di
Piazza De
Sanctis, di
Palazzo Antonelli.
2. Un modello per il censimento degli ipogei
Le cavità ipogee distribuite nel sottosuolo del centro storico di Foggia rappresentano un caso emblematico di evidenze sommerse e non soltanto per la pur ovvia collocazione al di sotto dell’attuale piano di calpestio: si tratta di beni scarsamente noti o completamente ignoti alla maggior parte dei cittadini foggiani.
Al di là delle fonti storiche, “patrimonio” documentale dei soli addetti ai lavori, la
conoscenza di questi vani risiede, infatti, in forme più o meno evidenti di tradizione orale
in dote alla sola componente più anziana della cittadinanza foggiana nei cui racconti torna
ripetutamente il ricordo di “grotte” distribuite al di sotto del centro storico, preziosi luoghi di rifugio dai numerosi bombardamenti a cui la città fu sottoposta nel corso della
seconda guerra mondiale.
8
BECCIA 1939; RUSSO 1992; ARBORE 1995; DE LEO 1997, 171-175; SALVATO 2005.
201
Sul piano della gestione della conoscenza archeologica il tema del sommerso legato alle evidenze ipogee distribuite nel sottosuolo foggiano assume, pertanto, un ruolo prioritario, espresso però in termini di negazione, cioè di assenza conoscitiva.
Un’insufficiente consapevolezza circa l’esistenza di questi vani comporta, infatti,
una più complessa reperibilità di informazioni e dunque una minore capacità di individuazione degli stessi, direttamente proporzionale a una maggiore difficoltà economica,
amministrativa e operativa dal punto di vista della tutela, della valorizzazione archeologica e delle necessarie opere di riqualificazione del contesto urbano in cui questi beni insistono: un centro storico ormai da anni riaperto alla pubblica fruizione ma con un cammino ancora lungo da percorrere in termini di riappropriazione etica della memoria storica
custodita in questi luoghi.
Simili considerazioni ci hanno spinto inevitabilmente a riflettere su più opportune
forme di comunicazione del patrimonio informativo racchiuso in questi beni, giudicando
prioritaria, su qualunque altra forma di intervento, un’opera di catastazione destinata in
primo luogo a fornire un utile strumento di prevenzione e tutela degli ipogei e dello spazio urbano immediatamente limitrofo, ma soprattutto in grado di produrre un incremento
di conoscenza e notizie circa le evidenze sottoposte a indagine da erogare all’intera comunità foggiana.
Si è, pertanto, avviata un’attività di censimento in grado di operare nel solco dell’esperienza rappresentata dalla Carta dei Beni Culturali della Regione Puglia, forse l’esempio di catalogazione meglio conosciuto nel nostro panorama regionale.
La Carta ha, infatti, rappresentato un ineludibile punto di partenza a cui rifarsi sul
piano dell’articolazione concettuale, specializzando in maniera puntuale il patrimonio
informativo in essa racchiuso, ma allo stesso tempo è apparsa un modello da cui discostarsi, almeno in parte, sul piano delle scelte tecnologiche ivi adottate.
Il database degli ipogei del comune di Foggia risulta, infatti, l’unica componente
dell’intera filiera progettuale9 realizzata in duplice versione, commerciale e open source.
Per l’implementazione e la gestione del repository si è utilizzato parallelamente alla ben
nota applicazione Access della Microsoft, PostgreSQL, il sistema open source di gestione
di database relazionale a oggetti (ORDBMS) più avanzato nella comunità open source10.
Si è, dunque, optato per una scelta applicativa non indirizzata al solo impiego di
prodotti commerciali, ma più opportunamente consapevole delle vaste potenzialità offerte dal mondo del free software e dell’open source.
A motivare ulteriormente questa decisione ha contribuito indubbiamente il coinvolgimento di enti pubblici interessati a sostenere una politica di tutela e valorizzazione basata su strumenti gestionali a costo zero e su una divulgazione di informazioni liberamente
fruibile senza alcuna compromissione sul piano della sicurezza e dell’integrità dei dati.
Questo approccio trova ulteriore conferma sul piano normativo, a livello nazionale
e internazionale, in diversi strumenti legislativi finalizzati ormai da qualche anno a sostenere l’utilizzo di software open source nell’ambito della pubblica amministrazione11.
9
Il progetto si è strutturato in diversi step al termine dei quali si è giunti all’analisi, al censimento e alla localizzazione georeferenziata di 643 ipogei. Dell’intera totalità degli ipogei censiti tuttavia solo un campione più ridotto pari
a 30 ipogei è stato sottoposto ad analisi più accurata di tipo tecnico-strutturale e a un rilievo planimetrico bidimensionale. Due ipogei sono inoltre stati sottoposti a un rilievo tridimensionale, uno mediante 3D Laser scanner, uno
mediante restituzione fotogrammetrica.
10
Attualmente si stanno ultimando le ultime correzioni e modifiche dei file .php e .jscript funzionali al funzionamento dell’interfaccia utente, basata su tecnologia 2.0. Superata questa fase si procederà al testing del repository,
necessario per un accesso al sistema da parte di un’utenza più ampia, per poter, quindi, giungere, in ultima istanza,
alla definizione da parte dei coordinatori progettuali delle modalità di accesso e fruizione del DBMS.
11
Decreto del Ministro per l’innovazione e le tecnologie 31 ottobre 2002 - “Istituzione della Commissione per il software a codice sorgente aperto - “open source” - nella Pubblica Amministrazione”; Direttiva del Ministro per l’innovazione e le tecnologie 19 dicembre 2003 - “Sviluppo ed utilizzazione dei programmi informatici da parte delle
202
Anche a livello regionale si registra la conferma di una simile tendenza come dimostra l’approvazione nella Giunta Regionale del 15 giugno 2011 del Disegno di Legge
denominato “Norme su software libero, accessibilità di dati e documenti e hardware documentato” che nei suoi 19 articoli prevede «l’elaborazione di un piano triennale finalizzato alla promozione di progetti di ricerca, sviluppo e produzione sul software libero e
l’hardware documentato, che si realizzerà con il coinvolgimento delle imprese, dei distretti produttivi, del sistema universitario e della ricerca. Allo stesso modo si lavorerà sulla
formazione: la Regione, infatti, incentiva l’utilizzo del software libero anche a scuola, promuovendo l’inserimento, nei programmi didattici, della formazione all’uso del software
libero e della diffusione dei valori etici e culturali a esso connessi. È chiaro che la Regione
per prima sostituirà i propri apparati e, nel momento in cui bandirà una gara per l’acquisto di software, privilegerà (a parità di prestazioni) il software libero con specifiche premialità per le imprese che ne propongono l’utilizzo. In questo modo potrà mettere a disposizione degli utenti e delle altre amministrazioni il software e i codici per gestirlo, in
modo che ciascuno sia libero di usare il programma e anche di migliorarlo, adattandolo
alle proprie esigenze»12, oltre che di fruirne in maniera più immediata e trasparente.
Un simile approccio, dal valore etico ancor prima che economico, verso la diffusione del software libero nella pubblica amministrazione rappresenta indiscutibilmente un
importante passo in avanti in grado di favorire, prime fra tutte, realtà territoriali più fragili, a livello sociale ed economico, come nel caso del comune di Foggia e del più ampio
contesto meridionale.
2.1. La progettazione concettuale del DBMS
L’attività di censimento sinora svolta ha portato all’individuazione di 643 ipogei,
definibili come grandi ambienti sotterranei di età tardo medievale e moderna. Questi vani
si presentano caratterizzati da soffitti voltati e da un’architettura realizzata essenzialmente in laterizio e blocchi di calcarenite (quest’ultima approvvigionata direttamente nel territorio di Foggia), destinati verosimilmente alle attività produttive di stoccaggio o conservazione delle derrate e dei beni primari (neve, lana, carbone, grano) e appartenenti, nella
maggior parte dei casi, alle ricche famiglie aristocratiche vissute a Foggia in età moderna.
Di tutti gli ipogei rilevati topograficamente è stata effettuata una schedatura, descrizione
preliminare e documentazione fotografica che popola il database a tal fine realizzato.
Gli ipogei censiti e rilevati presentano alcuni elementi costruttivi e funzionali
comuni, che possono fungere da linea guida per la comprensione e l’interpretazione degli
stessi. Il riferimento alla presenza di ambienti sotterranei nella città di Foggia è presente
in un documento di età medievale e in numerosi documenti d’archivio, databili fra il
Settecento e l’Ottocento. Per quel che riguarda l’età medievale, nel Quadernus excaden-
pubbliche amministrazioni” G.U. 7 febbraio 2004, n. 31; Decreto legislativo 7 marzo 2005, n. 82, art. 68, comma 1,
lettera d) - “Codice dell’amministrazione digitale” G.U. 16 maggio 2005, n. 112 - Supplemento Ordinario n. 93;
Decreto legislativo 4 aprile 2006, n.159 - “Disposizioni integrative e correttive al decreto legislativo 7 marzo 2005,
n. 82, recante codice dell’amministrazione digitale” G.U. 29 aprile 2006, n. 99 - Supplemento Ordinario n. 105. Il
Ministro per le Riforme e le Innovazioni nella P.A., presso la Presidenza del Consiglio dei Ministri, ha pubblicato,
nel mese di marzo 2007, un documento denominato “Verso il Sistema Nazionale di e-Government - Linee strategiche” in cui viene ampiamente ribadito l’atteggiamento nei confronti delle risorse open source.
Si vedano anche le Linee guida allo sviluppo di software riusabile multiuso nella Pubblica Amministrazione (i
Quaderni n.38), pubblicate dal CNIPA (Commissione Nazionale per il software Open Source nella Pubblica
Amministrazione, commissione istituita nel maggio del 2007 dal Ministro per le Riforme e le Innovazioni nella
Pubblica Amministrazione, On.le L. Nicolais) nel gennaio 2009.
12
Newsletter del “Sistema Puglia” n. 197 (Luglio 2011). Disponibile all’indirizzo: http://www.sistema.puglia.it/portal/page/portal/SistemaPuglia/DettaglioNews?id_news=2194&id=18711.
203
ciarum, uno dei pochi documenti superstiti dell’intera cancelleria sveva, redatto non prima
del 1248-49, si fa riferimento a una non meglio specificata domum unam cripta, cioè a una
casa con cripta, utilizzata come carcere nella città di Foggia13. Tuttavia, non sono emerse
tracce significative che documentino l’occupazione dell’area indagata in età medievale.
Le uniche evidenze che potrebbero essere riconducibili a una frequentazione di età tardo
medievale sono rappresentate dalle fosse granarie rinvenute in alcuni ipogei del centro storico, come in Piazza De Sanctis (fig. 1) e Palazzo Tortorelli. Fra tutte le evidenze analizzate, alcune appaiono estremamente accurate da un punto di vista costruttivo: il discreto
livello di finitura della tecnica edilizia, la presenza di archi in blocchi squadrati di calcarenite, terminanti in lesene, l’articolazione complessa di alcune planimetrie, sembra una
caratteristica costruttiva del periodo, riconducibile, verosimilmente, a una committenza
medio-alta, di tipo religioso o privato. Non è un caso che gli ipogei architettonicamente
più monumentali o con planimetrie particolarmente complesse, insistano al di sotto dei
palazzi delle famiglie aristocratiche attive a Foggia fra il Seicento e l’Ottocento. Gli ipogei sembrano concepiti nel progetto costruttivo del palazzo storico di riferimento, pur non
potendo escludere la possibilità di livelli di frequentazione precedente, come nel caso, ad
esempio, di Palazzo Tortorelli.
Direttamente derivata dall’analisi di tali evidenze archeologiche risulta la progettazione concettuale del database concepito per la raccolta delle informazioni descrittive di
base di ciascun ipogeo (descrizione, analisi tecnica generale, informazioni logistiche),
finalizzata al censimento, studio, monitoraggio ed eventuale futura valorizzazione del
bene.
In tal senso, la raccolta delle informazioni si è articolata partendo da un livello di
descrizione generica fino all’unità minima (ipogeo, livello, vano). Vengono, innanzitutto,
fornite alcune indicazioni generali: definizione (nome) e localizzazione del bene (via,
coordinate); cronologia (se è antico o moderno e di quale periodo storico); proprietà (pubblica o privata); eventuale presenza di un palazzo storico (indicando quale) e quale attività sia associata a esso (commerciale, culturale: quest’ultimo dato risulta utile ai fini della
definizione di un’eventuale attività di fruizione, coinvolgendo, ad esempio, in un evento
o manifestazione, un’associazione o attività culturale); l’accessibilità e fruibilità.
Vengono, inoltre, fornite indicazioni finalizzate a una pianificazione futura di studio e conservazione del bene: stato di conservazione (se originario o ristrutturato); rischio archeologico (alto-medio-basso); possibilità e/o utilità di studio-scavo-restauro archeologico.
Vengono, infine, inseriti alcuni elementi descrittivi dell’ipogeo (sono state inserite
voci inerenti agli elementi realmente riscontrati all’interno degli ipogei): l’eventuale presenza di collegamenti con altri ipogei, di fosse granarie, pozzi, aperture; numero di vani e
livelli in cui si articola l’ipogeo. Segue, infine, il riferimento alla documentazione grafica,
fotografica e bibliografica esistente.
Di ciascun livello individuato, è indicato il numero dei vani, la profondità dal piano
stradale e la modalità di collegamento fra un livello e l’altro; di ciascun vano individuato,
viene indicata la localizzazione (es. a N di vano); la pianta (quadrata, rettangolare, ecc.);
la funzione (fossa, pozzo, deposito, ecc.); il tipo di copertura (solaio/volta); il tipo di pavimentazione (lastricato lapideo; terra battuta, mattoni); la tecnica muraria utilizzata; i materiali utilizzati (calcarenite, laterizio, ciottoli, ecc.); la descrizione generale di ciascuna
parete (N-S-E-O).
Il database degli ipogei è stato ideato considerando la specifica situazione della città
di Foggia; i vocabolari realizzati sono il frutto del riscontro di un campione significativo
di ipogei e fanno riferimento alle condizioni o materiali specifici individuati; tuttavia, il
modello realizzato potrebbe essere applicato ad altri ipogei urbani, incrementando ulteriormente le liste di vocabolari proposti.
13
204
DE TROIA 1994.
2.2. La progettazione logica e fisica del DBMS
Il database della Carta degli Ipogei di Foggia è, dunque, concepito per la raccolta
delle informazioni descrittive di base di ciascun ipogeo.
Sono state a tal fine modellate 26 entità tabellari partendo da un livello di descrizione generica (l’ipogeo) sino a raggiungere l’unità minima di analisi (i singoli vani): più
specificatamente si tratta di 8 tabelle principali destinate: a) alla gestione dell’accesso alla
banca dati; b) alla descrizione della struttura ipogea nella sua articolazione interna (ipogeo-livello-vano); c) alla gestione dell’apparato grafico e fotografico associato a ciascun
ipogeo.
Per la realizzazione dei vocabolari richiesti in fase di analisi e studio degli ipogei
sono state, inoltre, modellate 18 tabelle destinate a fornire all’utente menu a risposta singola, definendo relazioni uno-a-molti, o multipla, definendo relazioni molti-a-molti (fig.
2).
Per quanto concerne l’interfaccia di popolamento, ottimizzata per una fruizione
mediante il browser Mozilla Firefox, essa è costituita da una preliminare fase di login
mediante la quale l’utente accede al pannello principale al cui interno, a seconda delle
autorizzazioni fornitegli, è in grado di visualizzare, inserire, modificare, eliminare o ricercare dati pertinenti alla macro entità Ipogeo (fig. 3).
La scheda Ipogeo, come è stato già sottolineato precedentemente, è in grado di fornire indicazioni generali sia di carattere scientifico e cronologico (descrizione tecnica, cronologia, indice del rischio archeologico, documentazione edita e inedita), sia finalizzate a
attività di tutela, fruizione e valorizzazione del bene. Al suo interno sono, infatti, presenti
campi in cui è possibile descrivere e/o visualizzare elementi legati agli aspetti subdiali dell’ipogeo indagato: se il palazzo che insiste sulla struttura ipogea è uno stabile moderno o
2. Schema EntitàRelazioni delle
tabelle Ipogeo e
Vano.
205
3. Il DMBS degli
Ipogei: l’interfaccia
grafica.
un palazzo storico, se al suo interno si svolgono attività culturali, se vi sono margini per
una futura opera di fruizione, restauro, studio o scavo archeologico dell’evidenza sottoposta a indagine, ecc.14
È quindi possibile procedere successivamente all’analisi dei livelli e dei rispettivi
vani in cui si articola ciascun ipogeo.
Durante la fase di popolamento della banca dati l’accesso ai pannelli di dettaglio
Livello e Vano15 non è tuttavia progettato per una fruizione diretta: una volta selezionata
l’opzione “Inserimento” dal menu Modalità, e completata la fase di compilazione di alcuni campi obbligatori presenti nella macro sezione Ipogeo (“N. Ipogeo” e “Nome dell’ipogeo”), è, infatti, necessario definire esplicitamente, in un ulteriore campo obbligatorio a
tal fine ideato, la presenza di un approfondimento descrittivo associato alla singola struttura sottoposta ad analisi.
Automaticamente il sistema imposta il valore di default “1livello”16 al campo “N.
Livelli” consentendo all’utente di accedere alle schede Livello e Vano. In caso contrario
esprimendo l’assenza di un approfondimento, il sistema imposta il valore di default “ignoto” al campo “N. Livelli”, disattivando l’accesso alle schede di dettaglio17.
14
Per la descrizione di dettaglio delle voci che compongono la scheda Ipogeo si rimanda al paragrafo sulla progettazione concettuale: cfr. supra. È importante ricordare che dei 30 ipogei sottoposti ad analisi più approfondita soltanto due sono stati sottoposti a indagine stratigrafica sebbene non nell’ambito del progetto della Carta degli Ipogei
ma in circostanze comunque attinenti a questa attività progettuale.
15
Per la descrizione di dettaglio delle voci che compongono le schede Livello e Vano si rimanda al paragrafo sulla
progettazione concettuale: cfr. supra.
16
Si tratta di un valore chiaramente modificabile selezionando una delle restanti istanze previste nel corrispondente
menu a tendina.
17
Questa azione viene comunicata all’utente mediante il messaggio “il pannello selezionato non esiste per il tipo di
approfondimento attestato”.
206
La sezione “Ricerca”, analogamente fruibile selezionando l’omonima opzione dal
menu Modalità, è attualmente strutturata per permettere all’utente di visualizzare l’elenco
degli ipogei presenti nel banca dati: vengono distinti i 30 ipogei dotati di approfondimento dai restanti 613 privi di approfondimento. Cliccando su ciascun record attestato nella
colonna Ipogeo è possibile essere reindirizzati alla scheda di pertinenza dell’ipogeo selezionato. Il risultato della ricerca può, inoltre, essere salvato e stampato in formato cartaceo e digitale (fig. 4).
La fase di fruizione o di popolamento del database si conclude selezionando il pulsante Archivio ubicato nella barra dei menu posta nella porzione superiore dell’interfaccia
grafica principale. Si accede in questo modo alla sezione dedicata all’apparato grafico e
fotografico pertinente a ciascun ipogeo indagato (fig. 3).
4. Il DMBS degli
Ipogei: la sezione
Ricerca.
3. Conclusioni
L’urgenza di una più opportuna modalità di comunicazione e, dunque, di fruizione di beni a
oggi scarsamente conosciuti, pur essendo parte integrante e imprescindibile della memoria collettiva locale, l’esigenza di una continuità progettuale con l’esperienza della Carta dei Beni Culturali, a
patto di una graduale inversione di tendenza sul piano applicativo, e il rinnovato, e da tempo auspicato, scenario legislativo nazionale e, in particolar modo, regionale sono, dunque, all’origine di questa preziosa esperienza progettuale.
Il principale risultato è la sistematizzazione della conoscenza del patrimonio culturale di
Foggia attraverso la catalogazione e la localizzazione dei beni culturali presenti all’interno del centro urbano su cartografia dettagliata e aggiornata mediante un sistema informativo “modello”, possibile prototipo indispensabile per la programmazione delle adeguate azioni di monitoraggio e tutela dei beni culturali immobili “sotterranei” inseriti nella trama delle attuali maglie urbane.
207
La Carta degli Ipogei garantisce un monitoraggio costante e integrato degli ipogei
della città di Foggia, in progressivo aggiornamento in rapporto all’avanzamento delle
conoscenze; favorisce un’attività di conoscenza, valorizzazione e tutela del patrimonio
culturale degli ipogei di età storica presenti al di sotto dell’attuale piano della città moderna; infine, contribuisce alla risemantizzazione del patrimonio urbano e al recupero dell’identità storica e culturale della città, attività che implicherà inevitabilmente interventi di
riqualificazione del patrimonio storico-archeologico o storico-artistico rappresentato dal
centro storico nella sua globalità e unità culturale.
Quest’ultimo appare, dunque, un territorio di sperimentazione in grado di produrre
un modello di catalogazione prototipale applicabile anche ad altre realtà urbane della
Puglia e della penisola italiana, perché fondato sul principio della massima condivisione
della struttura concettuale, logica e fisica a tal fine realizzata.
La sua implementazione è certamente l’esito dell’analisi autoptica di un campione
significativo di ipogei che fa riferimento alle condizioni e ai materiali specifici individuati in situ, ma con l’importante differenza di basarsi su di un’architettura aperta in grado di
agevolare possibili ampliamenti e modifiche del modello al fine di risultare applicabile
anche ad altre realtà urbane con analoghe esigenze di conoscenza e tutela del proprio patrimonio storico-culturale.
208
Abbreviazioni bibliografiche
ARBORE 1995
G. Arbore, Famiglie e dimore gentilizie di Foggia,
Fasano 1995.
BECCIA 1939
N. Beccia, L’origine di Foggia, Foggia 1939.
DE LEO 1997
C. De Leo, Foggia sotterranea. Appunti sulla esplorazione condotta nell’area presumibilmente occupata dal palazzo imperiale, in Foggia medievale, M.S.
Calò Mariani (ed.), Foggia 1997, 171-175.
DE TROIA 1994
G. De Troia, Foggia e la Capitanata nel quaternus
excadenciarum di Federico II di Svevia, Fasano
1994.
GRAEPLER-MAZZEI 1996
D. Graepler - M. Mazzei, Provenienza sconosciuta!
Tombaroli, mercanti e collezionisti. L’Italia archeologica allo sbaraglio, Bari 1996.
RICCI 1996
A. Ricci, I mali dell’abbondanza. Considerazioni
impolitiche sui beni culturali, Roma 1996.
RICCI 1999
A. Ricci, Luoghi estremi della città. Il progetto
archeologico tra “memoria” e “uso pubblico della
storia”, in Topos e Progetto. Il topos come meta,
Roma 1999, 97-127.
RUSSO 1992
S. Russo, Storia di Foggia in età moderna, Bari 1992.
SALVATO 2005
V. Salvato, Foggia. Città, territorio, genti, Foggia
2005.
VOLPE 2011
G. Volpe, Rediscovering the Heel. Archaeology and
History in Northern Apulia, in Expedition, 53, 2011,
21-28.
VOLPE et alii 2008
G. Volpe - A. Di Zanni - S. Laurenza, La Carta dei
Beni Culturali della Regione Puglia: dalla lettura del
paesaggio alla progettazione dell’infrastruttura
informatica, in L’informatica e il metodo della stratigrafia, Atti del Workshop, G. De Felice, M. G.
Sibilano, G. Volpe (edd.), Foggia 2008, Bari 2008,
75-90.
VOLPE et alii 2009
G. Volpe - R. Martines - A. Vella - T. Caroppo - R.
Cassano - L. Ficarelli - G. Semeraro, La Carta dei
Beni Culturali della Puglia, in Atti della 13a
Conferenza Nazionale ASITA, Bari 2009, 18871894.
Referenze iconografiche
Autori (A. De Stefano): figg. 1.
Autori (M. G. Sibilano): figg. 2-4.
Alessandra De Stefano
Università degli Studi di Foggia. Dipartimento di
Scienze Umane.
[email protected]
Maria Giuseppina Sibilano
Università degli Studi di Foggia. Dipartimento di
Scienze Umane.
[email protected]
Giuliano Volpe
Università degli Studi di Foggia. Dipartimento di
Scienze.
[email protected]
VOLPE 2007
G. Volpe, L’ “archeologia globale” per ascoltare la
“storia totale” del territorio, in SudEst, 20, 2007,
20-32.
VOLPE 2009
G. Volpe, La Carta dei Beni Culturali. Intervento alla
Tavola Rotonda, in Quale futuro per l’archeologia?,
Atti del Workshop Internazionale, A. L. D’Agata, S.
Alaura (edd.), Roma 2008, Roma 2009, 264-269.
VOLPE 2010
G. Volpe, Un nuovo strumento di pianificazione territoriale. La Carta dei Beni Culturali della Puglia, in
Il paesaggio nell’analisi e pianificazione del territorio rurale, P. Dal Sasso (ed.), Foggia 2010, 7-19.
209
Stefano Costa
Luca Bianconi
Elisabetta Starnini
TIPOM 2011: l’archeologia del
software in archeologia
«Hoc illud est praecipue in cognitione rerum salubre ac frugiferum,
omnis te exempli documenta in inlustri posita monumento intueri;
inde tibi tuaeque rei publicae quod imitere capias,
inde foedum inceptu foedum exitu quod vites.»
Liv., Praefatio
Abstract
Typometry is a methodology for the dimensional analysis of chipped stone artefacts (blanks), that was
developed in the 1960s by B. Bagolini. The basic assumption behind typometry is that physical dimensions
like length, width and thickness of such artefacts can give us an insight of their technology, chronology and
the culture that produced them; moreover, by processing large amounts of such measurements the researcher
will be able to group finds in discrete categories.
Typometry was done by hand on paper until the 1980s, when a software program called TIPOM was
written to automate the plotting and reporting in DOS environment. This software was written in BASIC and
it is now very difficult to use it with the most common operative systems, nevertheless it’s still popular among
specialists. We present here a clone of the original program, written in the GNU R programming environment
and available under the GNU GPLv3.
During the process of studying this “archaeological” piece of software, we realised how poor is the
knowledge we have about the history of archaeological computing, and the opportunities that could arise from
collecting obsolete pieces of software, for both teaching purposes and the ability to analyse data that was collected twenty or thirty years ago. We argue that the most significant change in how archaeologists deal with
making software has not been a technical change, but rather a move from a “small world” where lots of researchers were crafting their own home-made tools, towards a global world where everybody should be using the
same tools. The net result is a huge loss in the number of people who are still able to craft programs that do
exactly what is needed.
Finally, we propose the creation of an open archive where such programs can be shared publicly, both
as source code and original research data.
1. La tipometria
La tipometria è una metodologia per l’analisi dimensionale delle industrie litiche
preistoriche, proposta e formulata negli anni Sessanta da B. Bagolini1, da applicare non
agli strumenti ritoccati, ma alla massa di manufatti scheggiati prodotti dal débitage, purché interi. Il metodo si proponeva, infatti, di «verificare, tramite l’indagine metrico-statistica dei materiali litici non ritoccati [...] se la suddivisione in micro-lamelle, lamelle,
lame, grandi lame, schegge laminari e schegge, adottata correntemente per definire i
manufatti litici sotto il profilo dimensionale, abbia una corrispondenza oggettiva e verificabile nella tecnica di estrazione dei manufatti dai nuclei»2. Dobbiamo ricordare che in
quel periodo si stavano facendo strada anche in Italia le istanze processualiste e, soprat1
2
BAGOLINI 1968.
BAGOLINI 1968, 195.
211
tutto in ambito preistorico, si iniziavano a utilizzare metodi statistico-matematici per ricercare nei complessi dei manufatti della cultura materiale regolarità o anomalie che fossero
portatrici di significati utili alla corretta e più oggettiva interpretazione dei contesti archeologici3.
Il concetto fondamentale alla base dell’analisi tipometrica consiste nel presupposto
che le dimensioni dei manufatti (lunghezza, larghezza, spessore) e in particolare le proporzioni tra le diverse dimensioni, siano indicative della tecnologia di produzione dei
manufatti stessi, della loro cronologia e della cultura che li ha prodotti. Tramite l’analisi
comparata di numerosi manufatti è pertanto possibile suddividerli in categorie discrete e
ricavare informazioni sulla tecnologia di scheggiatura utilizzata in un sito archeologico.
Oggi, sessant’anni dopo la proposta di Bagolini e passata anche la “moda” processualista, l’analisi tipometrica resta ancora valida e si continua a eseguire, sia come step
importante per comprendere e quantificare i moduli del débitage, sia per operare confronti dei risultati tra complessi studiati col medesimo metodo. Bagolini stesso aveva intuito,
infatti, che tramite questo tipo di analisi si potevano ottenere indicazioni utili per inquadrare sia cronologicamente, sia culturalmente le industrie litiche scheggiate4. Inoltre, i diagrammi tipometrici vengono utilizzati spesso dagli archeologi anche per analizzare la dispersione dimensionale di particolari strumenti (armature, grattatoi) o residui di scheggiatura come i microbulini5.
Fino agli anni Ottanta, la realizzazione dei grafici tipometrici e il conteggio dei relativi valori che cadevano nei diversi intervalli venivano eseguiti unicamente a mano. Il
quantitativo ottimale di manufatti da cui ricavare dati statisticamente attendibili era stato
stabilito in 500 unità. Tuttavia, è stato verificato successivamente, con la pratica, che
anche in presenza di un numero inferiore di pezzi da misurare, i grafici ottenuti rispecchiano con buona approssimazione il trend di aspettativa caratteristico del periodo e della
cultura6. Comunque rimaneva assai faticoso e macchinoso eseguire i conteggi e realizzare a mano i grafici. La rappresentazione grafica delle misure è data, infatti, mediante punti
individuati da coordinate cartesiane, ponendo sul semiasse delle ordinate la lunghezza
massima del manufatto e su quello delle ascisse la larghezza (fig. 1). In tal modo, come
rilevava giustamente Bagolini, «si ottiene una chiara immagine dell’andamento [...] con
una visualizzazione immediata di eventuali addensamenti o soluzioni di continuità nella
distribuzione dei punti»7. Un istogramma ricavato dal diagramma cartesiano suddividendo quest’ultimo in vari settori in base ai rapporti lunghezza/larghezza completa la rappresentazione e fornisce i dati quantitativi della distribuzione areale dell’industria (fig. 2). Si
può dunque comprendere come l’intervento di un programma informatico dedicato per
l’elaborazione dell’analisi tipometrica fosse auspicato e utile non solo a sollevare l’archeologo dal lavoro manuale e sveltire i tempi dell’elaborazione, ma anche per abbattere
le possibilità di errore materiale nella realizzazione dei grafici e dei conteggi per realizzare gli istogrammi.
2. TIPOM
Alla fine degli anni Ottanta, fu sviluppata presso l’Università di Milano da L. Fasani
una versione informatizzata della procedura di analisi, in linguaggio BASIC. Il software
fu chiamato TIPOM ed era scritto con una singola procedura, a cui si aggiungeva un
secondo programma dedicato alla realizzazione dei grafici associati all’analisi; il programma funzionava allora in ambiente DOS. I dati su cui TIPOM operava erano semplici
3
CLARKE 1998.
BAGOLINI 1968, 195.
5
CERMESONI et alii 1999.
6
STARNINI 1999.
7
BAGOLINI 1968, 198.
4
212
1. Diagramma
cartesiano
lunghezzalarghezza per la
tipometria delle
industrie litiche.
file ASCII in formato CSV, contenenti le misure dei singoli reperti (lunghezza, altezza,
spessore). Lo scopo di TIPOM è quello di agevolare l’archeologo creando in modalità
automatica grafici e tabelle riassuntive da cui ricavare considerazioni di carattere generale sull’insieme degli strumenti litici analizzati.
Dopo oltre vent’anni, questo programma non è più in grado di funzionare senza
accorgimenti relativamente complessi sugli attuali sistemi operativi, e tuttavia circola tra
gli addetti ai lavori su un floppy disk, che contiene sia il listato sorgente sia il programma
eseguibile da linea di comando.
3. TIPOM 2011
Per ovviare all’obsolescenza di TIPOM il progetto IOSA ha intrapreso una riscrittura del programma secondo le proprie consolidate metodologie di sviluppo già note alla
comunità archeologica8. La nuova versione di TIPOM è basata sull’ambiente di programmazione GNU R9 ed è rilasciata sotto una licenza GNU GPLv3. La scelta di R è stata dettata da vari fattori, ma ci soffermeremo qui sulla sua crescente adozione nel campo del8
9
COSTA et alii 2009.
R Development Core Team 2010.
213
2. Istogramma
quantitativo per la
tipometria delle
industrie litiche
scheggiate.
l’analisi quantitativa in archeologia10.
Pur essendo a tutti gli effetti una libreria per l’ambiente R, essa presenta una interfaccia dedicata, in cui sono disponibili le funzioni di base richieste per lo svolgimento dell’analisi tipometrica e la produzione dei grafici annessi. Le procedure di analisi sono state
tratte direttamente dal vecchio programma, andando a riprodurne in parte la resa grafica
per ragioni di omogeneità e comparabilità.
La versione 0.1 di TIPOM è una libreria R installabile tramite gli archivi CRAN,
con il comando install.packages(“tipom”) che rende i comandi accessibili nello spazio
utente. Una volta caricata la libreria nella sessione con il comando library(tipom), le operazioni a disposizione sono l’importazione dei dati e la definizione di metadati, l’analisi
preliminare e la produzione di grafici.
L’importazione di dati in formato CSV o analogo avviene tramite il comando
tipom.import che crea un oggetto di tipo data.frame corredato da alcuni metadati quali la
descrizione del dataset e l’unità di misura in cui essi sono espressi. L’operazione di data
entry è pertanto al di fuori della funzionalità di TIPOM e può essere svolta con qualunque
tipo di software (foglio di calcolo, editor testuale).
L’analisi preliminare avviene tramite la creazione di grafici preimpostati con le funzioni tipom.lw e tipom.car, rispettivamente destinate al confronto tramite scatterplot di
lunghezza e larghezza (allungamento) e dello spessore rispetto alla dimensione maggiore
(carenatura). Diverse opzioni permettono l’inclusione nel grafico di classificazioni funzionali e dimensionali riprese dal precedente TIPOM e dagli studi di Bagolini.
La funzione tipom.heat crea una griglia in cui le celle sono colorate in base alla
quantità di occorrenze di un determinato valore (heatmap) e va ritenuta come una moda10
214
BAXTER et alii 2008; BAXTER-COOL 2010; BAXTER et alii 2010.
lità di visualizzazione sperimentale adatta a insiemi di dati particolarmente numerosi.
Sulla base dei dati importati ed elaborati sono possibili tutte le analisi che l’ambiente R mette a disposizione. A titolo di esempio, citiamo il coefficiente di correlazione
ρ di Pearson ottenibile con il comando with(TIPOMDATA, cor(Length, Thickness)) e la
classificazione in insiemi discreti multidimensionali tramite algoritmi di clustering.
Anche alla luce di queste ultime indicazioni, è certamente opportuno non limitare
la possibilità di analisi a una serie predefinita di indici, ma creare, al contrario, strumenti
per giungere più rapidamente all’inizio dell’analisi statistica vera e propria, costituita da
ipotesi e test11. Se con il progredire delle tecniche di analisi si renderà certamente necessaria l’integrazione di altri indici tipometrici, l’estrema modularità del nuovo software
TIPOM rende molto semplice uno sviluppo in questo senso senza problemi di scalabilità.
In questo modo, la possibilità di utilizzare le funzionalità di TIPOM all’interno dell’ambiente R è un grande valore aggiunto rispetto a un programma autonomo.
È importante sottolineare come il lavoro presentato sia stato focalizzato non sul
codice sorgente in quanto tale ma piuttosto sul recupero delle logiche di analisi e ricerca
che lo strumento TIPOM era chiamato ad assolvere e facilitare, nell’ottica del recupero,
della salvaguardia e della divulgazione dei metodi di analisi, anche di quelli talvolta
desueti, e non degli strumenti di analisi dal punto di vista aridamente tecnico, che peraltro
sono spinti per stessa natura dell’informatica a subire processi di obsolescenza alquanto
rapidi.
4. TIPOM in the cloud
A integrazione di questo lavoro è stata realizzata un’interfaccia accessibile tramite
browser e di semplice utilizzo che, così come TIPOM, permette di caricare ed elaborare
dati in formato CSV, consentendo di eseguire un sottoinsieme dell’analisi tipometrica
senza necessità di installare alcun programma aggiuntivo.
Questa estensione, denominata TIPOM Cloud, si propone di rendere ancora più
immediato l’accesso e l’utilizzo del programma ed è realizzata in linguaggio PHP con il
supporto della libreria JQuery.
TIPOM Cloud mette a disposizione una parte delle funzionalità già disponibili tramite la libreria R, in particolare la produzione di istogrammi basati sugli indici di carenatura (IC) e allungamento (IA), insieme alla classificazione in moduli di scheggiatura (MS).
TIPOM Cloud è disponibile alla URL http://tipom.iosa.it/.
5. Oltre TIPOM: per non perdere la memoria
Oltre le specifiche funzionalità analitiche di TIPOM ci è apparsa significativa la
possibilità di recuperare un episodio della storia del software in archeologia, ancora peraltro utile nell’analisi delle industrie litiche preistoriche, ripercorrendo una parte dell’evoluzione avvenuta negli ultimi vent’anni. A livello tecnico, è evidente la differenza che
separa i due programmi funzionalmente equivalenti: da un lato abbiamo una procedura
composta da un singolo listato, mentre dall’altro, abbiamo realizzato una “interfaccia leggera” a un sistema molto complesso. Il programma originale era estremamente portabile
nel contesto dell’informatica dei primi anni Novanta; al contrario la portabilità è oggi
garantita dall’utilizzo di piattaforme relativamente complesse e linguaggi di programmazione liberi di medio e alto livello (Java, Python e lo stesso R sono alcuni tra gli esempi
più significativi), in grado di funzionare su tutti i sistemi operativi. Lo “sforzo aggiunti11
Ringraziamo la dott.ssa G. Corrente che ha evidenziato questo particolare aspetto nel corso della discussione seguita all’intervento durante il workshop.
215
vo” (rispetto alla logica di base) del programma scritto in BASIC era la creazione delle
primitive grafiche e la gestione dell’output, sia grafico sia testuale. Al contrario, la pratica contemporanea dello sviluppo di librerie software richiede procedure di integrazione
con il sistema, che nel caso di R consistono in: documentazione estensiva di tutte le funzioni tramite linguaggio di marcatura LaTeX, strutturazione del codice in file e directory
standard, controlli di coerenza interna sulle chiamate tra funzioni, condivisione della
libreria tramite l’archivio CRAN. Il risultato di questa catena operativa da parte degli sviluppatori è la grande facilità con cui il software può essere installato direttamente all’interno dell’ambiente di programmazione, tramite la connessione alla rete.
È altrettanto importante notare come l’evoluzione tecnica abbia anche comportato
un cambiamento sociale nella disciplina archeologica: di fatto il numero di persone in
grado di scrivere programmi informatici per l’analisi dei dati si è ridotto, anche nel caso
di procedure lineari come la tipometria, non solo in proporzione rispetto agli utenti ma
forse anche in termini assoluti (mancano purtroppo in Italia studi al riguardo). Questo
fenomeno è avvenuto nonostante sia divenuta nel complesso più semplice la scrittura di
programmi elementari, proprio in virtù dell’esistenza di linguaggi di alto livello e dotati di
interpreti interattivi. Le cause alla base di questi cambiamenti sono naturalmente complesse e sono uno dei modi in cui si manifesta il cambiamento della concezione stessa di
informatica nella società contemporanea (ben oltre i limitati confini dell’informatica in
archeologia), con il passaggio da un calcolatore che deve essere programmato a un elettrodomestico che va semplicemente usato nell’unico modo possibile.
6. Un Antiquarium
A seguito delle interessanti riflessioni scaturite dalla disponibilità di questo software “archeologico” a livello anagrafico, ma ancora utile agli archeologi, IOSA propone alla
comunità ArcheoFOSS e più in generale agli autori di software dedicato all’archeologia la
creazione di un Antiquarium (http://antiquarium.iosa.it/) in cui rendere disponibili con
licenza libera i listati sorgente di programmi obsoleti realizzati per l’analisi e l’archiviazione di dati archeologici, allo scopo di costituire una risorsa per la storia della nostra
disciplina e per la didattica.
Alla luce della normativa vigente sul diritto d’autore lo status di abandonware non
corrisponde alla cessazione dei diritti d’autore, pertanto l’unica modalità per la pubblicazione in rete di questi programmi è l’adozione di una licenza adatta da parte dell’autore
originale. Sono, invece, consentiti la correzione degli errori, lo studio e la modifica per
conseguire l’interoperabilità con altri programmi (art. 64-ter L. 633/41, art. 64-ter.3 L.
633/41, art. 64-quater.1 lett. A L. 633/41). L’esperienza dei workshop ArcheoFOSS costituisce, in questo ambito, un esempio particolarmente importante di discussione degli
aspetti legali connessi alla condivisione di software e dati, a cui fare riferimento per favorire una maggiore diffusione di pratiche collettive di riuso.
216
3. Diagramma
cartesiano
(scatterplot)
realizzato con la
libreria tipom
nell’ambiente R.
I diversi simboli
indicano concentrazioni maggiori
in funzione della
loro dimensione.
Le linee oblique
indicano le classi
discrete e sono
modificabili per
ogni analisi.
4. TIPOM Cloud
(http://tipom.iosa.i
t/).
217
Abbreviazioni bibliografiche
BAGOLINI 1968
B. Bagolini, Ricerche sulle dimensioni dei manufatti
litici preistorici non ritoccati, in Annali
dell’Università di Ferrara, 1, 1968, 195-220.
BAXTER et alii 2008
M. J. Baxter - C. C. Beardah - I. Papageorgiou - M.
A. Cau - P. M. Day - V. Kilikoglou, On statistical
approaches to the study of ceramic artifacts using
geochemical
and
petrographic
data,
in
Archaeometry, 50, 2008, 142-157.
BAXTER et alii 2010
M. J. Baxter - H. E. M. Cool - M. A. Anderson,
Statistical analysis of some loomweights from
Pompeii: a postscript, in ACalc, 21, 2010, 185-200.
BAXTER-COOL 2010
M. J. Baxter - H. E. M. Cool, Correspondence analysis in R for archaeologists: an educational account,
in ACalc, 21, 2010, 211-228.
CERMESONI et alii 1999
B. Cermesoni - A. Ferrari - P. Mazzieri - A. Pessina,
Considerazioni sui materiali ceramici e litici, in
Sammardenchia-Cûeis. Contributi per la conoscenza
di una comunità del primo Neolitico, A. Ferrari e A.
Pessina (edd.), Museo Friulano di Storia Naturale,
41, 1999, 231-258.
CLARKE 1998
D. L. Clarke, Archeologia analitica, Milano, 1998.
COSTA et alii 2009
S. Costa - G. L. A. Pesce - L. Bianconi, Il progetto
IOSA cinque anni dopo: cambiamenti di prospettiva
e indirizzi per il futuro, in ArcheoFOSS. Open
Source, Free Software e Open Format nei processi di
ricerca archeologica, Atti del IV Workshop, P.
Cignoni, S. Pescarin, A. Palombini (edd.), Roma
2009, in ACalc, 20, 2009, 71-76.
R Development Core Team 2010
R Development Core Team, R: a language and environment for statistical computing, R Foundation for
Statistical Computing, Vienna2010 (http://www.rproject.org/).
STARNINI 1999
E. Starnini, Industria litica scheggiata, in Il Neolitico
nella Caverna delle Arene Candide (scavi 19721977), S. Tinè (ed.), Collezione di Monografie
Preistoriche ed Archeologiche, 10, 1999, 219-236,
450-471.
Referenze iconografiche
Autori: figg. 3-4;
BAGOLINI 1968: figg. 1-2.
218
Stefano Costa.
Progetto IOSA (http://www.iosa.it/).
[email protected]
Luca Bianconi
Progetto IOSA (http://www.iosa.it/).
[email protected]
Elisabetta Starnini
Soprintendenza per i Beni Archeologici della Liguria.
[email protected]
Luca Bianconi
Davide Debernardi
Paolo Montalto
Archidroide. Gestione
bibliotecaria informatizzata
tramite tecnologie mobile open
source
Abstract
The impressive spread of mobile platforms, as well as open source ones, like Android, has caught
attention from operators and researchers versed in cultural assets who tried to maximize the good opportunities offered by the new media in several areas, e.g. Street Museum app from Museum of London, UK, or
Mobile GIS - and many others. Through this precise context we carried out our research devoted to programming and realizing a system intended to automatize typical methodological efforts in classifying books
or preserve book assets in general. The system we realized, as described below, is organized in several components deployed on the web - not only virtually but also geographically.
The main actors in our architecture are: a repository hosting digitalized files data; a pool of services
providing information about books; a REST PHP based service on a lightweight and portable application server, for populating and querying the files; a user friendly interface, based on Android mobile devices, for indexing and querying bibliographical data. The most innovatory practical aspects we have conceived are directly
based on mobile skills, e.g. semi-automatic ISBD indexing thanks to Optical Character Recognition, Barcode
scanning and libraries, like the ones provided by the Google Books service (http://code.google.com/intl/itIT/apis/books/), for matching ISBN’s and bibliographical data. Bibliographical data of books are also delivered with its actual call numbers, strictly relating to its actual position on the shelves of a library. A system
for localizing and showing the position of volumes on a map has also been foreseen.
The whole system, we are still developing, is released from the start under GNU GPL (General Public
License), in respectful accordance with open source initiative, and freely provided to the community at the
address https://bitbucket.org/iosa/archidroide/overview.
Oggi il mestiere del bibliotecario deve fare tesoro delle esperienze biblioteconomiche che negli ultimi anni si sono sviluppate, con diverso successo e alterne fortune, nel
più duttile strumento culturale che l’uomo abbia mai avuto a disposizione, dalla scoperta
della comodità della scrittura fino all’invenzione della Stampa - la Rete. Questo oceano
profondissimo, che pure si lascia ammirare in superficie da chiunque si accoccoli sulla sua
riva e addirittura solcare anche dall’ultimo mozzo della nave della civiltà, sa però restituire i propri tesori solo ai subacquei più esperti e rispettosi del suo fondale, capaci di scegliere e distinguere il relitto prezioso dall’abbaglio dei fari.
Tra questi relitti preziosi si devono annoverare le biblioteche digitali, perché
espressione della volontà umana di preservare le fonti della propria cultura con oggettività, esattamente come si fa da millenni nelle biblioteche tradizionali, limitandosi rispettosamente ad accumulare miriadi di pagine accompagnate dalla descrizione di tutti i dati
editoriali possibili per individuarle nel mondo, citarle con puntualità, sottoporle agli altri
in modo chiaro ed evidente.
L’ansia che la cultura veicolata dai libri possa un giorno scomparire, come pure è
capitato nonostante gli sforzi profusi nelle biblioteche, ha portato appunto alle migliori
219
esperienze biblioteconomiche fruibili in rete. Tra queste spiccano esperienze come quella
di Google che col suo servizio Books ha creato la più vasta biblioteca virtuale in grado non
solo di permettere al lettore la visione di titoli appena immessi sul mercato editoriale, esattamente come accadrebbe in una tradizionale libreria, ma addirittura di distribuire anastatiche digitali gratuite di titoli non più disponibili sul mercato editoriale perché non più soggetti o mai stati soggetti, ai diritti d’autore.
Un servizio del genere lede forse l’importanza delle biblioteche tradizionali e gli
interessi dei librai antiquari, perché allontana i lettori dalla consultazione diretta dei libri
e sconsiglia loro onerosi acquisti? Oppure favorisce la conservazione e la circolazione dei
libri, e della conoscenza in loro riposta, anche per quelle persone che vanno controvoglia
o, peggio, non vanno in biblioteca per risolvere un dubbio, o ancora non possono o, ancor
peggio, non vogliono spendere per l’acquisto di un volume?
Riteniamo che una risorsa del genere non solo non leda gli interessi di qualcuno, ma
addirittura susciti nelle persone più curiose quegli interessi che, in meno tempo di quanto
si immagini, andranno a favorire proprio le biblioteche tradizionali e i librai antiquari: la
digitalizzazione, in questo senso, non escluderà mai la consultazione diretta o la compravendita di un testo, ma le stimolerà più velocemente in quelle persone che naturalmente,
anche inconsciamente, vi sarebbero state predisposte.
È con questo spirito di servizio che abbiamo pensato a un’applicazione che sfruttasse le potenzialità della rete intesa come una smisurata biblioteca ordinata per ordinarne
un’altra, catalogarne i volumi, partendo dalle schede, naturalmente sempre perfettibili,
messe a disposizione da Google e da altri fornitori di servizi, e gestire, sulla stessa piattaforma, il prestito e la restituzione dei volumi stessi.
Tutto questo è reso più facile dall’introduzione, ormai universalmente accettata, del
codice univoco internazionale di identificazione libraria (ISBN), per cui si raccomanda la
buona
voce
correlata
disponibile
su
Wikipedia
all’indirizzo
http://it.wikipedia.org/wiki/ISBN (10/7/2011).
In questo contesto si inserisce la ricerca che ci ha visti impegnati nella progettazione e realizzazione di un sistema che consentisse di automatizzare una serie di operazioni
e metodologie tipiche dell’attività bibliotecaria e della catalogazione e conservazione del
patrimonio librario in genere.
Per quanto riguarda le tecnologie implementative la nostra scelta non poteva che
cadere su strumenti open source, come Google Android, PHP, MySQL o ZXing, proprio
per l’intrinseca vocazione divulgativa del progetto in sé e per il pubblico al quale è diretto e dal quale intende trarre contributo - la comunità scientifica.
I principali attori che compongono l’architettura realizzata (fig. 1) sono: un repository che ospita i dati relativi allo schedario informatizzato, un pool di servizi che forniscono informazioni sui libri, un servizio REST per il popolamento e l’interrogazione dello
schedario informatizzato dei libri, una interfaccia user friendly, basata su dispositivi mobile Android, per l’inserimento e la ricerca delle informazioni.
Come già accennato, il backend del sistema è costituito da un servizio REST (o
RESTful da Representational State Transfer) basato sulle primitive del protocollo HTTP,
che scambia dati con i client nel formato JSON (JavaScript Object Notation), ideale per i
trasferimenti di dati sulla rete e supportato da un’ampia varietà di linguaggi (in primis
JavaScript). Per l’implementazione del servizio sono state prese al vaglio sostanzialmente due ipotesi: implementare il servizio REST in Java su application server leggero e portabile (JETTY), realizzare il servizio in tecnologia PHP. Sebbene entrambe le alternative
presentino pregi e difetti si è deciso, infine, di svolgere l’implementazione nel linguaggio
PHP, principalmente per due motivi: la maggior diffusione su hosting commerciale di PHP
rispetto a Java e la presenza di primitive del linguaggio per la lettura/generazione di contenuti JSON.
Il servizio REST poggia su un database MySQL (tra i più diffusi per l’archiviazio220
ne di dati in ambito open source) ed è progettato per interfacciarsi a una serie di repository web (cfr. Google Books) dai quali ottiene le informazioni sulle schede catalografiche
dei volumi.
L’entry point al sistema è un’applicazione mobile basata su dispisitivi Android. La
scelta è ricaduta sul sistema operativo di Google in quanto si tratta di una piattaforma open
source che dispone di un’ampia comunità di sviluppatori, consente un buon grado di personalizzazione delle applicazioni e, non ultimo, volendo rilasciare sotto licenza libera il
codice sorgente del nostro progetto l’uso di Android fornisce all’utente finale la possibilità di accedere liberamente non solo al nostro codice ma a quello dell’intera piattaforma
sulla quale esso si basa.
Abbiamo cercato di riservare un minimo di attenzione all’usabilità dell’applicazione e coscientemente abbiamo deciso di riprendere i motivi propri della grafica Android,
rispettandone i canoni e le consuetudini, senza indulgere in eccessive personalizzazioni
grafiche, per evitare di appesantire lo sforzo cognitivo dell’utente che si trovi a utilizzarla.
La schermata principale dell’applicazione presenta all’utente bibliotecario le quattro funzionalità imprescindibili di una biblioteca pubblica, ovvero l’inserimento dei dati
bibliografici, la ricerca bibliografica, la gestione del prestito e della restituzione dei volumi.
La compilazione della scheda catalografica di ciascun volume parte, dunque, direttamente dal suo ISBN, che può essere inserito, a seconda delle esigenze e delle disponibilità del catalogatore, a mano o tramite OCR, ossia riconoscimento ottico, del codice a
barre stampigliato sulla copertina del volume in oggetto.
Effettuato il riconoscimento del volume a partire dal suo ISBN, l’applicazione
1. Diagramma a
blocchi del
sistema.
221
incrocia questo dato, tramite una chiamata al web service REST, con la scheda catalografica corrispondente presente su Google Books (è predisposto l’utilizzo anche di altri servizi), acquisendola in bell’ordine nella maschera di compilazione della scheda. Tutti i dati
così acquisiti costituiranno l’ossatura vera e propria della scheda, su cui il catalogatore
potrà intervenire in qualsiasi momento con le migliorie che riterrà opportune per descrivere esattamente il volume che ha davvero sott’occhio e renderlo quindi perfettamente rintracciabili per sé e per gli utenti della sua biblioteca. Ogni operazione di registrazione
rimane naturalmente reversibile ed è compilata in previsione di qualsiasi altra operazione
necessaria nella vita di una biblioteca, quali ad esempio lo scarico di volumi dismessi e
destinati ad altre biblioteche o addirittura alienati, la segnalazione di furto, smarrimento o
di successivo ritrovamento, l’eliminazione di schede erroneamente inserite.
La banca-dati così compilata può essere indagata, secondo le più diverse opzioni di
ricerca, che di fatto considerano qualsiasi dato catalografico disponibile, proprio attraverso un’interfaccia mobile che prevede un servizio di ricerca, molto snello ed intuitivo,
quale intermediario tra la postazione locale e il web service remoto, su cui appunto si registrano via via le schede catalografiche.
Una volta rintracciato il volume desiderato è poi possibile rilevarne l’esatta posizione fisica all’interno della biblioteca, rispetto all’ubicazione del dispositivo utilizzato in
quel momento per effettuarne la ricerca, direttamente visualizzata sulla mappa topografica della biblioteca in questione, sfruttando la tecnologia GPS e la triangolazione 3G, disponibili come funzionalità di sistema nei dispositivi Android.
A differenza di quando accade oggi nelle più progredite biblioteche del mondo, in
cui ogni volume viene contraddistinto da un codice a barre progressivo, assegnato e applicato dal catalogatore, a mo’ di numero di richiamo, il nostro sistema assume lo stesso
ISBN quale numero identificativo del volume per richiamarne la scheda nel momento del
prestito o della restituzione. Le spese di gestione del materiale librario, per quanto riguardasse la confezione dei codici di richiamo, oggi assegnati indistintamente a qualsiasi volume, si ridurrebbero notevolmente perché diverrebbero necessarie soltanto per i volumi più
antichi, necessariamente sprovvisti di ISBN.
La sola lettura dell’ISBN, o comunque del codice di richiamo, per quei volumi che
ne fossero sprovvisti per via dell’età, nonché del QRCode associato a ciascun lettore,
impresso su ciascuna tessera personale, permetterà dunque al bibliotecario di disporre il
prestito del volume in oggetto o di accoglierne la restituzione, in pochi passaggi.
La presente fase di sviluppo della nostra applicazione lascia spazio a nuove interpretazioni delle potenzialità mobile open source. Si è pensato ad esempio di potenziare la
localizzazione dei volumi, rendendola più immediatamente fruibile attraverso sistemi di
realtà aumentata (AR), e di migliorare le operazioni di ricollocazione dei volumi, associando a ogni scaffale un QRCode da abbinare alla sua posizione GPS che permetta di
identificare, secondo il topografico effettivo di ciascuna biblioteca, la posizione dei volumi in modo più tradizionale.
Il progetto è rilasciato sotto licenza open source (GPL3) ed è liberamente accessibile all’indirizzo https://bitbucket.org/iosa/archidroide/overview.
222
Referenze iconografiche
Autori: fig. 1.
Luca Bianconi
IOSA.it
[email protected]
Davide Debernardi
Società Ligure di Storia Patria
[email protected]
Paolo Montalto
Libero Ricercatore
[email protected]
http://www.xabaras.it
http://www.iosa.it
223
Augusto Palombini
r.finder: uno script per GRASSGIS finalizzato alla ricognizione
intelligente
Abstract
This paper explains the purposes and the use of r.finder, a GRASS-GIS script created in order to perform selective surveys on targeted areas, on the basis of known data. r.finder outs a map containing all cells
matching the same combination of thematic maps parameters of the non-null/non-zero cells in the input map.
It may out as well statistical reports and graphs of the cell values distribution. The purpose is to check for the
features of the cells where input map items are located, and to produce a map whose cells represent the increasing analogy with them according to the thematic maps parameters. The program distinguishes “qualitative”
thematic maps (single values in presence are considered) and “quantitative” ones (the whole data range between min and max - or the standard deviation if flag - d is active - is considered). In addition, r.finder can out
an editable text “rules” file containing informations on the parameter combination, to be used as well for further analysis also in different areas. Born in an archaeological perspective, the script is nevertheless a useful
tool for every kind of study dealing with geographical data. At the moment, an experimental, but fully working, version of r.finder is available under the GPL, contacting the author.
1. Il progetto
L’idea di r.finder nasce dalla constatazione della mancanza di strumenti che sintetizzino in un unico processo le fasi di un’operazione fondamentale nell’uso analitico dei
sistemi informativi geografici: lo studio delle combinazioni di caratteristiche di specifiche
aree per evidenziarne la natura più o meno significativa e utilizzare tale dato in un’ottica
predittiva. Tale operazione è possibile, manualmente, su singoli tematismi, ma richiede
passaggi multipli e complessi per essere applicata su diverse mappe tematiche, e questo
sia in un approccio induttivo (risalire dalle mappe alla combinazione di ricorrenze che
caratterizza le aree di interesse), sia in termini deduttivi (data la combinazione - evidenziata o ipotizzata - di caratteristiche, visualizzare le aree che la soddisfano in modo più o
meno completo). In questo senso, pur nascendo in un’ottica archeologica, r.finder è uno
script di utilità generalizzata nell’ambito dell’uso analitico dei GIS.
Questa trattazione cercherà di chiarire scopi e funzionamento dello script. La prima
parte (“Il progetto”) è pensata per spiegare l’uso del software e i suoi presupposti analitici, con un esempio apposito, a tutti i lettori; mentre la seconda (“Caratteristiche tecniche”)
descrive nel dettaglio gli aspetti dell’interfaccia utente e alcuni vantaggi e limiti di funzionamento e, pur essendo fruibile da tutti, presenta riferimenti tecnici più apprezzabili per
l’utente che conosca le basi di funzionamento di GRASS-GIS, cui si rimanda per una completa comprensione1.
1
Per un approccio all’uso di GRASS si veda NETELER-MITASOVA 2008.
225
1.1. Il punto di partenza
Supponiamo di avere a che fare con un’area molto vasta su cui cerchiamo di localizzare la presenza di determinati elementi (siti archeologici, nel nostro caso). Alcune presenze sono già note, in quanto esito di ritrovamenti precedenti, e la nostra ricerca parte da
una delle domande che sono alla base dell’indagine tramite sistemi informativi territoriali: esistono dei criteri che rendano conto della presenza dei nostri siti? Ci sono dei tematismi che possono spiegare tale presenza in virtù di valori specifici a essa associati?
Se, ad esempio, ci accorgessimo che tutti i siti ricadono in un preciso intervallo di
altitudine e/o di distanza dai corsi d’acqua e/o su specifiche tipologie geologiche, potremmo impostare una ricognizione mirata sulle parti di territorio con quelle stesse caratteristiche. Come fare per esplorare tutte queste possibilità, analizzare i valori di occorrenza
delle presenze per ciascun tematismo, studiarne l’eventuale significatività ed evidenziare
tutte le aree che presentano simili caratteristiche? r.finder è un modulo per il software
GRASS-GIS che compie questa serie di analisi in una singola operazione e grazie a un’unica interfaccia.
Diciamo anzitutto che nella maggior parte dei software GIS un’analisi del genere
comporta più passaggi dovuti alla necessità di interagire con diversi tipi di dati: raster e
vettoriali. In GRASS, la natura raster-based del software consente di rappresentare ogni
tematismo in forma di raster e quindi di effettuare analisi complessive simultanee attraverso gli strumenti di algebra delle mappe. Questo approccio non intende prendere posizione nell’annosa discussione sui limiti e i vantaggi dei diversi approcci raster/vettoriale:
come si vedrà oltre, lavorare sui raster comporta in questo caso maggiori potenzialità di
analisi ma anche maggiori rischi se non si è consapevoli di cosa si sta facendo, in particolare in relazione alla risoluzione dei dati di partenza, ma le implicazioni più profonde
delle due impostazioni esulano dagli scopi di questa trattazione2. È però fuori di dubbio
che la possibilità di riduzione dei dati a una sola tipologia per la quale il software possiede potenti strumenti di calcolo, consente un’operazione di analisi simultanea altrimenti
difficilmente realizzabile.
1.2. Il software
r.finder è uno script che tramite un’interfaccia grafica consente all’utente di inserire la mappa relativa alle presenze di partenza (i siti, nel nostro caso) e un numero potenzialmente illimitato di mappe tematiche relative alla stessa area, per le quali si intende analizzare i valori associati alle presenze di siti nella mappa di input, tralasciando le celle
caratterizzate dai valori rimanenti.
r.finder evidenzia quindi tutte le celle dell’area in oggetto che presentano le stesse
combinazioni di caratteristiche delle mappe tematiche in corrispondenza delle presenze
nella mappa di input. Per fare ciò, distingue due categorie di tematismi: qualitativi (sono
considerate solo le singole categorie), e quantitativi (è considerato l’intero intervallo di
valori fra il minimo e il massimo).
Inoltre, r.finder dispone di funzioni supplementari che consentono di ottenere report
statistici e istogrammi sulla distribuzione dei valori, nonché file di “regole” con i criteri
utilizzati per i filtri, in modo da poterli applicare ad altre aree, su tematismi analoghi.
Nelle righe che seguono si tratterà un esempio puramente teorico, costruito per
esemplificare le potenzialità del software.
Supponiamo di avere a che fare con una serie di insediamenti situati nel contesto di
2
Si tratta di un dualismo di approccio ai dati che può avere implicazioni metodologiche profonde e che di fatto differenzia in modo significativo i diversi pacchetti software GIS. Per un’idea generale è tuttora valida la descrizione
in JOHNSON 1996.
226
una valle fluviale (fig. 1). Abbiamo a disposizione per questo territorio il modello digitale del terreno (dem), quindi la mappa delle pendenze, quella della tipologia litostratigrafica e quella dell’idrografia. Attraverso GRASS è possibile riportare tutti i dati alla dimensione raster. Siamo così in condizione di realizzare anche una mappa di buffering che
caratterizzi le celle del territorio per la loro distanza dai corsi d’acqua.
Questi tematismi a disposizione si possono raggruppare in due grandi categorie:
quantitativi e qualitativi. I secondi sono quelli per cui i valori delle celle rappresentano
categorie non associate a una scala (le tipologie litostratigrafiche, ad esempio); mentre i
primi, quantitativi, si riferiscono ai raster le cui celle rappresentano valori collocabili in
una sequenza, sia essa continua o discreta (ad esempio, i valori di elevazione di un dem).
Lo script tratta in modo diverso le due tipologie. Mentre, infatti, per i dati qualitativi si
considerano valide solo le categorie che caratterizzano zone di presenza di siti, per quelli
di tipo quantitativo si prendono in considerazione tutti i valori contenuti fra il minimo e
massimo valore relativo ad aree con presenza di siti. In altre parole, con siti posti su celle
caratterizzate in una delle mappe tematiche dai valori 2, 7, 34 e 101, se trattiamo tale
mappa con la modalità relativa al tipo qualitativo saranno considerati validi solo quei valori, mentre se la indichiamo come di tipo quantitativo saranno considerati validi tutti i valori compresi fra 2 e 101. Questa operazione viene compiuta per tutte le mappe tematiche,
e per ciascuna viene prodotta una mappa dei valori validi. La somma complessiva (overlay) di queste mappe costituisce l’output finale del lavoro e rappresenta il livello di corrispondenza crescente delle diverse aree con le caratteristiche di quelle con presenza di siti.
L’uso dell’intero intervallo di valori per le mappe quantitative ha però l’handicap di
tenere conto anche di possibili casi marginali rispetto alla distribuzione, uniformando
1. Collocazione di
una serie di siti
utilizzati come
esempio in una
valle fluviale. Le
linee bianche
continue rappresentano le
diverse zone
litostratigrafiche.
227
eccessivamente i risultati. Nel nostro caso, utilizzando come dato qualitativo la litostratigrafia e come dati quantitativi il dem, la pendenza e la distanza dai corsi d’acqua, avremo
come risultato le mappe visibili nelle figg. 3 e 4, rispettivamente utilizzando l’intervallo
completo oppure la deviazione standard. Nel secondo caso, evitando gli elementi marginali della distribuzione, il risultato appare molto più variegato e interessante ai fini di una
ricognizione mirata3.
2. Caratteristiche tecniche
2.1. Interfaccia grafica e funzioni flag
Vediamo ora come è strutturata l’interfaccia di r.finder (fig. 4). La classica finestra
di dialogo di GRASS è concepita nel nostro caso in modo da distinguere una prima scheda di informazioni legate alle funzioni di base (basic), comprendente la mappa di input, il
nome di quella di output (che conterrà i risultati dell’analisi), nonché le mappe tematiche
qualitative e quantitative che vogliamo studiare.
Un utilizzo basilare del modulo non necessita di altre informazioni e può tranquillamente fermarsi qui. La successiva scheda advanced contiene invece tutte le opzioni
legate a un uso avanzato, con i check-box relativi ai flag delle funzioni supplementari,
cioè:
-s Crea e salva (all’interno di una directory col nome della mappa di output, nella
home dell’utente) una serie di report statistici e istogrammi relativi alla distribuzione delle
presenze nelle diverse mappe tematiche. Una funzione utile per valutare l’effettiva significatività della distribuzione.
-k Mantiene le impostazioni correnti sulla regione oggetto dell’analisi (se non attivato, la regione su cui si compie l’analisi è automaticamente impostata sulle dimensioni
della mappa di input)
-d Utilizza la deviazione standard anziché il semplice intervallo min-max per le
mappe di tipo quantitativo.
-o Funzione standard dei moduli GRASS-GIS, consente la sovrascrittura di file di
output con lo stesso nome.
-r Crea e salva (all’interno di una directory col nome della mappa di output, nella
home dell’utente) un file di regole (con estensione .rul), in testo editabile, contenente le
caratteristiche analizzate dei valori di presenza nelle diverse mappe tematiche. Consente
l’utilizzo dei medesimi criteri in altre aree (con mappe omonime, naturalmente), o comunque il salvataggio e l’editing dei parametri utilizzati.
-t Crea e salva (all’interno di una directory col nome “Template”, nella home dell’utente) un modello generico per la costituzione di un file di regole, in testo editabile.
Un campo di testo, consente poi di indicare un file di regole creato con la funzione
-r (e/o editato a mano) per eseguire l’analisi. In questo caso il sistema utilizzerà le informazioni sui valori contenute nel file e ignorerà - dandone avviso - i dati inseriti nella finestra di base.
3
È forse superfluo ma importante sottolineare come la scelta dei tematismi operata per questa esposizione sia puramente esemplificativa. In luogo di parametri meramente ecologici si sarebbero potuti utilizzare tutti i tipi di dati
immaginabili (culturali, etnici, glottologici, etc.) purché formalizzati in termini geografici.
228
2. Risultato della
analisi utilizzando
l’intero intervallo
di valori per i dati
quantitativi: le
progressive
gradazioni di grigio
indicano la
maggiore (toni
più chiari) o
minore (toni più
scuri) corrispondenza delle
diverse aree ai
valori delle celle
con presenza di
siti nella mappa
di input.
3. Risultato della
analisi utilizzando
l’intervallo della
deviazione
standard:
le progressive
gradazioni di grigio
indicano la
maggiore (toni
più chiari) o
minore (toni più
scuri) corrispondenza delle
diverse aree ai
valori delle celle
con presenza di
siti nella mappa
di input. Rispetto
alla mappa
precedente
appare di interesse
l’uso della deviazione standard
come filtro,
anziché del mero
intervallo quantitativo, creando
una mappa più
articolata.
229
4. Aspetto della
interfaccia utente
di r.finder.
È, inoltre, presente un campo che consente di inserire una stringa di commento a
piacere nell’eventuale file di regole creato con -r, nonché, infine, i classici comandi —verbose e —quiet relativi alla modalità dell’output di testo della shell, visibile nell’ultima
finestra Uscita.
2.2. Note problematiche e teoriche: il concetto di risoluzione
Si sottolinea che r.finder funziona solo su GRASS-GIS nelle vers. 6.4 e successive
ed esclusivamente in ambiente Linux, in quanto legato a funzionalità di shell.
Per quanto riguarda l’operabilità raster-based, come si è detto, essa presenta rilevanti vantaggi: oltre a quelli del ricondurre tutti gli elementi dell’analisi a un’unica tipologia di dato per cui si dispone di potenti strumenti di calcolo, vi è infatti la possibilità
della logica raster di rendere conto delle occorrenze in termini di dimensione e forma, cioè
di numero e articolazione di singole celle, ciascuna delle quali può essere oggetto di calcolo specifico (a differenza della rappresentazione vettoriale, che nella peggiore delle ipotesi rappresenta gli elementi come singoli punti, e, anche laddove li identifica con poligoni, essi costituiscono comunque una singola realtà non articolabile in aggregazione di celle
con valori diversi).
Questi aspetti vantaggiosi presentano parallelamente un rischio, e cioè quello con230
nesso con il concetto di risoluzione: nel momento in cui otteniamo dei file raster relativi
ad aree di presenza/assenza di elementi di interesse, sia che ciò avvenga a partire da rilievi diretti, da altri dati raster o da trasformazione in raster di elementi vettoriali, la risoluzione delle celle di questi raster dovrà in qualche modo essere rapportabile a quella delle
mappe tematiche su cui si effettua l’analisi. Un’eccessiva sperequazione della risoluzione
può infatti rendere del tutto vana l’analisi o falsare pericolosamente. Infine, si segnala un
baco relativo all’attuale versione di r.finder, cui non si è riusciti a ovviare. I filtri quantitativi funzionano con mappe con un massimo di 2 cifre decimali (ad esempio 323456.08).
3. Stato dell’arte e prospettive
Allo stato attuale, r.finder è da considerarsi in fase di sperimentazione, benché il
primo debug sia stato ultimato e, al di là delle questioni evidenziate, non risultino ulteriori problemi. Alcuni gruppi di ricerca hanno manifestato la volontà di utilizzarlo per survey
su ampie superfici e nel corso dei prossimi mesi tali studi saranno ultimati e pubblicati. Al
momento r.finder è distribuito sotto GPL e reperibile da chiunque lo desideri contattando
l’autore, nell’ottica di un sistematico monitoraggio delle dinamiche e delle problematiche
che emergeranno nel corso dei lavori di ricerca.
231
Referenze iconografiche
Autore: figg. 1-4.
Augusto Palombini
CNR - Istituto per le Tecnologie Applicate
ai Beni Culturali.
[email protected]
232
Francesco Carrer
Fabio Cavulli
Distanze euclidee e superfici di
costo in ambiente montano:
applicazione di Grass e R
a diversa scala in ambito trentino
Abstract
The first archaeological spatial analyses were bidimensional and they didn’t take into account the environmental and morphological characteristics that might influence the length of paths or the spatial relationships between features. This approach is particularly misleading in a mountain environment where the difference in altitude between two points in the landscape is more constrictive than the “air distance”. Though the
current technological means allow us to deal with these methodological issues, there are still a lot of studies
that calculate the distance between two features as the simple minimum distance between two points. In this
paper two archaeological case studies from Trentino province are proposed, in order to verify if the linear distances are so misleading in an Alpine environment, as previously suggested. The first one is a medium-scale
case study (the whole Trentino), where the linear distances from locations have been compared with the least
cost paths. The second one is a big-scale case study (Val di Fiemme), where the linear distances and the morphology-calibrated distances between upland pastoral sites (malghe) and upland lakes have been statistically
evaluated. These two examples have confirmed that, in a mountain environment (and at regional scale), the
interpretation of movements and spatial relationships in an “euclidean” framework is fundamentally incorrect.
Therefore, they suggest that the cost-surface estimation of a sample area is an unavoidable step for the interpretation of mobility and settlement strategies in the Alps.
1. Inquadramento generale
L’archeologia spaziale nasce bidimensionale. La consapevolezza che la relazione
tra un sito e una o più risorse territoriali, o tra lo stesso sito e altri siti circostanti, siano fattori importanti per comprendere la funzione del sito stesso, sorgono inizialmente dall’osservazione di semplici carte tematiche e di distribuzione. Alcune tra le primissime analisi
spaziali quantitative applicate in archeologia, come i poligoni di Thiessen1 o la site catchment analysis2 erano rappresentate da geometrie create in modo piuttosto intuitivo che racchiudevano idealmente territori equivalenti in un sistema bidimensionale. Vi era, però, già
la consapevolezza di come tali metodologie fossero delle astrazioni che non tenevano
conto delle peculiarità della morfologia, dell’idrografia e dell’ecosistema locale. Si tentò,
quindi, di impostare delle analisi basate sulla spesa energetica, che potessero rendere effettivamente più realistica e meno arbitraria la rappresentazione del territorio3. L’evoluzione
tecnica dei software e degli hardware favorì questo processo di miglioramento della qualità degli studi spaziali, cosicché oggi ogni utente ha la possibilità di gestire una mole di
dati spaziali o tematici incommensurabile rispetto al passato e questo va a vantaggio della
1
CLARKE 1968; CUNLIFFE 1971.
VITA FINZI-HIGGS 1970; HIGGS-VITA FINZI 1972.
3
FOLEY 1977; GAFFNEY-STANCIC 1991.
2
233
qualità dell’analisi, favorendo un maggior dettaglio e una maggiore precisione.
Nonostante ciò, in molti studi di archeologia e di discipline a essa afferenti, le relazioni spaziali sono ancora valutate su base bidimensionale. La distanza tra i siti è vista
ancora come semplicistica distanza lineare (in linea d’aria, a volo d’uccello), mentre la
raggiungibilità o disponibilità di una risorsa è concepita come la semplice lontananza di
questa da un certo luogo. Infatti, se cerchiamo di applicare alla nostra esperienza l’assunto “minor distanza = minor fatica”, in molti casi dobbiamo subito ricrederci. In primo
luogo, il percorso tra due siti può essere condizionato da passaggi obbligati, come vette,
passi, selle o gole che dirigono la percorribilità facendole perdere le sue caratteristiche di
astratta linearità. In secondo luogo, se una risorsa è presente in quota (versante, cresta,
vetta o altipiano), il dislivello e non la distanza (né tantomeno la distanza euclidea) sarà il
dato determinante per comprenderne l’accessibilità dalle aree limitrofe. Il territorio montano più di qualunque altro costituisce quindi un ambiente particolare, dove le caratteristiche morfologiche condizionano da sempre la mobilità delle comunità che lo abitano e
lo percorrono. Se in pianura, infatti, le costrizioni (dall’idrografia alle caratteristiche del
suolo) sono meno determinanti, in montagna la morfologia svolge un ruolo imprescindibile nelle strategie di movimento.
Queste considerazioni sulla differenza tra pianura e montagna possono essere lette
come una estremizzazione del ragionamento per comprendere l’importanza delle costrizioni naturali nell’analisi spaziale, non solo al fine di rendere quest’ultima più precisa ma
soprattutto per evitare degli artefatti teorici e la generazione di informazioni imprecise se
non addirittura erronee e fuorvianti. I casi studio che saranno presentati di seguito ci dimostreranno, infatti, attraverso la comparazione tra analisi spaziali bidimensionali e altre che
prendono in considerazione le caratteristiche morfologiche, come non sia possibile interpretare le dinamiche territoriali in montagna senza considerarne la morfologia.
2. I casi studio
2.1. Piccola-media scala: BIOSTRE
Il progetto “Biodiversità e Storia delle Popolazioni del Trentino” (BioSTre;
http://laboratoriobagolini.it/ricerca/progetti/biostre/), condotto dalla dott.ssa Valentina
Coia e finanziato dalla Provincia Autonoma di Trento, è il primo studio genetico capillare delle popolazioni della Provincia di Trento. Attraverso l’integrazione dei dati genetici
con quelli archeologici, linguistici e storici, contribuisce alla comprensione della storia del
Trentino e della relazione tra la biodiversità umana e i fattori geografici e culturali della
provincia.
La ricerca ha analizzato la variabilità genetica delle popolazioni attuali di differente cultura e provenienza geografica, a livello di diversi marcatori genetici (DNA mitocondriale, cromosoma Y e autosomici). Il progetto ha studiato, inoltre, la variabilità genetica
umana antica attraverso l’analisi del DNA antico di resti scheletrici umani riferibili al
Neolitico medio.
L’obiettivo che lo studio si proponeva era, da una parte, definire le relazioni genetiche tra popolazioni di diversa cultura, lingua e provenienza geografica, dall’altra contribuire alla ricostruzione dei processi di popolamento del Trentino, attraverso il confronto
tra le caratteristiche genetiche attuali e quelle del DNA antico4.
2.1.1. Le distanze negli studi di genetica
Ancora oggi negli studi di genetica lo spazio viene immaginato come una tavola
4
234
COIA et alii c.s.
piatta su cui vengono calcolate le distanze euclidee (air distance); tra le località di campionamento5. Secondo alcuni autori, facendo esplicito riferimento all’Europa, queste si
avvicinerebbero alle distanze calcolate su percorsi reali (road distance)6.
Altri preferiscono, invece, pensare alla terra approssimata a una sfera e calcolano
nella distanza anche la curvatura del solido (great circle distance)7, un metodo più accurato ma che non tiene in considerazione le barriere geografiche né quelle culturali. La correlazione tra le matrici delle distanze genetiche e quelle geografiche viene di norma testata statisticamente attraverso il test di Mantel8.
Gli studi più recenti verificano la significatività attraverso l’autocorrelazione spaziale o metodi di regressione, ma anche in questo caso la morfologia non è contemplata9.
Alcuni lavori possono essere più interessanti perché mettono a confronto le distanze genetiche con le vie commerciali ovvero con percorsi diversi da quelli rettilinei10.
Negli studi sopra citati si può forse giustificare la scarsa considerazione per la conformazione morfologica del territorio con la scala continentale o addirittura mondiale
degli studi, dove le variabili geografiche, culturali e temporali sono talmente varie e così
poco controllabili che diventa pressoché impossibile tenerne conto. Nonostante ciò
Handley e colleghi evidenziano la ricaduta che un approccio geografico può avere negli
studi di genetica, anche su quelli svolti a piccola scala11. Il caso citato rimane comunque
pressoché isolato.
Il progetto BIOSTRE, riferendosi a una regione limitata, non poteva limitarsi a
usare distanze euclidee perché, come dimostrato più avanti, troppo approssimative. A
media scala, l’accessibilità dei luoghi non è data dalla sola lontananza ma da fattori che
tengono conto perlomeno del percorso scelto e del dislivello; altri elementi sono meno
controllabili e meno costanti nel tempo, come le vie e i mezzi di trasporto, la copertura
forestale, il terreno.
A tal fine è stato calcolato il dispendio di energia da parte di ogni popolazione residente nel punto di campionamento per raggiungere il resto del territorio. Il risultato è una
serie di superfici di accessibilità: ovvero una mappa raster a valori continui.
2.1.2. La costruzione delle superfici cumulative di costo e la creazione di percorsi di minimo costo tra le località di campionamento
Lo scopo di questo lavoro è quello di individuare un parametro efficace per calcolare le distanze geografiche tra le diverse località di campionamento. In una regione caratterizzata da rilievi accentuati come il Trentino (fig. 1), infatti, non è sufficiente il calcolo
delle interdistanze euclidee. La ricerca si è quindi indirizzata verso il riconoscimento di
possibili percorsi sul territorio liberi dalle possibilità e dalle limitazioni legate ai mezzi di
locomozione recenti e alle infrastrutture moderne (strade, ponti, gallerie, viadotti, ecc.) ma
che contemplassero i tragitti a piedi più “comodi” (fig. 2).
La realizzazione dei percorsi si è quindi basata sulla morfologia del terreno: si sono
privilegiati gli itinerari più facilmente percorribili da un punto di vista del dispendio energetico del viaggiatore (minimum cost), a discapito di quelli che collegano le diverse località tramite la distanza minore (minimum distance)12.
Le località sono state scelte come “località media di campionamento”, ovvero il
5
CAVALLI SFORZA et alii 1994; SEMINO et alii 2000; MCDONALD 2004.
6
CRUMPACKER et alii 1976; SIMONI et alii 2000.
BARBUJANI et alii 1995; RAMACHANDRAN et alii 2005.
8
MANTEL 1967.
9
MANNI et alii 2004.
10
GIULIANO et alii 2006.
11
HANDLEY et alii 2007.
12
NETLER-MITASOVA 2005, 167.
7
235
1. Modello del
terreno della
Provincia
Autonoma di
Trento. L'area
delimitata
corrisponde alla
Val di Fiemme.
2. Distanze lineari
e percorsi di
minimo costo tra le
località centrali dei
campionamenti
del progetto
BIOSTRE.
236
luogo centrale per ogni area di campionamento effettiva, che ha visto invece un prelievo
molto più capillare ed eseguito su individui provenienti anche dai dintorni della località
centrale (ma sempre dalla stessa valle).
I passaggi tecnici di realizzazione nel sistema GRASS GIS hanno visto la creazione di una superficie di costo cumulativa per ogni luogo centrale di campionamento grazie
all’algoritmo r.walk (http://grass.fbk.eu/grass62/manuals/html62_user/r.walk.html).
L’algoritmo modella il costo di spostamento da una cella di origine verso le altre
attraverso una funzione cumulativa di diffusione: si tratta quindi di una superficie raster
che restituisce un valore cumulativo di “difficoltà di raggiungimento” di ogni pixel della
mappa, data una o più origini note: più ci si allontana dal punto e più è alto il valore attribuito.
È di fondamentale importanza considerare la morfologia come parametro di frizione, oltre alla distanza: più il versante è scosceso, maggiore è il costo nel percorrerlo. Il tragitto dovrebbe considerare anche il verso di percorrenza. Salire o scendere un versante non
ha lo stesso costo. Non conoscendo nel nostro caso la direzione del percorso, abbiamo
considerato queste superfici come isotropiche13.
La mappa di inclinazione dei versanti (slope map), creata sulla base del DTM con
risoluzione a 40m della Provincia Autonoma di Trento, è stata assunta come parametro di
frizione (friction). Sulla base di questa cartografia si sono creati i possibili percorsi di
minimo costo che congiungono tutte le località considerate per mezzo dell’algoritmo
r.drain (http://grass.fbk.eu/grass62/manuals/html62_user/r.drain.html)14. La mappa è stata
creata e salvata in formato raster, quindi è stato necessario trasformare in vettoriale i vari
segmenti di tragitto per poter unire gli itinerari e calcolarne poi la loro lunghezza in km.
Infine è stata creata una matrice delle distanze dei percorsi.
2.1.3. Distanze euclidee VS percorsi
Se mettiamo a confronto le distanze lineari con i percorsi, le differenze risultano
minime tra località vicine o comunicanti attraverso una valle rettilinea (ad es. Pejo Mezzana o Pozza - Fiera di Primiero) e, com’è logico aspettarsi, emergono significative
discrepanze quando il percorso si snoda tra valli tortuose (ad es. Pejo - Fiera di Primiero,
Mezzana - Fiera di Primiero o Mezzana - Pozza). I trenta collegamenti considerano un
solo percorso tra andata e ritorno e differiscono per un totale di quasi 864 km con i percorsi lineari; la differenza massima si registra tra Pejo e Fiera di Primiero; quella minima
tra Pejo e Mezzana; la differenza media è di quasi 29 km. Questi valori sono da riferire a
una superficie pari a 6.212 km2.
L’estrema variabilità nelle misurazioni non permette di valutare con facilità quanto
la differenza tra i due tipi di percorso sia significativa. Per questo è necessaria una verifica statistica dei valori attraverso il test del Chi quadro15. Il risultato del test è χ2=37543.70.
Per 65 gradi di libertà, proporzionali all’ampiezza del set di dati considerati, esso corrisponde a un valore di probabilità inferiore a 2.2e-16 e quindi prossimo a 0. Avendo come
ipotesi di partenza (H0, ipotesi nulla) che le lunghezze dei percorsi e delle distanze lineari non siano molto diverse tra loro (ovvero che appartengano alla medesima popolazione
statistica), il risultato del test attesta che c’è pressoché lo 0% di possibilità che tale ipotesi sia vera. Si può quindi rigettare l’ipotesi nulla ed essere certi che la lunghezza dei percorsi è significativamente diversa dalla lunghezza delle distanze lineari. L’analisi statistica dimostra che i collegamenti tra due o più località in area montana non corrispondono
alle distanze euclidee tra tali località e che quindi, per valutarne realisticamente la vicinanza o lontananza, è sempre necessario considerare i percorsi di minimo costo.
13
CONOLLY-LAKE 2006, 214.
NETLER-MITASOVA 2005, 122.
15
SHENNAN 1997, 104-115.
14
237
2.2. Grande scala
Nella valutazione problematica della questione, si è inoltre ritenuto utile prendere
in considerazione anche un caso studio a scala maggiore del precedente. Il fine era valutare la rispondenza delle variabilità notate in precedenza anche in un territorio più limitato, corrispondente a una comunità di valle di qualche centinaio di chilometri quadrati.
L’area selezionata a questo fine è quella della Val di Fiemme.
2.2.1. Etnoarcheologia dei pastori della Val di Fiemme
Questo secondo caso studio prende le mosse dalla ricerca di uno dei due autori, che
consiste nello studio delle strategie insediative stagionali dei pastori attuali in alta quota,
238
al fine di creare un modello locazionale per l’individuazione di siti archeologici pastorali16. L’area campione selezionata per questi studi è la Val di Fiemme (fig. 1), posta nel
Trentino orientale, al confine col Veneto (a E) e con l’Alto Adige/Südtirol (a N)17. La
prima parte delle analisi spaziali svolte per comprendere i criteri di locazione dei siti
pastorali moderni (malghe o casere) è consistita nella creazione di alcuni supporti raster
funzionali alla valutazione della relazione tra variabili ambientali e tendenze insediative.
Tra gli attrattori locazionali selezionati vi erano anche i laghi alpini, elemento fondamentale del paesaggio d’alta quota della Val di Fiemme, nonché importante fonte idrica per
uomini e animali. Quello che si è voluto verificare è se le malghe fossero disposte o meno
in maniera casuale rispetto ai laghi alpini, ovvero se i laghi alpini fossero stati o meno un
fattore importante nelle scelte insediative dei pastori. Nel farlo si è quindi tentata la sperimentazione metodologica dalla quale ha preso le mosse la presente ricerca.
2.2.2. Distanze dai laghi e validazione statistica
Dopo aver convertito il file vettoriale dei laghi (creato dall’ufficio cartografico della
Provincia Autonoma di Trento) in file raster (con il comando v.to.rast di Grass)18 è stata
creata una mappa raster di distanze lineari dai laghi (r.grow.distance). A partire dal modello digitale del terreno (DTM) è stata invece estrapolata la pendenza dei versanti
(r.slope.aspect)19, successivamente utilizzata come superficie di frizione per l’elaborazione di una mappa che riportasse il costo del movimento a partire dai laghi (r.cost)20. Si sono
quindi interrogati i due raster in relazione alla posizione delle malghe e i dati sono stati
importati in una colonna della tabella del file vettoriale delle malghe stesse (v.what.rast)21.
Una volta svolti tali processi preliminari, i file raster di “distanza” e di “superficie di
costo” e quello vettoriale delle malghe sono stati importati in R utilizzando la libreria
spgrass6 che consente l’importazione di file di Grass e la conseguente interoperabilità dei
due software. Si è quindi valutato il modo migliore per verificare la casualità o meno della
posizione delle malghe rispetto ai laghi alpini. Uno dei modi più efficaci è quello di confrontare le distribuzioni cumulative delle malghe e di un uguale campione di punti casuali (generati in Grass con r.random, utilizzati per interrogare i due raster e successivamente importati in R), utilizzando il test statistico non parametrico di Kolmogorov-Smirnov22,
ks.test nel linguaggio di R. Esso restituisce un valore “p” che corrisponde alla probabilità
che le due distribuzioni cumulative (malghe e punti casuali in questo caso) siano tratte
dalla stessa popolazione statistica, ossia che le malghe siano distribuite casualmente
rispetto ai laghi. Un buon valore probabilistico, generalmente, corrisponde a un “p” inferiore a 0.05, ovvero meno del 5% di probabilità che le due distribuzioni coincidano. Una
volta valutata statisticamente la distanza lineare dai laghi e quella invece calibrata sulla
morfologia, notiamo incredibilmente due risultati opposti. Nel caso della distanza euclidea abbiamo un valore p=0.04034, ovvero appena inferiore al succitato 5%; nel caso della
superficie di costo abbiamo un valore p=0.3544, ovvero superiore al 35%! Nel primo caso
possiamo rigettare l’ipotesi nulla (che i due campioni provengano dalla stessa popolazione), nel secondo no. Questo risultato ci indica quanto sia fuorviante una valutazione lega16
CARRER 2012; CARRER c.s.
La presente ricerca è parte integrante del progetto di Dottorato di Ricerca di Francesco Carrer, presso l’Università
degli Studi di Trento, all’interno del Progetto APSAT (Provincia autonoma di Trento - Bando “Grandi progetti 2006”.
Delibera G.P. 2790/2006).
18
NETLER-MITASOVA 2005, 147.
19
NETLER-MITASOVA 2005, 226.
20
NETLER-MITASOVA 2005, 121-123.
21
NETLER - MITASOVA 2005, 142.
22
FLETCHER-LOCK 1991, 100-102; CONOLLY-LAKE 2006, 130-133.
17
239
ta alla semplice distanza lineare, la quale avrebbe portato a determinare, come elemento
fondamentale per i criteri locazionali dei pastori, una variabile (i laghi) che in realtà non
ha nessun potere attrattivo per gli insediamenti pastorali d’alta quota. Ancor più evidenti
sono tali considerazioni se applichiamo un altro tipo di test statistico, il test di Monte Carlo
(mc.test)23, che simula automaticamente un numero prestabilito di distribuzioni di campioni casuali, rendendo il raffronto tra le due distribuzioni cumulative ancor più verosimile. Tale applicazione, in R, è implementabile grazie alla libreria spatstat. Effettivamente
questo test dà un risultato nettissimo, con la probabilità che le nostre malghe siano distribuite casualmente rispetto ai laghi dello 0% per la distanza euclidea (α<0.00000001) e del
100% per la superficie di costo (α=1). Ciò significa che una relazione statistica malghelaghi, evidente per la distanza lineare, diventa assolutamente inesistente per la superficie
di costo.
2.2.3. La distanza non è l’accessibilità
La problematica emersa nella valutazione statistica fatta in precedenza, ci porta a
dover riconsiderare la morfologia come elemento che influenza in maniera fondamentale
l’accessibilità in area montana. In effetti, chiunque abbia una minima esperienza di alta
montagna, sa che la distanza in sé ha un’importanza molto inferiore rispetto, ad esempio,
all’inclinazione dei versanti. Cercando, nello specifico, di interpretare la difformità evidenziata per quanto riguarda la distanza delle malghe dai laghi, notiamo che essa dipende
dalla peculiare posizione degli stessi laghi alpini. Essi, infatti, sono posizionati, spesso,
all’interno di profondi circhi glaciali, per cui la loro accessibilità dall’esterno è condizionata negativamente dalle alte pareti rocciose che racchiudono tali circhi. Di conseguenza,
pur essendo i laghi alpini a breve distanza (lineare) dalle malghe (fig. 3), sono in realtà difficilmente accessibili a partire dalle malghe stesse, perché per raggiungerli è necessario
superare le succitate pareti rocciose (fig. 4). Una valutazione della variabile “distanza dai
laghi” che non tenesse conto di queste peculiarità morfologiche non solo ci darebbe una
comprensione parziale delle caratteristiche della distanza in zone montuose, ma ancor più
ci darebbe un risultato falsato a livello di correlazione tra variabili, come abbiamo potuto
appurare. Dal punto di vista metodologico, invece, questa comparazione ci è servita
soprattutto per verificare la grande differenza esistente tra il semplicistico concetto di
distanza e il più problematico concetto di accessibilità nelle zone d’alta quota.
2.3. Conclusioni: la distanza non è il percorso
I casi esposti evidenziano come, nell’analisi spaziale, considerare distanze euclidee
o superfici di costo influenzi in modo consistente l’interpretazione archeologica. Lo studio del territorio e dei suoi aspetti caratteristici (quali l’idrografia, la morfologia, le risorse) è un passaggio imprescindibile per la comprensione della frequentazione umana. In
ambiente montano l’accentuata variabilità di quota e quindi la significativa pendenza dei
versanti, più di tutti condizionano le modalità di popolamento e di mobilità. La morfologia del territorio è determinante a fini analitici, come dimostrato dagli spostamenti in montagna, nei quali l’altitudine è più rilevante delle distanze orizzontali. Ne consegue che, a
grande-media scala e in ambienti particolarmente costrittivi, le distanze e l’accessibilità
delle risorse devono essere considerate in relazione alle caratteristiche del territorio, quindi in termini di superfici di costo e non come astratte distanze lineari.
Se in uno spazio bidimensionale due o più entità (siti-torrenti, siti-laghi, siti-sor-
23
240
SHENNAN 1997, 64.
3. Particolare di
ortofoto (It2006,
color) della Val di
Fiemme in cui si
riconosce il lago
delle Stellune e a
E la malga
Stellune. Questa
immagine
evidenzia l’apparente vicinanza tra
questi due elementi
esemplificativi
delle alte quote.
4. Fotografia del
lago delle
Stellune. Sullo
sfondo si intravede
la malga Stellune.
Dal profilo
sottostante si
nota perfettamente
che lago e malga
sono linearmente
vicini ma che il
lago stesso è
difficilmente
accessibile dalla
malga a causa
della brusca
variazione
altitudinale.
241
genti) possono apparentemente avere una relazione significativa perché prossime, in termini di raggiungibilità (ovvero di costo) possono risultare lontane o quasi irraggiungibili.
Le distanze euclidee sono quindi solo misure teoriche che nulla hanno a che fare
con il mondo reale, con la percorribilità del territorio e quindi con la raggiungibilità delle
risorse. Nemmeno una pianura perfettamente piatta può essere considerata una superficie
isotropica: fiumi, laghi, paludi, vegetazione costituiscono un condizionamento altrettanto
importante quanto la morfologia nel caso montano. Solo lavorando a piccola scala queste
costrizioni perdono di rilevanza e la conformazione dei continenti diventa il fattore che più
di ogni altro determina i tragitti reali.
Anche se i percorsi creati sulla base della morfologia si avvicinano più delle distanze lineari alla realtà, Bateson ci ricorda che: «La mappa non è il territorio»24. Infatti, tali
percorsi, anche quando considerano più variabili ambientali, costituiscono pur sempre dei
modelli teorici. Il percorso reale scelto dai gruppi umani del passato è stato determinato
da fattori complessi, quali minimo costo, distanza minima, punti obbligati, risorse e scelte culturali non sempre apprezzabili archeologicamente.
Gli esempi presi in considerazione hanno messo in luce, a scale di analisi differenti, quanto le distanze lineari siano uno strumento del tutto insufficiente, se non fuorviante, per lo studio spaziale di un fenomeno molto complesso quale le dinamiche di popolamento umano. Il caso delle località di campionamento del DNA mitocondriale, sorto
all’interno del progetto BIOSTRE dal confronto tra prossimità geografica e distanze genetiche delle popolazioni, ha messo in evidenza la necessità di considerare i percorsi di minimo costo piuttosto che le distanze lineari. Il secondo caso-studio, riguardante i siti pastorali della Val di Fiemme, ha dimostrato che la prossimità tra siti e laghi alpini, apprezzabile sulla superficie bidimensionale, rappresenta una correlazione solo apparente, del tutto
irreale quando si considera un modello tridimensionale del territorio (DEM).
Gli strumenti utilizzati per i calcoli descritti sono GRASS (grass.fbk.eu), un software GIS, e R (www.r-project.org), un programma per la statistica standard e spaziale.
Questi due sistemi versatili e potenti per analisi avanzate hanno un punto di forza nella
loro perfetta integrabilità: file raster, come superfici e analisi spaziali (DEM, superfici di
costo, valori di frizione, ecc.), e file vettoriali (come siti, idrografia, ecc.) realizzati in
ambiente GRASS possono essere successivamente analizzati statisticamente da R sottoforma di matrici o tabelle. L’analisi segue quindi un unico processo che semplifica le
comuni procedure di importazione ed esportazione.
Entrambi i software sono liberi e open source (FOSS), quindi disponibili e implementabili liberamente. Sono strumenti di ricerca che consentono la verifica degli algoritmi utilizzati, il controllo della procedura e quindi dei risultati nel dettaglio. Aspetto questo non trascurabile perché garantisce la costruzione di solidi protocolli di analisi e la loro
replicabilità.
24
242
BATESON 1979.
Abbreviazioni bibliografiche
Forts, M. Jesson, D. Hill (edd.), Southampton 1971,
53-70.
BARBUJANI et alii 1995
G. Barbujani - G. Bertorelle - G. Capitani - R.
Scozzari, Geographical structuring in the mtDNA of
Italians, in Proceedings of the National Academy of
Science of United States of America, 92, 1995, 91719175.
FLETCHER-LOCK 1991
M. Fletcher - G. R. Lock, Digging Numbers.
Elementary Statistics for Archaeologists, Oxford
1991.
BATESON 1979
G. Bateson, Mind and Nature. A Necessary Unity,
New York 1979.
CARRER 2012
F. Carrer, Upland sites and pastoral landscapes. New
perspectives into the archaeology of pastoralism in
the Alps, in Apsat 1. Teoria e Metodi della Ricerca sui
Paesaggi d’Altura, G. P. Brogiolo, D.E. Angelucci, A.
Colecchia, F. Remondino (edd.), Mantova 2012, 101116.
CARRER c.s.
F. Carrer, Pastoralism needs GRASS. A GIS approach
to the Ethnoarchaeology of Pastoralism in the Alps,
in Proceedings of the 5th Italian Conference on
Ethnoarchaeology, Rome 2010, c.s.
CAVALLI SFORZA et alii 1994
L. L. Cavalli Sforza - P. Menozzi - A. Piazza, The
History and Geography of Human Genes, Princeton
1994.
CLARKE 1968
D. L. Clarke, Analytical Archaeology, London 1968.
COIA et alii c.s.
V. Coia - I. Boschi - F. Trombetta - F. Cavulli - F.
Montinaro - G. Destro-Bisol - S. Grimaldi - A.
Pedrotti, Evidence of high genetic variation among
linguistically diverse populations on a micro-geographic scale: a case study of the Italian Alps, Journal of
Human Genetics, 2011, c.s.
CONOLLY-LAKE 2006
J. Conolly - M. Lake, Geographical Information
Systems in Archaeology, Cambridge 2006.
CRUMPACKER et alii 1976
D. W. Crumpacker - G. Zei - A. Moroni - L. L. Cavalli
Sforza, Air distance versus road distance as a geographical measure for studies on human population
structure, in Geographical Analysis, 8, 1976, 215223.
CUNLIFFE 1971
B. W. Cunliffe, Some aspects of hill-forts and their
cultural environments, in The Iron Age and its Hill-
FOLEY 1977
R. Foley, Space and Energy: A Method for Analysing
Habitat Value and Utilization in Relation to
Archaeological Sites, in Spatial Archaeology, D. L.
Clarke (ed.), London 1977, 163-187.
GAFFNEY-STANCIC 1991
V. Gaffney - Z. Stancic, GIS approaches to regional
analysis: a case study of the island of Hvar,
Ljubljana 1991.
GIULIANO et alii 2006
P. Giuliano - A. Spilimbergo - G. Tonon, Genetic,
Cultural
and
Geographical
Distances,
http://www.economics.harvard.edu/files/faculty/97_Genetics_August2007.pdf, 2006 (15/08/11).
HANDLEY et alii 2007
L. J. L. Handley - A. Manica - J. Goudet - F. Balloux,
Going the distance: human population genetics in a
clinal world, in Trends in Genetics, 23, 2007, 432439.
HIGGS-VITA FINZI 1972
E. S. Higgs - C. Vita Finzi, Prehistoric economies: a
territorial approach, in Papers in Economic
Prehistory: Studies by Members and Associates of the
British Academy Major Research Project in the Early
History of Agriculture, E. S. Higgs (ed.), Cambridge
1972, 27-36.
MANNI et alii 2004
F. Manni - E. Gue´Rard - E. Heyer, Geographic
Patterns of (Genetic, Morphologic, Linguistic)
Variation: How Barriers Can Be Detected by Using
Monmonier’s Algorithm, in Human Biology, 76,
2004, 173-190.
MANTEL 1967
N. Mantel, The detection of disease clustering and a
generalized regression approach, in Cancer
Research, 27, 1967, 209-220.
McDONALD 2004
J. D. McDonald, World Distribution of MTDNA
Haplogroups, http://www.scs.illinois.edu/~mcdonald/worldmtdnamap.pdf, 2004 (15/08/11).
NETLER-MITASOVA 2005
M. Netler - H. Mitasova, Open Source GIS: a Grass
243
GIS approach, Boston 2005.
RAMACHANDRAN et alii 2005
S. Ramachandran - O. Deshpande - C. C. Roseman N. A. Rosenberg - M. W. Feldman - L. L. Cavalli
Sforza, Support from the relationship of genetic and
geographic distance in human populations for a serial founder effect originating in Africa, in Proceedings
of the National Academy of Sciences of the United
States of America, 102, 2005, 15942-15947.
SEMINO et alii 2000
O. Semino - G. Passarino - P. J. Oefner - A. A. Lin S. Arbuzova - L. E. Beckman - G. De Benedictis - P.
Francalacci - A. Kouvatsi - S. Limborska - M.
Marcikiae - A. Mika - B. Mika - D. Primorac - A. S.
Santachiara Benerecetti - L. L. Cavalli Sforza - P. A.
Underhil, The Genetic Legacy of Paleolithic Homo
sapiens sapiens in Extant Europeans: A Y
Chromosome Perspective, in Science, 290, 2000,
1155-1159.
SHENNAN 1997
S. Shennan, Quantifying Archaeology, Edinburgh
1997.
SIMONI et alii 2000
L. Simoni - F. Calafell - D. Pettener - J. Bertranpetit
- G. Barbujani, Geographic Patterns of mtDNA
Diversity in Europe, in American Journal of Human
Genetics, 66, 2000, 262-278.
VITA FINZI-HIGGS 1970
C. Vita Finzi - E. S. Higgs, Prehistoric economy in
the Mount Carmel area of Palestine: site catchment
analysis, in Proceedings of the Prehistoric Society,
36, 1970, 1-37.
Referenze iconografiche
Provincia Autonoma di Trento. Sistema Informativo
Ambiente e Territorio (SIAT): figg. 1-4.
Francesco Carrer
Laboratorio “B. Bagolini”.
Dipartimento di Filosofia, Storia e Beni Culturali
Università di Trento
[email protected]
Fabio Cavulli
Laboratorio “B. Bagolini”
Dipartimento di Filosofia, Storia e Beni Culturali
Università di Trento
[email protected]
244
Felice Stoico
Luca d’Altilia
Analisi spaziale in archeologia dei
paesaggi: il progetto N.D.S.S.
(Northern Daunian Subappennino
Survey)
Abstract
The Northern Daunian Subappennino Survey project, realised within the scientific research related to
the PhD (Dottorato di ricerca) in “Archaeology and didactics of cultural heritage”, proposes a methodological
study of castles, aimed to rebuild the medieval landscape through the knowledge and interpretation of settlements. Starting from the results gained in the past researches and from many ideas offered by the analysis of
medieval landscapes conducted by the University of Foggia, the project has been designed with a “globaltype” analysis in mind, trying to redefine completely all the aspects involved in the archaeological documentation process and field-work, with the aid of archaeological computing, focusing on the use of free and open
source software.
1. Introduzione
Il progetto di ricerca Northern Daunian Subappennino Survey (N.D.S.S.), in corso
nell’ambito del dottorato di ricerca in Archeologia e Didattica dei Beni Culturali
dell’Università degli Studi di Foggia (DISCUM, Dipartimento di Scienze Umane), ha l’obiettivo di fornire un contributo al tema dell’incastellamento. L’analisi delle dinamiche
d’incastellamento, all’interno del paesaggio medievale, costituisce un percorso metodologico per lo studio dell’occupazione sociale dello spazio1. L’interazione tra i suddetti processi sociali e l’ambiente rappresenta uno dei temi di maggiore interesse nel quadro generale della storia dell’insediamento medievale2. Quest’aspetto dell’analisi del fenomeno
dell’incastellamento, attraverso l’indagine sulle fortificazioni degli insediamenti d’altura,
viene posto in risalto nel presente lavoro, volto ad applicare la metodologia propria delle
analisi spaziali. La necessità di comprendere il perché del variare di funzioni, dimensione,
rilevanza economica di un sito e di un territorio3, è alla base dell’impostazione di questo
progetto di ricerca. Inoltre, come in ogni approccio di tipo scientifico, è stata prevista la
gestione di dati sempre quantificabili e comparabili in modo diretto con altre indagini sui
modelli insediativi medievali. Tale progetto è stato finalizzato, quindi, allo studio analitico delle tipologie insediative, dei luoghi fisici in cui la popolazione si distribuiva, delle
strutture organizzative, delle forme di aggregazione e concentrazione del popolamento.
Partendo dai risultati ottenuti nel corso delle ricerche precedenti e grazie ai numerosi e
diversi spunti offerti dall’analisi applicata ai paesaggi medievali, negli ultimi anni,
dall’Università degli studi di Foggia, si è ritenuto opportuno orientare il progetto di ricer1
WICKHAM 1998, 153-170.
FRANCOVICH-GINATEMPO 2000, 7-24; MACCHI 2001 a, 61-83.
3
BROGIOLO 1995.
2
245
ca verso un’analisi di tipo globale4. Di conseguenza, il progetto di ricerca è stato supportato dalle più moderne metodologie di intervento nel settore dell’informatica applicata
all’archeologia, attraverso un approccio diverso, rivolto all’analisi eterogenea di tutti gli
aspetti propri del processo di documentazione archeologica, nell’ambito di una corretta
attività di indagine sul terreno. L’ambito geografico in cui è tuttora in corso l’indagine è
il comprensorio del Subappennino Dauno Settentrionale, situato in Italia meridionale,
nella Puglia settentrionale, in provincia di Foggia. L’indagine sul campo fa riferimento ai
comprensori delle tre valli fluviali che costituiscono l’area in esame: l’alta e media valle
del fiume Fortore, l’alta valle del Triolo, l’alta valle del Salsola, l’alta valle del Vulgano.
L’analisi spaziale inter-site5 all’interno dei bacini fluviali, mira alla ricostruzione dei processi di trasformazione dei paesaggi agrari, allo studio della storia dell’insediamento
umano in rapporto all’ambiente e alle sue risorse nel medioevo. In questo senso, fondamentale, è risultata la scelta di assumere come ambiti di indagine dei contesti ampi, atti a
individuare e a comprendere fenomeni storici di ampia portata e geograficamente definiti.
La scelta di comprensori spaziali ben determinati appare, del resto, in pieno accordo anche
con l’esigenza di pianificazione dell’indagine archeologica da più parti auspicata e nel
nostro caso voluta anche dalle amministrazioni del territorio, quali i comuni, che in tempi
recenti si stanno facendo promotori della tutela e valorizzazione del territorio finalizzata
alla pianificazione paesaggistica6. Dalla “macro-scala”, rappresentata quindi dall’analisi
inter-site sul paesaggio medievale, si arriva alla “micro-scala”, rappresentata dall’analisi
intra-site sullo scavo archeologico. L’analisi spaziale intra-site7 ha permesso inoltre di
replicare, nel contesto dello scavo archeologico di Montecorvino (Volturino, Foggia,
Italia), le stesse procedure metodologiche applicate su larga scala, permettendo al progetto di utilizzare una base dati fondata sull’interdisciplinarietà tra i diversi settori dell’archeologia (Remote Sensing, Geoarcheologia, Archeobotanica, Archeozoologia, Archeoantropologia).
2. I software FOSS (Free and Open Source Software) come strumenti della
ricerca
Sin dal principio è stato adottato il modello open source, nato in campo informatico ma applicabile perfettamente, con ottimi risultati, alla ricerca archeologica e ai suoi
obiettivi8. Di fatto, esso garantisce all’archeologo l’utilizzo di applicativi avanzati, abbattendone i costi, con ritmi di crescita e di aggiornamento competitivi rispetto a quelli del
software commerciale proprietario e con la possibilità concreta di intervenire, direttamente o indirettamente, nel processo di sviluppo, di personalizzazione o di rielaborazione del
software. L’utilizzo di formati “aperti” è naturalmente fondamentale in questo senso, dunque, «quanto più si farà uso di formati di scambio aperti, tanto più i gruppi di lavoro saranno liberi di utilizzare i programmi, commerciali od open che più si adattano alle proprie
esigenze e progetti e dati potranno “migrare” più semplicemente da un sistema a un
altro»9. Il principio partecipativo che si pone alla base di questo modello è facilmente
identificabile con il lavoro interdisciplinare proprio di un progetto di ricerca, in un’ottica
di continuo sviluppo e aggiornamento del progetto stesso. Il progetto N.D.S.S. ha come
fine primario l’applicazione del “modello open source” in attività di laboratorio di gestione dati, in modo da permettere all’archeologo, tramite il superamento del problema delle
4
VOLPE 2008, 447-462; FAVIA 2008, 343-364.
HODDER-ORTON 1976.
6
VOLPE 2007, 20-32.
7
HODDER-ORTON 1976.
8
PESCARIN 2006, 137-155.
9
PESCARIN 2006, 144.
5
246
licenze software, una più flessibile gestione del lavoro. Nello specifico, un progetto di analisi e ricostruzione di un paesaggio archeologico, per il quale è richiesta una suddivisione
del lavoro in fasi e il coinvolgimento di diverse professionalità, si presta a un approccio
open source tramite la costituzione di gruppi di lavoro in grado di partecipare in tempo
reale alla stesura del progetto, costituendo così una rete di ricerca. Diventa in questo modo
più semplice la gestione dei dati che, una volta inseriti in un database caricato su di un
server, possono essere visualizzati e modificati dagli stessi gruppi di lavoro. Questo
“patrimonio” di dati risulterà poi prezioso al fine della ricostruzione del paesaggio archeologico10. L’analisi spaziale finalizzata alla ricostruzione del paesaggio, sia alla macroscala dell’analisi inter-site e sia alla micro-scala dell’analisi intra-site, si è avvalsa dell’utilizzo di software GIS. In particolare la gestione dati è avvenuta attraverso l’utilizzo
combinato dei software FOSS QuantumGIS (ver. 1.6) e GRASS (ver. 6.4.). Il software
QuantumGIS è risultato preferibile come visualizzatore di dati raster e vettoriali, nella
fase di registrazione sotto forma di layer e nella fase di produzione delle piante di fase
relative. Per la conduzione, invece, di analisi complesse, difficilmente attuabili con il suddetto software, ci si è avvalsi del software GRASS, ove possibile tramite appositi moduli
all’interno dell’interfaccia stessa di QuantumGIS, oppure utilizzando la stessa applicazione in modalità stand-alone.
3. L’analisi spaziale inter-site e la gestione informatica del dato archeologico
All’interno del progetto di ricerca N.D.S.S., l’impiego delle analisi spaziali nello
studio delle forme di incastellamento, si basa sull’ipotesi che la ricostruzione, anche parziale, delle maglie di distribuzione degli stanziamenti umani possa restituire informazioni
che non potrebbero essere recuperate dalle carte di distribuzione «con il solo impiego della
ragione e dei sensi»11. È con questa finalità, alla quale va aggiunta l’eliminazione dell’immenso livello di soggettività implicito nell’interpretazione cartografica12, che l’analisi spaziale è stata introdotta in campo archeologico e viene oggi applicata al presente progetto di ricerca. Per giungere alla fase analitica, propria dell’indagine archeologica, è stata
dapprima affrontata la problematica fase della registrazione e dell’implementazione del
dato archeologico. Per la gestione del dato, finalizzata all’analisi spaziale, è stato necessario pensare a un metodo di archiviazione che permettesse, in fase di analisi, di tener
conto di più variabili simultaneamente. È proprio per via dell’applicazione delle tecniche
multivariate nell’interpretazione dei dati, che si è evidenziata la necessità di redigere una
scheda con relativo DBMS (DatabaseManagementSystem), che consentisse, in ambiente
GIS, di procedere con le diverse analisi. La scheda di archiviazione è stata pensata per
inglobare, già in fase di registrazione, i valori di riferimento riguardanti le variabili impiegate nel nostro modello matematico. Le variabili, o fattori, prese in considerazione dal
modello, per un approccio “multicriterio”13, riguardano: i caratteri ambientali (quota sul
livello del mare, distanza dal mare, distanza dai fiumi, pendenza dei suoli, paludi e terreni inondabili, esposizione solare) per l’analisi delle relazioni con il contesto idrogeomorfologico e i relativi ambiti geologici di riferimento, e i caratteri archeologici (posizionamento, intervisibilità, distanza dai siti noti, distanza dai siti incerti, dati storici) per l’analisi delle relazioni con i sistemi infrastrutturali e insediativi, attraverso la registrazione
delle caratteristiche morfologico-paesaggistiche degli elementi che condizionano e contraddistinguono le strutture fortificate. L’implementazione dei dati è avvenuta attraverso
la registrazione dei caratteri ambientali e archeologici ricavati da fonti d’archivio, carto10
PESCARIN 2006, 137-155.
MACCHI 2001 b, 143-165.
12
HODDER-ORTON 1976.
13
DI ZIO 2009, 309-329.
11
247
1. Rete delle
visuali tra la città
di Montecorvino e
gli insediamenti
fortificati del
Subappennino
Dauno
Settentrionale, tra
l’XI e il XV sec.,
risultante
dall’analisi di
intervisibilità,
integrata con
sezioni
altimetriche.
grafia storica, cartografia tecnica vettoriale 2d e 3d, DTM (modelli digitali del terreno),
ortofotogrammetria IGM, fotografia aerea obliqua, ricognizioni di superficie, scavi acheologici, prospezioni geofisiche, indagini archeoambientali. Dopo la fase di registrazione dei
dati in un geodatabase, è stato possibile razionalizzare e gestire una enorme quantità di
informazioni, che sono risultate utili ai fini del nostro progetto di ricerca. Il binomio
QuantumGIS - GRASS ci ha permesso di creare un modello organico per archiviare i dati
disponibili e ha inoltre permesso di attivare delle funzionalità, proprie delle analisi spaziali, che creano informazioni nuove, non desumibili dalle fonti, ma soprattutto, non rilevabili sul campo. Per il calcolo delle mappe di plausibilità sono stati integrati i dati registrati con i risultati delle analisi spaziali, relativi ai rapporti spaziali tra la rete di stanziamento e la rete dei principali corsi d’acqua (site catchment analysis)14, relativi all’identificazione delle tendenze di stanziamento in rapporto alle quote altimetriche e allo studio
delle pendenze, degli insediamenti fortificati d’altura, per la produzione di buffers15, relativi alla misurazione del grado di impatto, delle precipitazioni medie e delle variazioni climatiche di breve e medio periodo, sulla definizione della geografia umana16, relativi sia
allo studio del campo di osservazione di un individuo che si trova in un determinato punto
del territorio, che allo studio delle relazioni di visibilità tra i siti (viewshed analysis)17 (fig.
1). L’analisi multicriteriale spaziale è servita a determinare un modello matematico, generando una mappa di plausibilità, che tiene conto delle variabili connesse alle dinamiche
insediative dei siti analizzati. Nel progetto N.D.S.S, per elaborare dati in GRASS si è preferito utilizzare griglie cartografiche in formato GRID, tipo di file che si caratterizza per
il suo notevole grado di duttilità e flessibilità nelle operazioni e fasi tipiche di creazione e
applicazione delle analisi spaziali, ma soprattutto nella gestione delle variabili18. Le analisi delle variabili vengono visualizzate attraverso delle mappe in formato raster (criterion
map) e sovrapposte, consentendo l’integrazione delle variabili attraverso l’impiego di un
opportuno sistema di pesi. Ogni variabile all’interno di ogni alternativa verrà pesata e il
valore di plausibilità terrà conto sia del valore “oggettivo” risultante da ogni variabile, che
di quello “soggettivo” relativo al peso attribuito
a esso19. Il progetto di ricerca, prendendo ispirazione da vari casi di analisi applicata in Toscana
(Francovich, Macchi), in Abruzzo (Di Zio), in
Emilia-Romagna (Augenti, Monti), in Trentino
Alto Adige (Brogiolo), ha come obiettivo principale, quindi, la creazione di un modello che
integra informazioni di tipo quantitativo, desumibili dalle analisi spaziali, e informazioni di
tipo soggettivo, che intervengono nella definizione dei pesi da assegnare alle variabili, concepite dall’archeologo. Infine, nella fase più
recente del lavoro (ancora in fieri), finalizzata al
tentativo di ricostruire il paesaggio medievale
scomparso dell’area del Subappennino Dauno
Settentrionale ci si sta avvalendo del modulo
mapalgebra di GRASS. Utilizzando mapalgebra è risultato necessario che tutte le variabili
siano state precedentemente elaborate e visua-
14
DE SILVA-PIZZAIOLO 2001; MACCHI 2001 b.
MACCHI 2003.
16
MACCHI 2003; CARACUTA-FIORENTINO 2009, 717-726; GIULIANI et alii 2009, 779-784.
17
DI ZIO 2009, 309-329.
18
MACCHI 2001 b, 151.
19
DI ZIO 2009, 315.
15
248
lizzate, come già detto, in formato raster. Nella definizione della mappa finale di plausibilità tutte le variabili considerate assumono valori diversi per ogni pixel, ovvero per ogni
porzione di territorio, rendendo possibile integrare i valori di tali variabili, per ogni singolo pixel del territorio, in modo da ottenere un unico raster, che rappresenta una mappa
di plausibilità di presenza dei siti scomparsi, permettendoci di avvalorare le nostre ricostruzioni del paesaggio basate su solide analisi quantitative archeologiche.
4. L’analisi intra-site: il caso di Montecorvino
Il passaggio da un’analisi spaziale condotta su macro scala a un’analisi intra-site
relativa a uno scavo archeologico (loc. Torre di Montecorvino, Volturino, Foggia, Italia),
presenta alcune criticità, derivanti tanto dalla natura stessa dell’analisi quanto dalla dipendenza di questa dalla documentazione di scavo. L’aspetto visivo della piattaforma GIS,
costituita a tal fine, deve necessariamente riprodurre in maniera oggettiva la realtà materiale del sito archeologico indagato, registrando le qualità morfologico-spaziali delle
diverse unità stratigrafiche e i vari rapporti intercorrenti fra esse. La soggettività dell’analisi compiuta dall’archeologo potrà, al contrario, essere evidente nella costituzione degli
archivi alfanumerici correlati ai dati spaziali, essendo essi costituiti da informazioni
testuali, legate all’interpretazione del dato archeologico in fase di scavo. Le prime applicazioni in campo archeologico delle potenzialità dei software GIS si sono concentrate su
di un sistema visivo organizzato per cromatismi, rendendo possibile la visualizzazione di
dati connessi a particolari valori registrati in archivio20. Tuttavia, in anni recenti, lo sviluppo delle tecnologie informatiche (non ultime quelle di tipo Open Source) e il superamento dell’idea della piattaforma GIS come semplice “visualizzatore”, hanno permesso
agli archeologi di effettuare varie tipologie di analisi spaziali correlate ai contesti presi in
esame, potendo in alcuni casi replicare, a livello di analisi intra-site, quanto si effettua a
livello di macro-scala o analisi inter-site. Procedure avanzate quali analisi spaziali, analisi di distribuzione dei reperti ed elaborazione di modelli predittivi, rappresentano soltanto
alcune delle possibilità offerte dalla recente tecnologia informatica in ambiente GIS. Il
processamento dei dati e conseguentemente la possibilità di produrre nuova e migliore
conoscenza21, costituiscono il fondamento stesso dell’utilizzo di un sistema informativo
geografico in archeologia, permettendo, grazie all’utilizzo del supporto informatico, una
più agevole dinamica di processamento del dato, anche nel caso di analisi complesse22. I
principi fin qui enunciati, hanno costituito le linee guide dell’attività di laboratorio svolta
in parallelo con le campagne di scavo finora condotte sul sito di Montecorvino (2008 2009 - 2010), includendo, tra i vari percorsi di ricerca, un progetto di analisi intra-site e
di gestione del dato archeologico, riconoscendo in tale sito l’adeguato contesto per sperimentare l’adozione di differenti tecniche di rilevamento su unità stratigrafiche orizzontali
e verticali23. Sin dalla prima campagna di indagine archeologica sul sito24 è stata creata
una griglia di appoggio a cui georiferire la quadrettatura generale (su un area di 800×300
m, con una maglia di quadrati 10 ×10 m) dell’area archeologica, propedeutica all’analisi
di remote sensing che ha preceduto il posizionamento delle strutture monumentali, l’impianto dei saggi di scavo e l’avvio delle indagini stratigrafiche. Posizionare i resti dell’edificio monumentale della cattedrale e della torre ha significato, dunque, impostare una
rete di inquadramento composta da una catena di vertici (poligonale), in questo caso aperta, ovvero costituita da una successione di stazioni, che ha permesso di avere un’unica rete
20
VALENTI-NARDINI 2004.
BARCELÓ 2000, 9-35; DE FELICE 2008, 20.
22
VALENTI-NARDINI 2004, 346-353.
23
FAVIA et alii 2009, 373-381.
24
FAVIA et alii 2007.
21
249
di appoggio topografico, alla quale è stato possibile georiferire i fotomosaici relativi ai
paramenti murari. La prima campagna di scavo condotta sul sito di Montecorvino ha previsto, inoltre, l’acquisizione on site della stratigrafia in tre dimensioni mediante stazione
totale, sulla base dei percorsi di documentazione 3D digital-born, elaborati all’interno del
progetto Itinera25 per la ricostruzione virtuale della sequenza stratigrafica. In fase di elaborazione della piattaforma GIS, i riferimenti topografici per la georeferenziazione dei
dati di scavo sono stati forniti dalla cartografia tecnica liberamente rilasciata dalla Regione
Puglia attraverso il portale SIT www.cartografico.puglia.it. Il sistema che si sta costituendo
mira a gestire, in un modello geo-relazionale, tutte le informazioni esistenti sul sito in
esame provenienti da prospezioni geofisiche, aerofotointerpretazione, documentazione
grafica, studio delle singole classi di materiali, analisi architettonica, fino al calcolo statistico della distribuzione dei materiali. Tramite l’utilizzo di un GEODATABASE è, inoltre,
possibile associare al dato spaziale i dati testuali ricavati dalla compilazione delle schede
US. Tramite un’interfaccia user-friendly, la piattaforma GIS permette, infatti, di procedere a una rapida consultazione di dati grafico-spaziali e alfanumerici e di produrre mappe
derivate, in costante riferimento alle esigenze del progetto in corso. Nell’ambito di questi
sistemi ciascun oggetto grafico è georeferenziato e associato a un attributo presente nell’archivio alfanumerico, organizzato a sua volta in un database relazionale. Mediante la
funzione Profile Surface Map e il modulo di visualizzazione 3d NVIZ (funzione cutting
planes) di GRASS è stato possibile ottenere una valida alternativa digitale alla tradizionale operazione di elaborazione delle sezioni stratigrafiche sul campo, incrementando
oltretutto la quantità di dati archeologici desumibili. Il GIS intra-site rappresenta, dunque,
un modello di applicazione polifunzionale, in quanto rappresenta uno strumento indispensabile per la fase di registrazione delle informazioni raccolte sul terreno, anche per quanto riguarda le indagini che spesso precedono e indirizzano la ricerca sul campo. In sostanza questo livello di micro-scala di indagine mira alla realizzazione di una piattaforma,
costantemente aggiornabile e aggiornata, di gestione complessiva dei dati di scavo, in
modo da archiviare e gestire il dato archeologico in modo preciso e puntuale.
25
250
DE FELICE 2008, 13-24.
Abbreviazioni bibliografiche
BARCELÓ 2000
J. A. Barceló, Visualizing what might be. An introduction to Virtual Reality techniques in archaeology,
in Virtual Reality in Archaeology, J. A. Barceló, M.
Forte, D. H. Sanders (edd.), Oxford 2000, 9-35.
BROGIOLO 1995
Città, castelli, campagne nei territori di frontiera,
Atti del 5° Seminario sul Tardoantico e l’Altomedioevo in Italia centro-settentrionale, G. P. Brogiolo
(ed.), Monte Barro 1994, Mantova 1995.
CARACUTA-FIORENTINO 2009
V. Caracuta - G. Fiorentino, L’analisi archeobotanica
nell’insediamento di Faragola (FG): il paesaggio
vegetale tra spinte antropiche e caratteristiche
ambientali tra Tardoantico e Altomedioevo, in Atti
del V Congresso Nazionale di Archeologia Medievale, Foggia-Manfredonia 2009, 717-726.
DE FELICE 2008
G. De Felice, Il progetto Itinera. Ricerca e comunicazione attraverso nuovi metodi di documentazione
archeologica, in L’informatica e il metodo della stratigrafia, G. De Felice, M. G. Sibilano, G. Volpe (edd.),
Atti del Workshop, Foggia 2008, Bari 2008, 13-24.
DE SILVA-PIZZAIOLO 2001
M. De silva - G. Pizzaiolo, Setting up a “Human
Calibrated” Anisotropic Cost Surface for Archaeological Landscape Investigation, in Computing
Archaeology for Understanding the Past CAA 2000,
Z. Stancic, T. Veljanovski (edd.), Oxford 2001, 279286.
DI ZIO 2009
S. Di Zio, Un modello GIS multicriterio per la
costruzione di mappe di plausibilità per la localizzazione di siti archeologici: il caso della costa teramana, in ACalc, 20, 2009, 309-329.
FAVIA 2008
P. Favia, Itinerari di ricerca archeologica nel
Medioevo di Capitanata: problemi scientifici, esigenze di tutela, programmi di politica dei beni culturali,
in VOLPE et alii 2008, 343-364.
FAVIA et alii 2007
P. Favia - R. Giuliani - M. L. Marchi, Volturino, loc.
Montecorvino, 2006, in AMediev, 34, 2007, 207-208.
FAVIA et alii 2009
P. Favia - R. Giuliani - N. M. Mangialardi - F. Stoico,
Indagine archeologica sul sito di Montecorvino nel
Subappennino daunio: primi scavi della cattedrale e
dell’area castrense, in Atti del V Congresso
Nazionale di Archeologia Medievale, FoggiaManfredonia 2009, 373-381.
FRANCOVICH-GINATEMPO 2000
R. Francovich - M. Ginatempo, Castelli. Storia e
archeologia del potere nella Toscana medievale,
Firenze 2000.
GIULIANI et alii 2009
R. Giuliani - V. Caracuta - G. Fiorentino - O. Pignatelli, Prime ricerche nella torre medievale di
Pietramontecorvino (FG): un approccio integrato tra
esame archeologico delle architetture e analisi
paleoecologiche, in Atti del V Congresso Nazionale
di Archeologia Medievale, Foggia-Manfredonia
2009, 779- 784.
HODDER-ORTON 1976
I. Hodder - C. Orton, Spatial Analysis in Archeology,
Cambridge 1976.
MACCHI 2001 a
G. Macchi, Sulla misurazione delle forme d’occupazione sociale dello spazio medievale, in AMediev, 18,
2001, 61-83.
MACCHI 2001 b
G. Macchi, Modelli matematici per la ricostruzione
dei paesaggi storici, in ACalc, 12, 2001, 143-165.
MACCHI 2003
G. Macchi, «L’occupazione sociale dello spazio» e
ambiente: proposte metodologiche, MCGCBA, III
Modulo Informatica Applicata, Grosseto 2003.
PESCARIN 2006
S. Pescarin, Open Source in Archeologia. Nuove prospettive per la ricerca, in ACalc, 17, 2006, 137-155.
VALENTI-NARDINI 2004
M. Valenti - A. Nardini, Modello dei dati e trattamento del dato sul GIS di scavo, in ACalc, 15, 2004,
346-353.
VOLPE 2007
G. Volpe, L’ “archeologia globale” per ascoltare la
“storia totale” del territorio, in SudEst, 20, 2007,
20-32.
VOLPE 2008
G. Volpe, Per una “archeologia globale dei paesaggi” della Daunia. Tra archeologia, metodologia e
politica dei beni culturali, in VOLPE et alii 2008,
447-462.
VOLPE et alii 2008
Storia e archeologia della Daunia, in ricordo di
251
Marina Mazzei, Atti delle Giornate di Studio, G.
Volpe, M. J. Strazzulla, D. Leone (edd.), Foggia
2005, Bari 2008.
WICKHAM 1998
C. Wickham, Aristocratic Power in Eighth-century
Lombard Italy, in After Rome’s Fall: Narrators and
Sources of Early Medieval History, A. Callander
Murray (ed.), Toronto 1998, 153-170.
Referenze iconografiche
Dipartimento di Scienze Umane. Università degli
studi di Foggia: fig. 1.
Felice Stoico
Dipartimento di Scienze Umane. Università degli
Studi di Foggia.
[email protected]
Luca d’Altilia
Dipartimento di Scienze Umane. Università degli
Studi di Foggia.
[email protected]
252
Sandra Heinsch
Walter Kuntner
Giuseppe Naponiello
Aramus Excavations and Field
School, esperienze con
Free/Libre e Open Source
Software
Abstract
Since 2006 the archaeological expedition of Aramus (Armenia) is supported only by Free/Libre and
Open Source Software, with positive effects on the entire project. With this paper we would like to present
our experiences in using, developing, teaching and sharing this kind of applications, focusing the attention
both on problems and benefits.
1. Introduzione
Il progetto Aramus Excavations and Field School è nato da una cooperazione tra
l’Università di Yerevan (Armenia), l’Università di Innsbruck (Austria) e l’Istituto di
Archeologia e Etnografia dell’Accademia Nazionale delle Scienze dell’Armenia. A livello operativo i lavori di scavo hanno preso avvio nel 2004 in seguito a una prima ricognizione per individuare il sito adatto. La fortezza di Aramus, posizionata a 1.450 metri sul
livello del mare nell’altopiano del Kotayk (fig. 1), presentava caratteristiche in grado di
soddisfare tutti i requisiti richiesti, sia da un punto di vista logistico che cronologico. La
roccaforte, infatti, sorge su un’altura (fig. 2) a soli 15 km N/E della capitale Yerevan e si
presta senza eccessive difficoltà a ospitare uno scavo-scuola. Inoltre, come è emerso in
seguito ai primi studi, si tratta di una struttura difensiva che copre un arco cronologico
compatibile con gli interessi della missione, essendo stata fondata durante la media età del
ferro (850-650 a.C.), in seguito alla conquista urartea della piana dell’Ararat con il re
Argisti I (785-763 a.C.) e occupata fino all’inizio del IV sec. a.C.1
Nell’ambito del progetto le prime esperienze con applicazioni FLOSS
(Free/Libre e Open Source Software) hanno avuto luogo nella campagna 2006, quando la
ditta Arc-Team si è unita all’equipe di ricerca, supportando la migrazione dal software
chiuso, sino ad allora utilizzato, ai programmi aperti. L’esperienza si è conclusa positivamente e ha segnato una svolta nella didattica, nella documentazione di scavo e in molte
analisi archeologiche2.
Da allora la missione di Aramus si è evoluta, articolandosi in vari sottoprogetti
accomunati dall’intento di applicare la filosofia free/open all’archeologia. Questo “orientamento libero” della ricerca e questo “approccio aperto” alla disciplina hanno trovato terreno fertile in un background culturale in cui diverse entità (università, istituzioni e società private) collaborano per migliorare la metodologia in ogni singolo passaggio del flusso di lavoro dello scavo, dalla documentazione sul campo al post-processing.
1
2
AVETISYAN 2001; AVETISYAN-ALLINGER CSOLLICH 2006; KUNTNER-HEINSCH 2010.
BEZZI et alii 2006 a.
253
1. Altopiano del
Kotayk con
indicazione dei
principali siti
archeologici.
2. La collina di
Aramus.
In questo modo, anno dopo anno, Aramus è diventato una sorta di “laboratorio
aperto” in cui una comunità di persone differenti (studenti, professionisti, volontari, programmatori, ecc.) condividono le loro esperienze nell’uso, nella sperimentazione e nello
sviluppo dei prodotti FLOSS in archeologia.
In altre parole, la libera circolazione di software, dati, conoscenze e idee, ha portato a uno sviluppo migliore della ricerca, con positive ricadute sull’intero progetto.
2. Uso e condivisione di FLOSS
Le operazioni di migrazione dal software chiuso a quello open e free hanno richiesto solamente poche ore grazie alla sostituzione dell’intero sistema operativo proprietario
con ArcheOS3 1.2, basato su GNU/Linux4. Con questa semplice procedura è stato possi-
3
4
254
http://www.archeos.eu/wiki/doku.php
BEZZI et alii 2005; BEZZI et alii 2006 b.
bile equipaggiare i computer della spedizione con una nuova suite di programmi aperti,
selezionati specificatamente per un utilizzo in campo archeologico. Il sistema ArcheOS è
stato, infatti, pensato per soddisfare le necessità della ricerca, dall’acquisizione dei dati,
alla loro gestione e processamento, fino alla loro analisi e conseguente pubblicazione. Per
questa ragione la lunga lista dei software compresi nel sistema operativo copre una vasta
gamma di categorie differenti: CAD, database, GIS, grafica (vettoriale, raster e volumetrica), laser-scanning (mesh-editing), fotogrammetria, statistica, WebGIS, ecc.
I principali vantaggi del passaggio al software aperto sono emersi sin dalle prime
fasi e sono connessi alle quattro libertà della “free software definition”, scritta da R.
Stallman e pubblicata dalla Free Software Foundation5 nel febbraio 1986. Infatti, durante
la missione del 2006 è stato possibile usare i programmi per qualsiasi scopo (libertà 0), ad
esempio forzando un software di grafica raster a eseguire operazioni geometrico-geografiche; inoltre si è potuto studiare il funzionamento dei vari software (libertà 1), considerando metodi alternativi di rettificazione nelle applicazioni fotogrammetriche; l’aspetto
didattico del progetto è stato potenziato distribuendo copie dei programmi (libertà 2), per
aiutare gli studenti a imparare le tecniche basilari di documentazione in archeologia; infine si è potuto implementare e migliorare i software (libertà 3), ad esempio, aggiungendo
nuove linee di codice sorgente a un’applicazione per riconoscere e connettere più strumenti hardware.
Un ulteriore vantaggio della migrazione ad ArcheOS è stato una maggiore sicurezza contro virus e malware e in generale una maggiore stabilità, tipica dei sistemi
GNU/Linux.
Sebbene la campagna del 2006 fosse indirizzata solamente a verificare l’effettiva
efficienza dei FLOSS in archeologia, i risultati positivi dell’esperimento hanno incoraggiato a procedere con questa esperienza, capitalizzando allo stesso tempo il veloce sviluppo dei programmi aperti.
3. Sviluppo e miglioramento dei FLOSS
La collaborazione tra l’Università di Innsbruck e Arc-Team si è dimostrata molto
proficua, comportando vantaggi reciproci. Da un lato l’Università ha potuto supportare la
missione di Aramus con software professionale, distribuibile liberamente, con ovvi benefici per gli studenti e senza costi addizionali che intaccassero il budget. Dall’altro ArcTeam ha usato l’esperienza di lavoro sul campo in Armenia per sviluppare ulteriormente
ArcheOS (che la società rilascia liberamente sotto la licenze GNU GPL). I feedback dello
scavo di Aramus si sono rivelati molti importanti nel pianificare la successiva versione del
sistema operativo (v. 2.0), tenendo presente anche le specifiche necessità di una missione
archeologica all’estero. Da questo punto di vista, l’esperienza della field school è stata
un’ottima occasione per sperimentare in maniera accurata i software candidati alla nuova
release. Grazie a questi test si è arrivati a una più stretta selezione dei programmi, che ha
portato ad esempio alla graduale sostituzione di Scanalyze con MeshLab nel campo del
mesh-editing. Allo stesso modo si è raggiunto un più efficiente monitoraggio dei progetti
di sviluppo di nuovo software, che ha permesso di inserire ulteriori applicazioni le cui
potenzialità archeologiche sono emerse durante il lavoro sul campo (come nel caso di
TOPS, il programma per interfacciare il computer con gli strumenti di rilievo topografico
e survey). Quando è stato possibile, sono stati inviati feedback e parziali implementazioni
di codice agli sviluppatori di alcune applicazioni e, in casi particolari, sono stati realizzati, con licenze libere, nuovi programmi per colmare lacune o migliorare alcuni passaggi
critici individuati nel flusso di lavoro.
5
http://www.fsf.org/
255
3. Planimetria
della fortezza.
3.1. Programmazione di nuove applicazioni
Sebbene ArcheOS rappresenti una suite di software per l’archeologia abbastanza
completa, nel 2007 è stato necessario scrivere una nuova applicazione per venire incontro
alle necessità specifiche della campagna di scavo in atto, allo scopo di ottimizzare alcune
operazioni di post-processing. In quell’anno uno dei principali obiettivi della missione
consisteva nella mappatura delle evidenze di superficie della collina di Aramus (fig. 3),
per tentare di riconoscere eventuali resti strutturali e ricostruire una mappa (per quanto
ipotetica) della fortezza. In pratica è stato necessario posizionare con la stazione totale
gran parte delle pietre presenti sulla sommità della collina. Ovviamente questo tipo di
lavoro sul campo si è rilevato molto dispendioso in termini di tempo e avrebbe comportato una lunga e tediosa fase di processamento dei dati raccolti. Per evitare inutili sprechi di
energie, uno dei membri della spedizione, S. Köllö, ha scritto una nuova applicazione
informatica in grado di velocizzare l’intero procedimento. Si tratta di un software, rilasciato sotto licenza libera (GNU GPL), capace di trasformare automaticamente i dati grezzi della stazione totale in codice WKT (Well Known Text), un formato di file compatibile
con OpenJUMP, uno dei GIS contenuti in ArcheOS. In questo modo l’intero flusso di
lavoro necessario per convertire i file ASCII (dati grezzi) in disegni vettoriali è stato ridotto a operazioni svolte in automatico dal software, sotto la supervisione di un unico operatore.
Una tale soluzione è stata possibile grazie all’alta compatibilità che spesso caratterizza le applicazioni free e open source e alla possibilità di studiare il modo di lavorare dei
vari software coinvolti.
4. Insegnamento di FLOSS e condivisione di know-how
Sin dal 2004 la missione di Aramus è stata organizzata come campo scuola in cui
oltre alle tecniche di scavo stratigrafico venivano impartite lezioni teoriche e pratiche inerenti l’archeologia computazionale. Il software a codice aperto ha permesso di migliorare
anche molti aspetti della didattica, essendo possibile fornire agli studenti non solo le cono256
scenze necessarie (know-how), ma anche gli strumenti per metterle in pratica. In questo
senso l’utilizzo di ArcheOS si è dimostrato molto efficace, in quanto ha permesso un
approccio graduale: è stato, infatti, possibile inizialmente utilizzarlo on the fly, senza la
necessità di essere installato sulla macchina ospite. Questo significa che gli studenti hanno
potuto impratichirsi con tutti i software della distribuzione, senza compromettere il proprio sistema operativo. Solo in un secondo momento, per gli utenti più esperti, si è proceduto all’installazione vera e propria di ArcheOS, in modo da implementarne le performance. In base alla nostra esperienza, questo passaggio graduale ha dato buoni risultati,
evitando gli aspetti più traumatici di un cambiamento di sistema operativo. Con lo stesso
intento di facilitare la migrazione al software aperto, la politica di selezione delle applicazioni contenute in ArcheOS è stata diretta da un approccio a due livelli distinti (anche se
in parte ridondanti): al fianco di programmi professionali, che richiedono un certo knowhow, sono state in genere mantenute applicazioni meno performanti ma più user friendly
(è il caso, ad esempio, dei GIS GRASS e gvSIG).
Dalla serie di lezioni tenute nell’ambito dell’Aramus Excavation and Field School
è derivato il Digital Archaeological Documentation Project6 (fig. 4), che ha collezionato
diversi tutorial in un sistema wiki, con l’intento di condividere le conoscenze tecniche
necessarie all’utilizzo di FLOSS in ambito archeologico. Il progetto è pensato per essere
un work in progress, da aggiornare nel tempo con nuovi contributi, traduzioni e materiale
mediatico. Tutti i documenti prodotti sono rilasciati sotto appropriate licenze aperte (generalmente la Free Documentation License) con l’intento di coinvolgere una comunità sempre più ampia.
4. Digital
Archaeological
Documentation
Project.
.
5. Condivisione di dati
Un altro aspetto importante del progetto Aramus riguarda la scelta di condividere
attraverso internet tutte le informazioni raccolte, seguendo un modello di open data.
Questo approccio è stato suggerito dall’esperienza maturata con le applicazioni
FLOSS, che hanno dimostrato come la libera circolazione di dati e idee porti spesso a un
migliore e più veloce sviluppo.
La soluzione obbligata per raggiungere un obiettivo del genere è stata lo sviluppo
6
http://vai.uibk.ac.at/dadp/doku.php
257
5. WebGIS di
Aramus.
di un sistema WebGIS (fig. 5), basato sui programmi aperti GeoServer e OpenLayer
(JavaScript) e connesso a un complesso database ideato per gestire ogni tipologia di livello, dalle macro-evidenze (regioni, siti) alle micro-realtà (stratigrafie e reperti rinvenuti).
La struttura poggia su di una complessa architettura realizzata all’interno del
DBMS PostgreSQL e della sua estensione spaziale PostGIS. Database e WebGIS sono
gestiti direttamente da pagine scritte in linguaggio PHP, appositamente create senza ricorrere a strumenti precostituiti che avrebbero certamente appesantito il sistema imbrigliandolo in rigidi schemi non performanti. Per garantire una larga e libera circolazione delle
informazioni, tutti i dati archeologici saranno rilasciati sotto licenze aperte (principalmente Creative Commons e Science Commons). Ovviamente tutte le pagine sono state costruite nel rispetto delle regole stabilite dal consorzio W3C, in modo da garantire un’alta compatibilità con tutti i browser standard compliant7.
6. Sperimentazione e sviluppo di strumenti e metodologie
La scelta di utilizzare unicamente software aperti ha avuto diverse ricadute positive
sull’intero progetto. Tra le più importanti va sicuramente considerato lo stimolo alla ricerca di nuove soluzioni metodologiche che l’accessibilità al codice sorgente ha senza dubbio incoraggiato. Un ulteriore incentivo in questa direzione è derivato anche dalla necessità di correggere, tramite aggiustamenti tecnici, alcune inefficienze riscontrate nel flusso
di lavoro adottato dopo la migrazione. Durante questa fase di trouble-shooting è nato il
“metodo Aramus”, un nuovo sistema per realizzare fotomosaici georeferenziati introdotto
da Arc-Team nel 2006. Si tratta di una parziale revisione delle più comuni tecniche di photomapping, che si è resa necessaria per velocizzare le operazioni sul campo richieste dai
moduli fotogrammetrici del GIS open source GRASS.
Nel corso degli anni l’influenza dell’open source ha spinto la nostra ricerca a
vagliare anche le possibilità offerte dall’open hardware, come è avvenuto nel 2008 con la
costruzione di un drone volante (UAVP) per le foto aeree e il remote sensing, che sarà operativo nelle prossime missioni.
Recentemente, inoltre, si è stati in grado di risolvere i due principali problemi evi-
7
258
http://vai.uibk.ac.at/aramus/
denziati nelle passate spedizioni: la difficoltà di ottenere una veloce e accurata documentazione tridimensionale del deposito archeologico e l’incompatibilità del disegno manuale dei reperti con le tempistiche di cantiere. Anche in questo caso, nel 2008 e nel 2009,
sono state testate diverse applicazioni FLOSS per trovare nuove metodologie e soluzioni.
Grazie a questi studi, a partire dalla campagna del 2010 sono stati effettuati sistematicamente rilievi tridimensionali impiegando tecniche di Structure from Motion (SfM)
e Image Base Modeling (IBM), mentre l’illustrazione scientifica dei reperti archeologici,
attualmente ancora manuale, sarà progressivamente sostituita da metodi semiautomatici.
Tutti questi esempi mostrano come, in base alla nostra esperienza, la filosofia free
e open source ha condotto a un approccio differente nella disciplina archeologica, basato
su strumenti e tecniche altamente personalizzabili, in grado di adattarsi a una vasta gamma
di situazioni diverse.
6.1. Metodo Aramus
Nel 2006 il problema principale nell’affrontare le difficoltà di una missione all’estero era connesso con la documentazione base di scavo, impostata su un rilievo bidimensionale fotogrammetrico. Sino a quell’anno la metodologia applicata da Arc-Team per
ottenere questo risultato si appoggiava interamente al GIS GRASS, all’interno del quale
veniva elaborato l’intero processo (rettificazione, georeferenziazione e mosaicatura).
Sfortunatamente questo metodo era incompatibile con le tempistiche della missione, a
causa delle lunghe operazioni necessarie per registrare sul campo i nove punti di controllo richiesti dal software per ogni singola foto.
Al fine di ridurre il lavoro in cantiere alle normali operazioni svolte nel 2004 e 2005
(quando si usava una sola applicazione a codice chiuso per georeferenziare e rettificare le
foto con quattro punti di controllo) si è dunque sviluppato un nuovo sistema. Il “metodo
Aramus” (fig. 7) consiste nella combinazione di diversi programmi per creare fotomosaici georeferenziati. Il flusso di lavoro comincia con l’elaborazione delle coordinate dei
punti di controllo all’interno di un editor di testo Kate. Quindi il file ASCII viene importato nel GIS GRASS, dove è trasformato in un modello raster georeferenziato dell’area da
documentare. Successivamente il modello è usato all’interno della suite fotogrammetrica
e-foto per rettificare ogni singola foto dell’intero fotomosaico. Infine, le immagini rettificate sono mosaicate nel programma di grafica raster GIMP. Il risultato può essere importato in qualsiasi GIS (ad esempio, in OpenJUMP) per le successive operazioni, come il
disegno vettoriale dei vari strati.
In termini di tempo l’intero processo può essere comparato con la vecchia metodologia applicata ad Aramus sino al 2005, ma i fotomosaici georeferenziati raggiungono una
miglior qualità nell’equalizzazione della luminosità e del contrasto delle singole foto.
Inoltre, l’intero processo garantisce un miglior controllo umano durante ogni singola fase,
considerando anche la possibilità di influenzare direttamente il rapporto qualità/quantità
(risoluzione/megabyte) del risultato finale.
Sino a oggi, dopo cinque anni, il “metodo Aramus” è ancora usato nella campagna
di scavo ufficiale ed è stato migliorato grazie al contributo e ai feedback della comunità.
6.2. Open Hardware
Nel 2006 lo scavo di Aramus è stato integrato da un progetto di remote-sensing, che
ha coperto l’intera area della collina con tecniche di photomapping. L’operazione è stata
possibile grazie al supporto professionale di K. Kerkow, Ch. Hanisch e, in particolare, al
generoso contributo del Ministero della Difesa e dell’Areonautica Militare Armena, che
ha fornito un elicottero.
Sfruttando le possibilità offerte dall’Open Hardware, i prossimi progetti di telerile259
6. UAVP.
7. Esempio di
fotomosaicatura
con il metodo
Aramus.
vamento saranno supportati dall’uso di uno UAV (Unmanned Aerial Vehicle). Infatti, nel
2008, Arc-Team ha condotto uno studio preliminare per scegliere la miglior soluzione di
drone volante. Tale studio ha portato alla selezione del progetto UAVP8 (Universal Aerial
Video Platform), sviluppato da W. Mahringer e rilasciato sotto licenza GPL (fig. 6). La
scelta è stata condizionata soprattutto dalla stabilità di volo e manovrabilità, qualità necessarie a soddisfare le peculiari esigenze di una campagna di telerilevamento orientata al
photomapping e al survey9.
Il primo prototipo funzionante è stato completato nel 2008 e parzialmente modificato durante il 2009, allo scopo di migliorare le funzionalità del dispositivo di remote-sensing. Attualmente i responsi positivi dei test di volo (grazie all’aiuto di W. Gilli) sembrano indicare un uso realistico del drone nelle prossime missioni.
8
9
260
http://uavp.ch/moin/FrontPage
BEZZI et alii 2008; BEZZI et alii 2009.
6.3. SfM e IBM
Nel 2009 Arc-Team ha iniziato una serie di sperimentazioni che consentissero di
applicare la tecnica della Computer Vision alla documentazione prodotta nelle precedenti
campagne di scavo ad Aramus. L’obiettivo di questi esperimenti era focalizzato sulla ricostruzione virtuale di contesti archeologici che il procedere dell’indagine stratigrafica
aveva irrimediabilmente distrutto.
Questa tecnologia consente di ottenere modelli tridimensionali della realtà partendo da una raccolta di fotografie ottenute con una normale (non calibrata) macchina fotografica digitale10. Proprio per questo motivo rappresenta probabilmente la più valida alternativa al recupero di informazioni spaziali di contesti scavati.
La scienza della Computer Vision è «l’insieme dei processi che mirano a creare un
modello approssimato del mondo reale (3D) partendo da immagini bidimensionali (2D)»
(Wikipedia, 27-09-2011). Più nello specifico con Structure from Motion (SfM) e Image
Based Modeling (IBM) si intende il processo di ricostruzione di strutture tridimensionali
partendo dall’analisi dello spostamento di un oggetto nel tempo.
I risultati positivi dei test hanno confermato le alte potenzialità di questa metodologia in archeologia e la sua compatibilità con le peculiarità del progetto Aramus (fig. 8).
Questa tecnica non richiede una particolare formazione: l’intero processo è semplice e può
essere facilmente appreso dagli studenti della field school. L’intervento umano nel flusso
di lavoro si limita alla fase iniziale di acquisizione dei dati, che consiste nello scattare una
serie di foto che ritraggono l’area di interesse da diverse angolazioni. Tutto il complesso
calcolo che estrae le informazioni tridimensionali dalle immagini è delegato all’intelligenza artificiale.
La Computer Vision è principalmente basata su software (Bundler, PMVS2 e
MeshLab, per il post-processing) e non richiede costose o ingombranti attrezzature.
Questo rende la metodologia ottimale per il budget di una campagna archeologica (sono
necessari solamente una macchina fotografica e un computer).
Nella campagna 2010 è stato possibile registrare le superfici 3D degli strati, aggiungendo alla documentazione una tipologia di rilievo molto più accurata rispetto alla fotomosaicatura bidimensionale. In un secondo momento i dati così raccolti saranno processati per ricostruire l’intero record archeologico usando la grafica volumetrica11.
6.4. Rilievo semiautomatico dei reperti
Un altro spunto di ricerca emerso nel corso delle differenti missioni riguarda la
documentazione e, di conseguenza, lo studio dei reperti recuperati dallo scavo. Il fatto che
gli oggetti non possono essere portati in Europa comporta la necessità di documentare in
loco tutto il materiale (attraverso fotografie digitali e disegni manuali tradizionali) con
ovvio dispendio di tempo ed energie. Per questo motivo negli anni a venire sarà sperimentata una nuova metodologia di disegno informatico semi-automatico, che dovrebbe
velocizzare la documentazione dei reperti. Questo sistema, nato dalla collaborazione tra
Arc-Team e S. Cavalieri, è stato sviluppato tra 2008 e 200912. I primi esperimenti condotti sul materiale di Aramus hanno dimostrato la validità di questa tecnica nell’ottimizzare
il processo. Questo risultato è stato raggiunto grazie alla combinazione di software free e
open source che, attraverso cinque passaggi, permettono di ottenere un’immagine in bianco e nero non fotorealistica, simile a un’illustrazione scientifica eseguita a mano.
Il flusso di lavoro inizia con una foto digitale dell’oggetto, successivamente rettifi10
BEZZI et alii 2010 b.
BEZZI et alii 2006 c.
12
BEZZI et alii 2010 a.
11
261
8. Modello
ottenuto tramite
SfM e IBM.
cata con un software di fotogrammetria (e-foto) e processata attraverso un modulo di riconoscimento automatico (jSVR), oppure vettorializzata manualmente (OpenJUMP); infine
il rilievo viene completato con una punteggiatura impostata sulle ombre naturali dell’oggetto (Stippler). Per i reperti ceramici l’illustrazione viene integrata dal profilo della sezione registrato con strumenti meccanici.
In base ai nostri test (fig. 9), questo metodo è compatibile con il budget di una normale missione archeologica e con l’orientamento didattico della Aramus Field School.
Infatti, in normali condizioni, un disegno semi-automatico raramente impiega più di trenta minuti, anche nel caso di artefatti complessi. Inoltre, non sono richieste particolari capacità da parte dell’operatore, in quanto questa tecnica si basa principalmente su software
poco interattivi: l’apporto umano si riduce a un controllo di qualità e a piccoli accorgimenti stilistici. In questo modo anche disegnatori non professionisti, come studenti e
volontari, possono produrre illustrazioni scientifiche di buona qualità.
7. Conclusioni
In conclusione è possibile sintetizzare la nostra esperienza con il FLOSS ad Aramus
come una esperienza positiva finalizzata alla condivisione degli strumenti (software),
conoscenze (insegnamento) e dati (pubblicazioni web).
In particolare va considerato che la migrazione al software libero del 2006 è avvenuta senza nessun problema critico. Riguardo a prestazioni e stabilità, i software FLOSS
262
hanno dimostrato qualità paragonabile ad applicazioni chiuse e sotto alcuni aspetti anche
migliori. La didattica è stata migliorata attraverso la possibilità di condividere e ridistribuire le applicazioni con gli studenti e il libero accesso al codice sorgente ha aiutato lo sviluppo della ricerca. Inoltre la filosofia FLOSS ha influenze positive in campo archeologico verso una libera circolazione dei dati, nella speranza di promuovere la trasparenza e
l’oggettività nella ricerca accademica.
9. Esempio di
disegno automatico
con Stippler.
263
Abbrevizioni bibliografiche
Palombini, S. Pescarin (edd.), Roma 2009, Firenze
2009, 183-193.
ARCHEOFOSS 2010
ARCHEOFOSS. Open Source, Free Software e Open
Format nei processi di ricerca archeologica, G. De
Felice, M. G. Sibilano (edd.), Atti del V Workshop,
Foggia 2010.
BEZZI et alii 2010 a
A. Bezzi - L. Bezzi - S. Cavalieri, Proposta per un
metodo informatizzato di disegno archeologico, in
ARCHEOFOSS 2010, 113-123.
AVETISYAN 2001
H. Avetisyan, Aragats (Excavations of the Urartian
Fortress), Yerevan 2001.
AVETISYAN-ALLINGER CSOLLICH 2006
H. Avetisyan - W. Allinger Csollich, The Fortress of
Aramus: Peliminary Report of Excavaions in 2004
and 2005, in Aramazd – Armenian Journal of Near
Eastern Studies, I, 2006, pp. 105-134.
BEZZI et alii 2005
A. Bezzi - L. Bezzi - D. Francisci - R. Gietl, ArcheOS
1.0 Akhenaton, the first GNU/Linux live distribution
for archaeologists, in Workshop 10 Archäologie und
Computer. Kulturelles Erbe und neue Technologien,
W. Boerner, S. Uhlirz (edd.), Wien 2005.
BEZZI et alii 2006 a
A. Bezzi - L. Bezzi - R. Gietl, Aramus 2006: an international archaeological expedition completely supported by Free and Open Source Software, in
Workshop 11 Archäologie und Computer. Kulturelles
Erbe und neue Technologien, W. Boerner, S. Uhlirz
(edd.), Wien 2006.
BEZZI et alii 2006 b
A. Bezzi - L. Bezzi - D. Francisci - R. Gietl, ArcheOS
1.1.6. Akhenaton: la nuova release della prima distribuzione GNU/Linux per archeologi, in Open
Source, Free Software e Open Format nei processi di
ricerca archeologici, Atti del I Workshop, R.
Bagnara, G. Macchi Jànica (edd.), Grosseto 2006,
Firenze, 2006, 7-16.
BEZZI et alii 2006 c
A. Bezzi - L. Bezzi - D. Francisci - R. Gietl, L’utilizzo
di voxel in campo archeologico, in Geomatic
Workbooks, 6, 2006.
BEZZI et alii 2008
A. Bezzi - L. Bezzi - R. Gietl, Open Source and
Archaeology: the next level. Building and developing
hardware projects, in Workshop 13 Archäologie und
Computer. Kulturelles Erbe und neue Technologien,
W. Boerner, S. Uhlirz (edd.), Wien 2008.
BEZZI et alii 2009
A. Bezzi - L. Bezzi - R. Gietl, Archeologia e Open
Source, il prossimo passo: costruire e sviluppare progetti hardware, in ARCHEOFOSS, Open Source,
Free Software e Open Format nei processi di ricerca
archeologici, Atti del IV Workshop, P. Cignoni, A.
264
BEZZI et alii 2010 b
A. Bezzi - L. Bezzi - B. Ducke, Computer Vision e
Structure From Motion, nuove metodologie per la
documentazione archeologica tridimensionale: un
approccio aperto, in ARCHEOFOSS 2010, 103-111.
KUNTNER-HEINSCH 2010
W. Kuntner - S. Heinsch, The Ostburg of Aramus. An
urartian and achaemenid fortress. The stratigraphical evidence, in Proceedings of the 6th International
Congress on the Archaeology of the Ancient Near
East, P. Matthiae, F. Pinnock, L. Nigro, N. Marchetti
(edd.), Rome 2008, Wiesbaden 2010, 339-348.
Referenze iconografiche
Autori: figg. 1-9.
Sandra Heinsch
University of Innsbruck - FB Vorderasiatische
Archaeologie - Department of Ancient History and
Near Eastern Studies.
[email protected]
Walter Kuntner
University of Innsbruck - FB Vorderasiatische
Archaeologie - Department of Ancient History and
Near Eastern Studies.
[email protected]
Giuseppe Naponiello
Arc-Team
[email protected]
http://www.arc-team.com/
La diffusione e condivisione dell'informazione scientifica in archeologia.
Dario Berardi, Andrea Ciapetti,
Maria De Vizia Guerriero,
Alessandra Donnini, Matteo
Lorenzini, Maria Emilia Masci,
Davide Merlitti, Stefano Norcia,
Fabio Piro, Oreste Signore
Baseculturale.it, un portale
semantico per i beni culturali
Abstract
The explosion of the social web leads to a completely new approach towards building of knowledge.
The social approach to information sharing creates expectations of growth of the information assets and stimulates interest in contributing to the creation of new information and knowledge.
This phenomenon is even more important within the domain of Cultural Heritage, if we consider that
the concept of cultural asset is not restricted to the artistic masterpieces, but it includes everything which is
part of culture and traditions.
One of the main issues on the User Generated Content (UGC) is the lack of a uniform and agreed
structure and tagging system (metadata), which makes uneasy to share knowledge on the web.
Cultural heritage domain is inherently interdisciplinary and very rich in semantic associations. As
such, it constitutes an excellent test bed for semantic web technologies and knowledge organization.
The LABC (Laboratories for Culture) project and its prototypal portal are aimed to develop an innovative multimedia web 3.0 platform enabling the capture, sharing, and enjoyment of data on tangible and
intangible cultural heritage and landscape.
The LABC platform is designed to collect digital cultural and environmental resources from a broad
base of users, and to reformulate such contents into scientifically structured information, available to both
generic and authoritative users. Information collected through this web portal will automatically be structured using Semantic Web tools and technologies. This allows users to search and browse contents with different options: classic text retrieval, clustered, and semantic.
Moreover, the platform allows for the creation of various “Laboratories”, i.e.: “specialized environments”, where a community of users can collaborate by entering and/or enriching information, which will
then made available to the wider community of all users of the portal, and to the entire web community in
general.
Two important aspects fronted with the LABC project are the “sharing of information” and “language standardization”. In order to effectively share information, CIDOC CRM core ontology has been chosen
as reference model. SKOS (Simple Knowledge Organization System) standard, defined by W3C to share
vocabularies on the web, has been employed to codify, export and exchange the terminology used in within
the portal domain.
A specific component of the system, named SKOSware, manages vocabularies and thesauri in SKOS
format. The entries of dictionaries and thesauri are uniquely identified by a Uniform Resource Identifier
(URI). The SKOSware component allows for consultation and handling of vocabularies and thesauri, as well
as validation by domain experts.
Different types of users, with appropriate privilege levels, can contribute information: “professional
users” can contribute with highly structured information, using special forms, thus ensuring compliance with
the national cataloguing standards (the system can also import data from authoritative sources). “General
users” can also contribute contents using less rigid, more agile integration modules, and semantically enrich
information (according to the approach known as folksonomy) using tags that can be chosen freely, or selected from existing vocabularies and thesauri, on which they can browse and select.
1. Il progetto
Il dominio dei beni culturali, per le sue caratteristiche di interdisciplinarità costi267
tuisce un eccezionale ambito di applicazione delle tecnologie semantiche. D’altro canto,
il diffondersi dell’approccio sociale alla condivisione dell’informazione crea aspettative di
crescita del patrimonio informativo e stimola l’interesse a contribuire alla creazione di
informazioni e conoscenza. Questo fenomeno è ancora più rilevante quando si tenga presente che il concetto di bene culturale non è ristretto ai capolavori artistici, ma include
tutto ciò che fa parte della cultura e delle tradizioni. Il progetto LABC (Laboratori per la
cultura)1 sviluppato dall’azienda ETCWare con la collaborazione del CNR sede di Pisa e
dell’ufficio italiano del W3C, nasce come un ambiente di aggregazione di informazioni sui
beni culturali per la fruizione da parte del pubblico e del mondo scientifico che si pone
come obiettivo lo sviluppo di una piattaforma multimediale web innovativa di tipo 3.0 che
consenta l’acquisizione, la condivisione e la fruizione di contenuti culturali appartenenti
al patrimonio storico, paesaggistico e artistico italiano, raccogliendo l’informazione sui
beni culturali a partire da una base di utenza generica molto diffusa, e di trasformarla in
informazione scientificamente strutturata, a disposizione sia dell’utenza autorevole che di
quella generica.
Nel caso di baseculturale.it, facendo forza sull’approccio di sviluppo “social” della
piattaforma e sulle tecnologie del semantic web, l’utente ricopre un ruolo fondamentale
con la possibilità di interagire direttamente con il portale contribuendo ad aumentare la
base della conoscenza seguendo gli schemi catalografici definiti dall’ICCD, utilizzando
appositi moduli per l’inserimento delle informazioni, che garantiscono il rispetto di tutti i
vincoli previsti dalla normativa. Potranno anche contribuire con documenti meno articolati, utilizzando moduli di inserimento più agili e caratterizzare semanticamente l’informazione fornita inserendo (secondo l’approccio noto come folksonomy) tag che potranno
essere scelti in piena libertà, oppure estratti dai vocabolari e thesauri già esistenti, sui quali
sarà possibile navigare e operare una selezione.
Un ultimo aspetto del progetto, ma non il meno importante, è rappresentato dallo
sviluppo del modulo SKOSware; una libreria che consente la consultazione e la manipolazione dei vocabolari e thesauri definiti durante le fasi di mapping della scheda BDI che
hanno caratterizzato lo sviluppo del progetto.
2. Formalismi e linguaggi
Dovendo gestire una quantità considerevole di dati in un contesto di piena interazione sul web da parte di utenti diversi, nello sviluppo del progetto LABC 3.0, è stata
rivolta una particolare attenzione all’utilizzo di standard internazionali in quanto strumenti
necessari per semplificare e rendere coerente e consistente il processo di codifica digitale
dei dati e quindi la successiva accessibilità e fruizione delle informazioni memorizzate. La
normalizzazione della terminologia consente di ridurre il rischio di creare confusioni lessicali e ambiguità concettuali che finirebbero con il rendere inefficace qualsiasi ulteriore
processo di estrazione e consultazione dei dati, mentre la scelta di standard internazionali
rappresenta una garanzia per l’interoperabilità dei dati e il suo utilizzo futuro. Nel caso di
LABC 3.0, la base della conoscenza iniziale è rappresentata dalla scheda dei Beni Demoetnoantropologici Immateriali elaborata dall’ICCD con la suddivisione dell’informazione
in una serie di campi, eventualmente strutturati in sottocampi e raggruppati in insiemi di
campi (denominati paragrafi). Paragrafi, campi e sottocampi possono essere ripetibili,
rispettivamente nel contesto dell’intera scheda o del paragrafo di appartenenza o del
campo di cui costituiscono la strutturazione. Alcuni dei campi mettono in relazione una
scheda con altre, mediante un insieme di riferimenti verticali (componenti di un oggetto),
orizzontali (oggetti che compongono un aggregato di oggetti) e semantiche (affinità defi1
Sviluppato nell’ambito del finanziamento di un progetto di RSI (Ricerca di Sviluppo Industriale) POR FESR Lazio
2007/2013 - Asse I - Attività I.1.
268
nite mediante la specifica di proprietà). La struttura schematica descritta, vuoi perché fa
riferimento a una catalogazione su carta, vuoi perché risale ormai agli anni Ottanta, è
molto distante dalla rappresentazione concettuale data dalle ontologie e in generale dal
semantic web per cui si è reso necessario astrarre i concetti della scheda BDI facendo riferimento alla core ontology CIDOC-CRM2 sviluppata dall’ICOM mediante un’operazione
di mapping tra le schede BDI (tracciato ICCD) e CRM. Per la terminologia, e quindi per
la gestione e manutenzione di thesauri e dizionari, si è adottato lo standard SKOS (Simple
Knowledge Organization System) definito dal W3C, per poter condividere sul web i vocabolari. Per la gestione dei vocabolari e thesauri in formato SKOS è stato realizzato uno
specifico componente del sistema, denominato SKOSware.
3. Il mapping
3.1. La struttura della scheda BDI
Come è stato accennato nel paragrafo 2, l’approccio catalografico adottato
dall’ICCD nella formulazione della struttura delle schede BDI/BDM è quello classico,
impostato all’inizio degli anni Ottanta, riconducibile a una serie di relazioni (1:1 o 1:N)
tra l’oggetto descritto dalla scheda e istanze di altre entità/classi (per esempio, autore, attori) con delle connotazioni semantiche implicite. Ad esempio:
manifestazione adotta comunicazione musicale
comunicazione musicale impiega strumento musicale
Come è stato precedentemente spiegato nel paragrafo 2, la normativa ICCD Beni
Demo-etnoantropologici Immateriali articola in un unico schema informazioni riferibili a
diverse entità concettuali per cui avremo per esempio:
- il bene demo-etnoantropologico immateriale (ad esempio, la Festa dell’Assunta);
- un evento particolare di “performance” del bene, che coincide con la “registrazione del bene” (ad esempio, la festa dell’Assunta svolta a Poirino, in Piemonte, il 15 agosto 1970, registrata in quell’occasione);
- luoghi geografici collegati al bene e/o all’evento in relazione;
- persone fisiche o morali collegati al bene e/o all’evento in relazione;
- oggetti e animali di varia tipologia collegati al bene e/o all’evento in relazione;
- documentazione di vario genere collegata all’evento in relazione al bene.
Ciascuna di queste entità concettuali principali è meglio specificata da ulteriori
informazioni e attributi come denominazioni, tipologie, datazioni, descrizioni, ecc., spesso codificate in vocabolari controllati aperti o chiusi.
3.2. La core Ontology CIDOC-CRM
L’approccio catalografico adottato per le schede ICCD BDI differisce profondamente dall’approccio ontologico adottato dal semantic web attuale e da qualsiasi struttura
rappresentabile in RDF in quanto, da una parte abbiamo un sistema di catalogazione che
tende a schematizzare e semplificare in campi e sottocampi i vari attributi e relazioni di
una entità, per cui le relazioni semantiche rimangono del tutto implicite nel contesto di una
scheda catalografica, dall’altra abbiamo la struttura ontologica che viene espressa con la
2
http://www.cidoc-crm.org/.
269
1. Schema
concettuale
CIDOC-CRM
della classe E28
Conceptual
object.
tripla “soggetto-predicato-oggetto” con l’intento di esplicitare la struttura logica dell’informazione rappresentata in un linguaggio naturale con relazioni e istanze rappresentate
in un formalismo RDF.
Dovendo realizzare un’infrastruttura semantica che permetta di navigare tra le
informazioni strutturate secondo lo schema proposto dall’ICCD sfruttando le relazioni
semantiche, si è reso necessario formalizzare la scheda BDI con un’ontologia di base che
corrispondesse a dei criteri di interoperabilità e standardizzazione. Per questo motivo è
stato scelto il CIDOC-CRM (fig. 1).
Il CIDOC-CRM (Conceptual Reference Model) (CROFTS, DOERR, GILL,
STEAD, STIFF 2005) è un’ontologia formale messa a punto per facilitare l’integrazione,
la mediazione e l’interscambio di informazioni eterogenee relative al patrimonio archeologico. Il CRM, sviluppato dal 1996 dall’International Committee for Documentation
(CIDOC) dell’International Council of Museums (ICOM) è stato di recente accettato
come standard ISO21127:2006. Obiettivo primario del CRM è consentire lo scambio di
informazioni e l’integrazione tra fonti eterogenee relative ai Beni Culturali. Esso è finalizzato a fornire una chiara definizione semantica per trasformare disparate e localizzate
fonti in una globale e coerente risorsa. La sua prospettiva è sopranazionale e quindi indipendente da qualsiasi specifico contesto locale. Più specificamente, esso definisce la non
esplicitata struttura semantica dei database e dei documenti strutturati adoperati nel
campo del patrimonio culturale in termini di una formale ontologia. Non definisce alcuna
terminologia, né è finalizzato a proporre ciò che le istituzioni culturali dovrebbero documentare; esso, piuttosto, spiega la logica con la quale ognuno scheda e classifica un documento, consentendo in tal modo di facilitare l’integrazione delle risorse.
Il CIDOC-CRM fornisce, in termini di logica, una analisi ottimale delle strutture
formali adoperate nel processo di documentazione; come tale non consente di implementare specifiche procedure, quanto di comprendere gli effetti di tale ottimizzazione sulla
accessibilità semantica dei contenuti. Lo scopo del CIDOC CRM può essere sintetizzato
semplicemente come una forma di specializzazione della conoscenza, originariamente
indirizzata alla catalogazione museale e successivamente estesa ad altri settori della
gestione di fonti archeologiche; esso può essere una utile e articolata guida per una applicazione a più ampi principi di carattere generale, laddove sia necessario garantire una
scambio e una integrazione di fonti. Il CRM è un dominio ontologico nel senso usato in
270
informatica espresso con un object-oriented semantic model, comprensibile sia agli esperti di beni culturali che agli informatici; può essere implementato in qualsiasi relational o
object-oriented schema. Diversamente dal Dublin Core, che fornisce uno schema prestabilito per la descrizione di informazioni associabili a un oggetto digitale, il CIDOC-CRM
costituisce un approccio semantico all’integrazione dei dati basato sulla coerente formalizzazione concettuale della conoscenza racchiusa nel modello-dati. Il CIDOC-CRM consta di 81 classi, identificate da numeri preceduti dalla lettera E (entities), e 132 proprietà
che presentano un numero preceduto dalla lettera P. Come mostrato dal seguente diagramma l’oggetto che raggruppa le principali classi è l’evento: I concetti fondamentali di
partecipazione, spazio, tempo, attore e soggetto ruotano intorno all’elemento centrale
della Temporal Entity; in questo modo le entità principali si relazionano le une alle altre
solo attraverso eventi.
2. Schema
concettuale
sviluppato con
Protegè e relativo
al mapping in
CIDOC-CRM
della scheda BDI.
3.3. La strategia di mapping
Come riportato nei paragrafi precedenti, l’aspetto più importante del nostro progetto è rappresentato dall’interoperabilità semantica, motivo per cui alle fasi di mapping è
stata rivolta un’attenzione particolare. Operativamente, in prima istanza è stata analizzata
la struttura dati della scheda ICCD BDI, circoscrivendo i campi della scheda che riportano a specifiche classi CRM che formalizzano i concetti e gli “eventi” relativi al bene censito e schedato. L’analisi ha portato a un primo mapping cartaceo con classi e relazioni
CIDOC.
Successivamente, la struttura è stata sviluppata con il software Protegè creando un
file OWL-DL (fig. 2).
Nella definizione dello schema di mapping, fondamentali si sono rivelate le classi
CRM E28 Conceptual Object, E31 Document ed E55 Type rappresentanti rispettivamente
il bene demo-etnoantropologico, la scheda e la classe usata come data entry per l’allineamento del CRM con i thesauri sviluppati che contengono informazioni tratte da campi
soggetti a vocabolari di controllo e/o da serie di campi che contengono informazioni gerarchizzabili.
L’approccio scelto per il mapping porta dunque a procedere estrapolando dalla
scheda BDI entità e concetti fondamentali e traducendoli secondo uno schema ontologico
in classi e proprietà del CIDOC, riproducendone gli attributi e le relazioni utili a esporre,
271
attraverso una serie di triple, le informazioni più significative che caratterizzano la conoscenza e a operare ragionamenti complessi in base a connessioni semantiche; per esempio
le opportune classi e proprietà CIDOC-CRM permettono di rappresentare il collegamento tra il bene (E28 Conceptual object) e il documento (E31 Document) che lo descrive
(P70 Documents).
L’interoperabilità semantica e di formato, nel caso del mapping per il progetto
LABC 3.0, si è rivelata fondamentale durante la definizione dei campi della scheda BDI
relativi alla localizzazione e denominazione geografica in quanto alle classi CRM E53
Place e E48 Place name, è stato allineato il thesaurus geonames3 richiamandone l’URI per
la definizione dei place name.
3.4. Il formato SKOS
Il Simple Knowledge Organization System (SKOS) sviluppato dal consorzio internazionale W3C è un formalismo standard per la rappresentazione della conoscenza espressa in thesauri, tassonomie e vocabolari.
Usando SKOS, la conoscenza può essere rappresentata come concetti machine readable che possono essere scambiati tra due o più piattaforme in quanto interoperabili e
pubblicati sul web in modo standard.
Lo SKOS viene formalmente definito come un’ontologia OWL full i cui dati possono essere codificati secondo la sintassi RDF prevedendo la formalizzazione dei concetti in triple (RDF:Concepts).
Lo SKOS struttura la conoscenza in uno schema concettuale comprendente una
serie di concetti. Sia lo schema che i concetti sono identificati da URIs. Tali concetti sono
relazionati tra di loro con relazioni gerarchiche o associative.
I concetti possono essere etichettati con n stringhe poi, all’interno della struttura,
verrà definita una pref:Label; le altre verranno categorizzate come alt:Label.
Ai concetti possono essere assegnate una o più annotazioni (annotations) che identificano unicamente il concetto. I concetti SKOS possono essere documentati con note di
vario tipo (skos:note, skos:scopeNote, ecc.), raggruppati in collezioni (collections) che
possono essere etichettate e ordinate (ex alfabeticamente) e, infine, possono essere mappati (mapped) su altri SKOS concept e concept schema.
3.4.1. I thesauri degli strumenti musicali e delle occasioni
Come riportato nel paragrafo 3.2, il mapping della scheda BDI viene definito utilizzando le classi e le relazioni dell’ontologia CIDOC-CRM.
Tuttavia, la struttura gerarchica e i vocabolari controllati proposti dall’ICCD per la
compilazione di alcuni campi della scheda in questione (come ad esempio sezione CUS),
sono facilmente esprimibili in concetti SKOS dal momento in cui rappresentano delle liste
valori aperte che facilmente si prestano a una codifica in un thesaurus SKOS.
Nel caso del progetto presentato sono stati sviluppati due thesauri: uno per la definizione degli strumenti musicali4 e uno per la definizione delle occasioni5 e rispettivamente denominati ThesaurusStrumentiMusicali e ThesaurusOccasioni. In entrambi i casi
si tratta di thesauri bilingui con una struttura gerarchica su quattro livelli. Nella In particolare, il thesaurus degli strumenti musicali prevede un top concept “Strumenti” che ha
come narrowerTransitive la classificazione degli strumenti espressa dai concept
3
http://www.geonames.org/.
Campo CUS della scheda BDI.
5
Campo CA della scheda BDI.
4
272
“strumentiAerofoni”, “strumentiCordofoni”, “strumentiMembranofoni”, “strumentiIdiofoni”,
“strumentiClassificazioneMista” che a loro volta hanno come narrower i singoli strumenti. Nel caso dei flauti e dei tamburi è stato definito un concept intermedio “flauti” e “tamburi” dal momento in cui nel vocabolario controllato definito dall’ICCD si ha una struttura piatta che non fa alcuna distinzione semantica all’interno dei singoli strumenti idiofoni
e dei singoli strumenti membranofoni per cui tutte le tipologie dei flauti sono messe allo
stesso livello dell’organetto, della zampogna, della ciaramella, ecc., così come le diverse
tipologie di tamburi sono messe allo stesso livello della grancassa o del mirliton per cui:
3. Architettura di
sistema del portale
baseculturale.it.
Strumenti
Strumenti Aerofoni
-Flauti
-Flauto a Becco
-Flauto di Pan
-Flauto traverso
-Ecc.;
Strumenti Membranofoni
-Tamburi
-Tamburo Militare
-Tamburo a barile
-Tamburo a clessidra
-Ecc.
Nello sviluppo dei thesauri sono state utilizzate principalmente le relazioni
skos:broader, skos:narrower e skos:narrowerTransitive.
Dal momento in cui, l’ontologia di riferimento per il mapping rimane sempre quella sviluppata in CIDOC-CRM, grazie alle proprietà di interoperabilità dell’RDF i thesauri SKOS verranno allineati all’ontologia sfruttando la classe E55 Type come data entry del
thesaurus.
4. Infrastruttura tecnologica
Nello sviluppo del portale baseculturale.it, sono state impiegate tecnologie open
source e piattaforme specifiche per la gestione semantica della base di conoscenza (fig. 3).
273
4. Interfaccia
Skosware per la
gestione dei
thesauri formato
SKOS.
Complessivamente baseculturale.it è stato sviluppato su Liferay portal Server, il più
diffuso portal server open source. Utilizzato dalla comunità Java Enterprise, consente la
realizzazione di portali dinamici anche molto complessi e ricchi di servizi tramite l’utilizzo di portlet riutilizzabili lato server.
Nel corso del progetto LABC 3.0 è stata inoltre realizzata una piena integrazione tra
Liferay e il motore di indicizzazione e ricerca Apache Solr, abilitando così la possibilità di
ricerche complesse come:
- Faceted searches (ricerche per categorie multiple di classificazione tassonomica);
- Ricerche con supporto per georeferenziazione e restrizioni spaziali (bounding
boxes, ecc.);
- Ricerche con supporto per cronoreferenziazione e restrizioni temporali.
Per quanto concerne la gestione semantica della base di conoscenza di baseculturale.it, è stato integrato nell’architettura il triplestore Allegrograph come base per la gestione dei dati e metadati codificati in triple RDF (triplestore) e SKOS. Ad Allegro, tramite
un API rest JAVA, è stato collegato poi SKOSware che permette di gestire ed editare i thesauri SKOS direttamente all’interno del repository semantico di Allegrograph.
L’interfaccia SKOSware (fig. 4) è stata sviluppata all’interno del progetto LABC
3.0 e permette agli utenti autenticati sul portale beseculturale.it di gestire le proprietà, i
concetti e gli attributi dei thesauri tramite un’interfaccia grafica. SKOSware si integra con
Liferay attraverso un API rest e, attraverso un adapter, è possibile integrarlo con altri
CMS. Con SKOSware, sfruttando un’interfaccia di interazione, è possibile fare delle
query SPARQL complesse che interrogano il repository Allegrograph permettendo, quindi, agli utenti di annotare semanticamente i contenuti del CMS che caratterizzano la base
della conoscenza e valorizzare i concetti e l’ontologia di base. Le annotazioni fatte dagli
274
utenti stessi, oltre a contribuire all’arricchimento della base della conoscenza del portale,
essendo codificate in RDF, potranno essere riutilizzate da altri utenti tramite il paradigma
dei linked open data in quanto standard e interoperabili.
5. Conclusioni
Seppur in fase di sviluppo, SKOSware ha dimostrato di essere un tool veloce e affidabile in ogni fase del processo di gestione dati, soprattutto grazie alla potenza e alla solidità del triplestore al quale è collegato (Allegro). Il connubio fra open source e linguaggi
standard del web Consortium ha consentito la creazione di un sistema totalmente indipendente da formati proprietari, non solo per quanto riguarda il codice in cui è scritto il
software utilizzato, ma anche e soprattutto per il formato realmente open con cui i dati
sono archiviati. RDF garantisce, infatti, trasparenza e completa portabilità delle informazioni per qualsiasi uso diverso da quello proposto, liberando per sempre i dati gestiti da
ogni rischio di obsolescenza e inutilizzabilità future. Gli sviluppi previsti per l’applicazione comprende una serie di funzioni per l’integrazione con altri portali semantici e la
creazione di un set dati rilasciato come linked open data.
275
Bibliografia
EtcWare s.r.l
[email protected]
BARNERS LEE 1998
T. Barners Lee, Semantic Web Road map (disponibile
su
http://www.w3.
org/DesignIssues/Semantic.html).
Maria De Vizia Guerriero
CNR - W3C Italia
[email protected]
BARNERS LEE 2007
T. Barners Lee, Linked Data (disponibile su
http://www.w3. org/DesignIssues/Semantic.html).
Alessandra Donnini
EtcWare s.r.l
[email protected]
BARNERS LEE et alii 2001
T. Barners Lee - J. Hendler - O. Lassila, The semantic web, in Scientific American, 2001, 34-43.
Matteo Lorenzini
EtcWare s.r.l
[email protected]
BEN HAMIDA et alii 2009
K. Ben Hamida - S. Di Giorgio - I. Buonazia - E.
Masci - D. Merlitti, CulturaItalia: aspetti tecnico
scientifici, in DigItalia 2009, Roma 2009, 83-102.
Maria Emilia Masci
EtcWare s.r.l
[email protected]
D’ANDREA 2006
A. D’Andrea, Documentazione archeologica, standard e trattamento informatico, Budapest 2006.
D’ANDREA et alii 2006
A. D’Andrea - G. Marchese - T. Zoppi, Ontological
Modelling for Archaeological Data, in VAST.
International Symposium on Virtual Reality,
Archaeology and Intelligent Cultural Heritage,
Proceedings of Conference, M. Ioannides, D. Arnold,
F. Niccolucci, K. Mania (edd.), Cipro 2006, 211-218.
GUARINO 1998
N. Guarino, Formal ontology and information
systems formal ontology, in Information system,
Proceedings of FOIS, Amsterdam 1998, 3-15.
HYVONEN 2009
E. Hyvonen, Semantic portal for cultural heritage, in
Handbook of Ontologies, Berlin 2009.
ISAAC-SUMMERS 2008
A. Isaac - E.Summers, SKOS Simple Knowledge
Organization System Primer. W3C Working Draft,
World Wide Web Consortium (disponibile su
http://www.w3.org/TR/skos-primer/).
SIGNORE et alii 2005
O. Signore - O. Missikoff - P. Moscati, La gestione
della conoscenza in Archeologia: modelli, linguaggi
e strumenti di modellazione concettuale dall’XML al
Semantic Web ,in ACalc, 16, 2005, 291-319.
Referenze iconografiche
Autori: figg. 1-4.
Dario Berardi
EtcWare s.r.l
[email protected]
Andrea Ciapetti
276
Davide Merlitti
EtcWare s.r.l
[email protected]
Stefano Norcia
EtcWare s.r.l
[email protected]
Fabio Piro
EtcWare s.r.l
[email protected]
Oreste Signore
CNR - W3C Italia
[email protected]
Valentina Vassallo
Denis Pitzalis
La libreria digitale di Cipro
Abstract
Conservation, long-term preservation and certificate of authenticity and provenance for digital material play an increasingly important role in a world where the amount of digital information is increasing. The
digital libraries came up from the necessity to conserve and preserve these materials and to facilitate their use,
both for the born digital both for the digitized ones.
The Cyprus Digital Library comes from the involvement of the Cyprus Institute and other Cypriot
bodies within the European projects related to Europeana, the European digital library that provides digital
content aggregation of local cultural institutions, their conservation, the research for common standards for
the description, the development of institutions through their collections, the study of the sustainability of
their content, the research of methodologies and techniques for effective access to the data and cultural information. ATHENA, EuropeanaLocal, Linked Heritage and CARARE are projects in which the Cyprus Institute
participates as partner and which provides content such as national aggregator.
For this aim, we created a repository (OAI-PMH compatible) based on LIDO metadata schema
(Lightweight Information Describing Objects), to enable data exchange with other related databases and to
collect information on the physical objects of the collections from different Cypriot content providers and
describe them through the use of metadata. This repository is based on an open-source software, oriented to
the use of Linked Open Data: EPrints.
This paper will describe the methodology used in building the digital library, the structure of the repository based on open source software and the description of the aggregated content.
1. Introduzione
La conservazione, la preservazione a lungo termine e la certificazione di autenticità e provenienza del materiale digitale ricoprono un ruolo sempre più importante in un
mondo dove la quantità di informazioni in formato digitale è sempre maggiore.
Così come si legge nella Carta sulla Conservazione del Patrimonio Digitale
dell’UNESCO1, l’imponente e vario numero di informazioni nate digitali o convertite in
formati digitali (di tipo culturale, educativo, scientifico, amministrativo, tecnico, legale,
medico, ecc.), ha determinato nelle istituzioni culturali, che hanno la missione di preservare questo patrimonio, l’esigenza di valutare e operare delle soluzioni e delle linee di
condotta nella preservazione, e soprattutto nel mantenimento nel tempo, di tale materiale
a favore delle generazioni future.
Le librerie digitali nascono quindi per rispondere all’esigenza della conservazione
e preservazione di questo materiale e per facilitarne la fruizione a più ampio raggio.
1
National Library of Australia 2003.
277
2. Lo stato dell’arte
La Libreria Digitale di Cipro nasce dal coinvolgimento del Cyprus Institute e altri
enti ciprioti all’interno dei progetti europei legati a Europeana, la biblioteca digitale europea che prevede l’aggregazione di contenuti digitali delle istituzioni culturali locali, la loro
conservazione, la ricerca di standard comuni per la descrizione, la valorizzazione di istituzioni attraverso le loro collezioni, lo studio della sostenibilità dei loro contenuti, la ricerca di metodologie e tecniche efficaci per l’accessibilità al dato e alle informazioni culturali.
ATHENA, EuropeanaLocal, Linked Heritage e CARARE sono progetti a cui il
Cyprus Institute partecipa come partner e a cui fornisce contenuti come aggregatore nazionale.
2.1. ATHENA
Il progetto ATHENA (http://www.athenaeurope.org/), nato come Rete di Buone
Pratiche (Network of Best Practice) nell’ambito del programma eContentplus, trae le sue
origini dalla precedente rete di MINERVA. Il suo scopo è quello di riunire le parti interessate e i proprietari di contenuti culturali provenienti da musei e istituzioni culturali di
tutta Europa, e di valutare e integrare strumenti specifici volti alla promozione di standards per la digitalizzazione e i metadati, sulla base di una comune serie di norme e linee
guida per creare accesso al loro contenuto. Il progetto ATHENA, inoltre, opera da aggregatore attraverso la fornitura dei contenuti provenienti dalle istituzioni culturali a
Europeana (che a sua volta comprende una serie di progetti gestiti da diverse istituzioni
culturali).
Il progetto, iniziato nel 2008, è giunto a conclusione ad aprile 2011: 30 mesi di lavoro che hanno portato al coinvolgimento di 23 Paesi con un totale di più di 130 istituzioni
culturali e musei e raccogliendo circa 5 milioni di metadati, di cui quasi 4 milioni già on
line sul sito di Europeana.
Cipro, grazie al suo contributo al progetto di circa 3000 metadati, ha determinato
una percentuale di incremento dei propri contenuti nazionali (già in Europeana grazie ad
altri progetti) e del proprio profilo di visibilità del ben + 7.494,8%.
2.2. EuropeanaLocal
EuropeanaLocal (http://www.europeanalocal.eu/) è un progetto che fa parte della
Rete di Buone Pratiche nell’ambito del programma eContentplus della Commissione
Europea. Iniziato anch’esso nel 2008 e terminato nel maggio 2011, è un consorzio di 27
Paesi, con una vasta esperienza che va dal settore culturale alle librerie digitali, dagli standard ai servizi di aggregazione, in grado di raccogliere circa 2 milioni di oggetti digitali
da inviare a Europeana e provenienti da ambito più strettamente locale/regionale. A tal fine
le istituzioni coinvolte, oltre a rendere disponibile i propri contenuti culturali a Europeana,
sia durante che dopo il termine del progetto, hanno lavorato alla promozione dell’utilizzo
delle infrastrutture, dei tool e degli standard, in particolare attraverso la realizzazione di
repository OAI-PMH e dell’utilizzo degli standard di metadati di Europeana (ESE,
Europeana Semantic Elements).
In dettaglio, Cipro fornisce al progetto più di 12.000 oggetti digitali corredati di
relativi metadati.
2.3. CARARE
CARARE (http://www.carare.eu/) è una Rete di Buone Pratiche finanziata dalla
278
Commissione Europea nell’ambito dell’ICT Policy Support Programme che ha avuto inizio nel febbraio 2010 con una durata di tre anni. Il progetto è nato per coinvolgere e supportare la rete europea di agenzie e organizzazioni operanti nell’ambito dei beni culturali,
i musei archeologici, gli istituti di ricerca e archivi digitali con le finalità di:
- rendere disponibili i contenuti digitali del patrimonio archeologico e architettonico attraverso Europeana;
- aggregare contenuti e fornire servizi;
- facilitare l’accesso a contenuto 3D e di Realtà Virtuale attraverso Europeana.
Il progetto ha un importante ruolo nel coinvolgimento di istituzioni responsabili
della ricerca, protezione e promozione di importanti monumenti archeologici e architettonici, centri storici e complessi industriali monumentali del patrimonio nazionale, europeo
e mondiale, fornendo a Europeana non solo contenuto 2D ma anche l’accesso a quello 3D
e alla Realtà Virtuale. Infatti attraverso l’elaborazione di determinate metodologie si provvederà alla fornitura a Europeana di un punto di accesso a contenuto 3D e 3D/VR attraverso un flusso di lavoro stabilito e documentato attraverso casi studio e materiale formativo.
Poiché si tratta di un progetto in corso, Cipro sta lavorando all’analisi, elaborazione e alla raccolta del materiale da fornire al progetto e nei prossimi mesi si prevede di
avviare l’ingestione di circa 1000 oggetti digitali.
2.4. Linked Heritage
Il progetto Linked Heritage (http://www.linkedheritage.org/) ha avuto inizio in aprile 2011 e avrà una durata di 30 mesi con gli obiettivi di:
- contribuire all’incremento di nuovi contenuti in Europeana, provenienti sia dal settore pubblico che da quello privato;
- migliorare la qualità dei contenuti in termini di ricchezza dei metadati, di loro
potenziale riuso e di unicità;
- consentire una migliore ricerca, recupero e utilizzo dei contenuti di Europeana.
In questa ottica il progetto faciliterà e fornirà su più larga scala un miglioramento a
lungo termine di Europeana e dei suoi servizi, affrontando anche differenti problematiche
quali le terminologie descrittive non-standard, la mancanza di contenuto del ventesimo
secolo e del settore privato e infine la preservazione di modelli di metadati complessi
all’interno degli schemi di metadati di Europeana.
Il consorzio, formato da 22 Paesi (al cui interno lavoreranno ministeri, agenzie
governative, fornitori di contenuti e aggregatori, importanti centri di ricerca, editori e piccole imprese), coinvolgerà organizzazioni che per la prima volta contribuiranno a
Europeana, portando un nuovo apporto di 3 milioni di dati che copriranno un ampio spettro di tipologie di contenuti culturali.
Poiché si tratta di un progetto appena iniziato, non si ha una stima precisa del contenuto fornito dall’aggregatore cipriota (il Cyprus Institute), ma si valuta in circa un
migliaio di dati (con relativi metadati) che potrebbero aumentare grazie sia alla continua
produzione di prodotti digitali e all’opera di digitalizzazione nell’ambito dei progetti di
ricerca che al coinvolgimento di nuovi content providers locali.
3. La Libreria Digitale di Cipro
È chiaro che questi numerosi dati digitali devono essere raccolti in maniera ordinata in modo da garantirne non solo la loro consultazione on line da parte dei vari utenti ma
anche la loro conservazione nel tempo. Per fare questo la Libreria Digitale di Cipro si pro279
pone come aggregatore nazionale, tramite il quale i partners ciprioti dei progetti precedentemente descritti possono condividere i propri dati e metadati con Europeana2.
A tal fine è stato creato un repository (OAI-PMH compatibile), basato sul metadata schema LIDO (Lightweight Information Describing Objects), per permettere lo scambio di dati con altri repository affini e per raccogliere informazioni sugli oggetti fisici delle
collezioni provenienti dai diversi content providers ciprioti.
3.1. L’utilizzo dell’open source
Il repository è basato su un software open source orientato all’utilizzo di Linked
Open Data: EPrints (http://www.eprints.org/). EPrints è un software free e open source per
la costruzione di repositories open access compatibili con il protocollo OAI-PMH (Open
Archives Initiative Protocol for Metadata Harvesting o Protocollo per il raccoglimento dei
metadati dell’Open Archive Initiative). Sviluppato presso l’Università di Southampton e
rilasciato sotto licenza GPL presenta molte delle caratteristiche osservate di solito in sistemi di Document Management, ma è utilizzato principalmente per archivi istituzionali e
riviste scientifiche.
Le sue funzionalità, la possibilità di controllo a basso livello e la flessibilità nella
gestione di utenti (gestori del repository, gestori del contenuto, ricercatori, amministratori tecnici), modelli (oggetti, eventi, immagini, testi) e collezioni, e la facilità di accesso
sono stati sicuramente i motivi della scelta di questo software open source per la costruzione della Libreria Digitale di Cipro. Inoltre, poiché è di solito utilizzato per la creazione di repositories per dati di ricerca letterari e scientifici, tesi e rapporti, creazioni multimediali provenienti da collezioni, mostre e anche spettacoli, risultava il più adatto alla
creazione di una libreria digitale che soddisfacesse i contenuti provenienti dai vari providers locali (testi, collezioni fotografiche, archeologia, ricerca scientifica, ecc.).
3.2. LIDO (Lightweight Information Describing Objects)
Come è stato precedentemente accennato, il repository è basato su LIDO
(Lightweight Information Describing Objects), uno schema di metadati appositamente
realizzato nell’ambito del progetto ATHENA e basato a sua volta sul modello di riferimento concettuale CIDOC CRM. È uno schema di harvesting in XML in grado di rappresentare con ricchezza di particolari tutti i dati descrittivi degli oggetti digitali (in particolare si presta ottimamente alla descrizione di oggetti museali) e garantisce una buona
interoperabilità con portali che aggregano risorse culturali3. Nasce dall’integrazione degli
schemi di metadata CDWA Lite e museumdat, sulla base dello standard SPECTRUM, ed
è compatibile con l’ontologia CIDOC.
Nello specifico, LIDO (v.1.0) è organizzato in 7 aree delle quali 4 sono di carattere
descrittivo e 3 amministrativo4:
Descriptive Information
- Object Classification
Object type (obbligatorio)
Classification;
- Object Identification
2
NISO 2004.
BOEUF et alii 2005.
4
COBURN et alii 2010.
3
280
Title/Name (obbligatorio)
Inscriptions
Repository
Display/Edition
Description
Measurements;
- Event
Event Set (Event ID, Event type, Object’s role in the event, Event name,
Actors, Cultures involved, Date, Period, Places, Event method, Materials and techniques, Other objects present at the event, Related events, Description of the event);
- Relation
Subject Set
Related Objects;
Administrative information
- Rights Work
Rights type
Rights holder
Rights dates
Credit line;
- Record
Record ID (obbligatorio)
Record Type (obbligatorio)
Record Source (obbligatorio)
Record rights
Metadata references;
- Resource
Link
Resource ID
Relationship type
Resource type
Resource rights
View description
View type
View date
Resource source
Related resources
Resource metadata location.
3.3. La struttura del repository
Illustriamo qui di seguito come è strutturata l’architettura del repository5.
La gestione del deposito è differente a seconda dell’utilizzatore che vi accede. A tal
proposito sono stati creati sei profili che hanno un’accessibilità diversificata alla gestione
dei contenuti:
- Public. Questo accesso è quello di base e permette a un comune utente (il pubbli5
3D-COFORM 2009.
281
1. La gestione del
deposito da parte
di un utente
abilitato.
co generale) di poter accedere all’interfaccia del repository, di navigare all’interno dello
stesso e avere la possibilità di visionare le thumbnails degli oggetti digitali e i metadati
relativi.
- User. Tramite questo accesso è possibile navigare all’interno del repository con
dei privilegi speciali come la possibilità di scaricare certo materiale.
- Local content uploader. Attraverso questo accesso l’utente abilitato ha la possibilità di poter navigare all’interno del deposito, caricare i contenuti, modificarli.
- Local content admin. Questo tipo di utente ha accesso al deposito e alla navigazione al suo interno. Oltre a poter compiere le azioni degli utenti descritti precedentemente, ha la possibilità anche di poter modificare ed eliminare il contenuto gestito dal
Local content uploader.
- Content admin. L’utente facente parte di questa categoria è abilitato a gestire e a
eliminare qualsiasi contenuto caricato da qualsiasi utente di quelli descritti in precedenza.
- Admin. Infine, l’admin è l’amministratore generale di tutto il repository (di solito
coincide con lo stesso costruttore del deposito) e ha chiaramente la possibilità di gestione
e controllo, sia tecnico che contenutistico, sulla struttura.
Tutte le modifiche degli utenti abilitati sono tracciate in modo da poter visualizzare i cambiamenti apportati al contenuto e le ricerche salvate. Gli utenti abilitati alla gestione del contenuto e delle informazioni relative (metadati) possono verificare attraverso una
prima schermata il materiale fino ad allora caricato, le ultime modifiche (Last Modified),
il titolo del record (Title), il tipo di item (Item Type) e il suo status (Item Status), ovvero se
si tratta di contenuto in lavorazione, sotto esame, già nell’archivio on line o eliminato.
Inoltre, è possibile avere un accesso veloce all’oggetto digitale permettendone la sua
visualizzazione, la sua modifica, la sua eliminazione o il suo deposito on line (fig. 1).
Lo user abilitato quindi può gestire il deposito e avviare il caricamento dei contenuti e la mappatura dei relativi metadati sulla base della struttura descrittiva di LIDO e
arrivare infine alla pubblicazione dell’oggetto digitale on line.
Vediamo un esempio pratico.
Inseriamo le informazioni relative al tipo (Type) di materiale che stiamo caricando.
In questo modo possiamo selezionare il tipo più appropriato per il deposito che stiamo
operando. Per esempio se si tratta un manufatto di un artista o di un prodotto di uno specifico lavoro, opereremo la scelta descrittiva Artefact. Il passo successivo dà la possibili282
tà di fornire informazioni sui dettagli (Details), fornendo una classificazione a scelta tra
alcuni elementi: per esempio, se si tratta di una pittura, di una scultura, di un prodotto tessile, ecc. Più approfonditamente sarà possibile descrivere il tipo specifico di oggetto o il
lavoro: per esempio nel caso di una pittura, possiamo specificare che si tratta di un’icona.
Nella descrizione sarà possibile poi fornire ulteriori informazioni riguardo all’identificazione dell’oggetto (Object identification: per esempio il luogo di conservazione, il
numero di inventario, le misure dell’oggetto, la forma); all’evento creazione dell’oggetto
(Object Creation Event: l’artista, la data dell’evento, la cronologia, luogo di ritrovamento, il materiale, la tecnica e la descrizione dell’evento); ai diritti relativi all’oggetto (Object
Rights: il tipo, la data, il possessore), alle informazioni del record (Record information: la
fonte, il tipo, la data, il possessore, i crediti)6.
Solo dopo aver completato la descrizione dell’oggetto digitale, sarà possibile caricarlo (associandone la preview) e depositarlo on line.
A questo punto l’oggetto è visualizzabile dal pubblico sul web all’indirizzo di riferimento.
4. I contenuti
Attualmente i content providers locali che forniscono i dati alla libreria digitale
descritta sono il Ministero dell’Educazione e della Cultura, il Dipartimento di Antichità,
la Collezione privata Der Avedissian-Hawley, la fondazione Arcivescovo Makarios III,
con il Museo Bizantino e la Galleria d’arte, e lo stesso Cyprus Institute. A loro volta questi providers raccolgono dati e contenuti da sotto organizzazioni, istituzioni, archivi e
fondi sotto la loro giurisdizione e il tutto viene aggregato dal Cyprus Institute attraverso
la Libreria Digitale di Cipro.
Più di 15000 oggetti digitali con i relativi metadati sono già a disposizione e in fase
finale di caricamento: il numero tende ad aumentare sia per la finalizzazione dei progetti
precedentemente descritti, sia grazie alle nuove campagne di digitalizzazione e di produzione di materiale digitale dei providers locali.
Il contenuto fino a ora accessibile consiste in materiale relativo alla storia e alla cultura di Cipro ed è rappresentato prevalentemente da:
- Testi: in particolare i testi sono rappresentati da manoscritti, riviste, gazzette, corrispondenza varia, rapporti tecnici e libri di differente genere relativi alla storia, all’archeologia, alla musica, alla società, all’economia e alla politica dell’isola di Cipro (fig. 2);
- Immagini: le immagini conservate appartengono fondamentalmente a due tipologie. Il primo gruppo raccoglie fotografie storiche: si tratta di immagini legate alla comunità armena presente nell’isola e a importanti avvenimenti religiosi, storici e politici della
stessa; fotografie di importanti avvenimenti storico-politici di Cipro; immagini di personaggi famosi o della società civile (fig. 3); immagini di edifici storici, alcuni dei quali non
più esistenti a tutt’oggi. Il secondo gruppo si suddivide in due ulteriori sottogruppi relativi ad arte e archeologia di Cipro: il primo è costituito da immagini ad alta risoluzione (fig.
4) di manufatti artistici (per esempio le immagini di icone bizantine provenienti da musei
locali)7; il secondo raccoglie immagini di oggetti 3D relativi ad acquisizioni digitali di
manufatti archeologici, artistici e architettonici tramite tecnologia laser scanner e fotogrammetria (fig. 5).
5. Conclusioni e sviluppi futuri
Allo stato attuale, quindi, la libreria digitale di Cipro contiene e mette a disposizio6
7
PAPAGEORGIOU-ELIADES 2008.
PAPAGEORGHIOU 1992.
283
2. Esempio di
testo conservato
all’interno del
repository.
ne del pubblico e dei progetti europei più di 15000 oggetti digitali con relativi metadati,
ma possiamo affermare che si tratta di un punto di partenza.
Infatti, l’esperienza e la multidisciplinarietà dei professionisti coinvolti in questo
progetto di ricerca, l’utilizzo di metodologie e di processi open e la disponibilità di materiale a elevato interesse culturale permette di garantire una sostenibilità futura sia a livello tecnologico che contenutistico.
È già previsto e in fase di lavorazione la descrizione e l’accesso a dati 3D di manufatti archeologici, animazioni, file video e audio8.
Infatti il Cyprus Institute, aggregatore nazionale per i progetti di librerie digitali,
8
284
DOERR et alii 2010.
grazie allo STARC (Science and Tecnhnologies for Archaeological Research Center) produce numerosi dati tridimensionali a seguito di attività di ricerca in acquisizione, ricostruzione e comunicazione di materiale, principalmente archeologico, proveniente da siti
locali.
Infine, il giornaliero lavoro di produzione di dati digitali o di processi di digitalizzazione a livello sempre più diffuso all’interno degli enti locali ciprioti, permetterà il coinvolgimento di nuovi content providers e l’allargamento del network culturale. Questo
garantirà un arricchimento contenutistico del materiale da aggregare, ma soprattutto una
maggiore possibilità di preservazione e di accesso libero ai dati culturali nazionali.
3. Makarios III a
un evento pubblico
della comunità
armena cipriota.
4. Icona con la
Vergine Madre
della Consolazione
dalla Chiesa di
Panagia
Chrysalionitissa,
Nicosia (XVI secolo).
5. Modello 3D di
vertebra umana
acquisita con
tecnica fotogrammetrica (per gentile
concessione di P.
Ronzino).
285
Abbreviazioni bibliografiche
3D-COFORM 2009
3D-COFORM, Integrated Repository Architecture
and Design Specification, May 2009.
BOEUF et alii 2005
P. L. Boeuf - P. Sinclair - K. Martinez - P. Lewis - G.
Aitken - C. Lahanier, Using an ontology for interoperability and browsing of museum, library and
archive information. International Council of
Museums 14th Triennial Meeting, The Hague 2005.
COBURN et alii 2010
E. Coburn - R. Light - G. McKenna - R. Stein - A.
Vitzthum, LIDO - Lightweight Information
Describing Objects Version 1.0, 2010.
DOERR et alii 2010
M. Doerr - K. Tzompanaki - M. Theodoridou - C.
Georgis - A. Axaridou - S. Havemann, A Repository
for 3D Model Production and Interpretation in
Culture and Beyond, in VAST 10, Paris 2010, 97-104.
National Library of Australia 2003
National Library of Australia, Guidelines for the preservation
of
digital
heritage,
UNESCO
CI.2003/WS/3, March 2003.
NISO 2004
NISO,
Understanding
metadata.
National
Information Standards Organization, NISO Press,
2004.
PAPAGEORGHIOU 1992
A. Papageorghiou, Icons of Cyprus, Nicosia 1992.
PAPAGEORGIOU-ELIADES 2008
A. Papageorgiou - I. A. Eliades, Guide to the
Byzantine Museum and Art Gallery, Nicosia 2008.
Referenze iconografiche
Autori: figg. 1-2, 5.
Collezione privata Der Havedissian-Hawley: fig. 3.
PAPAGEORGHIOU 1992: fig. 4.
Valentina Vassallo
The Cyprus Institute (STARC)
[email protected]
Denis Pitzalis
The Cyprus Institute (STARC)
[email protected]
286
POSTER SESSION
Simone Deola
Valeria Grazioli
Simone Pedron
Conversione di file da .dwg a .shp
mediante l’utilizzo di software
Open Source
Abstract
Here we propose some results useful to the solving of problems faced by the authors in their archaeological works and, in particular, in the management of files created by means of proprietary software
(AutoCAD). On numerous occasions the materials needed to perform the work (whether related to archaeological surveys, excavations, surveys, regional studies, or preventive archeology) are given in .dwg format,
forcing the reporter to give a precise, not georeferenced, positioning of the file. If such is the case, in order to
manage such data without the necessary proprietary software, freeware software for conversion from .dwg
into .dxf are usually used. Thus, a phase of processing follows, for example, in QCAD, Inkscape or in a GIS,
as gvSIG.
In our case, however, we sought a solution reconciling the use of an entirely Open Source software
with qualitatively good results and a fast, uncomplicated process. Initially the.dwg file is imported and exported as a shapefile in gvSIG. As previously mentioned, the .dwg supplied are usually not georeferenced and
therefore do not have a correct reference to absolute geographic coordinates. To remedy this problem, an
imported (newly created) shapefile in OpenJUMP, is used, because of the quality of its graphical management
tools, and parameters such as position and rotation are changed. Furthermore, since the base mapping used to
properly positioning the.dwg file transformed into shape usually is some years’ old, this method allows us to
update our maps with the most recent data available.
In conclusion, the excellent results we experienced by using agile, effective Open Source tools allowed a solution of problems often faced by offices and technical studies that still use proprietary formats in
archaeological research.
La presente esposizione è l’esito della risoluzione di problematiche affrontate dagli
scriventi in ambito lavorativo archeologico e, in particolare, nella gestione di file creati
con software proprietario (AutoCAD). Come è noto, infatti, i rapporti lavorativi con enti
pubblici pongono costantemente la questione del formato in cui sono salvati i dati che, per
tipologia di formazione degli addetti o per scelte più “tradizionali”, è quasi costantemente di tipo proprietario. Va considerato anche che ciò, al di là di talune occasioni in cui vi
sono benefici tecnici concreti (per particolarità del caso d’uso) rispetto a scelte orientate
all’Open Source, contrasta spesso con quanto indicato dall’attuale quadro normativo (in
particolare al comma 1 dell’art. 68 del D. Lgs.vo 235/2010 “Codice dell’amministrazione digitale”)1, secondo il quale le Pubbliche Amministrazioni devono acquisire programmi informatici orientando la propria scelta, a seguito di una valutazione comparativa di
tipo tecnico ed economico, tra le soluzioni disponibili sul mercato, comprese le soluzioni
in software libero.
1
Codice dell’amministrazione digitale, D. L. 30 dicembre 2010, n. 235: http://www.digitpa.gov.it/amministrazionedigitale/CAD-testo-vigente.
289
Nel caso di dati vettoriali, ad esempio, il formato assolutamente dominante nella
Pubblica Amministrazione è il .dwg2 , e le varie tipologie di indagini archeologiche (rilievi, scavi, survey, studi sul territorio, archeologia preventiva) si trovano necessariamente a
trattare questo tipo di file e, per quanto riguarda il nostro lavoro, a dover attribuire loro un
posizionamento puntuale, poiché molto spesso sono sprovvisti del riferimento a un sistema di coordinate geografiche assolute. Per ovviare parzialmente al problema della compatibilità per gli utenti non in possesso di licenza AutoCAD, l’Autodesk ha introdotto un
formato aperto: il .dxf (compilato in codice ASCII); tuttavia questa estensione non consente il salvataggio di particolari geometrie complesse e non può considerarsi, quindi, a
tutti gli effetti un equivalente del .dwg. In questo caso, per gestire tali dati senza poter disporre del software proprietario di riferimento si adottano varie soluzioni: una di queste
consiste nella conversione mediante pacchetti di ArcGIS ma, chiaramente, comporta costi
elevati per l’acquisto della licenza; un’altra riguarda l’utilizzo di convertitori, i quali si
distinguono tra freeware3 e shareware4. I primi, nella maggioranza dei casi, richiedono una
connessione Internet per l’upload del file sul sito web e restituiscono conversioni parziali, spesso inaffidabili e qualitativamente scadenti; i convertitori a pagamento concedono
versioni trial o demo con limitazioni per tempo d’uso e dimensioni dei dati e comportano,
qualora si intenda procedere all’acquisto della licenza, costi elevati. Per quanto riguarda
l’Open Source, Grass offre una soluzione: benché l’attuale versione non disponga più del
comando “v. in dwg” è stato creato un prototipo di collegamento (v. in redwg) il quale però
è costituito da un componente aggiuntivo e quindi richiede un’operazione di installazione
articolata per gli utenti meno esperti5. Nel nostro caso, invece, si è cercata una soluzione
che conciliasse l’utilizzo di software interamente Open Source con dei risultati di buona
qualità e un procedimento veloce e poco complesso. Inizialmente il file .dwg viene importato in gvSIG (versione 1.11)6 (fig. 1) ed esportato come shapefile (Layer → Esporta →
shp). Affinché l’esportazione vada a buon fine è necessario selezionare una versione .dwg
del 2004 o antecedente. Come già scritto in precedenza, i file .dwg che vengono forniti
solitamente non sono georeferiti e quindi non dispongono di un corretto riferimento a
coordinate geografiche assolute: per ovviare a questa mancanza, il procedimento utilizzato prevede l’importazione dello shapefile appena creato in OpenJUMP (versione 1.3.1, in
virtù della qualità dei suoi tools di gestione grafica)7 e la modifica, previa selezione degli
elementi in toto, di parametri quali posizione, rotazione ed eventualmente scala (fig. 2) tali
da consentirne la sovrapposizione su di un file georiferito (ad esempio la Carta Tecnica
Regionale). Sebbene i layers originali vengano compressi in 3 diversi livelli a seconda
della loro primitiva geometrica (punto, linea, poligono), tutti gli attributi in essi contenuti
vengono conservati e ne viene aggiunto uno (Layer) che ha come valore il nome del livello originariamente presente nel dwg.
I punti di forza di questo metodo sono la velocità, la semplicità delle operazioni, la
precisione garantita e l’assenza di perdita di dati anche nel caso di file di grandi dimensioni (anche superiori a 20 Mb). Risulta oltremodo interessante la possibilità offerta dalla
georeferenziazione del file al fine di poter gestire tutti i dati in ambiente GIS.
In conclusione, nella nostra esperienza diretta tale metodo ha comportato la soluzione all’utilizzo, tuttora imperante, di formati proprietari in uffici e studi tecnici e rappresenta, a nostro avviso, uno strumento agile ed efficace nell’ambito della ricerca archeologica che si avvale di strumenti Open Source, con la possibilità di ottenere ottimi risultati in modo semplice. Un ulteriore aspetto derivante da tale operazione, inoltre, riguarda la
possibilità, per gli enti, di ottenere un aggiornamento della cartografia a disposizione (uti2
Sviluppato da Autodesk per il disegno per AutoCAD.
Ad esempio: http://www.wanderingidea.com/content/view/12/25/
4
Ad esempio: http://www.rockware.com/product/overview.php?id=73
5
Una discussione in merito si trova al link http://old.nabble.com/GRASS-v.in.dwgtd30719609.html
6
http://www.gvsig.org/web/
7
http://www.openjump.org/
3
290
lizzata come base per posizionare correttamente il file .dwg trasformato in .shp), solitamente datata ad anni precedenti.
1. Esportazione
di un file .dwg in
gvSIG come
shapefile.
Simulazione.
2. Importazione
dello shapefile
creato in
OpenJUMP.
Simulazione.
291
Referenze iconografiche
Autori: figg. 1-2.
Studio Associato Sestante
[email protected]
292
Alessio Paonessa
Da Mac a GNU/Linux: migrazione
di dati da un GIS di scavo.
Abstract
In this article is explained a migration to open source GIS software. The object is the vector data about
the excavation of the medieval castle Rocca degli Alberti, exported from MacMap to Quantum GIS and
SpatiaLite installed on Ubuntu.
1. Introduzione
Sempre più attenzione è rivolta al mondo del software open source e agli strumenti che mette a disposizione, anche nel campo archeologico. Spesso, quando questo interesse giunge dopo un uso intensivo dei sistemi informatici proprietari durante le campagne di scavo, la produzione di dati deve essere convertita per poter essere usata correttamente. Altre volte, i formati aperti che sono offerti dal mondo FOSS sono migliori e permettono un salto di qualità, invogliando ricercatori e mondo accademico a usarli tramite
applicazioni libere.
Proprio per questi motivi, nell’ambito del lavoro svolto per la mia tesi di laurea sul
GIS di scavo del castello di Rocca degli Alberti1, ho sviluppato un processo di conversione dei dati vettoriali dalla soluzione proprietaria fino ad allora usata, composta da Mac OS
X e MacMap a una basata su Quantum GIS, SpatiaLite e GNU/Linux.
In particolare, le versioni delle applicazioni di partenza sono state Mac OS X 10.2
e MacMap 2001; quelle di arrivo QGIS 1.5, SpatiaLite 2.4 - RC2 e Ubuntu 10.04.
2. La migrazione
MacMap è un software GIS, installabile solo su sistemi operativi Apple, che usa un
formato proprietario per il salvataggio dei propri dati, raster o vettoriali. È però disponibile una funzione di conversione al suo interno attraverso alcune maschere che ne permettono l’esportazione in formato ESRI Shapefile. Purtroppo la funzionalità non è correttamente implementata, dato che il campo delle periodizzazioni, nel quale è stato usato
il carattere “/”, è risultato in gran parte mutilo alla fine delle operazioni e i dati poligonali sono stati convertiti in linee per evitare un errore durante il trasferimento.
Successivamente i dati sono stati importati e modificati all’interno di SpatiaLite, il
database scelto come punto di arrivo. Quest’ultimo è un’estensione di SQLite, il famoso
DBMS open source, a cui aggiungono il supporto per i dati geografici e altre importanti
1
PAONESSA 2010.
293
caratteristiche, tra le quali il salvataggio in un unico file. L’applicazione per la gestione del
formato è dotata di un’interfaccia grafica e di un terminale a riga di comando e può essere installata su Windows, Mac OS e Linux. Inoltre è possibile sfruttare la virtualizzazione
di Shapefile e CSV, le analisi spaziali fornite dall’estensione GEOS e le funzionalità SQL
già incluse nel database originario. Creato e mantenuto da Alessandro Furieri, si sta formando lentamente una comunità attiva man mano che il progetto progredisce2.
Il processo di importazione è stato semplice e veloce: attraverso la GUI i dati sono
stati caricati correttamente e da una finestra è stato possibile selezionare le opzioni più
importanti, come lo SRID di riferimento e il set di caratteri da usare. Una volta all’interno del database sono stati ripristinati i dati in parte cancellati, rimosse alcune colonne inutili dalla tabella degli attributi e salvato tutto in formato SQLite. Il risultato è stato una
base di dati nuova, più pulita e integrabile all’interno di QGIS.
Come programma GIS finale è stato preferito Quantum GIS, un elemento presente
da anni nel panorama del settore. La scelta è stata quasi obbligata, dato che il supporto del
formato SQLite creato da SpatiaLite è più avanzato rispetto ad altre soluzioni. È disponibile infatti un plug-in, denominato attualmente QSpatiaLite, che permette di svolgere funzioni come la modifica delle tabelle o dei record attraverso una piccola GUI e con le funzionalità di SpatiaLite, ma attraverso l’interfaccia di QGIS.
Quantum GIS si è comportato bene fin da subito, stabilendo un collegamento con il
database appena creato, caricando ciascuna tabella in layer separati e permettendo di interrogare gli attributi. La vista è stata resa equivalente a quella già usata in MacMap, rendendo le differenze quasi impercettibili all’operatore finale. Tutte le informazioni prodotte fino a quel momento dal programma sono state salvate nel formato QGS, un file di progetto, per poter essere usate correttamente al successivo caricamento.
Per quanto riguarda la visualizzazione e l’interrogazione dei dati, Quantum GIS non
dispone di funzionalità avanzate come GRASS, ma ha svolto le operazioni di base che gli
sono state richieste, come la resa dei vari periodi attraverso le query nel campo relativo.
Inoltre, è stato sperimentato il plug-in eVis per collegare alcune fotografie a un layer puntiforme, anche se si è rivelato poco adatto a un GIS di scavo.
3. Conclusioni
Il risultato finale è sicuramente interessante: è stata creata una piattaforma GIS open
source operativa con i dati provenienti da MacMap. A parte alcuni piccoli errori dovuti
alla conversione in Shapefile, il procedimento seguente si è svolto senza problemi. La
mancanza più importante è nel sistema di esportazione dei poligoni di MacMap, ma si può
risolvere facilmente con l’uso di GRASS, per il quale QGIS può essere sfruttato come
interfaccia grafica. L’uso del carattere “/” per separare i periodi si è rivelato una scelta
infelice, dato che in operazioni più complesse risulta scarsamente compatibile. Quasi sicuramente gli errori che ho riscontrato sono stati corretti nelle versioni più recenti, ma non
ho avuto l’opportunità di verificare in prima persona.
Dal punto di vista dell’uso, entrambi i software hanno bisogno di alcune caratteristiche aggiuntive per espandersi in ambito archeologico. Per Quantum GIS sarebbero
necessari un sistema di viste e di interrogazioni su tutti i livelli caricati, la possibilità di
usare eVis sui layer già caricati con più immagini e una maggiore integrazione con
SpatiaLite, soprattutto in fase di esportazione dei dati. SpatiaLite si è già dimostrato maturo, ma un’interfaccia più amichevole e ricca di funzionalità sarebbe sicuramente utile, tra
queste la possibilità di importare più facilmente altri dati in formato SQL o migliorare la
maschera per l’esecuzione delle query. In ogni caso, è stato possibile usare i dati geografici informatizzati dello scavo in maniera soddisfacente per richieste non avanzate, che
erano sufficienti al gruppo di ricerca per cui ho svolto il lavoro.
2
294
Pagina ufficiale del progetto SpatiaLite: http://www.gaia-gis.it/spatialite/
Abbreviazioni bibliografiche
PAONESSA 2010
A. Paonessa, Applicazione di software GIS open
source al sito di Rocca degli Alberti (Monterotondo
Marittimo), Siena 2010.
Alessio Paonessa
Università degli Studi di Siena.
Dipartimento di Archeologia e Storia delle Arti.
[email protected]
295
Damiano Lotto
Silvia Fiorini
Analisi di dispersione del
materiale archeologico a Fondo
Paviani: un approccio Open
Source
Abstract
This paper shows an integraly open source system to feature the archaeology dispersion of finds, from
a survey work elaborated on “Fondo Paviani” site, located in Valli Grandi Veronesi (VR). The system depicted, in respect of a “traditional survey featuring”, show as result a smoothed surface, with a better degree of
understating and vividness.
1. Il sito
L’insediamento, situato in Località Vangadizza di Legnago (IGM foglio 63,
Quadrante II Nord-Ovest, CAV foglio 63, Legnago n. 219) (fig. 1) si inserisce nel sistema
dei grandi villaggi arginati delle Valli Grandi Veronesi, caratterizzato da siti di grande
importanza quali Castello del Tartaro e Fabbrica dei Soci, ma dal punto di vista geomorfologico presenta una differenza rispetto a questi ultimi, che sfruttano i dossi fluviali,
ponendosi invece al centro della paleovalle del fiume Menago. Le ricerche sistematiche
nell’insediamento di Fondo Paviani, individuato e fatto oggetto di una ricognizione di
superficie alla metà degli anni Settanta, sono riprese a partire dal 2007 dall’Università
degli Studi di Padova sotto la direzione del Prof. Giovanni Leonardi e del Dott. Michele
Cupitò. Lo studio tele-osservativo del territorio condotto negli anni Novanta nell’ambito
delle indagini del progetto Alto-Medio Polesine/Basso Veronese (AMPBV) aveva già
messo in luce l’importanza di Fondo Paviani, un insediamento di ragguardevoli dimensioni dotato di fossato e argine - ben visibile nel suo perimetro quadrangolare nella foto
aerea del 1955 - con una estensione di circa 20 ettari nel Bronzo Recente, inserito nel territorio circostante all’interno di un complesso sistema stradale e di regimentazione delle
acque mediante canali.
2. Il progetto
Il “Progetto Fondo Paviani” si pone nel più ampio filone di ricerca sull’organizzazione territoriale e sociale dell’Italia settentrionale nella tarda età del Bronzo, portato
avanti dalla cattedra di Paletnologia dell’Università degli Studi di Padova. I risultati preliminari delle nuove indagini - quattro campagne di survey e quattro di scavo a partire dal
2007 - hanno evidenziato in primo luogo la presenza in situ di attività metallurgica, della
lavorazione del vetro e della circolazione dell’ambra, nonché di contatti a lungo raggio,
testimoniati dal rinvenimento di oltre 30 frammenti di ceramica micenea, che vanno ad
aggiungersi agli altri già noti dalle precedenti ricerche; essi sono risultati essere sia di
297
1. Legnago.
Località
Vangadizza.
Il sito di Fondo
Paviani.
importazione sia frutto di rielaborazione del patrimonio decorativo egeo-miceneo da parte
di ateliers locali.
La prosecuzione delle indagini, sia con gli scavi in open area sia con l’attività di
survey sistematico, contribuirà alla sempre maggiore comprensione delle dinamiche insediative, territoriali e sociali dell’insediamento, anche se da quanto indagato sinora (proprio
all’interno del già citato progetto AMPBV) è già emersa con forza la centralità e l’importanza del sito di Fondo Paviani nella polity delle Valli Grandi Veronesi. L’intero progetto
“Fondo Paviani” è stato pensato e condotto utilizzando strumenti Open Source; sono risultati, infatti, fondamentali le caratteristiche proprie di questa soluzione, che possono essere sintetizzate come:
- esportabilità dei dati, anche quelli già elaborati; dati “aperti”, non soggetti al formato, e quindi alla licenza, di un solo software; flessibilità operativa;
- economicity, in termini di acquisto, ma apparentemente meno economica in relazione alla formazione degli utenti, di solito abituati a soluzioni su piattaforme maggiormente pubblicizzate. Tuttavia alla prova dei fatti la curva di apprendimento, anche per
utenti non “troppo abituati” all’informatica, è risultata essere uguale a quella che si sarebbe avuta con prodotti close source.
3. Il survey
Nella campagna 2007 è stata realizzata all’interno del sito la prima ricognizione
sistematica ad alta intensità (per quadrati regolari di 5x5 m, con la presenza di almeno
quattro operatori per ciascun quadrato) in un’area di 5500 mq; contestualmente si è attivata una raccolta dei materiali di superficie affiorati nelle aree dell’insediamento interessate da arature (survey non sistematico). Nel 2008 il survey intensivo è stato esteso a un’area di 11750 mq mentre i terreni adiacenti sono stati interessati da ricognizioni a mediobassa intensità; nel 2009 l’attività di survey è proseguita per altri 8000 mq - sempre
mediante quadrettatura regolare di 5x5 m - nelle aree limitrofe a quelle indagate negli anni
precedenti. Il bilancio di un primo esame autoptico dei reperti rinvenuti nella ricognizio298
ne e una più puntuale contestualizzazione tipo-cronologica dei reperti diagnostici rinvenuti nel 2007 hanno indicato un range cronologico dal BM3-BR1 a tutto il BR2, con
occorrenze anche di BF, di fondamentale importanza per la comprensione delle fasi di vita
dell’insediamento. Al fine di verificare se nella distribuzione dei cocci esistesse una differenziazione areale dal punto di vista in primo luogo quantitativo, in secondo luogo cronologico, è stata inizialmente creata una carta di distribuzione della frequenza di materiali nei quadrati oggetto di ricognizione intensiva nel 2007 con metodi GIS.
Il risultato ottenuto non è apparso però molto chiaro ed è allora stato messo a punto
un modello di rappresentazione che ha aumentato considerevolmente la leggibilità del
dato quantitativo.
È possibile rilevare la presenza delle concentrazioni quantitativamente più consistenti di materiali in tre punti: nella fascia lungo lo scolmatore che corre in direzione N/S
(Quadrati A1-A22), nella fascia lungo il canale che corre in direzione E/O (Quadrati A22L 22) e nella fascia meridionale del lato E del survey (Quadrati L 17-21, I 19-20). Per
quanto riguarda le prime due fasce a ridosso dei canali agrari N/S e E/O, è assolutamente
plausibile ipotizzare che i lavori agricoli di manutenzione, consistenti in periodiche ripuliture delle sponde del fondo, abbiano intaccato maggiormente gli strati archeologici,
riportando in superficie e ri-depositando un cospicuo numero di reperti in prossimità delle
sponde stesse.
Sulla base di questa evidenza è possibile supporre che le fasce più dense lungo i
canali costituiscano la sommatoria del deposito archeologico proveniente dal terreno del
campo e dal riporto di terreno escavato per la risistemazione della scolina.
Incrociando il dato cronologico con quello quantitativo è possibile osservare che: i
materiali più antichi, corrispondenti alla fine del BM/BR iniziale, sono scarsissimi, nonostante il deposito archeologico sia stato intaccato in profondità, mentre sono ben rappresentati materiali di BR pieno, che non sembrano “clusterizzati” in un’area precisa all’interno delle concentrazioni. I materiali di BR2-3 sono molto frequenti e diffusi in tutta l’area presa in esame ed è buona la presenza di frammenti databili al BF.
La terza concentrazione di materiali (Quadrati L 17-21, I 19-20), che non è stata
rilevata in concomitanza di canalizzazioni agrarie, risulta probabilmente di altra origine e
solo la verifica delle concentrazioni di materiali nel contiguo terreno, oggetto di ricognizione nel 2008, potrà chiarirne l’origine; in via preliminare si può ipotizzare che tale concentrazione possa corrispondere a un alto morfologico, di origine naturale o artificiale,
troncato più profondamente dalla arature. Le aree a concentrazione minore di frammenti
ceramici sembra derivare dal fatto che il deposito alluvionale (US17) abbia coperto gran
parte del sito, di fatto preservando dai successivi interventi antropici gli strati archeologici.
4. Nuovi processi
L’obiettivo che ci si è prefissati di ottenere era quello di realizzare un modello più
smussato della distribuzione dei reperti, rispetto a quelle tradizionali (fig. 2)1: si è pensato quindi di creare una superficie analoga a un modello 3D del terreno, tramite software
GIS. L’idea era quella di attribuire a dei punti georiferiti presi a campione in ogni quadrato del survey una “z” fittizia: non quindi la quota reale dei punti, ma il numero totale di
cocci presenti nel quadrato stesso. Producendo una superficie interpolata si raggiunge lo
scopo di eliminare le cesure nette tra un quadrato e l’altro: infatti ogni punto con il suo
vicino viene calcolato e pesato, quindi “avvicinato”, in modo da creare una superficie continua.
Naturalmente questo procedimento può provocare una “distorsione” nel dato
(dipendente dal tipo di algoritmo, dai parametri, ecc.), soprattutto in virtù del fatto che i
1
CLARKE 1977; CAMBI-TERRENATO 1994; CAMPANA-FRANCOVICH 2003.
299
2. Rappresentazione “classica”
della dispersione
dei materiali di
superficie.
punti devono essere interpolati dal software per riempire i vuoti. Non essendo stati presi a
stazione i singoli punti di ogni frammento, per motivi di tempo e di praticità, le coordinate sono state dunque scelte a campione. Prima di tutto si è proceduto a creare un progetto
in Qgis, importando il vector della quadrettatura (survey 2007). Per ogni quadrato del vector sono stati disegnati dieci punti, per un totale di 2.150 punti, raccolti in rigoroso ordine (in questo caso da sinistra verso destra, perciò quadrato A1, B1, C1, ecc.). Questi punti
sono i “campioni” di coordinate a cui associare le “finte z” delle quantità di cocci.
Il vector così ottenuto è stato quindi importato in Grass (vers. 6.4) e di qui esportato in formato ASCII (ovvero in un file di testo, in formato “punti”; alla prima colonna corrisponde la CATEGORY, alla seconda la coordinata N, alla terza quella E e alla quarta la
Z); ogni 10 punti (quindi da 1 a 10, e poi da 11 a 20 ecc.) è stato associato il numero di
materiali dispersi corrispondente (ovvero, se il quadrato A1 presentava 6 cocci, nel file di
testo, nella colonna corrispondente alla “z”, per i punti 1-10 è sempre stato inserito lo stesso numero, “6”; per il quadrato B1, ovvero punti 11-20, il numero di cocci corrispondente ecc.). Ad esempio:
A1|1680178.63712794|4998905.77407783|30
A1|1680180.32295077|4998906.37615741|30
A1|1680181.64752586|4998907.09865291|30
Dove 30 è il numero di reperti per il quadrato A1, sostituito alla coordinata “z”. Una
volta completato il file, esso è stato reimportato nuovamente in Grass, avendo cura di specificare create 3D vector; contemporaneamente, sempre in Qgis, è stato realizzato un vector poligonale della precisa area di survey. Anche questo è stato importato in Grass e subito convertito in raster (comando v.to.rast). Questo nuovo raster è stato denominato mask
in quanto verrà utilizzato come “maschera” di riferimento per limitare il processo di interpolazione alla sola area interessata (altrimenti Grass distribuirebbe il calcolo per la creazione della superficie su di un’area più grande del voluto) tramite il comando r.mask.
Tra i vari tipi di algoritmo utilizzabili, dopo qualche prova, si è deciso di impiegare quello contenuto nel programma v.surf.rst (v.surf.rst); i parametri utilizzati sono pres300
sappoco quelli di default, tranne per il parametro tension che è stato calibrato a “20.” e
ovviamente il parametro numero layer a “0” invece che a “1” (che vuol dire “utilizza per
l’interpolazione le coordinate “z”). Il raster ottenuto (fig. 3) è stato infine esportato in .tiff
(r.out.tiff), come geotiff, ovvero immagine georeferenziata e in seguito importato in altri
sistemi di visualizzazione GIS per essere sovrapposto a mappe, vector, foto aeree, ecc.
3. Rappresentazione come modello
3D della
dispersione dei
materiali di
superficie.
301
Abbreviazioni bibliografiche
CAMBI-TERRENATO 1994
F. Cambi - N. Terrenato, Introduzione all’archeologia dei Paesaggi, Roma 1994.
CAMPANA-FRANCOVICH 2003
S. Campana - F. Francovich, Landscape archaeology
in Tuscany: cultural resource management, remotely
sensed techniques, GIS based data integration and
interpretation, in The reconstruction of Archeological
Landscapes through Digital Technologies, BAR
Internetional Series 1151, 2003, 15-29.
CLARKE 1977
L. D. Clarke, Spatial Archeology, Cambridge 1977.
Referenze iconografiche
Autori: figg. 1-3.
Damiano Lotto
Dipartimento di Archeologia. Università degli Studi
di Padova.
[email protected]
Silvia Fiorini
Dipartimento di Archeologia. Università degli Studi
di Padova.
[email protected]
Michele Cupitò
Dipartimento di Archeologia. Università degli Studi
di Padova.
[email protected]
Giovanni Leonardi
Dipartimento di Archeologia. Università degli Studi
di Padova.
[email protected]
302
Naus Editoria
Finito di stampare nel mese di giugno 2012