ingegneri_napoli_2010-2:Layout 1.qxd

Transcript

ingegneri_napoli_2010-2:Layout 1.qxd
13/07/2010
12.40
Pagina 1
IRENE:
la postina
delle stelle
PAGINA 17
Valutazione della
riduzione del livello
di vulnerabilità
sismica
Palazzo Penne:
storia e
riqualificazione di un
monumento storico
PAGINA 35
PAGINA 51
numero 2
marzo-luglio 2010
POSTE ITALIANE S.P.A. - SPED. IN ABB. POST. - D.L. 353/2003 (CONV. IN L. 27.02.2004, N. 46) ART. 1, COMMA 1, DCB (NA)
ingegneri_napoli_copertina_2010-2:Layout 1
13/07/2010
12.40
Pagina 1
IRENE:
la postina
delle stelle
PAGINA 17
Valutazione della
riduzione del livello
di vulnerabilità
sismica
Palazzo Penne:
storia e
riqualificazione di un
monumento storico
PAGINA 35
PAGINA 51
numero 2
marzo-luglio 2010
POSTE ITALIANE S.P.A. - SPED. IN ABB. POST. - D.L. 353/2003 (CONV. IN L. 27.02.2004, N. 46) ART. 1, COMMA 1, DCB (NA)
ingegneri_napoli_copertina_2010-2:Layout 1
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.16
Pagina 1
SOMMARIO
Ingegneri
Napoli
marzo-luglio
2010
Normativa
Per un governo pubblico dell’acqua
Il decreto Ronchi, tra pubblico e privato
pag. 3
Commissione Ambiente e
Sostenibilità Ambientale
pag. 6
In copertina: ISS (International Space Station).
marzo-luglio 2010
Bimestrale di informazione a cura del Consiglio dell’Ordine
Editore
Ordine degli Ingegneri della Provincia di Napoli
Tecnologia
Tecnologia Voice over IP:
scenari di convergenza
Attuali tendenze del mercato, nuove opportunità di business, scenari futuri
pag. 7
Tecnologia
IRENE: la postina delle stelle
Studio di una piccola capsula di rientro in grado di riportare
sulla Terra carichi utili limitati da orbita LEO
pag. 17
Tecnologia
Algoritmi di messa a fuoco
di immagini satellitari
Proposta di un’innovativa tecnica di autofocus basata
sull’applicazione dei filtri armonici circolari
pag. 24
Direttore editoriale: Luigi Vinci
Direttore responsabile: Armando Albi-Marini
Redattori capo: Edoardo Benassai,
Pietro Ernesto De Felice, Mario Pasquino
Direzione, redazione e amministrazione
80134 Napoli, Via del Chiostro, 9
Tel. 081 5525604 – Fax 081 5522126
www.ordineingegnerinapoli.it
[email protected]
c/c postale n. 25296807
Comitato di redazione: Luigi Vinci, Paola Marone,
Nicola Monda, Eduardo Pace, Marco Senese,
Annibale de Cesbron de la Grennelais, Giovanni Esposito,
Paola Astuto, Francesco Paolo Capone, Fabio De Felice,
Renato Iovino, Andrea Lizza, Giovanni Manco,
Salvatore Vecchione, Eduardo Sgro’
Coordinamento di redazione: Claudio Croce
Progetto grafico e impaginazione:
doppiavoce
Stampa: Officine Grafiche Francesco Giannini & Figli s.p.a.
Via Cisterna dell’Olio, 6/B – 80134 Napoli
Reg. Trib. di Napoli n. 2166 del 18/7/1970
Spediz. in a.p. 45% – art. 2 comma 20/b – I. 662/96 Fil. di Napoli
I contenuti possono essere modificati per esigenze di spazio con
il massimo rispetto del pensiero dell’autore. Le riproduzioni
di articoli e immagini sono consentite citandone la fonte.
L’editore resta a disposizione di ogni eventuale avente diritto
per le competenze su testi e immagini.
Associato U.S.P.I.
Unione Stampa Periodica Italiana
Tiratura: 13.000 copie
Finito di stampare nel mese di luglio 2010
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.17
Pagina 2
Ricerca
Valutazione della riduzione del livello
di vulnerabilità sismica di un edificio esistente
in c.a. tramite disaccoppiamento dei pannelli
murari
pag. 35
Storia
Palazzo Penne:
storia e riqualificazione
di un monumento storico
pag. 51
Riqualificazione
San Giovanni a Teduccio tra preesistenze
storiche e realtà industriali dismesse
Recupero e riqualificazione integrata del Forte di Vigliena
e dello Stabilimento Iannone
pag. 55
Sicurezza
Dissesti idrogeologici: colate rapide
Seminario tecnico
pag. 62
Recensione
I Sistemi di Homeland Security:
scenario, tecnologie e applicazioni
pag. 64
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.17
Pagina 3
PER UN GOVERNO
PUBBLICO DELL’ACQUA
Il decreto Ronchi, tra pubblico e privato
Il 18 novembre 2009, alla Camera
dei deputati si approvava, con ricorso alla fiducia, il decreto Ronchi, che
all’art. 15 avviava un processo di privatizzazione dei servizi pubblici locali, di dismissione della proprietà
pubblica e delle relative infrastrutture. A rendere ancor più grave, nel
merito e nel metodo, l’approvazione
del decreto Ronchi, vi è il fatto che esso sia stato approvato ignorando il
consenso popolare che soltanto due
anni fa si era raccolto intorno alla
legge d’iniziativa popolare per l’acqua pubblica (raccolte oltre 400.000
firme), elaborata e promossa dal Forum italiano dei movimenti per l’acqua pubblica ed oggi in discussione
in Parlamento. Nel frattempo cinque
regioni hanno impugnato il decreto
Ronchi di fronte alla Corte costituzionale, lamentando la violazione di
proprie competenze costituzionali
esclusive.
Il decreto Ronchi, convertito in l. n.
166 del 2009, colloca tutti i servizi
pubblici essenziali locali (non solo
l’acqua) sul mercato, sottoponendoli
alle regole della concorrenza e del
profitto, espropriando il soggetto
pubblico e quindi i cittadini dei propri beni faticosamente realizzati negli anni sulla base della fiscalità generale.
Un testo che non sembra considerare
come negli ultimi anni la gestione privatistica dell’acqua abbia determinato significativi aumenti delle bollette e una riduzione drastica degli investimenti per la modernizzazione
degli acquedotti, della rete fognaria,
degli impianti di depurazione1. Ciò
nonostante, la nuova legislazione,
imponendo la svendita forzata del
patrimonio pubblico e l’ingresso sostanzialmente obbligatorio dei privati nella gestione dei servizi pubblici,
renderà obbligatoria, anche per l’acqua, la privatizzazione, alimentando
sacche di malaffare e fenomeni malavitosi.
La malavita già da tempo ha compreso il grande business dei sevizi
pubblici locali, si pensi alla gestione
1
Le diverse esperienze privatistiche di gestione dell’acqua degli ultimi anni hanno dimostrato come esse siano incompatibili con la gestione del bene comune, poiché la finalità riconosciuta alle società commerciali è incompatibile con la gestione del bene. Infatti il conseguimento del profitto si basa sulla contrazione dei costi e sull’aumento dei ricavi, e inoltre sull’imputazione degli investimenti sulla tariffa. Questo comporta da un lato l’aumento delle tariffe, dall’altro tagli ai costi del lavoro, con relativa precarizzazione, e della gestione,
con conseguente peggioramento della qualità dei servizi. A questo va aggiunta l’interruzione del servizio per gli utenti che non sono in grado di pagare e ai quali non è garantita
neanche la quantità minima giornaliera per i bisogni primari.
numero
marzo-luglio
2010
Edoardo Benassai
Ingegnere
“
Si auspica che tutte le
forze politiche e sociali
capiscano l’importanza di
mantenere la campagna
referendaria prossima
unicamente legata al tema
altamente simbolico
dell’acqua
”
2
3
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.17
Pagina 4
dei rifiuti, e la grande possibilità di
gestirli in regime di monopolio.
Per chi conquisterà fette di mercato,
l’affare è garantito. Infatti, trattandosi di monopoli naturali, l’esito della
legge sarà quello di passare da monopoli-oligopoli pubblici a monopolioligopoli privati, assoggettando il servizio non più alle clausole di certezza dei servizi delineati dall’Unione
Europea, ma alla copertura dei costi
ed al raggiungimento del massimo
dei profitti nel minor tempo possibile.
Insomma il decreto Ronchi, rappresenta un danno per l’ambiente, la
salute e non da ultimo per l’occupazione.
Di tutto ciò non sembrano rendersi
conto le posizioni espresse dall’attuale presidente del Co.N.Vi.R.I.
(Commissione Nazionale di Vigilanza sulle Risorse Idriche) secondo le
quali (Sole 24 ore di giovedì 19 novembre) poca conta se il gestore sia
una S.p.A. controllata dal pubblico
o dal privato, conta che tutte le leggi confermino da anni l’acqua come
bene pubblico, che gli impianti idrici siano tutti di proprietà pubblica,
che l’organismo di controllo sia pubblico e che la formazione delle tariffe sia in mano pubbliche. Ma non
sembrano neppure rendersene conto le ingenue affermazioni contenute
nel forum aperto sulla voce.info, sito
di natura economico-finanziaria,
laddove si sostengono le ragioni del
decreto Ronchi in nome del fatto
che: a) non viene privatizzato il bene ma il servizio di fornitura idrica;
b) tale processo è efficiente considerato che l’innalzamento del capitale
privato nella gestione dei condotti
idrici porterà ad investimenti tali da
ridurre gli sprechi legati alla dispersione dell’acqua lungo la rete idrica
in ragione della migliore posizione
in cui si trova il privato per bilancia-
re costi e benefici nello sfruttamento
del bene.
Le cose non stanno così. È noto che,
soprattutto in beni come l’acqua a valore aggiunto assai basso, tra proprietà formale del bene e delle infrastrutture e gestione effettiva del servizio vi è una tale asimmetria d’informazioni, al punto da far parlare di
proprietà formale e proprietà sostanziale, ovvero il proprietario reale è
colui che gestisce il bene ed eroga il
servizio.
È nota inoltre la debolezza dei controlli e la loro pressoché totale incapacità di incidere sulla governance
della società. Ma soprattutto è noto
che il governo e il controllo pubblico
diventino pressoché nulli nel momento in cui ci si trova dinanzi a forme
giuridiche di diritto privato, regolate
dal diritto societario. In questo senso,
è opportuno ricordare l’esperienza
francese dove in piena gestione privata del servizio idrico a Parigi (Lyonnaise des eaux e Veolia Eau) la
Chambre régionale des comptes et
l’inspection générale de la ville de
Paris denunziava nel 2000 e nel
2001 l’opacità dell’organizzazione
e del funzionamento del servizio dell’acqua e la difficoltà di esercitare
controlli sul gestore privato2.
I grandi principi ispiratori della nostra Carta costituzionale, che avevano negli anni posto le basi e legittimato il governo pubblico e democratico dell’economia, secondo una logica ed una prospettiva di tutela effettiva dei diritti fondamentali, finiscono mortificati. Purtroppo una maggioranza trasversale proclama principi liberisti ma introduce al contrario
posizioni di rendita privata che saranno poi impossibili da sradicare.
Certo con una maggioranza più attenta all’interesse pubblico, si potrebbe ripartire da una riforma au-
A. Le Strat, Le choix de la gestion publique de l’eau à Paris, relazione presentata a Torino
al Convegno: Acqua bene comune: il diritto al futuro, 15 febbraio 2010.
2
4
Ingegneri
Napoli
ingegneri_napoli_2010-2:Layout 1
13/07/2010
tentica fondata sulla legge di iniziativa popolare del Forum dei movimenti per l’acqua e sul testo della legge
delega di riforma dei beni pubblici
(commissione Rodotà). Entrambe queste proposte organiche hanno come
obiettivo il governo dei beni pubblici
e dei beni comuni nell’interesse dei
diritti fondamentali della persona, tramite gestioni di diritto pubblico e nel
rispetto dei principi costituzionali.
Purtroppo queste riforme non sono
verosimili e l’arma del referendum
abrogativo ex art. 75 Costituzione
è la sola utilizzabile in chiave riformista.
Ovviamente, le possibilità di successo di una tale via sono legate a molte variabili, incluso l’atteggiamento
della Corte Costituzionale e la capacità dei promotori di far comprendere ai cittadini l’importanza della posta in gioco al fine di ottenere il quorum necessario previsto dalla legge.
Idealmente entrambe queste difficoltà sarebbero più agevolmente superabili con un quesito unico secco e
chiaro. Tuttavia ciò non risulta tecnicamente fattibile perché il regime dell’acqua risulta connesso con quello
degli altri servizi di pubblica utilità.
In virtù di queste difficoltà tecniche e
12.17
Pagina 5
del mandato ricevuto di presentare ai
cittadini un progetto referendario capace di ripubblicizzare l’acqua, si
sono esplicitati tre quesiti. Si auspica
che tutte le forze politiche e sociali
capiscano l’importanza di mantenere la campagna referendaria prossima unicamente legata al tema altamente simbolico dell’acqua.
I quesiti sono:
1. abrogazione dell’art. 23 bis (12
commi) della l. n. 133 del 2008
relativo alla privatizzazione dei
servizi pubblici di rilevanza economica, così come modificato dall’art. 15 della legge di conversione n. 166 del 2009.
2. abrogazione dell’art. 150 (quattro
commi) del d. lgs. n. 152 del
2006 (c.d. codice dell’ambiente),
relativo alla scelta della forma di
gestione e procedure di affidamento, segnatamente al servizio
idrico integrato;
3. abrogazione dell’art. 154 del d.
lgs. n. 152 del 2006, limitatamente a quella parte del comma 1
che dispone che la tariffa costituisce corrispettivo del servizio idrico
integrato ed è determinata tenendo conto dell’adeguata remunerazione del capitale investito.
numero
normativa
marzo-luglio
2010
2
5
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.17
Pagina 6
COMMISSIONE AMBIENTE
E SOSTENIBILITÀ AMBIENTALE
A cura della
Commissione Ambiente
Ordine Ingegneri Napoli
“
La Commissione
Ambiente ha raccolto varia
documentazione nazionale
ed internazionale sul tema
della sostenibilità
ambientale, che confluirà
nella redazione di linee
guida affidate a due gruppi
di lavoro: rifiuti e risorse
idriche
”
6
La Commissione Ambiente dell’Ordine degli Ingegneri della provincia di
Napoli, sotto la guida del coordinatore prof. ing. Mario Pasquino e del
project manager dott. ing. Paola
Morgese, affronta quest’anno il tema
della sostenibilità ambientale.
Dal mese di gennaio 2010, in cui ha
iniziato il suo operato, ad oggi, ha
raccolto il consenso, la partecipazione e la collaborazione di molti colleghi, che dedicano ad essa volontariamente il loro tempo, la loro professionalità ed il loro entusiasmo.
La commissione, seguendo quanto si
è prefissata ad inizio lavori nel suo
programma, svolge le sue attività con
una tabella di marcia fitta di appuntamenti. Organizza due incontri al
mese, uno presso gli uffici dell’Ordine stesso ed un altro in team virtuale.
Durante gli incontri “dal vivo” accoglie degli ospiti per delle conversazioni informali. Le conversazioni formative, mirate ad affinare le capacità di collaborazione e di comunicazione tra i componenti della commissione stessa, hanno visto la partecipazione degli ospiti di seguito riportati.
Daniela Cenciotti, attrice e regista,
moglie dell’attore e doppiatore Carlo
Croccolo, con la sua socia Paola
Esposito: ha fornito dei suggerimenti
per parlare in pubblico e dei cenni di
dizione.
Giovanna Scafuro, project manager
certificato PMP (Project Management
Professional), direttore aggiunto del
PMI-SIC (Project Management Institu-
Ingegneri
Napoli
te Southern Italy Chapter) e coordinatrice della commissione programma ed eventi dello stesso: ha dato dei
consigli sulla gestione delle commissioni e dei gruppi di lavoro.
Francesco Violi, ingegnere e docente di project management presso
l’Ordine stesso dai primi corsi organizzati nel 2005: ha fornito una introduzione al project management.
Le conversazioni informative, mirate
ad accrescere le conoscenze su temi
tecnici, hanno accolto gli ospiti di seguito riportati.
Paola Morgese, ingegnere e project
manager certificato PMP: ha illustrato
il compostaggio domestico vegetale
ed il modello C2C (Cradle to cradle)
del prof. Dr. Michael Braungart.
Paolo Bidello, ingegnere: ha illustrato
il capitolo 6 “Criteri per l’individuazione delle destinazioni potenziali ottimali” del Programma 2010-2013 di
gestione integrata dei rifiuti speciali
della Regione Campania.
Ciro Tortora, dottore in chimica con
master in ingegneria sanitaria ed
ambientale: ha illustrato un prodotto, alla cui formulazione ha contribuito personalmente, per il controllo
degli odori molesti nella gestione dei
rifiuti.
La commissione ambiente, nel corso
di questi suoi primi mesi di attività, ha
raccolto varia documentazione nazionale ed internazionale sul tema
della sostenibilità ambientale, che
confluirà nella redazione di linee guida affidate a due gruppi di lavoro: rifiuti e risorse idriche.
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.17
Pagina 7
TECNOLOGIA VOICE OVER IP:
SCENARI DI CONVERGENZA
Attuali tendenze del mercato, nuove
opportunità di business, scenari futuri
1. Introduzione
La progressiva diffusione di reti a
commutazione di pacchetto ha indotto ricercatori ed aziende ad
esplorare la possibilità di utilizzare
tali reti anche per l’erogazione di
servizi vocali. Si è, pertanto, assistito ad un susseguirsi di sviluppi di
tecnologie per la trasmissione vocale su reti packet switched: Voice
over X.25 (VoX.25), Voice over Frame Relay (VoFR), Voice over Asynchronous Transfer Mode (VoATM),
Voice over Multiprotocol Label Switching (MPLS), Voice over Wi-Fi (VoWi-Fi) e Voice over IP (VoIP). Tra tutte queste, la tecnologia VoIP è quella che ha riscosso maggiore successo, anche in virtù della capillare
diffusione del protocollo IP, correlata al crescente successo della rete
Internet.
Per “Tecnologia Voice over Packetbased networks (VoP)” si intende
l’insieme di protocolli, tecnologie e
infrastrutture di rete che include la
commutazione di pacchetto utilizzate per la fornitura di un servizio di
comunicazione vocale, anche integrato con dati, suoni e immagini,
servizi a valore aggiunto, servizi di
condivisione in tempo reale di risorse e informazioni, e che possono
consentire l’interoperabilità con reti
telefoniche tradizionali. La tecnologia VoP, pertanto, nasce come naturale contraltare alla tradizionale tecnologia per la fornitura di servizi vocali, storicamente erogati attraverso
l’utilizzo di reti a commutazione di
circuito.
Sono numerose le opportunità che
derivano dalle applicazioni VoP ed in
particolare VoIP e tra queste:
– possibilità di nuove applicazioni e
relative opportunità di commercializzazione: servizi nomadici, messaggistica istantanea integrata ed
in generale convergenza tra servizi voce e servizi dati;
– utilizzo di un unico cablaggio per
la rete fonia e per la rete dati in
contesti aziendali e maggiore flessibilità per l’implementazione e la
gestione di reti e centralini privati;
– risparmio nelle comunicazioni a
lunga distanza;
– possibilità, grazie ai nuovi dispositivi mobili evoluti (ad es. smartphone) di nuovi servizi in mobilità, prescindendo dalla terminazione delle chiamate su reti cellulari tradizionali, con l’opportunità
di nuove offerte convergenti fissomobile.
In questo articolo ci soffermeremo,
principalmente, sulla tecnologia VoIP,
analizzandone il ruolo nella convergenza, con particolare riferimento alla convergenza fisso-mobile, nonché
sulle attuali tendenze del mercato in
merito al Voice over IP, sulle nuove
opportunità di business derivanti dalla convergenza e sugli scenari futuri
legati alla crescente diffusione di questa tecnologia, sia dal punto di vista
degli utenti, sia dei fornitori di servizi di comunicazione.
numero
marzo-luglio
2010
Sergio Palumbo
Ingegnere
“
Si assisterà ad una
spinta sempre maggiore
verso la convergenza fissomobile e ad un successo
sempre maggiore delle
offerte quadruple
play
”
2
7
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.17
Pagina 8
2. Aspetti tecnologici
Il termine VoIP si riferisce ad una famiglia di tecnologie e protocolli e
non ad uno specifico standard.Per
definire i contorni di una specifica
applicazione VoIP occorre fissare alcune scelte implementative che hanno notevole impatto sulla complessità
della soluzione, sulle caratteristiche
qualitative e sull’occupazione di banda per singola conversazione. Le
scelte da operare sono essenzialmente le seguenti:
– tecnica di codifica vocale;
– protocollo di segnalazione;
– protocollo di trasporto.
Dal punto di vista dell’utente, invece,
l’applicazione VoIP può prevedere un
apposito dispositivo (telefono VoIP,
wired o cordless) oppure può essere
fruita attraverso un software (cosiddetto softphone) da installare su specifici sistemi operativi. Esistono software VoIP sia per i sistemi operativi tipici dei personal computer, ivi compresi notebook e netbook (Microsoft
Windows, Linux, Apple McIntosh),
sia per i sistemi operativi dei moderni palmari e smartphone (Symbian,
Windows Mobile, Android, iPhone,
etc.).
Di seguito si passano brevemente in
rassegna le principali soluzioni disponibili per la codifica vocale ed i
protocolli di segnalazione e di trasporto.
2.1 Tecniche di codifica vocale
Le tecniche di codifica vocale possono essere suddivise, in prima analisi,
in due macrocategorie:
– codificatori waveform: effettuano
una codifica della forma d’onda
del segnale vocale, attraverso operazioni di campionamento, quantizzazione e codifica;
– Vocoder: analizzano il segnale vocale per ricavarne i parametri da
dare in input ad un modello dell’apparato di produzione del suono (sistema corde vocali-tratto vocale), in modo da trasmettere i soli parametri del modello.
Il più semplice codificatore waveform, intensivamente utilizzato in passato e tuttora protagonista di gran
parte delle installazioni nei backbone delle reti fisse, è il PCM (Pulse Code Modulation).
Un codificatore PCM si basa, essenzialmente, sull’applicazione del teorema di Nyquist. Considerato che il
segnale vocale ha una banda netta
di circa 3100 Hz (nella finestra 300
Hz – 3400 Hz), si procede a campionare il segnale vocale con una frequenza pari al doppio di una banda
lorda di 4000 Hz, pertanto a 8 kHz.
Ciascun campione viene quantizza
to1 con 256 livelli, in modo che possa essere codificato tramite l’utilizzo
di 8 bit. Ne discende un segnale numerico con un bitrate di 64 kbps2.
Per ridurre l’occupazione di banda,
senza perdere molto in termini di qualità, sono state introdotte due varianti
alla codifica PCM: le tecniche PCM
adattative (APCM) e le tecniche PCM
adattative differenziali (ADPCM).
Le tecniche adattative riducono il numero di livelli di quantizzazione utilizzati, a seconda della variabilità
del contenuto informativo del segna-
La quantizzazione può essere uniforme o logaritmica. Si è verificato che la quantizzazione logaritmica, per la natura del segnale vocale, è in grado di ridurre il rumore di quantizzazione. Esistono due apposite “leggi” per la definizione del metodo di quantizzazione logaritmica, utilizzate negli Stati Uniti d’America (legge “mu”) ed in Europa (legge “A”). Per
approfondimenti: G.E. Pelton, Voice Processing, McGraw-Hill, 1993.
2
È da osservare come le tecniche di multiplexing a divisione di tempo utilizzate nelle reti fisse si basino su un canale vocale base esattamente di 64 kbps: si tratta proprio di un canale adatto al trasporto di una comunicazione vocale codificata con la tecnica PCM.
1
8
Ingegneri
Napoli
ingegneri_napoli_2010-2:Layout 1
13/07/2010
le vocale istante per istante. È così
possibile utilizzare, ad esempio, 4 bit
(quindi 16 livelli), incrementandoli
quando necessario.
Alla base delle tecniche differenziali
c’è l’idea di trasmettere, istante per
istante, invece dell’ampiezza del segnale vocale in sé, il suo scostamento da un valore predetto. La predizione, basata sui campioni precedenti, viene effettuata sia in trasmissione che in ricezione, pertanto è
possibile trasmettere il solo scostamento. La predizione è particolarmente efficace in caso di segnali non
troppo velocemente variabili. Si può
così arrivare a riduzioni notevoli della banda necessaria alla trasmissione del segnale codificato: anche fino
a 32 kbps, ossia la metà della banda
necessaria per un canale fonico con
codifica PCM.
Seppur un bitrate di 32 kbps possa
sembrare adeguatamente basso, a
partire dagli anni ‘90 sono stati fatti
diversi sforzi per ridurlo ulteriormente. Difatti, in quegli anni si sono verificati due eventi: da un lato, la rapida diffusione della telefonia cellulare
ha reso necessaria un’ottimizzazione
della risorsa scarsa costituita dallo
spettro radio, in modo da garantire,
a parità di occupazione di banda, un
maggior numero di comunicazioni
contemporanee; dall’altro, le innovazioni tecnologiche dei microprocessori e dei chip ad altissima integrazione (VLSI3) hanno reso disponibili,
a costi accettabili, potenze di calcolo
prima insperate. Sono stati, pertanto,
condotti nuovi studi per algoritmi finalizzati alla trasmissione del segnale vocale con un bitrate più basso rispetto ai codificatori waveform, ma
comunque con un accettabile livello
qualitativo. Risultato di tali ricerche
sono stati i cosiddetti vocoders (dalla
contrazione di voice e coders, ossia
codificatori vocali), anche noti come
3
4
12.17
Pagina 9
codificatori model based, in quanto
basati su un modello dell’apparato di
produzione vocale.
La differenza sostanziale tra un codificatore waveform ed un vocoder
consiste nel fatto che un vocoder, invece di trasmettere la codifica dei
campioni del segnale vocale nel dominio del tempo, trasmette delle informazioni derivanti da un’analisi del
segnale vocale, ricostruito con una
sintesi in ricezione. Il segnale vocale
viene analizzato per trame di una
lunghezza dipendente dallo specifico algoritmo (in genere con una durata compresa tra i 2 ed i 50 millisecondi). L’analisi avviene sia nel dominio del tempo che nel dominio della frequenza. È palese, pertanto, che
la codifica con un vocoder implichi
intrinsecamente una latenza nella trasmissione. A partire dal segnale vocale in ingresso, nella specifica finestra temporale, vengono calcolati alcuni parametri che descrivono un modello dell’apparato di produzione
che vengono trasmessi e utilizzati in
ricezione per pilotare il modello e riprodurre un segnale che viene percepito dall’orecchio come simile a
quello originale, anche se non esiste
alcuna garanzia di uguaglianza o finanche di somiglianza tra la forma
d’onda trasmessa e quella ricevuta. I
parametri possono essere, ad esempio: coefficienti che descrivono le caratteristiche di risonanza del tratto vocale, flag indicante se il segnale in
quella finestra temporale contiene o
non contiene parlato, frequenza di
pitch, etc.
Al fine di migliorare l’occupazione di
banda, una tecnica spesso utilizzata
congiuntamente alle predette è quella di soppressione dei silenzi: da studi condotti sui canali fonici con codifica PCM si è visto che in media addirittura il 60% dei bit trasmessi sono
di “silenzio”4. Le virgolette sono d’ob-
Very Large Scale Integration.
Cfr. W. Goralski e M.C. Kolon, IP Telephony, McGraw-Hill, 1999.
numero
tecnologia
marzo-luglio
2010
2
9
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.17
Pagina 10
bligo, poiché è sempre presente un
rumore di fondo. Proprio a causa di
questo rumore di fondo, non è del tutto banale riconoscere il parlato dal
silenzio ed il preciso istante in cui inizia il parlato e, a tal fine, si utilizzano apposite tecniche di Voice Activation Detection5.
Grazie ai vocoder e all’uso di tecniche predittive e/o di codebook6 è
Algoritmo
G.711
G.726
G.728
G.729
G.729a
G.723.1
G.723.1
Tecnologia
PCM
ADPCM
LD-CELP10
CS-ACELP11
CS-ACELP
MPMLQ12
ACELP13
Bit Rate (Kbps)
64
32
16
8
8
6.3
5.3
Complessità (MIPS9)
.34
13
33
20
10.5
16
16
possibile trasmettere segnali vocali
con discreta o buona qualità anche
con bitrate abbastanza bassi. Nella
Tabella17 sono riportati gli algoritmi
di codifica più comuni e, per ciascuno di essi, la banda occupata dal segnale codificato con quello specifico
algoritmo ed una misura di qualità
basata sul Mean Opinion Score
(MOS)8.
Ritardo di compressione (ms)
0.75
1
3–5
10
10
30
30
Dimensione trama (ms)
0.125
0.125
0.625
10
10
30
30
MOS
4.1
3.85
3.61
3.92
3.9
3.9
3.8
Tabella 1
5
Si noti, tra l’altro, che chi conversa al telefono si aspetta, comunque, un certo rumore di
fondo, altrimenti potrebbe non distinguere un silenzio dall’altro lato della linea da un’eventuale caduta della comunicazione e si troverebbe a chiedere continuamente all’interlocutore se lo stesso sia ancora in linea, inficiando la conversazione. Per evitare tali inconvenienti, si usano tecniche per l’introduzione ad hoc di un rumore di fondo (comfortable noise), talvolta registrando e riproponendo i rumori di fondo reali percepiti dall’altro lato della linea.
6
Un codebook è un “catalogo di segnali”, dove vengono raccolte tutte le possibili eccitazioni del filtro che modella il tratto vocale. In tal modo, è possibile trasmettere il solo indice
del catalogo che produce la migliore qualità (minimizzazione dell’errore quadratico) più un
termine di guadagno relativo.
7
D. Minoli, Voice Over IPv6: Architectures for Next Generation VoIP Networks, Elsevier,
2006.
8
Con Mean Opinion Score (MOS) si intende un insieme di metodi di misura della qualità
della voce di tipo soggettivo, basato su prove di ascolto. La misurazione avviene attraverso
campagne di prova mirate, che prevedono la sottomissione, ad un campione numericamente
consistente di persone, di un certo numero di frasi sulle quali devono esprimere dei giudizi
in termini numerici, da 1 (qualtià molto bassa) a 5 (qualità eccellente). I restanti livelli sono:
4 (qualità buona), 3 (qualità abbastanza buona), 2 (qualità bassa). Per approfondimenti, cfr.
Raccomandazione ITU-T P.800.
9
Million Instructions Per Second.
10
Low Delay-Code Excited Linear Prediction.
11
Conjugate Structure Algebraic Code-Excited Linear Prediction.
12
Muulti Pulse-Maximum Likelihood Quantization.
13
Algebraic Code Excited Linear Prediction.
10
Ingegneri
Napoli
ingegneri_napoli_2010-2:Layout 1
13/07/2010
2.2 Procolli VoIP
Dal punto di vista protocollare, il VoIP
richiede la coesistenza di un protocollo per il trasporto dei dati multimediali ed uno per il signalling.
Per il trasporto delle informazioni vocali (e multimediali in genere), sebbene sia possibile utilizzare i protocolli che tradizionalmente si appoggiano sullo strato IP nelle reti Internet,
ossia UDP e TCP, è preferibile utilizzare un altro tipo di protocollo, ossia
RTP14 (Real Time Protocol). Il limite del
protocollo UDP consiste nel fatto che,
trattandosi di un protocollo connectionless, in nessun modo è possibile
garantire che l’arrivo dei pacchetti a
destinazione rispecchi l’ordine di partenza, né è possibile ricostruire l’originario ordine dei pacchetti in fase di
ricezione, poiché nessuna informazione relativa all’ordinamento viene
inviata nell’header di tale protocollo.
Di converso, il protocollo TCP, connection oriented, risulta troppo pesante per le esigenze del VoIP, poiché, se da un lato garantisce la ricezione ordinata dei pacchetti, dall’altro offre caratteristiche di ritrasmissione degli stessi in caso di mancata
o errata ricezione, che possono essere superflue se non dannose per lo
streaming di dati multimediali. Difatti,
una volta che un pacchetto è arrivato
con un delay superiore al tempo di
buffering, questo va in ogni caso
scartato e non è possibile attendere i
singoli pacchetti, poiché si perderebbe la fluidità della riproduzione a valle. Il compromesso ideale è proprio il
protocollo RTP, che garantisce il corretto ordinamento dei pacchetti ricevuti, senza però la ritrasmissione dei
pacchetti errati o mancanti. Peraltro,
è da notare che un singolo pacchetto
rappresenta qualche decina di millisecondi di segnale vocale, pertanto
una simile perdita, se sporadica ed
isolata, non inficia assolutamente la
comprensibilità del segnale in fase di
14
15
12.17
Pagina 11
ricezione. Esiste, inoltre, una versione “sicura” del protocollo RTP, il Secure RTP15 (SRTP), che garantisce anche la crittazione delle informazioni
trasmesse.
Oltre al trasporto delle informazioni
multimediali, è necessario un protocollo per la segnalazione, ossia per
le operazioni di instaurazione di una
chiamata, per la sua terminazione,
per la selezione del destinatario, etc.
Per la segnalazione esistono sia protocolli proprietari (ad esempio IAX,
Skype, SCCP) sia standardizzati (SIP,
Session Initiation Protocol, proposto
da IETF e H.323, proposto da ITU-T).
Tra i protocolli standardizzati, il primo ad essere utilizzato è stato
l’H.323, largamente diffuso già nei
sistemi di videoconferenza su rete
ISDN e, proprio per la sua maturità,
adottato anche dalla comunità VoIP.
Ciò nonostante, il SIP si è fatto sempre più strada e si prevede che in futuro la faccia da padrone.
Il protocollo SIP (Session Initiation Protocol) è un protocollo applicativo basato su IP che offre meccanismi per
instaurare, modificare e terminare (rilasciare) una sessione di comunicazione multimediale (voce, video, dati) su rete IP. SIP favorisce un’architettura modulare e scalabile, ovvero capace di crescere con il numero degli
utilizzatori del servizio. Queste potenzialità hanno fatto sì che il SIP sia,
oggi, il protocollo VoIP più diffuso nel
mercato residenziale e business, preferito ad altri protocolli, tra i quali
H.323.
La comunicazione con il protocollo
SIP può essere peer-to-peer oppure
passare attraverso un proxy server,
che si occupa di instradare correttamente le comunicazioni verso i destinatari, oltre che dell’autenticazione.
Gli utenti si possono registrare ai registrar server per comunicare le proprie informazioni di localizzazione,
che vengono inoltrate al location ser-
Definito da IETF (RFC 3550).
Definito da IETF (RFC 3771).
numero
tecnologia
marzo-luglio
2010
2
11
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.17
Pagina 12
ver. Molto utile ai fini del nomadismo
sono le funzioni di redirezione, cui
sovraintende il redirect server, grazie
alle quali il chiamante ottiene le informazioni utili per riuscire a contattare un dato destinatario. In sintesi, le
funzionalità di base messe a disposizione da SIP sono:
– presence: la possibilità di pubblicare e notificare il proprio stato di
disponibilità oppure di conoscere
quello degli altri utenti;
– registrazione: l’utente, in fase di attivazione, notifica alla rete le informazioni necessarie a raggiungerlo;
– identificativo unico: ogni utente è
caratterizzato da un identificativo
logico detto SIP URI (Uniform Resource Identifier);
– mobilità utente: grazie alle informazioni inviate dall’utente in fase
di registrazione, la rete riesce ad
instradare dinamicamente le chiamate verso il terminale da cui
l’utente ha effettuato la registrazione, ovunque esso sia;
– forking: nel caso in cui un utente si
registri su più terminali contemporaneamente, i server in rete possono instradare le chiamate su tutti i
terminali secondo un ordine prestabilito.
Utilizzando queste funzionalità è possibile realizzare numerosi servizi convergenti che integrano le comunicazioni vocali e multimediali ed i dati.
Nuove applicazioni si rendono, così,
disponibili sia per l’utente consumer
(messaggistica unificata, telefonia IP,
nomadismo, etc.) sia per l’utente business (IP-PBX, IP-Centrex, Web Call
Center, telelavoro, teledidattica, etc.).
I fattori che hanno decretato la fattiva
affermazione del protocollo SIP sono:
l’integrazione con i restanti protocolli Internet, la scalabilità, la semplicità,
il supporto alla mobilità ed alla comunicazione collaborativa e unificata
e la semplicità di sviluppo delle applicazioni che adottano questo protocollo. Proprio per queste caratteristiche, è opinione di molti che SIP costituisca, per le comunicazioni real-time ciò che il protocollo HTML è stato,
in passato, per la navigazione
web16.
2.3 Problematiche di qualità del
servizio
Oltre alla problematica dell’occupazione di banda e della qualità del segnale vocale derivante dalla codifica
scelta, vi sono altri fattori che influenzano la buona riuscita di una conversazione vocale su una rete a commutazione di pacchetto. Prima di tutto, un aspetto da considerare riguarda il ritardo di trasmissione (delay).
Il delay è dato dalla risultante di tre
componenti: il tempo di trama (necessaria per la codifica), il tempo di
elaborazione (in codifica e in decodifica) ed il tempo di trasporto dei
pacchetti. I primi due tempi sono
pressoché deterministici, mentre il
tempo di trasporto è variabile. Prima
di tutto, il tempo di trasporto è la somma dei tempi di impacchettamento a
monte e di ricostruzione a valle, del
tempo di propagazione del segnale
(particolarmente sentito nelle reti mobili) e del tempo di attraversamento
della rete. Quest’ultimo, in particolare, presenta la variabilità intrinseca
delle reti a commutazione di pacchetto, non essendo stato stabilito a
monte un circuito. Difatti, a differenza
delle reti a commutazione di circuito,
non è garantito che i pacchetti seguano sempre lo stesso percorso dall’origine alla destinazione e, soprattutto in caso di congestione, i pacchetti potrebbero subire ritardi variabili (jitter). Al fine di ridurre i disagi in
ricezione, si procede, pertanto, ad
una bufferizzazione del segnale, introducendo una nuova componente
di ritardo. Diventa, allora, fonda-
16
Nortel White Paper, SIP: Enabling real-time communications effectiveness for today’s virtual enterprise, 2004.
12
Ingegneri
Napoli
ingegneri_napoli_2010-2:Layout 1
13/07/2010
mentale trovare il giusto compromesso tra le varie componenti in gioco,
ossia complessità di calcolo dell’algoritmo di compressione, banda occupata, qualità della voce, numero di
pacchetti scartati (perché ricevuti
troppo tardi rispetto al tempo di bufferizzazione) e massimo ritardo end
to end accettabile.
Per quanto riguarda il ritardo end to
end, secondo la raccomandazione
ITU G.114, esso dovrebbe essere inferiore ai 150 ms e comunque non
superiore ai 400 ms, limite oltre il
quale il segnale vocale non è più
comprensibile da chi lo riceve. Una
latenza end to end compresa tra i
150 ed i 400 ms può causare fenomeni di eco, per i quali si rende necessario adottare appositi meccanismi di cancellazione dell’eco. Per
quanto riguarda il jitter, invece, secondo il 3GPP17, lo stesso deve essere inferiore ad 1 ms, mentre la percentuale di pacchetti errati o scartati
per eccessivo ritardo deve essere inferiore al 3%18.
Alla base di molti dei problemi di
qualità dei servizi VoIP c’è la natura
tipicamente best effort della rete Internet, nonché delle reti locali (ad
esempio Ethernet o Wi-Fi). Per le reti
locali, l’IEEE ha definito lo standard
802.1p, che aggiunge informazioni
a livello data-link per la definizione
di otto livelli di priorità del traffico.
Per le reti geografiche, invece, in attesa della migrazione verso IPv6, che
offre meccanismi più evoluti per la
gestione della qualità del servizio, è
possibile, già con IPv4, utilizzare il
campo Type of Service dell’intestazione del pacchetto IP al fine di definire 64 classi di priorità su ogni sin-
12.17
Pagina 13
golo pacchetto. Questa tecnica è conosciuta come DiffServ (Differentiated
Services) e risulta particolarmente
scalabile, motivo per cui è stata preferita a protocolli come RSVP (Resource reSerVation Protocol), che consente di riservare le risorse di rete per
comunicazioni per le quali è necessaria una maggiore qualità.
Per le reti mobili le caratteristiche richieste per la buona riuscita di una
conversazione VoIP possono essere
talvolta difficili da raggiungere, soprattutto in condizioni di frequenti
handover e di non eccellente ricezione del segnale. Proprio questa è una
delle motivazioni per le quali alcuni
operatori mobili potrebbero optare
per l’introduzione di limitazioni mirate all’utilizzo di applicazioni VoIP sulle proprie reti: la difficoltà nel garantire una buona qualità del servizio.
Peraltro, lo sviluppo delle reti mobili
di terza generazione e la diffusione
sempre maggiore di dispositivi ad alte velocità su protocolli come HSDPA,
consentono di ottenere buoni se non
ottimi livelli qualitativi anche per il
VoIP su rete mobile ed in futuro assisteremo a miglioramenti sempre maggiori, con le reti di quarta generazione, le cosiddette reti Long Term
Evolution (LTE). All’interno di edifici
con una ricezione non eccellente,
poi, si potrà optare o per lo sfruttamento di reti wireless (sono state definite apposite procedure di seamless
handover perché ciò avvenga in modo pressoché trasparente per l’utente) oppure l’utilizzo diffuso della tecnologia a femtocelle19, che, se diffusa, potrebbe risolversi anche in un discreto risparmio, in termini di backhauling20, per il gestore mobile.
17
Il Third Generation Partnership Project (3GPP) è un accordo di collaborazione fra enti che
si occupano di standardizzare sistemi di telecomunicazione in diverse parti del mondo.
18
Cfr.: 3GPP TS 26.071, AMR speech codec: general description.
19
Una femtocella è una stazione radio base “in piccolo” che, connessa tramite connessione broadband (ad es. ADSL) si connette alla rete dell’operatore mobile, fungendo da ripetitore nella zona circostante (in genere per coprire una casa o un piccolo ufficio).
20
In una rete mobile, il backhaul è il tratto di rete che collega la stazione radio base alla
dorsale.
numero
tecnologia
marzo-luglio
2010
2
13
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.17
Pagina 14
3. Il VoIP come fattore abilitante nella
convergenza fisso-mobile
Diversi operatori hanno già adottato
il VoIP per arricchire le proprie offerte (sia business che residenziali) nell’ottica di fornire una rosa di servizi
“convergenti” su reti IP. È il caso, ad
esempio, delle recenti offerte “triple
play”, con telefonia fissa, Internet e
TV proposte da diversi operatori di
rete fissa. In prospettiva, sempre il
VoIP potrà essere protagonista delle
future offerte “quadruple play”, che
prevedono, in aggiunta al “triple
play” anche la convergenza fisso-mobile (FMC).
La convergenza fisso-mobile è un’esigenza sempre più sentita dagli utenti, oltre ad essere un potenziale volano per la creazione di nuove opportunità di business, sia per gli operatori già presenti sul mercato, sia per
nuovi player che potrebbero entrare
sul mercato in modo altamente competitivo.
Fino ad ora, le offerte commercializzate e vendute come “convergenti”
sono state soluzioni ibride basate sulle reti cellulari, attribuendo all’utente
una numerazione geografica aggiuntiva, la quale viene deviata su
un’utenza cellulare se la stessa è attiva in una specifica cella. In tal modo,
la sensazione dell’utente è quella di
avere un unico dispositivo in grado
di ricevere sia telefonate cellulari,
sia, in una zona ristretta nell’intorno
della propria abitazione o del proprio ufficio, telefonate di rete fissa.
Si prevede che in futuro, oltre alle reti di telefonia cellulare, i dispositivi
possano utilizzare anche le reti Wi-Fi
domestiche o aziendali (e quindi anche le reti fisse), le reti WiMAX in corso di implementazione ed i tanti hotspots Wi-Fi che si vanno via via diffondendo. Difatti, sempre più, gli
smartphone di nuova generazione offrono la possibilità di fruire di reti
2G, 3G e di reti wireless (terminali
multimodali). Il VoIP può costituire il
modo migliore per unificare, sotto
un’unica numerazione di un unico gestore, in modo convergente e traspa-
14
Ingegneri
Napoli
rente per l’utente, le comunicazioni
vocali (ma non solo) originate attraverso questa molteplicità di punti
d’accesso alla rete Internet. In tal modo, si possono ottenere risparmi non
indifferenti per gli utenti e si possono
configurare nuove opportunità di business per gli operatori, sia di rete fissa, sia di rete mobile.
Anche per gli operatori la FMC ottenuta per mezzo del VoIP può costituire un importante risparmio, con la
possibilità di erogare servizi sia fissi
che mobili attraverso un unico sistema centralizzato: il cosiddetto IMS
(IP Multimedia System), al quale è
delegata l’attività di convogliamento
delle comunicazioni su un’unica rete. In tal modo, si otterrebbe una
maggiore flessibilità nella gestione
delle reti e la riduzione di duplicazioni, una remotizzazione sempre
più spinta delle attività di monitoraggio e manutenzione della rete, con
conseguente riduzione dei costi. Sul
versante corporate e SOHO (Small
Office Home Office), è possibile ottenere significativi vantaggi, anche
economici, dalla possibilità di offrire
servizi IP-PBX e IP-Centrex, rendendo
più flessibili o addirittura virtualizzando i centralini telefonici. In questo modo, quella che normalmente
era una dotazione infrastrutturale
delle aziende, può a tutti gli effetti divenire un servizio, con un vantaggio
per i fornitori di servizio ed un risparmio per le aziende, che possono evitare investimenti infrastrutturali
e costi manuntentivi e logistici, potendosi maggiormente concentrare
sul proprio business, secondo il paradigma Infrastructure as a Service.
Infine, sempre in ambito corporate,
grazie alla comunicazione in mobilità integrata, si possono ottenere significativi e veloci ritorni d’investimento associati, oltre che ai risparmi, anche al migliore supporto alla
produttività. Anche scenari di remotizzazione delle postazioni lavorative e di telelavoro possono trovare
nel VoIP e nella convergenza fissomobile il fattore abilitante che in passato mancava.
ingegneri_napoli_2010-2:Layout 1
13/07/2010
4. Scenari futuri
Come previsto da molti analisti, assisteremo, negli anni, ad uno spostamento delle comunicazioni vocali dalle reti a circuito sempre più verso le
reti a commutazione di pacchetto. Il
successo del VoIP si configurerà come una sfida per gli operatori già
presenti sul mercato ed appariranno
nuovi fornitori di servizi di comunicazione vocale su rete IP. Inoltre, è opinione diffusa tra gli analisti che si assisterà ad una spinta sempre maggiore verso la convergenza fisso-mobile e ad un successo sempre maggiore delle offerte quadruple play.
Per quanto riguarda il mercato europeo, dalla relazione annuale del
2009 dell’Agcom si evince come nel
2008 sia proseguito il processo di sostituzione dei servizi voce tradizionali
su rete fissa con il VoIP. Per quanto sia
ancora complicato misurare i volume
di traffico VoIP, soprattutto per le chiamate “PC to PC”, secondo i dati Agcom le chiamate originate su protocollo IP rappresenterebbero, in media, l’8% del traffico di telefonia fissa
in Europa, seppure con alcune rilevanti differenze. Francia e Olanda,
difatti registrano la più alta percentuale di utenti di tale servizio: l’Olanda mantiene posizioni di leadership
con il 32% delle chiamate VoIP sul totale chiamate fisse, cui segue la Francia con il 27%. Secondo l’Agcom,
dietro l’uso ancora limitato di tale servizio in altri paesi europei emerge sia
la scarsa consapevolezza dei consumatori dei vantaggi economici del
VoIP, sia il limitato incentivo ad usarlo, connesso con la bassa diffusione
delle reti a larga e larghissima banda.
La penetrazione del VoIP in Europa è
comunque particolarmente alta nelle
12.17
Pagina 15
aziende: secondo IDC21, infatti, nel
2009 quasi la metà delle aziende europee (il 45%) hanno adottato il VoIP
per le loro comunicazioni.
Secondo Gartner22 entro il 2019,
grazie allo sviluppo delle reti di quarta generazione (WiMAX e LTE), il
50% delle comunicazioni vocali mobili saranno effettuate attraverso tecnologia VoIP e gli analisti consigliano agli operatori mobili di iniziare a
pensare a come affrontare questa
transizione e alle forme di cooperazione o di partnership con fornitori di
altri tipi di servizi. Anche i giganti di
Internet, come Google o Yahoo, ma
anche i social network, come Facebook e Myspace, dovrebbero iniziare a pensare di fornire anche servizi
vocali, utilizzando le reti degli operatori mobili e le reti Wi-Fi.
Gli attuali operatori, ed in particolare gli operatori di rete mobile, hanno, attualmente, una posizione privilegiata sul mercato, ma la spinta sempre più forte verso il VoIP tende a rendere sempre più forte la competizione in un mercato dove, prima, chi
non aveva a disposizione l’infrastruttura per il trasporto delle comunicazioni vocali doveva accontentarsi di
una nicchia. Andando sempre più
verso una rete di trasporto completamente IP, la voce diventa semplicemente una delle applicazioni che dovrà interagire e, spesso, competere,
con le restanti (dati, video, etc.) sulla
stessa rete. La tendenza mostrata dagli utenti, difatti, è quella di muoversi
rapidamente verso una comunicazione multicanale e sempre più asimmetrica: la voce è stata via via affiancata, e talvolta surclassata, da nuove
forme di comunicazione (SMS, chat,
e-mail, instant messaging, social networking ma anche videochiamate e
videconferenze). La rapida diffusione
21
R. Cornelissen, C. Barnard, European WAN Manager Survey 2009: European Attitudes
to VoIP Services, IDC, 2010.
22
T. J. Hart, A.K. Sharma, Emerging Technology Analysis: Mobile Portal VoIP, Global Consumer Communications Services, Gartner, 2009.
numero
tecnologia
marzo-luglio
2010
2
15
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.17
Pagina 16
di dispositivi always on-always connected, ossia sempre connessi alla rete Internet, congiuntamente al successo delle diverse opzioni e promozioni commercializzate dagli operatori mobili sono la testimonianza tangibile di questa tendenza ad una visione unificata della comunicazione,
dove assume una sempre maggiore
importanza il concetto di presence,
ossia l’essere connessi e notificarlo ai
propri contatti (o ad una parte di essi). La diffusione sempre più larga di
software per dispositivi mobili come
Fring o Nimbuzz, che integrano l’accesso a siti di social networking, servizi di instant messaging e servizi
VoIP su protocollo SIP, è un chiaro
esempio dell’orientamento degli utenti in tal senso.
Gli operatori già presenti sul mercato, per essere davvero competitivi nel
lungo termine, dovrebbero evitare di
cedere alla tentazione di snaturare
la neutralità della rete introducendo
filtri per date tipologie di traffico o
privilegiandone altre; dovrebbero,
piuttosto, iniziare a pensare alle comunicazioni in modo più olistico, fornendo soluzioni sempre più integrate
ai propri clienti. In questo, i fornitori
di servizi VoIP dovrebbero essere visti come preziosi partner, anziché come competitor, arricchendo l’offerta
anche grazie a nuove virtuose alleanze. Peraltro, una simile tendenza
a stabilire alleanze per arricchire
l’offerta mobile con servizi sempre
più integrati di messaggistica istan-
tanea (ad es. MSN Messenger) e di
social networking (ad es. Facebook,
Myspace, etc.) è stata già sperimentata con successo, con la predisposizione di bundle comprendenti quote
di messaggi IM o accesso a condizioni economiche facilitate a siti di
social network in offerte co-branding
o anche branded23. Secondo Idate24,
gli utenti di servizi di social networking da rete mobile, nel 2012, saranno un bilione.
Sul fronte dei nuovi player, invece, è
plausibile che si assista sempre più
ad una penetrazione degli operatori
concessionari di frequenze WiMAX,
che potranno incalzare gli operatori
mobili 3G sul fronte della convenienza in termini economici, della
lotta al digital divide e, soprattutto,
della convergenza. Grazie al Voice
over Wi-Fi, difatti, potranno bypassare del tutto le reti mobili dei tradizionali operatori o, in ogni caso, tendere ad instaurare partnership con
operatori mobili virtuali (MVNO) o
diventarlo essi stessi, offrendo ai propri clienti nuovi servizi integrati e
convergenti, costituendo così una minaccia per gli attuali operatori mobili. Per evitare una simile eventualità, invece di limitare il traffico VoIP,
gli operatori dovrebbero sfruttare
questa tecnologia per arricchire la
propria offerta, stabilendo opportune partnership con i fornitori di servizi VoIP, così come già fatto per i
servizi di social networking e di instant messaging.
23
Alcuni operatori mobili hanno optato, in passato, per la creazione di community alternative con il proprio marchio, ma con scarso successo.
24
P. Carbonne, S. Nakajima, The future of mobile communications. New communication
methods to preserve revenue growth, Idate, 2009.
16
Ingegneri
Napoli
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.17
Pagina 17
IRENE:
LA POSTINA DELLE STELLE
Studio di una piccola capsula di rientro in grado di
riportare sulla Terra carichi utili limitati da orbita LEO
Il programma IRENE (Italian Re-Entry
NacellE) ha lo scopo di studiare una
piccola capsula di rientro in grado di
riportare sulla Terra carichi utili limitati, in termini di massa e volume, da
orbita LEO (Low Earth Orbit).
Tale sfida tecnologica è oggi diventata concreta con l’avvio di uno studio per conto dell’ASI (Agenzia Spaziale Italiana), da parte di un folto
gruppo di aziende Campane (riunite
all’interno consorzio ALI). Sin dalla
nascita dell’iniziativa è stato evidente come tutte le competenze necessarie al buon esito del progetto fossero
reperibili nella nostra regione. Ciò dimostra come il settore aerospaziale
sia un campo in cui la Campania
possa vantare realtà di eccellenza, in
grado di competere a livello internazionale. La compagine progettuale è
molto eterogenea e si avvale del
Know-How di piccole realtà locali
specializzate in settori di nicchia ad
elevata tecnologia (Euro.Soft, Foxbit,
TES), della forza della grande impresa (Telespazio e ITS) e della supervisione scientifica di istituti di ricerca
sia pubblici che privati (con la partecipazione del CIRA e del Dipartimento di Ingegneria Aerospaziale
della Federico II).
Il progetto si inquadra in un contesto
più ampio, relativo ai sistemi di rientro che in breve, a causa della fine
del programma Space Shuttle, resterà appannaggio delle sole capsule
russe Soyuz TMA. In tale contesto,
IRENE rappresenta un sistema riutilizzabile, a basso costo e sviluppabi-
le in breve tempo per svolgere diverse tipologie di missioni.
L’intenzione alla base del progetto è
quella di verificare la fattibilità e realizzare un sistema di rientro di piccole dimensioni e massa limitata basato sulle più moderne tecnologie aerospaziali.
Le principali caratteristiche della capsula saranno:
– La riutilizzabilità del sistema. Il modulo che rientrerà in atmosfera potrà essere riutilizzato per una successiva missione, previo un opportuna sostituzione delle parti gonfiabili od umbrella like e/o refurbishment delle parti danneggiate
durante il rientro e l’impatto. Si noti come l’economicità del sistema
entri in gioco qualora l’analisi degli aspetti ricorrenti possa essere
confrontabile con quelli non-ricorrenti a fronte di uno scenario di utilizzo di più missioni.
– La capacità di riportare a terra carichi utili. Si pensi alle possibili applicazioni anche in altri ambiti
quale il rientro da LEO ad uso Space Station, applicazione attualmente (e raramente) impiegata attraverso la capsula Raduga montata sopra veicoli Progress opportunamente modificati.
– Struttura di protezione termica gonfiabile umbrella-like. Le protezioni
ed il controllo termico rappresentano un aspetto cruciale per il progetto in quanto applicazione di
tecnologie e metodologie note e/o
in sviluppo (sistemi di protezione a
numero
marzo-luglio
2010
Renato Aurigemma
Ingegnere
Coordinatore Commissione Aerospaziale
Ordine Ingegneri Napoli
Nicola Cimminiello
Ingegnere
“
IRENE rappresenta
un sistema riutilizzabile, a
basso costo e sviluppabile
in breve tempo per svolgere
diverse tipologie di
missioni
”
2
17
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.17
Pagina 18
Ipotesi di layout della capsula IRENE
ombrello gonfiabili) in scenari
avanzati quali i sistemi di rientro.
– Strutture composite. Utilizzo di materiali innovativi come elementi portanti del veicolo in tali applicazioni.
Lo studio preliminare si propone di
delineare la fattibilità dell’intero progetto e di ottenere come prodotto un
dimostratore ingegneristico, soprattutto per la parte relativa al sistema
ISS
18
Ingegneri
Napoli
di protezione termica. Il dimostratore
sviluppato consentirà di effettuare
prove nella Galleria del Vento ipersonica al Plasma Scirocco presso il
Centro Italiano Ricerche Aerospaziali (CIRA), atte a validare sul campo i
risultati teorici ottenuti dallo studio.
Irene potrebbe essere impiegata in
missioni di Earth-Observation, per
eseguire test, o missioni limitate nel
tempo.
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.17
Pagina 19
Galleria del Vento Scirocco
Contesto programmatico
e applicativo
Sin dalla nascita del programma ISS
(International Space Station) si è posta in evidenza la dicotomia tra la
quantità, di payload trasportabile a
bordo della stazione (upload) (con
svariati mezzi), rispetto alla quantità
trasportabile dalla stazione a terra
(download). I mezzi disponibili per
l’upload sono:
– Space Shuttle (con o senza MPLM)
Soyuz TMA (versione attuale della
capsula russa a tre posti);
– Progress M (versione da trasporto,
a perdere, della Soyuz);
– ATV (veicolo logistico europeo a
perdere);
– HTV (veicolo logistico giapponese
a perdere).
Finora il massimo possibile, in termini di payload, per il download è ottenibile dallo Space Shuttle il quale
sarà ritirato dal servizio nel 2012.
Considerando che sia la Progress M
che l’ATV non sono stati progettati
per rientrare nell’atmosfera l’unico
modo possibile per far tornare a terra
del carico scientifico dalla ISS è affidato al modulo di rientro russo della
Soyuz TMA, il quale può allocare al
massimo qualche decina di kg.
Questa scenario lascia un “buco”
causato dalla uscita di scena dello
Shuttle, fino all’avvento della prossima generazione di veicoli spaziali
abitati americani (Orion) ed europei
(ATV Manned) di almeno cinque anni per quel che concerne la possibilità di poter far rientrare a terra carichi significativi, in termini di peso,
dalla Stazione Spaziale Internazionale.
In tal senso una capsula IRENE potrebbe esercitare un ruolo molto utile,
potendo essere utilizzata come “postino” dalla ISS grazie alla sua capacità di consentire il recupero di piccoli payload in sezione pressurizzata
e grazie anche alla sua relativa economicità (rispetto a sistemi grandi e
complessi come quelli “manned”).
Un possibile schema di missione vedrebbe la capsule IRENE arrivare alla ISS in configurazione “piggyback”
(ossia trasportata con un “passaggio” da un altro mezzo) ed in tal senso i candidati sarebbero tre:
– Space Shuttle (con un GAS - Get
Away Special - ospitato nella Cargo Bay) sino al suo “pensionamento”;
– Progress M (agganciata all’estero);
– ATV (agganciata all’estero).
Di qui la capsula potrebbe essere trasferita all’interno di uno dei due Airlock (quello americano “Quest” o
quello russo “Pirs”) per essere caricato con il payload.
Una volta caricata del payload la
capsula IRENE ha due possibili modi
per rientrare a terra:
1. effettuare un rientro in piggyback
con la Progress M o l’ATV;
2. effettuare un rientro autonomo.
numero
tecnologia
marzo-luglio
2010
2
19
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.18
Pagina 20
Nel primo caso si renderebbe necessaria una EVA (Extra-Vehicular Activity), o l’uso di un braccio robotico, per
riagganciare la capsula IRENE al suo
vettore di rientro. Dopo che il vettore
ha effettuato la sua accensione per il
de-orbiting la capsula IRENE si separerebbe da questi ed effettuerebbe un
rientro autonomo mentre il vettore si
distruggerebbe negli strati alti dell’atmosfera.
Nel secondo caso la capsula IRENE
dovrebbe essere equipaggiata con
un proprio motore di deorbiting, sistema di controllo dell’assetto e sistema di guida attiva.
Il primo caso è vantaggioso perché
consente di risparmiare il peso del
modulo di servizio nonché un complesso flyaround della ISS (complesso e potenzialmente rischioso) ma pone dei limiti al rientro della capsula
IRENE in zone disabitate (generalmente ATV e Progress M vengono fatti deorbitare sopra l’Oceano Pacifico) rendendo così complesso e costosa l’operazione di recupero.
Nel secondo caso si può ipotizzare
un rientro pilotato e quindi diretto verso una zona “conveniente” dal punto
di vista del recupero, come potrebbe
Profilo di missione IRENE-Space Mail
Rientro Autonomo
20
Ingegneri
Napoli
essere il bacino del Mediterraneo,
ma impone l’utilizzo di un modulo di
servizio e l’effettuazione di una manovra di separazione e flyaround della ISS la quale deve essere attentamente studiata per evitare, al massimo, i rischi di collisione.
In ogni caso, una volta rientrata nell’atmosfera, la capsula IRENE sarebbe recuperata dal team di terra e trasportata al centro di gestione del veicolo per le operazioni di recupero
del payload.
Il vantaggio di avere una capsula IRENE versione “space mail” sarebbe
quello di poter far scendere dei carichi utili scientifici e non in tutta sicurezza, non implicando l’utilizzo di
vettori manned, in tempi diversi da
quelli imposti dalle operazioni con
equipaggio umano e con una frequenza maggiore (considerando
quante Progress M ed ATV vengono
lanciati all’anno).
Il programma IRENE
Lo studio preliminare assegnato ad
ALI scarl ha lo scopo di investigare
tutti gli aspetti configurativi, costrutti-
ingegneri_napoli_2010-2:Layout 1
13/07/2010
vi ed operativi del progetto IRENE prima della loro effettiva progettazione.
Lo studio di sistema serve a congelare la configurazione, a delineare pesi, dimensioni e prestazioni della
capsula, ad analizzare i principali
sottosistemi, a definire un profilo di
missione e a scegliere i vettori per il
lancio. La capsula dovrà avere le seguenti caratteristiche di base:
– massa al lancio dell’ordine di 100120 kg;
– struttura portante realizzata in materiali compositi;
– sistema di protezione termica (TPS)
che consenta la riutilizzabilità della capsula;
– vita operativa superiore a 3 anni;
– tempi di produzione ricorrente non
superiori a 12 mesi;
– lanciatori compatibili: Shtil-2, o altri lanciatori commerciali (ad es.
VEGA);
– orbite LEO, tutte le inclinazioni;
– approccio modulare Capacità di
ripuntamento veloce (agility);
– sistema di propulsione per controllo d’assetto ed orbitale;
– stabilizzazione a 3 assi;
– puntamento inerziale, stellare o
nadirale;
– elevata autonomia di bordo.
Nello specifico lo studio di sistema
prevede di approfondire ed elaborare le seguenti tematiche:
1. analisi di missione;
2. configurazione;
3. aerodinamica e aero-termodinamico;
4. struttura e controllo assetto;
5. scudo di protezione termica;
6. potenza, avionica ed elettronica di
bordo;
7. studio impatto della capsula in fase di atterraggio/ammaraggio.
Nell’ambito della progettazione dei
veicoli spaziali, l’esigenza di un sistema di protezione termica nasce in
tutte le applicazioni in cui un veicolo
spaziale rimane esposto, in certe fasi della missione, ad un ambiente aerodinamico che lo sottopone a sollecitazioni termiche e meccaniche ten-
12.18
Pagina 21
denti a compromettere l’integrità di
strutture ed equipaggiamenti, dei carichi paganti e, nel caso di veicoli
abitati, d’esseri umani. Per descrivere
la fenomenologia caratteristica di tali sollecitazioni è utile riferirsi alla fase di rientro atmosferico.
Durante il rientro in atmosfera, il veicolo perde energia cinetica; questa è
trasformata in energia termica e trasferita al gas che circonda il veicolo.
Il fluido aerodinamico tende a riscaldare mediante convezione, conduzione e radiazione attraverso lo strato limite viscoso che circonda il veicolo, dando luogo al cosiddetto “riscaldamento aerodinamico”.
Di fronte al problema della scelta di
una protezione termica per un veicolo di rientro si parte innanzi tutto dalla tipologia dei materiali scelti e dalla loro modalità operativa secondo i
seguenti meccanismi:
– l’assorbimento del calore incidente
sulla superficie del materiale attraverso un innalzamento della sua
temperatura;
– la reiezione del calore incidente
mediante emissione radiativa della
superficie del materiale;
– passaggi di fase e/o reazioni chimiche di degradazione che assorbono gran parte del calore incidente e che, come ulteriore meccanismo di reiezione del calore,
possono rigettare calore mediante
diffusione di massa fluida che tende ad agire come refrigerante.
Molto spesso la protezione termica è
caratterizzata da uno o più materiali
principali che si oppongono all’input
termico mediante uno dei meccanismi appena citati, e da un materiale
secondario che agisce da isolante tra
la superficie esterna della protezione,
maggiormente sollecitata, e la struttura vera e propria del veicolo.
Pertanto nello studio saranno approfonditi i sistemi di protezione termica
da adottare sulla capsula con particolare attenzione al meccanismo
ablativo.
Per il dimensionamento individuato
per la capsula, lo scudo termico farà
numero
tecnologia
marzo-luglio
2010
2
21
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.18
Pagina 22
uso di materiali ablativi, combinati
con metodi alternativi per diminuire i
flussi termici, quale ad esempio l’ottenimento di un elevato parametro
balistico (Area/massa) attraverso
l’uso combinato di tecnologie innovative quali appendici aerodinamiche dispiegabili e gonfiabili.
Strutture “inflatable” in campo
aerospaziale
Una struttura spaziale gonfiabile è sostanzialmente una sorta di enorme
“camera d’aria” realizzata attraverso una serie di strati di materiali compositi, gomma e nylon il cui scopo è
quello, una volta gonfiata, di garantire un grosso volume pressurizzato in
maniera tale da consentire a degli esseri umani di abitarlo per periodi di
tempo più o meno lunghi. Il lancio del
satellite Genesis 1 (luglio 2006), della società Bigelow Aerospace, inteso
22
Ingegneri
Napoli
come dimostratore tecnologico per
strutture spaziali pressurizzate gonfiabili, ha riaperto l’interesse dell’opinione pubblica per queste ultime.
I vantaggi delle strutture pressurizzate gonfiabili, rispetto a quelle tradizionali in alluminio, sono sostanzialmente legati al basso peso, al grosso
volume ottenibile e dalla loro economicità (ricordiamo che il costo di lancio in orbita terrestre attualmente si
aggira intorno 20.000 euro/kg). Naturalmente le strutture pressurizzate
gonfiabili sono, per contro, più fragili e delicate rispetto a quelle tradizionali ed offrono meno protezione
rispetto alle radiazione ed ai micrometeoriti.
Se ci si chiede, al di là del successo
del lancio del Genesis, se sia possibile realizzare ed utilizzare strutture
pressurizzate gonfiabili, la risposta è
che in passato sono già state realizzate e collaudate con successo più
volte. Storicamente sono stati i russi
ingegneri_napoli_2010-2:Layout 1
13/07/2010
ad inaugurare questa nuova tecnologia, imbarcando a bordo della Voskhod 2 una speciale camera di decompressione gonfiabile, dato che la
capsula Voskhod (derivata dalla Vostok) non poteva essere depressurizzata come le americane Gemini ed
Apollo. Grazie a tale camera di decompressione gonfiabile i russi effettuarono, il 18 marzo 1965, la prima
passeggiata spaziale con Aleksej
Leonov che rimase nello spazio per
12 minuti.
Anche gli americani in quel periodo
studiarono e collaudarono diverse
strutture pressurizzate gonfiabili,
grazie agli sforzi della Goodyear
Aerospace Corporation (GAC) che
nel 1960 realizzò il prototipo di un
habitat gonfiabile, a forma toroidale, di ben 24 piedi di diametro.
Sempre la GAC propose alla NASA
nel 1965, lo STEM, prototipo di un
piccolo ricovero gonfiabile da utilizzare sulla Luna. I due astronauti, scesi sulla Luna con il LEM, avrebbero
potuto utilizzare il rifugio (dotato di
una propria camera di decompressione) per un periodo che varia tra
gli 8 ed i 30 giorni, adeguatamente
protetti sia dalle radiazioni sia dalle
micrometeoriti, il progetto non fu
realizzato a causa della cancellazione delle missioni Apollo a lunga
permanenza.
Agli inizi degli anni ‘80 il Johnson
Space Center della NASA diede il
via al Progetto Spacehab (da non
confondersi con l’omonimo modulo
trasportato all’interno della stiva dello Shuttle), che consisteva nel realizzare una grossa struttura pressurizzata gonfiabile modulare. La struttura avrebbe avuto una forma “a zucca” di 68 piedi di diametro e composta da otto “spicchi” ognuno dei
quali dedicato ad una particolare
12.18
Pagina 23
funzione. Questo progetto fu vittima
dei tagli susseguenti all’incidente occorso allo Shuttle Challenger nel gennaio del 1986.
Più recentemente la SICSA, ente di ricerca del dipartimento di Architettura della Università di Houston, in Texas, ha proposto una base lunare
realizzata in gonfiabile denominata
Lunarhab.
Nel corso degli anni sono state proposte le più svariate applicazioni per
le strutture spaziali pressurizzate gonfiabili, le più verosimili sono quelle
connesse alla realizzazione di habitat interplanetari (sulla Luna o su Marte), oppure come estensioni (in termini di volume) dello spazio pressurizzato dei futuri veicoli interplanetari,
così come la stessa Bigelow Aerospace ha proposto alla NASA per il
Mars Ferry. Naturalmente le strutture
gonfiabili potrebbero trovare un’utile
ed immediata applicazione nell’aumentare il volume pressurizzato disponibile a bordo della Stazione
Spaziale Internazionale, così come il
già proposto Transhab.
Nel campo delle strutture gonfiabili
non pressurizzate, quindi non adatte
all’uomo, sono stati proposti utilizzi
quali antenne, scudi protettivi anti-meteoriti o come protezione per il rientro
nell’atmosfera.
Anche il nostro paese è impegnato
da tempo nella ricerca sulle strutture
pressurizzate gonfiabili, grazie al
programma FLECS avviato dall’Agenzia Spaziale Italiana, la cui
realizzazione è stata affidata alla Alcatel Alenia Space Italia.
In tale contesto scientifico si innesta
l’attività del programma IRENE, che
applicherà tale innovativa tecnologia ad una capsula di rientro riutilizzabile, con peso contenuto e bassi costi.
numero
tecnologia
marzo-luglio
2010
2
23
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.18
Pagina 24
ALGORITMI DI MESSA A
FUOCO DI IMMAGINI
SATELLITARI
Proposta di un’innovativa tecnica di autofocus basata
sull’applicazione dei filtri armonici circolari
Giovanni Amoroso
Renato Aurigemma
Nicola Cimminiello
Ingegneri
“
La misura basata sui
filtri armonici di LaguerreGauss presenta migliori
performance rispetto alle
tecniche tradizionali
”
24
La messa a fuoco degli apparati ottici è un problema molto sentito in diversi campi applicativi, quali la microscopia, l’osservazione della Terra
e dell’universo, la computer vision, la
fotografia, ecc. Tale problema è,
quindi, oggetto di studio da decenni.
Le tecniche per la messa fuoco degli
apparati ottici possono essere classificati in due macrofamiglie: tecniche
attive, che utilizzano sensori in grado di misurare la distanza tra l’oggetto e la camera, e tecniche passive
(che non richiedono la calibrazione
della camera stessa), ma si basano
sull’analisi dell’immagine acquisita.
Un autofocus si definisce attivo quando il dispositivo di acquisizione emette un segnale per riuscire a determinare la distanza del soggetto inquadrato e, di conseguenza, a regolare
la posizione delle lenti. In ambito fotografico tali sistemi sono basati sull’utilizzo di onde sonore o di raggi infrarossi. Il dispositivo dopo aver
emesso il segnale si pone in ascolto
dell’eco, cioè del segnale di ritorno
che viene ricevuto dopo aver colpito
il target. Questo sistema riduce drasticamente i tempi di messa a fuoco.
In altre parole il tempo di messa a
fuoco è sostanzialmente dipendente
dalla meccanica mentre nelle tecniche di messa a fuoco basate sull’analisi numerica di più campioni
della scena, il tempo impiegato per
la messa a fuoco dipende fortemente
dall’elaborazione. Uno svantaggio
che hanno i sistemi di messa a fuoco
attiva rispetto ai sistemi di messa a
Ingegneri
Napoli
fuoco passiva è dovuto alla possibilità di errori dovuti a effetti rifrattivi del
mezzo costituente il campione osservato.
L’autofocus di tipo passivo si basa sull’acquisizione di varie immagini dello stesso campione. Ad ognuna di
queste immagini è associato un indice numerico che rappresenta la qualità della messa a fuoco. In altre parole, viene analizzata l’immagine attraverso un algoritmo matematico che
ha il compito di assegnare una valutazione all’immagine basata sul contenuto informativo.
È noto, infatti, che le immagini non a
fuoco sono prive di dettaglio, inoltre
la luminosità dell’immagine è omogenea e il contrasto è basso, quindi è
difficile riconoscere gli oggetti presenti dallo sfondo. Intuitivamente,
quindi, si può affermare che il processo del de-focusing abbia un comportamento passa basso, che sopprime le alte frequenze. Nel paragrafo
successivo verrà data una spiegazione formale di questo fenomeno.
Se si costruisce un grafico in cui sulle
ascisse è riportata la distanza dell’oggetto dalla lente e sulle ordinate
l’indice calcolato sull’immagine, la
curva ottenuta ha generalmente un
andamento a campana, il cui massimo corrisponde alla posizione di
messa a fuoco ottimale.
È indispensabile che l’indice utilizzato per la calibrazione passiva sia robusto rispetto al rumore introdotto
dall’ottica e dal sensore CCD, per
evitare che ci siano dei falsi massimi
ingegneri_napoli_2010-2:Layout 1
13/07/2010
nella curva del fuoco che possono
portare ad un comportamento anomalo del sistema di messa a fuoco.
In quest’articolo verrà sommariamente descritto il modello di “image defocusing” derivato dall’ottica geometrica e verranno introdotte le tecniche
di auto-focus passive che costituiscono lo stato dell’arte in questo ambito.
Nelle sezioni successive, inoltre, verrà proposta un’innovativa tecnica di
autofocus basata sull’applicazione
dei filtri armonici circolari, le cui performance verranno comparate con lo
stato dell’arte. Alla fine si dimostrerà
come questa tecnica sia un’ottima
candidata per la calibrazione di payload ottici passivi per l’osservazione
della Terra.
1. Modello del processo di sfuocatura
Gaskill e altri negli anni ’70 proposero un modello del processo di defocusing di un’immagine, derivato
dall’ottica geometrica parassiale. In
Figura 2 è mostrato il processo di formazione di un’immagine in un sem-
12.18
Pagina 25
plice sistema ottico. Detto P un punto
appartenente al “piano oggetto” e P’
il corrispettivo punto nel “piano immagine” a fuoco, la relazione che lega P e P’ è detta “equazione della
lente sottile”:
(1)
dove u è la distanza tra il piano della lente e il piano oggetto e v è la distanza tra il piano della lente e il piano immagine. In Figura 2, ID è il sensore (il CCD), D è il diametro di apertura, e s la distanza tra il piano della
lente e il sensore. La distanza s, la
lunghezza focale f e il diametro di
apertura D, vengono detti i parametri
della camera
.
Se P non è messo a fuoco, allora la
sua immagine P’’ sul sensore sarà
una macchia non nitida. Secondo
l’ottica geometrica, la macchia avrà
la forma dell’apertura della lente, ma
scalata nelle dimensioni. Se supponiamo che l’apertura sia di forma circolare, allora anche l’immagine di P
sarà circolare, con un valore di luminosità uniforme all’interno del cer-
Figura 1
Figura 2. Modello della lente sottile, camera
non a fuoco
numero
tecnologia
marzo-luglio
2010
2
25
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.18
Pagina 26
chio. L’immagine sfuocata di P è la risposta della camera alla fonte di luce applicata. Se la fonte di luce è unitaria, tale risposta è detta Point Spread Function (PSF) del sistema ottico. Detto R il raggio della macchia e q un fattore di
scala definito come q = 2R/D, considerando le proprietà dei triangoli simili si
ottiene:
(2)
Sostituendo dalla (1)
(3)
Quindi
(4)
Supponendo che il sistema ottico sia ideale (quindi senza perdite) e che la
macchia abbia luminosità uniforme nel cerchio di raggio R e nulla al di fuori,
la PSF può essere scritta
(5)
Nella pratica se viene acquisita una serie di immagini gi(x,y) di una stessa
scena, con diversi parametri della camera ei, l’ingrandimento dell’immagine
e la luminosità media possono variare, sebbene non sia cambiato nulla nella
scena ripresa. Ad esempio, allontanando la lente dal sensore aumenterà l’ingrandimento e il cambiando il diametro dell’apertura cambierà la luminosità
media.
Supponiamo di poter normalizzare le immagini sia rispetto la luminosità che
rispetto l’ingrandimento. Normalizzare rispetto l’ingrandimento può essere effettuato interpolando e decimando l’immagine, in modo tale che tutte le immagini della serie corrispondano allo stresso campo di vista. Comunque, nella maggior parte delle applicazioni pratiche, i cambi di ingrandimento sono
inferiori al 3% e possono essere trascurati. Senza perdere di generalità, supponiamo che sia la luminosità media che l’ingrandimento siano normalizzati
ad 1. Dopo questa operazione di normalizzazione il raggio della macchia
circolare può essere espresso come funzione dei parametri della camera e e
della distanza u
(6)
La Funzione di Trasferimento Ottico (OTF) corrispondente alla PSF (5) è
(7)
dove ω,ν sono le frequenze spaziali espresse in radianti/unità di distanza, J1
è la funzione di Bessel di prima specie e ρ è la frequenza spaziale radiale. La
(7) rappresenta esplicitamente la dipendenza della OTF dai parametri della camera e e dalla distanza dell’oggetto u.
Nella pratica, però, l’immagine di un punto non è una netta macchia circolare di luminosità costante, come si ricava dall’ottica geometrica. A causa della
diffrazione, delle aberrazioni della lente, ecc. la luminosità della macchia decade gradualmente. In base a queste considerazioni, in letteratura sono pro-
26
Ingegneri
Napoli
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.18
Pagina 27
posti modelli alternativi della PSF; il più usato è una Gaussiana bidimensionale
definita come
(8)
dove r è la deviazione standard della PSF. Si dimostra che r è legato a R da
un fattore di proporzionalità costante c, pari approssimativamente a 1/√2. La
OTF corrispondente a una PSF gaussiana è
(9)
dove
(10)
Il processo di de-focusing di un’immagine ha, quindi un comportamento passa-basso, cioè un’immagine non a fuoco non ha dettagli definiti e nitidi. In
conclusione, quindi, il processo di messa a fuoco di un’immagine può essere
modellato come una serie di filtraggi gaussiani, in cui il “grado di fuoco” è controllato dalla deviazione standard σ del filtro applicato.
2. Stato dell’arte degli algoritmi di autofocus
Molte tecniche di Autofocus sono state analizzate in letteratura; in queste tecniche si definisce una misura che tiene conto di determinate caratteristiche dell’immagine, si acquisiscono quindi un certo numero di immagini e si assume
come immagine a fuoco quella che presenta la misura più grande. In altre parole, quando la lente dell’obiettivo si sposta da un estremo all’altro, la misura
di Autofocus aumenta gradualmente, raggiunge un massimo in corrispondenza della posizione di fuoco e quindi diminuisce (Figura 1). Il problema di trovare la posizione di messa a fuoco per la lente diventa pertanto un problema
di ricerca di un massimo. È essenziale quindi che, al fine di facilitare la fase
di ricerca, la misura deve essere:
– monotona con la sfocatura (decrescente all’aumentare della sfocatura)
– accurata (il massimo assoluto deve ricadere in corrispondenza dell’immagine a fuoco)
– unimodale (non devono esserci ulteriori punti di massimo locale oltre al punto di massimo assoluto).
Queste tecniche prendono spunto dalle considerazioni fatte nella sezione precedente riguardo della funzione di trasferimento ottica; in particolare, il processo di de-focusing di un’immagine ha un comportamento di tipo passa-basso, cioè tende a sopprimere le alte frequenze che in un’immagine corrispondono ai bordi, alle brusche transizioni, in generale ai dettagli. Le misure del
grado di messa a fuoco di un’immagine si basano quindi sull’anali del contenuto frequenziale dell’immagine stessa.
Molti metodi sfruttano la trasformata di Fourier per l’ispezione del contenuto frequenziale dell’immagine, ma data la complessità di questo algoritmo, non le
rendono misure papabili per applicazioni real-time e quindi non verranno prese in considerazione in tale lavoro.
Gli operatori basati sulle derivate di un segnale si comportano come filtri passa alto e hanno una complessità molto bassa. In letteratura è spesso suggerita come misura del grado di messa a fuco l’energia del Laplaciano [1] dell’immagine stessa. Tale misura va, quindi, ad analizzare il contenuto alle alte
numero
tecnologia
marzo-luglio
2010
2
27
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.18
Pagina 28
frequenze dell’immagine. Purtroppo il Laplaciano è estremamente sensibile al
rumore di cui inevitabilmente è affetta un’immagine acquisita con un sensore
CCD.
Il metodo di Tenengrad [2], invece, nasce con il presupposto di migliorare il
calcolo del gradiente nel contesto di immagini rumorose. La presenza di rumore infatti rende molto critica la misura di Autofocus in quanto le componenti
spettrali in alta frequenza sono molto sensibili ai disturbi; d’altro canto l’operatore gradiente è sintonizzato proprio sulle alte frequenze, per cui si intuisce
come sia necessaria una azione preventiva di soppressione del rumore. A tal
proposito si può risolvere il problema facendo precedere il calcolo delle derivate da uno smoothing dell’immagine, e un operatore differenziale basato su
questa filosofia è ad esempio il gradiente di Sobel.
Altri algoritmi, invece, sfruttano le proprietà della trasformata wavelet [3] per
l’ispezione del contenuto frequenziale dell’immagine. L’analisi wavelet di
un’immagine prevede la sua scomposizione in diverse sottobande: supponendo di scegliere un solo livello di decomposizione, si otterrà la banda LL, che
rappresenta il contenuto dell’immagine in bassa risoluzione, e le bande LH, HL
e HH, che sono le bande dei dettagli (corrispondenti alle alte frequenze); ai fini di una misura di Autofocus saranno proprio queste a dare l’informazione sul
grado di messa a fuoco. Il vantaggio dell’analisi wavelet è che essa può essere implementata tramite un banco di filtri separabili, quindi presenta una
complessità estremamente bassa.
Un ultima tipologia di algoritmi analizzata nel presente lavoro utilizza i momenti dei polinomi discreti di Chebyshev [4]. L’ordine dei momenti è legato alle frequenze spaziali; precisamente, momenti di ordine “basso” corrispondono alle basse frequenze dell’immagine, mentre momenti di ordine “alto” sono
sintonizzati sulle alte frequenze. Partendo da tale proprietà, è possibile utilizzare i polinomi di Chebyshev per eseguire misure di messa a fuoco; infatti se
si considerano polinomi di ordine non troppo elevato si può analizzare il contenuto spettrale delle medie frequenze, le quali oltre che possedere informazioni sul grado di sfocatura sono anche più robuste al rumore.
Nelle sezioni successive verrà presentata una nuova misura basata sull’anali
dell’immagine mediante filtri armonici circolari.
3. Armoniche Circolari
Un’immagine può essere sviluppata secondo una successione ortonormale costituita da invarianti per operatori di rotazione [5]. Se infatti si considera un’immagine f appartenente allo spazio di funzioni sommabili in R2, essa può essere
rappresentata in coordinate polari come
(11)
dove ξ = (ξ1, ξ2) è il centro del sistema di coordinate polari (r, θ). Si definisce
funzione armonica circolare (CHF) di ordine n una funzione polarmente separabile della forma
(12)
Le armoniche circolari godono di due proprietà particolari [6]:
1. Hanno una diversa risposta alle primitive dell’immagine in funzione dell’indice n di modulazione angolare dell’armonica.
In Figura 3.a è mostrato un pattern di riferimento, mentre in Figura 3.b è riportato (andando da sinistra a destra) il modulo dell’uscita di filtri armoni-
28
Ingegneri
Napoli
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.19
Pagina 29
Figura 3
ci circolari di ordine 1, 2, 3 e 4. In Figura 3.c sono poi evidenziati i picchi
del modulo dell’uscita dei filtri: si noti come al variare dell’ordine del filtro
l’energia del segnale venga concentrata in punti diversi. Le armoniche di ordine uno sono sintonizzate sull’armonica fondamentale dei bordi (cioè in
quelle zone dell’immagine dove si ha un’alternanza nel valore di luminanza), le armoniche di ordine due sulle linee (due alternanze), le armoniche
del terzo ordine, invece, sugli gli incroci di tre linee, le triadi, mentre le armoniche del quarto ordine sono sintonizzate sull’armonica fondamentale
degli incroci.
2. Dallo studio della trasformata di Hankel di queste funzioni si ricava una seconda interessante proprietà: ogni CHF di ordine n può essere facilmente
ruotata di un angolo ϕ semplicemente moltiplicando per un fattore complesso ejnϕ. Questa proprietà è nota in letteratura come self-steerability
(13)
La proprietà di self-steerability implica che solo la fase dell’uscita di un filtro armonico è modificata dalla rotazione dell’immagine, come si evince
dall’esempio di Figura 4, dove uno stesso pattern di riferimento è stato ruotato di 30° e 60° (prima colonna di Figura 4): nella colonna centrale è riportato il modulo dei coefficienti dell’uscita di un filtro armonico circolare di
ordine uno, mentre nella colonna di destra la fase. Il valore del modulo dell’uscita della decomposizione resta costante nei tre esempi di Figura 4, mentre l’informazione sulla rotazione del pattern si trasferisce completamente
alla fase.
Figura 4
numero
tecnologia
marzo-luglio
2010
2
29
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.19
Pagina 30
Nella formulazione precedente il profilo radiale dipende dall’immagine. Una
rappresentazione più generale può essere ottenuta espandendo il profilo radiale hn(r) in un set di funzioni ortogonali: una possibile base per questa espansione sono i polinomi di Laguerre generalizzati. Le funzioni armoniche circolari di Laguerre-Gauss
sono definite come:
(14)
dove
sono i polinomi di Laguerre generalizzati di indice n e ordine k.
In Figura 5 è raffigurata la parte reale e quella immaginaria di queste funzioni: si noti come la parte immaginaria può essere ottenuta ruotando quella reale di 90°.
Figura 5
4. Misura di autofocus basata su armoniche circolari
Le armoniche circolari hanno in frequenza un comportamento passabanda e
quindi possono essere sfruttate per definire una misura del grado di autofocus
che sia estremamente robusta al rumore:
(15)
dove f(x,y) è una generica immagine discreta. A questo punto è necessario
determinare l’ordine n e k dei filtri da considerare. Nelle simulazioni effettuate abbiamo verificato che:
1. All’aumentare dell’ordine n e k dei filtri la misura risulta essere meno robusta al rumore. Ciò è intuitivamente spiegabile dal fatto che, come visto nella sezione precedente, le armoniche circolari di ordine diverso sono sintonizzate su diverse features dell’immagine. All’aumentare dell’ordine i filtri sono accordati su quelle features che vengono maggiormente corrotte dal rumore (incroci, triadi, ecc.) e ciò comporta una minor robustezza della misura. Questo fenomeno è indicativamente mostrato in Figura 6 e Figura 7.
2. All’aumentare del numero di filtri considerato aumenta il tempo necessario
per calcolare la metrica, senza un consistente miglioramento delle performances.
In base a queste due considerazioni la metrica è stata in ultimo definita come:
.
30
(16)
Ingegneri
Napoli
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.19
Pagina 31
Figura 6. Immagine Lena con rumore gaussiano con deviazione standard pari a 10 e sue
decomposizioni nelle sottobande (n=1,k=0),
(n=4,k=0) e (n=7,k=0) rispettivamente
Figura 7. Immagine Lena con rumore gaussiano con deviazione standard pari a 10 e sue
decomposizioni nelle sottobande (n=1,k=0),
(n=4,k=0) e (n=7,k=0) rispettivamente
5. Risultati sperimentali
È stata condotta un’esaustiva campagna di test sulla misura proposta per confrontarne le performance con lo stato dell’arte.
Gli esperimenti sono stati condotti su di un database [7] di 38 immagini aeree digitalizzate messo a disposizione dall’USC-SIPI (University of Southern
California, dipartimento di Signal and Image Processing Institute) finalizzato
a sostenere la ricerca nell’elaborazione e l’analisi delle immagini e nella visione industriale.
Per effettuare un confronto oggettivo tra le varie misure si è utilizzato un indice di merito, che permettesse di valutare le performance dei diversi algoritmi.
In letteratura sono proposti molti metodi per valutare le prestazioni delle misure di messa a fuoco.
Per simulare il processo di messa a fuoco, ad ogni immagine del database è
stato applicato una serie di filtraggi gaussiani con deviazione standard crescente. Se si considera, per la singola immagine, la curva che si costruisce va-
numero
tecnologia
marzo-luglio
2010
2
31
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.19
Pagina 32
Figura 8. Esempio di immagini estratte dal
database utilizzato
lutando la misura di Autofocus al crescere del grado di sfocatura, lo score è il
metodo che tiene conto di vari fattori di merito, quali:
– intervallo di unimodalità (range);
– numero di falsi massimi (number of false maxima);
– larghezza (width).
In particolare, l’intervallo di unimodalità è la distanza tra il minimo locale più
vicino alla condizione di fuoco; il numero di falsi massimi corrisponde al numero di massimi locali che si presentano durante la fase di misura, mentre la
larghezza è definita come la distanza alla quale si trovano i punti la cui ampiezza è il 50% del valore massimo (Figura 9). Ciò premesso, lo score è dato da
Figura 9
32
dove max .range è l’ampiezza dell’intervallo di analisi, corrispondente al numero totale di posizioni che la lente può assumere nella pratica. Quindi più
basso è il valore dello score, migliori sono le performance dell’algoritmo.
In Figura 10 è riportato l’andamento della media dello score calcolato applicando un processo di sfuocatura sintetica a tutte le immagini del database, all’aumentare dell’intensità del rumore gaussiano applicato, per la misura proposta e per quelle allo stato dell’arte. In Figura 11 sono riportati i risultati dello stesso esperimento, in questo caso applicando rumore sale & pepe con densità crescente.
Per bassi valori di rumore la misura proposta presenta mediamente un valore
dello score più alto. Abbiamo verificato che tale comportamento è dovuto a un
valore di width più elevato e non alla presenza di falsi estremi. All’aumentare
del rumore (caso più vicino alle applicazioni reali) le performance del metodo
proposto sono nettamente superiori. Nel caso di rumore sale & pepe (tipico dei
sensori CMOS) la tecnica proposta dimostra delle performance nettamente superiori allo stato dell’arte.
La metrica proposta si candida quindi, ad essere un algoritmo per la calibrazione di payload ottici per l’osservazione della Terra.
Un ultimo test è stato svolto su di un processo di messa a fuoco reale e non simulato: una serie di immagini di una stessa scena sono state catturate variando il fuoco di una fotocamera. Il sistema di acquisizione è costituito da una fotocamera Canon 450D montata su un treppiedi metallico, controllata da remoto con un PC attraverso il software Remote Capture; le immagini sono state acquisite con sensibilità ISO 800 in condizioni di bassa luminosità. Impostando la messa a fuoco manuale, e controllando quest’ultima attraverso il software di controllo in dotazione, sono state acquisite in totale 12 immagini a piena risoluzione (4272 × 2848) della stessa scena con vari gradi di sfocatura
(Figura 12). Gli autori, ad una successiva ispezione visiva, hanno determinato che l’immagine a fuoco fosse la decima della serie.
Ingegneri
Napoli
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.19
Pagina 33
Figura 10
Figura 11
Figura 12. Esempio delle 12 immagini
acquisite
In Figura 13 si riportano, pertanto, i
risultati ottenuti post-processando le
immagini acquisite con gli algoritmi
descritti in precedenza; sull’asse delle
ascisse è riportato il numero dell’immagine della serie acquisita, mentre
sulle ordinate il valore della misura
calcolato per ogni immagine. Come
si evince dalla Tabella 1, la misura
basata sui filtri armonici di LaguerreGauss presenta migliori performance
rispetto alle tecniche tradizionali; pertanto si può concludere che tale tecnica sia estremamente affidabile.
numero
tecnologia
marzo-luglio
2010
2
33
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.19
Pagina 34
Figura 13. Le misure sono state normalizzate
al fine di un confronto visivo. Si noti che la metrica basata sui polinomi di Chebishev (curva
azzurra), addirittura fallisce l’identificazione
dell’immagine a fuoco
Tabella 1. Valori dello score calcolati per
l’esperimento su immagini reali
Metrica
Lagurre-Gauss
Tenengrad
Laplaciano
Wavelet
Chebishev
34
Score
6,00
7,00
12,04
12,04
12,53
6. Riferimenti
1. Subarrao, M., Choi, T., Nikzad, A.: Focusing tecnique. Proc SPIE-Int. Soc. Opt.
Eng (1992) 163-174.
2. Tenebaund, J.: Accomodation in Computer Vision. Ph.D. Dissertation (1970)
Standford University.
3. Kautsky, J., Flusser, J., Zitov, B., Simberov, S.: A new wavelet-based measure of
image focus. Pattern Recognition Letters
23 (2002) 1785-1794.
4. Yap, P., Raveendran, P.: Image focus
measure based on chebyshev moments.
IEEE Proc.-Vis. Image Signal Process 151
(2004) 128-136.
Ingegneri
Napoli
5. Neri, A., Iacovitti, G.: Maximum likelihood localization of 2-d patterns in the
gauss-laguerre transform domain: Theoretic framework and preliminary results.
IEEE Transaction on Image Processing 13
(2004) 72-86.
6. Sorgi, L., Cimminiello, N., Neri, A.: Keypoints selection in the gauss laguerre
transformed domain. In Proc. Of the British Machine Vision Conference (2006)
Edimburgh, UK.
7. http://sipi.usc.edu/database/database.cgi?volume=aerials.
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.19
Pagina 35
VALUTAZIONE DELLA
RIDUZIONE DEL LIVELLO DI
VULNERABILITÀ SISMICA DI UN
EDIFICIO ESISTENTE IN C.A.
TRAMITE DISACCOPPIAMENTO
DEI PANNELLI MURARI
Il presente lavoro rappresenta la sintesi di una prima fase di analisi teorico-sperimentale sulla mitigazione della vulnerabilità sismica di strutture esistenti, svolta dal gruppo di studio e ricerca coordinato e coadiuvato dal Prof. Ing. Mario
Pasquino, presso il Dipartimento di Ingegneria Strutturale dell’Università degli
Studi di Napoli Federico II.
D. Cancellara
Dottorando in Ingegneria delle Costruzioni,
Università degli Studi di Napoli Federico II
D. Siniscalco
1. Introduzione
L’Italia è un paese caratterizzato da
una pericolosità sismica, ovvero la
frequenza e l’intensità dei fenomeni
sismici, medio-alta, e da una vulnerabilità delle costruzioni esistenti particolarmente elevata. L’aspetto legato
alla vulnerabilità, è una conseguenza diretta della qualità scadente delle costruzioni, sia in termini di materiali e particolari costruttivi sia in termini di concezione strutturale.
Larga parte del territorio è a rischio
sismico, ma solo una bassissima percentuale di edifici ricadenti in tali
aree, è stato progettato utilizzando
criteri antisismici. Inoltre, le costruzioni più datate in zona sismica, sono state progettate e realizzate con
riferimento a norme ormai obsolete,
non in grado di garantire una sicurezza paragonabile a quella che si
potrebbe assicurare applicando le attuali Norme Tecniche. Tali edifici andrebbero necessariamente adeguati
per dare loro la possibilità di fronteggiare le azioni derivanti dal terremoto di progetto.
In questo lavoro, si adotterà un approccio agli spostamenti (DBA - Displacement Based Approach) per la
valutazione della resistenza e della
vulnerabilità sismica di un edificio in
c.a., in vista di un suo adeguamento
mediante tecniche tradizionali e/o innovative. Tale metodologia è inserita
nell’ottica di un approccio prestazionale (PBA – Performance Based Approach) cui le attuali norme simiche
fanno riferimento.
In particolare, il lavoro verterà sulla
descrizione dettagliata del processo
di valutazione, mediante analisi statica non lineare, di un edificio situato
in una zona ad alta sismicità, quale
la Sicilia sud-orientale, in provincia di
Siracusa, progettato per soli carichi
gravitazionali, con lo scopo di valutarne l’inadeguatezza nei confronti
del sisma secondo le prescrizioni delle attuali normative. Nella fase di valutazione della vulnerabilità sismica,
è stato considerato l’effetto delle tamponature sulla struttura, modellando
in regime non lineare tutti quei pannelli murari ritenuti efficaci. Nel caso
in esame, l’effetto della tamponatura
ha determinato un peggioramento
del comportamento sismico della
struttura esistente e qualora tali tamponature non fossero state considerate, come spesso accadde, illudendosi in un suo generalizzato effetto
numero
marzo-luglio
2010
Libero professionista
D. Buccafusca
Libero professionista
“
È sembrato
opportuno disaccoppiare i
pannelli murari dalla
struttura intelaiata, in
modo che la struttura
risulti nuda senza quindi
alcuna interazione
significativa con le
tamponature
”
2
35
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.20
Pagina 36
benefico, avrebbe orientato la progettazione su un intervento di adeguamento completamente diverso e
non rispondete alle reali esigenze
della struttura esistente. In altre parole, se le tamponature fossero state trascurate nella modellazione, non si sarebbero apprezzati meccanismi di
collasso fragili, come si vedrà ampiamente in seguito, e si sarebbe progettato un intervento di adeguamento
come se la struttura di riferimento fosse differente da quella che realmente
si vorrebbe adeguare.
Figura 2. Spettri elastici in accelerazione
Figura 1. Qualità scadente dei materiali da costruzione e difetti di progettazione di strutture
esistenti
Figura 3. Spettri elastici in spostamento
36
Ingegneri
Napoli
2. Il caso di studio
Il fabbricato, oggetto del presente studio, è situato in provincia di Siracusa
(lat. 37.175, long. 14.991). Di seguito si riporta la caratterizzazione
dell’azione sismica, secondo le NTC
2008, attraverso gli spettri di risposta elastici in termini di accelerazione
e spostamenti per gli Stati Limite considerati: SLC, SLV e SLD.
L’edificio è costituito complessivamente da sette livelli adibiti a civile
abitazione con copertura a falda pia-
ingegneri_napoli_2010-2:Layout 1
13/07/2010
na praticabile. La struttura portante è
realizzata da travi e pilastri a sezione rettangolare in conglomerato cementizio armato ed è costituita da
quattro telai paralleli lungo l’asse X. I
telai trasversali lungo l’asse Y non sono presenti ad eccezione di quelli
esterni di chiusura del perimetro. I
due nuclei scala sono ubicati lungo i
lati corti della pianta dell’edificio, alle estremità opposte, in maniera simmetrica. L’edificio, progettato per soli carichi verticali, è caratterizzato da
una concezione “gravitazionale”, e
presenta simmetria rispetto ad entrambi gli assi di riferimento (X e Y).
– Lunghezza totale lungo l’asse X
(Lx): 30.00 m
– Lunghezza totale lungo l’asse Y
(Ly): 15.00 m
– Numero di piani: 7
– Luce campate direzione X: 5.00 m
– Luce campate direzione Y: 5.00 m
– H interpiano: 3.00 m
– H totale: 21.00 m
– Numero campate direzione X: 6
– Numero campate direzione Y: 3
– Solai orditi nella direzione trasversale (lungo l’asse Y).
La valutazione è stata effettuata considerando gli impalcati infinitamente
rigidi, credendo efficace la presenza
della soletta di ripartizione nel solaio.
I pilastri si rastremano in elevazione,
12.20
Pagina 37
mentre le sezioni delle travi, tutte
emergenti, sono le stesse per ogni impalcato e misurano 30x50 cm. Si riportano i prospetti architettonici, nonché le pinte piano terra e piano tipo.
Tali prospetti permettono di comprendere le motivazioni che hanno portato a ritenere solo alcune tamponature
efficaci, nel modello di calcolo.
Sulla base degli approfondimenti effettuati nella fase conoscitiva, si individua il cosiddetto Livello di Conoscenza e conseguentemente si definisce il parametro da adottare come
coefficiente parziale di sicurezza,
che tiene conto delle carenze e/o incertezze dei parametri del modello di
struttura che si vuole costruire. Tale
coefficiente è il Fattore di Confidenza (FC).
Questo particolare coefficiente parziale di sicurezza, dipende dalla
“quantità” e “qualità” dei dati acquisiti sul fabbricato esistente e sarà applicato alle proprietà dei materiali
per le verifiche di sicurezza. Inoltre il
Livello di Conoscenza determina anche il metodo di analisi strutturale che
si può utilizzare.
Per il caso in esame, la disponibilità
di informazioni raggiunta con riferimento a geometria, dettagli costruttivi e proprietà dei materiali, consente
di definire un livello di conoscenza
dell’edificio del tipo LC2, che defini-
numero
ricerca
marzo-luglio
2010
Figura 4. Pianta 1° piano; sezione trasversale
2
37
ingegneri_napoli_2010-2:Layout 1
13/07/2010
Figura 5. Prospetti architettonici
Figura 6. Pianta piano terra, piano tipo
38
12.21
Pagina 38
sce un fattore di confidenza, da doversi adoperare nelle verifiche di sicurezza, pari a FC=1.20. Tale FC
consente l’utilizzo di qualsiasi tipo di
analisi e pertanto, ai fini del presente lavoro, sarà possibile adottare
l’analisi statica non lineare.
I materiali utilizzati presentano le seguenti caratteristiche, precisando che
le valutazioni sono state effettuate
considerando come resistenze di riferimento, quelle medie:
– calcestruzzo: fcm = 18 N/mm2
(MPa) (resistenza media cilindrica
a compressione);
– acciaio: fym = 275 N/mm2 (MPa)
(tensione di snervamento media).
Le tamponature sono realizzate in
mattoni forati a doppia fodera con
camera d’aria, per uno spessore delle parti in laterizio di 12 + 8 cm, con
posa a fori orizzontali; la percentuale di foratura dei laterizi è superiore al 55%. In seguito ad un esame diretto i corsi orizzontali e verticali di malta sono risultati di buona
qualità.
Delle tamponature presenti, solo alcune possono essere definite “efficaci”, ossia tali da garantire una certa
rigidezza e resistenza alle azioni
orizzontali nonostante le scarse caratteristiche meccaniche dei materiali con cui sono state realizzate.
Ingegneri
Napoli
È evidente l’irregolarità in elevazione
delle tamponature, causata da una
diversa disposizione al piano terra rispetto ai piani superiori. Al livello più
basso sono stati collocati i garage,
mentre la parte rimanente è porticata; ne consegue che, al primo livello,
le tamponature si estendono solo parzialmente.
Analizzando la posizione dei pannelli ai piani superiori al primo, si nota che la maggior parte delle tamponature sono efficaci in direzione trasversale nei due telai di estremità e
sono disposti in modo pressoché continuo su tutti i piani. Nella campata
centrale dei due telai di estremità, le
tamponature si estendono tra due pilastri con luce libera di inflessione dimezzata rispetto alle altre due pilastrate, a causa della presenza della
trave di interpiano e inoltre, non sono
efficaci per tutta l’altezza di interpiano per la presenza di aperture.
In direzione longitudinale le tamponature efficaci si collocano in corrispondenza dei telai di estremità, solo al primo livello e sul lato longitudinale del vano scale.
A causa della presenza del porticato
in direzione longitudinale, solo quattro maglie del telai esterni in direzione longitudinale sono tamponate al
primo livello. Le tamponature efficaci
poste in corrispondenza del vano
ingegneri_napoli_2010-2:Layout 1
13/07/2010
scale sono invece presenti su tutta l’altezza dell’edificio.
Non si ritengono efficaci quelle tamponature arretrate che non sono quindi inserite in alcuna maglia strutturale. Rientrano in tale tipologia, tutti i
pannelli murari in direzione longitudinale in corrispondenza dei livelli superiori al primo.
Si potrà osservare nelle immagini relative alla modellazione della struttura, le tamponature considerate efficaci nel modello di calcolo.
3. Metodo di analisi per la
valutazione della risposta sismica
I codici sismici consentono di utilizzare analisi elastiche lineari (statiche
e dinamiche) che pur con i relativi limiti, risultano ancora procedure largamente diffuse.
Un’alternativa, già introdotta anche
in normativa, è l’uso di procedure di
analisi non lineari (statiche e dinamiche) che consentono stime più realistiche ed affidabili della risposta strutturale. In effetti, è sempre più frequente la loro applicazione sia nella
progettazione che nella verifica strutturale.
Nel caso oggetto di studio, trattandosi di un edificio esistente, con non
poche incertezze sulla proprietà geometriche e meccaniche della struttura, si è preferito non scomodare
l’analisi dinamica non lineare con la
sua maggiore complessità rispetto all’analisi statica non lineare. L’utilizzo
di uno strumento così complesso e sofisticato, quale l’analisi dinamica non
lineare non sarebbe stato giustificato
a fronte delle incertezze strutturali di
cui prima si è accennato.
Pertanto, l’analisi adottata è stata la
statica non lineare che oltretutto conserva la notevole semplicità d’uso e
di interpretazione dei risultati.
Questo tipo di analisi comprende essenzialmente due aspetti:
1. la determinazione di un legame
forza-spostamento (curva di capacità o curva pushover), rappresentativo del reale comportamento
12.21
Pagina 39
monotono della struttura, la cui definizione richiede un’analisi di
spinta;
2. la valutazione dello spostamento
massimo o punto prestazionale
(performance point) raggiunto dalla struttura a fronte di un evento sismico definito tramite uno spettro di
risposta elastico in accelerazione.
L’analisi di spinta consente di descrivere il comportamento della struttura
tramite un semplice legame monodimensionale forza-spostamento, quale
appunto la curva di capacità della
struttura.
Tale curva è solitamente espressa, in
termini di taglio alla base (Vb) e spostamento in sommità (Dt) (Figura 7)
che rappresenta appunto la capacità
esibita dal sistema a fronteggiare
una certa azione esterna.
Analizzando la risposta di strutture
reali, è necessario semplificare il problema, linearizzando a tratti la risposta del sistema, e quindi la sua
curva di capacità, adottando approssimazioni bilineari come mostrato a titolo di esempio in Figura 7.
Sono disponibili numerosi criteri per
bilinearizzare la curva di capacità.
Al fine di verificare la capacità di
una struttura di sopportare un terremoto mediante un confronto tra la
sua capacità deformativa e gli spostamenti richiesti dal sisma, senza però incorrere nelle difficoltà operative
connesse all’uso dell’analisi dinamica non lineare, sono state proposte
in letteratura varie metodologie “displacement based”: ad esempio il
metodo dello spettro di capacità oppure (CSM) o il metodo N2.
I metodi statici non lineari oggi consentiti dalle normative per la valutazione della risposta sismica delle
strutture si basano sostanzialmente
sul metodo N2. Le differenze che si
riscontrano tra questi, sono essenzialmente dovute al diverso modo
con cui il legislatore ha voluto rendere più agevole il loro impiego. Il metodo statico non lineare proposto dall’O.P.C.M. 3431 e successivamente
dalla NTC 2008 segue abbastanza
numero
ricerca
marzo-luglio
2010
Figura 7. Profilo di carico in un’analisi di spinta. Linearizzazioni bilineari della curva di capacità
2
39
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.21
Pagina 40
Figura 8. Metodo N2 nel piano ADRS (Acceleration Displacement Response Spectrum)
Figura 9. Valutazione della Domanda di spostamento per il sistema SDOF (sistema ad 1 g.d.l.)
e per il sistema MDOF (sistema a più g.d.l. rappresentate la struttura oggetto di studio)
fedelmente la formulazione originaria del metodo N2, proposta da Fajfar (1999).
4. Modellazione non lineare della
struttura
Nella schematizzazione dell’edificio
sono state introdotte alcune ipotesi,
ossia:
– trascurare gli elementi non strutturali: vengono considerati come
non strutturali (e perciò non vengono modellati) le tramezzature interne, le tamponature esterne con
un’alta percentuale di foratura e
quelle arretrate che non sono quindi inserite in alcuna maglia strutturale;
– considerare ciascun impalcato come infinitamente rigido nel proprio
piano;
– assumere uno schema costituito da
un insieme spaziale di telai piani;
questo implica che gli assi delle
aste che si uniscono in un nodo
convergano in un punto;
– considerare la struttura incastrata
al piede e trascurando le interazioni col terreno.
La modellazione dell’edificio è stata
condotta a plasticità concentra, con
l’utilizzo del programma agli elementi finiti SAP2000 v.10/14 che ha
40
Ingegneri
Napoli
permesso di definire ed assegnare in
modo opportuno le cerniere plastiche. La struttura portante dell’edificio
è costituita da pilastri, travi e tamponature resistenti; non sono presenti
pareti strutturali in grado di resistere
a taglio. Il vano scale viene modellato con una trave di interpiano sulla
quale si va ad innestare la soletta
rampante, mentre i solai, pur essendo elementi resistenti, vengono tenuti
in conto mediante l’inserimento un
vincolo mutuo di rigidità tra i nodi del
telaio spaziale che giacciono nel suo
stesso piano, riproducendo quindi
l’ipotesi di impalcato rigido. Gli elementi che compongono il telaio in
c.a. vengono rappresentati con elementi frame, in grado di reagire alle
sollecitazioni assiali, flettenti e taglianti.
Per quanto riguarda i pannelli di tamponatura, si è inserito un elemento
frame, dotato unicamente di rigidezza assiale, che collega i vertici opposti della maglia strutturale in cui il
pannello è inserito. Tale elemento diagonale non connette esattamente il
punto di incontro degli assi del telaio,
ma si innesta sul pilastro ad una distanza pari ad un quindicesimo della
sua altezza. Nelle figure seguenti sono riportate delle immagini dell’edificio, dove in giallo sono rappresentati gli elementi in c.a. e in blu le tamponature con il modello a puntone
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.22
Pagina 41
diagonale equivalente, nel caso di analisi monotona da sx verso dx.
4.1. Le tamponature
Il comportamento della tamponatura non può essere descritto andando a definire un legame sforzo-deformazione per il materiale che lo compone; infatti
a seconda dell’intensità del carico cambiano i meccanismi resistenti ed una
porzione di muratura può essere considerata “inattiva” (ossia non soggetta al
flusso di sforzi di compressione) in base alla sua posizione rispetto alla diagonale principale.
Si giunge quindi alla conclusione che per descrivere in modo appropriato il
comportamento di una tamponatura si debba ricorrere ad una curva scheletro,
ossia ad una relazione globale valida per l’elemento nel suo insieme e che definisce il legame tra la forza imposta e lo spostamento da esso subito.
Per la modellazione numerica dei pannelli, viene proposto il modello di puntone equivalente di Panagiotakos e Fardis con l’associazione di un legame del
tipo forza-spostamento per il pannello in muratura sottoposto a soli carichi laterali.
La curva scheletro che rappresenta tali relazioni, definisce tre rami che si riferiscono ai meccanismi che governano il comportamento della tamponatura:
una prima parte non fessurata in cui è preponderante la resistenza a taglio,
poi un tratto post-fessurazione in cui prevalgono le compressioni, ed una parte finale di softening in cui viene meno la resistenza del pannello; inoltre, viene considerata nulla la resistenza a trazione dell’elemento.
I parametri che, in base alle caratteristiche della muratura, definiscono i tre rami della curva nella fase di compressione sono ben evidenziati nel modello.
Si precisa che la larghezza efficace del puntone è stata valutata con la formula
di Mainstone valida per pannelli in laterizio di forma rettangolare:
Figura 10. Telaio esterno (a)
Figura 11. Telaio interno (b)
dove:
– hw è l’altezza del pannello;
– dw è la lunghezza del puntone;
– lw è la lunghezza del paramento murario;
– tw è lo spessore del paramento murario;
– θ è l’inclinazione del puntone rispetto l’orizzontale;
– Ew è il modulo elastico a compressione assunto pari a 2500 MPa;
– Ec è il modulo elastico del calcestruzzo;
– Ip è l’inerzia effettiva dei pilastri adiacenti.
Figura 12. Telaio esterno (c)
Figura 14. Curva del legame definito da Panagiotakos-Fardis.
rigidezza del tratto iniziale non fessurato:
R1 = Gw ⋅ tw ⋅ lw/hw
carico di fessurazione:
Fy = fws ⋅ tw ⋅ lw
rigidezza del secondo tratto:
R2 = Ew ⋅ tw ⋅ bw/dw
carico massimo:
Fm = 1,3 ⋅ Fy
rigidezza del tratto di softening:
R3 = (0,01÷ 0,10) ⋅ R1
carico residuo dopo la rottura:
Fu = 0,1 ⋅ Fy
(Ew = 2500 MPa; Gw = 600 MPa; fws = 0,30 MPa)
numero
ricerca
marzo-luglio
2010
Figura 13. Vista 3D con modellazione tamponature ritenute efficaci
2
41
ingegneri_napoli_2010-2:Layout 1
13/07/2010
Figura 15. Legame momento-curvatura sezione
in c.a.
12.22
Pagina 42
Le bielle equivalenti non vengono posizionate esattamente negli angoli
della maglia, ma sono traslati verso il
basso, a contatto col pilastro, in modo da tener conto del fatto che il contatto tra pannello e puntone equivalente non è puntiforme, ma si estende
per una lunghezza teorica z.
È stata assegnata una cerniera assiale, attraverso le hinge properties,
posta in una generica posizione della diagonale, in cui il legame forzaspostamento adottato, differisce da
quello presentato da Panagiotakos &
Fardis soltanto per il terzo tratto, per
il quale si trascura il comportamento
degradante. Tale scelta, comunque
conservativa, è dettata dal voler migliorare la stabilità numerica del programma di calcolo e non avere problemi di convergenza dei risultati.
Inoltre, nel modello di calcolo, si sottrae l’aliquota elastica, definendo
quindi il solo campo plastico, tramite
un comportamento rigido-plastico. Infatti, la risposta elastica, viene determinata automaticamente dal programma di calcolo, in base alle proprietà meccaniche del materiale e alle caratteristiche geometriche dell’elemento.
4.2. Travi e pilastri
La modellazione a plasticità concentrata prevede che tutti gli elementi costituenti la struttura rimangano sempre in campo elastico e che vengano
introdotti, alle estremità di questi, elementi cerniera con comportamento
anelastico laddove si preveda la formazione di una cerniera plastica. La
non linearità della struttura rimane
quindi concentrata in zone prestabilite della struttura.
La caratterizzazione meccanica della cerniera plastica è effettuata, assumendo come riferimento il comportamento non lineare della sezione di
estremità dell’elemento attraverso il
legame momento curvatura e della luce di taglio.
In generale, il comportamento non lineare della sezione di estremità di
travi e pilastri, definito dal legame
momento-curvatura, può sintetica-
42
Ingegneri
Napoli
mente esprimersi mediante una legge
quadrilineare definita da:
1. una fase elastico-lineare fino alla
formazione della prima fessura
(Φcr, Mcr);
2. una fase fessurata durante la quale si registra la formazione di ulteriori fessure fino allo snervamento
(Φy, My);
3. una fase post-elastica definita da
una notevole diminuzione di rigidezza con conseguente aumento
di deformabilità sino all’attingimento del valore massimo di resistenza flessionale (Φmax, Mmax);
4. una fase di degrado (softening)
caratterizzata da una diminuzione di resistenza e da una elevata
capacità deformativa sino al raggiungimento della rotazione ultima (Φu, Mu).
Per definire il diagramma momento –
rotazione (M - θ ) di una cerniera plastica, sono stati valutati i seguenti
punti caratteristici: rotazione di yielding (θy); rotazione ultima (θu); momento di cracking (Mcr); momento di
yielding (My).
La rotazione di snervamento θy è valutata come somma di tre aliquote:
contributo flessionale; contributo tagliante; contributo per scorrimento
delle barre longitudinali, secondo
quanto dettato dalle NTC 2008.
Per quanto riguarda la rotazione ultima, si utilizza l’espressione fornita
dalle NTC 2008 relativa alla formulazione sperimentale. Si precisa che,
si è trascurato il contributo del confinamento, data l’incertezza circa il
corretto posizionamento delle staffe e
l’incertezza sulla loro chiusura.
È utile precisare che nella modellazione al SAP2000, è stata sottratta
l’aliquota elastica dalle rotazioni di
yielding e dalla rotazione ultima
poiché tale valore viene automaticamente calcolato dal SAP2000 attraverso la rotazione di estremità
dell’elemento frame cui sono applicate le due cerniere plastiche. Si
precisa inoltre che, il legame M - θ
è simmetrico per i pilastri, ma non
per le travi.
ingegneri_napoli_2010-2:Layout 1
13/07/2010
Per ogni pilastro sono state definite 4
cerniere plastiche, mentre per ogni
trave 2, per un totale di 1348 cerniere plastiche per l’intera struttura intelaiata.
Particolare attenzione è stata adottata per la definizione delle cerniere
plastiche dei pilastri in corrispondenza del vano scala e in particolare
quei pilastri in corrispondenza della
trave di interpiano. Per tali elementi,
la luce da considerare sarà pari ad h
(altezza d’interpiano) per la definizione delle cerniere plastiche secondo la direzione X, mentre sarà h/2
per la definizione delle cerniere plastiche secondo la direzione Y. In tal
modo si riesce a considerare l’effetto
del pilastro tozzo, in direzione Y, in
seguito alla presenza della trave di
interpiano del vano scala.
5. Analisi dello stato di fatto
La capacità di una struttura di resistere ad un evento sismico, dipende
fortemente dalla sua capacità deformativa in regime anelastico, ovvero
dalla sua duttilità. Tali aspetti è possibile valutarli tramite l’analisi statica
non lineare adottata.
Al modello della struttura vengono
applicate due distribuzioni di forze
orizzontali definite come:
– distribuzione delle forze di piano
proporzionale al prodotto delle
masse di piano per lo spostamento di piano relativo al I modo di vibrare: questa distribuzione di forze è rappresentativa della risposta
dinamica della struttura in campo
elastico;
– distribuzione delle forze proporzionale alla sola massa di ciascun
piano: tale distribuzione è rappresentativa del comportamento dinamico della struttura in campo plastico.
La Domanda di sollecitazione e di deformazione è rappresentata sulla curva di capacità in corrispondenza dei
valori relativi alla massima domanda
in termini di spostamento della strut-
12.22
Pagina 43
tura soggetta ai diversi terremoti di
progetto. Per eseguire questa operazione si adotta il metodo N2 nella
formulazione
prevista
dalle
NTC2008. Tramite la curva di capacità si è in grado di valutare la domanda della struttura sia in termini di
resistenza sia in termini di deformabilità.
La Capacità in termini di spostamento, viene valutata sulla curva di capacità, ritenendo raggiunto lo SLD
quando la rotazione in una generica
cerniera plastica è tale che θ = θy; lo
SLV quando θ = 3/4θu; lo SLC quando θ = θu.
Si riporta nel seguito i risultati relativi
alla struttura in presenza ed in assenza di tamponatura.
5.1. Struttura Tamponata (ST)
Le analisi statiche non lineari sono
state condotte indipendentemente, secondo le due direzioni principali, imponendo all’edificio:
– un set di forze agenti in direzione
longitudinale (E-O);
– un set di forze agenti in direzione
trasversale (N-S).
In ciascuna direzione sono state considerate due possibili distribuzioni di
forze orizzontali e quindi il numero
di analisi complessive eseguite è stato 4, essendo la struttura simmetrica
in entrambe le direzioni. Tali analisi
sono siglate: Mode X; Masse X; Mode Y; Masse Y.
Per ciascuna di queste analisi, con riferimento agli stati limite considerati,
è stata valutata la Domanda di spostamento a valle di una procedura
che ha previsto la determinazione di
un sistema SDOF bilineare equivalente; la determinazione della risposta massima in spostamento del sistema bilineare equivalente; la conversione del valore di spostamento relativo al sistema SDOF equivalente, nello spostamento del sistema MDOF
(spostamento massimo effettivo sulla
struttura analizzata). Una volta trovato lo spostamento effettivo per lo SL
considerato, si procede alla verifica
di compatibilità degli spostamenti per
numero
ricerca
marzo-luglio
2010
2
43
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.23
Pagina 44
Figura 16. Curva pushover MODE X
Figura 17. Telai interessati dalla crisi delle tamponature
Figura 18. Rottura dei pannelli di tamponatura (step A)
Figura 19. Meccanismo di piano del telaio con
tamponature in crisi (step B)
44
elementi/meccanismi duttili e delle resistenze per gli elementi/meccanismi
fragili.
Per saggiare il livello di vulnerabilità
della struttura e quindi il livello di inadeguatezza all’azione sismica prevista dalla norma, si calcola un Fattore
di Sicurezza (FS) come rapporto tra
la Capacità di spostamento e la Domanda di spostamento per lo SL richiesto.
Si riportano per ovvi motivi di spazio,
le sole analisi allo Stato Limite di Collasso con riferimento alla distribuzione di forze orizzontali proporzionale
al prodotto delle masse di piano per
lo spostamento di piano relativo al I
modo di vibrare che risulta essere la
distribuzione più penalizzante. Si evidenzia la Domanda di spostamento
allo SLC e si sintetizza in Tabella 1 la
proceduta adotta per giungere alla
valutazione del Fattore di Sicurezza
(FS).
Si riporta inizialmente l’analisi in direzione X e successivamente l’analisi
in direzione Y. In ultima battuta viene
sintetizzata la valutazione sismica
della struttura, tabellando i valori FS
sia allo Stato Limite di Collasso sia allo Stato Limite di salvaguardia della
Vita.
5.1.1. Analisi allo Stato Limite di Collasso (SLC) – direzione X
A valle dell’analisi statica non lineare
si ottiene la seguente curva di capacità, di cui si evidenziano i due step
più significativi, indicati rispettiva-
Ingegneri
Napoli
mente con step A e step B. Si evidenzia anche la domanda di spostamento allo SLC.
Dall’analisi della curva pushover si
nota che per uno spostamento di 7.8
cm, corrispondente allo step A, si ha
la rottura dei pannelli di tamponatura
al secondo, al terzo e al quarto impalcato come è chiaramente mostrato nella Figura 18.
Dalla Figura 19 si nota che a causa
della crisi dei pannelli di tamponatura, si crea un meccanismo di piano
con collasso della struttura (step B)
per raggiungimento della rotazione
ultima delle cerniere plastiche all’estremità dei pilastri, relativi al quarto impalcato.
Ai fini della sola bilinearizzare della
curva pushover che presenta un drop
in corrispondenza dello step A, si è
scelta una curva di riferimento, a vantaggio di sicurezza, che non considera i pannelli di tamponatura che
hanno raggiunto la rottura, sin dall’inizio dell’analisi di spinta.
Tutto ciò, è stato necessario per facilitare la bilinearizzazione della curva e conseguentemente il calcolo della domanda di spostamento. Tale
semplificazione, poiché considera un
sistema SDOF equivalente più deformabile, comporta una stima più conservativa della domanda di spostamento.
Di seguito si riportano le caratteristiche del sistema bilineare equivalente, relativo al sistema SDOF e la valutazione della domanda di sposta-
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.23
Pagina 45
Figura 20. Curva pushover del sistema MDOF,
SDOF e bilinearizzazione
Tabella 1. Domanda e capacità di spostamento.
Fattore di Sicurezza
mento secondo quanto prescritto dalle NTC 2008.
5.1.2. Analisi allo Stato Limite di Collasso (SLC) – direzione Y
Si riportano i risultati dell’analisi pushover, nella direzione trasversale
che sappiamo essere quella più deformabile e quindi di maggiore vulnerabilità per l’intera struttura.
Dall’analisi della curva pushover si
nota che per uno spostamento di 7.5
cm (step A), si ha la rottura di alcuni
pannelli di tamponatura al secondo
e al terzo impalcato come è chiaramente mostrato nella Figura 22, mentre per uno spostamento di 8.1 cm si
ha la rottura di ulteriori pannelli al secondo impalcato.
Dalla Figura 23 si nota che a causa
della crisi dei pannelli di tamponatura, si crea un meccanismo di piano
al terzo impalcato (step B).
Di seguito si riportano le caratteristiche del sistema bilineare equivalente
relativo al sistema SDOF e la valutazione del livello di vulnerabilità con
il relativo valore del FS.
Figura 21. Curva pushover MODE Y
numero
ricerca
marzo-luglio
2010
2
45
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.24
Pagina 46
Figura 25. Curva pushover del sistema MDOF, SDOF e bilinearizzazione
Figura 22. Rottura dei pannelli di tamponatura (step A)
Tabella 2. Domanda e capacità di spostamento–Fattore di Sicurezza
Figura 23. Meccanismo di piano del telaio con
tamponature in crisi (step B)
Si riporta una tabella riassuntiva dei
Fattori di Sicurezza delle analisi effettuate, nelle due direzioni, per le
due distribuzioni di forze orizzontali e per i due Stati Limite Ultimi considerati. Si evita di riportare i risultati relativi allo SLD, solo perché decisamente meno penalizzanti rispetto a quelli relativi allo Stato Limite
Ultimo.
Dall’analisi dei Fattori di Sicurezza,
si osserva il considerevole livello di
vulnerabilità della struttura, maggiormente accentuata nella direzione Y
poiché tale direzione risulta essere la
più deformabile per la minore presenza di elementi sismo-resistenti.
Lavoro analogo è stato svolto per la
struttura nuda cioè priva di tamponature. Per ovvi motivi di spazio, si riporta direttamente nel paragrafo seguente, il confronto sia in termini di
curve di capacità sia in termini di Fattori di Sicurezza.
Tabella 3. Fattori di Sicurezza
per la struttura tamponata
Figura 24. Telai interessato dalla crisi delle
tamponature
46
Ingegneri
Napoli
ingegneri_napoli_2010-2:Layout 1
13/07/2010
6. Analisi Struttura Nuda e
comparazione con Struttura
Tamponata
Si riporta una sovrapposizione delle
curve di capacità relative alla Struttura Tamponata (ST) e Struttura Nuda
(SN), sia nella direzione X sia nella
direzione Y, per le due distribuzioni
di forze orizzontali considerate (Mo-
12.25
Pagina 47
de; Mass), per i due Stati Limite Ultimi considerati (SLV e SLC). Si riporta
anche una tabella riassuntiva dei Fattori di Sicurezza (FS) valutati sia nel
caso di struttura ST sia nel caso di
struttura SN. Anche in questo caso, si
evita di riportare i risultati relativi allo SLD, solo perché decisamente meno penalizzanti rispetto a quelli relativi allo Stato Limite Ultimo.
Figura 26. Curve di capacità per la Struttura
Tamponata (ST) e per la Struttura Nuda (SN)
allo SLC
Figura 27. Curve di capacità per la Struttura
Tamponata (ST) e per la Struttura Nuda (SN)
allo SLV
Tabella 4. Fattori di Sicurezza per la struttura
ST e SN
numero
ricerca
marzo-luglio
2010
2
47
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.25
Pagina 48
Dalle analisi sopra riportate si nota
come l’effetto delle tamponature sia
deleterio per il comportamento sismico della struttura analizzata, in quanto determina un drastico cambiamento del meccanismo di collasso,
passando da un meccanismo duttile
di trave ad un meccanismo fragile di
piano.
Tale risultato non deve meravigliare
in quanto su strutture particolarmente
deformabili, come accade nel caso
in esame lungo la direzione Y, le tamponature possono avere un’incidenza negativa anche in presenza di
una loro disposizione regolare in
pianta ed in elevazione.
Tale aspetto evidenzia come il considerare o meno le tamponature non è
una variabile trascurabile, dato che
qualora non venissero considerate si
giungerebbe a dei risultati errati non
rispondenti al reale comportamento
della struttura.
Inoltre, in vista di un intervento di
adeguamento sismico, partendo da
risultati errati (nel caso in esame, ben
lontani dal poterli definire conservativi), si seguirebbe ad una progettazione errata. In altre parole, si adeguerebbe la struttura in modo anomalo senza quindi essere certi che la
struttura stessa, risulti effettivamente
adeguata e quindi in grado di soddisfare i livelli prestazionali previsti
dalla norma: SLD e SLV (o SLC).
6. Conclusioni e proposta di
disaccoppiamento delle tamponature
La scelta di includere o meno i pannelli di muratura, nel modello di calcolo di in una struttura intelaiata in
c.a., è legata alla comprensione del
comportamento della struttura in presenza di azioni sismiche e quindi alla valutazione dell’entità degli effetti
indotti su travi e pilastri dalla presenza dei tompagni. Se si considera per
la tamponatura un semplice modello
meccanico, quale quello di asta incernierate nelle sue sezioni di estremità, si capisce facilmente che la
componente verticale della forza as-
48
Ingegneri
Napoli
siale che esso assorbe, induce sforzo
normale nei due pilastri adiacenti. Tenendo poi presente che nella realtà,
il pannello murario ha un contatto diffuso con le aste e non trasmette la forza direttamente nel nodo, si comprende che all’estremità dei pilastri
nasce un taglio, che può cautelativamente essere considerato pari alla
componente orizzontale della forza
nel pannello, ed un momento flettente, convenzionalmente valutato ipotizzando che la forza di taglio sia applicata ad una distanza dal nodo pari ad un quindicesimo dell’altezza del
pilastro.
Anche se i pannelli murari generalmente, assorbono un’aliquota dell’azione sismica che in molti casi può
andare dal 10 al 50%, con una relativa riduzione delle caratteristiche di
sollecitazione nelle aste della struttura
intelaiata, è pur vero che la presenza dei pannelli murari comporta un
irrigidimento dello schema strutturale
e quindi una riduzione del suo periodo proprio; condizionando la risposta dinamica elastica e provocando
un aumento dell’azione sismica.
Nel caso in esame, essendo la struttura nuda molto deformabile in direzione trasversale, l’aspetto dell’irrigidimento e dell’incremento dell’azione sismica, da parte della tamponatura, è sicuramente preponderante
sul primo aspetto in cui si considera
l’effetto collaborante nell’assorbire
l’azione sismica.
Si ricorda inoltre che la muratura ha
un comportamento fragile il che giustifica la presenza di “salti” sulle curve di capacità che rappresentano
quindi, l’improvvisa perdita di resistenza della struttura. Ciò ha influenza sulla risposta inelastica, perché al sopraggiungere della rottura
dei pannelli, l’aliquota di azione sismica da essi assorbita, si scarica
istantaneamente sulla struttura facilitando il raggiungimento di un collasso fragile.
Nel caso oggetto di studio, la distribuzione dei pannelli non è del tutto
regolare, e quindi il comportamento
strutturale peggiora sensibilmente
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.25
Pagina 49
Figura 28. Disaccoppiamento delle tamponature mediante tasselli di neoprene
poiché i pilastri e le travi adiacenti alle tamponature, vanno in crisi prima
di quando avverrebbe nel caso di
struttura nuda.
Inizialmente, si poteva pensare che
la disposizione delle tamponature,
per la struttura esaminata, poiché
non particolarmente irregolare, potesse apportare dei benefici sulla risposta sismica dell’edificio, ma dall’approfondimento in regime non lineare, tutto ciò è stato disatteso.
In conclusione, la struttura presenta
un collasso fragile, molto insidioso e
pericoloso, considerando l’effetto delle tamponature.
Dalle considerazioni fatte finora, prima di passare alla fase di adeguamento della struttura tramite tecniche
tradizionali (ringrosso dei pilastri;
controventi in acciaio; pareti) o innovative (controventi con dispositivi
ADAS, controventi ad instabilità impedita; controventi con dissipatori in
serie), è sembrato opportuno disaccoppiare i pannelli murari (ovviamente solo quelli ritenuti “efficaci”)
dalla struttura intelaiata, in modo che
la struttura risulti nuda senza quindi
alcuna interazione significativa con
le tamponature. Ciò è suggerito dall’evidente beneficio che la struttura
avrebbe se si evitasse che essa interagisca con quei pannelli che abbiamo evidenziato determinare un peggioramento del comportamento postsisma dell’edificio. Tale disaccoppiamento permette, in modo poco invasivo e con una ridotta incidenza sui
costi finali, di minimizzare l’entità
dell’intervento di adeguamento e
quindi, di facilitare il raggiungimento
di valori del Fattore di Sicurezza >1,
in corrispondenza degli SL considerati.
Per fare ciò, sarebbe sufficiente mantenere separato il pannello murario
dai pilastri laterali lasciando un’intercapedine di dimensioni adeguate,
da riempire con materiale caratterizzato da una notevole deformabilità.
Per ridurre le azioni taglianti sul pannello murario, si crea una sconnessione anche con la trave sovrastante,
come mostrato in Figura 28.
La dimensione dell’intercapedine, tra
la tamponatura e i pilastri laterali, si
calcola in base allo spostamento di
interpiano valutato allo SLU considerato, con riferimento alla struttura priva di tamponature.
Si precisa inoltre che una soluzione
di questo tipo, richiede un controllo a
posteriori sulla resistenza della pannello murario in direzione trasversale, dal momento che la presenza della sconnessione, riduce il grado di
vincolo della tamponatura lungo i
bordi.
Bibliografia
1.
2.
Panagiotakos T.B., Fardis M.N., “Deformations of RC members at yielding
and ultimate”, ACI Structural Journal,
2001.
Fayfar P., “Capacity spectrum method
based on inelastic demand spectra”,
Proceedings of the 12th European Con-
numero
ricerca
marzo-luglio
2010
2
49
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.25
3.
4.
5.
6.
7.
50
Pagina 50
ference on earthquake engineering,
London, 2002.
Ghersi A., “La regolarità strutturale nella progettazione di edifici in zona sismica”, Problemi attuali di ingegnria sismica, CUEN, 2002.
Albanesi S., Carboni F., Albanesi T.,
“Ruolo delle murature leggere portate
nel comportamento sismico di strutture
intelaiate in cemento armato”, XI Congresso Nazionale “L’ingegneria sismica in Italia”, Genova 2004.
Albanesi T., Nuti C., “Analisi di spinta:
valutazione dell’accuratezza della risposta sismica attesa in edifici in c.a.”,
XI Congresso Nazionale “L’ingegneria
sismica in Italia”, Genova 2004.
Colangelo F., “Effetto delle tamponature sul comportamento sismico di telai di
c.a. coi pilastri deboli”, XI Congresso
Nazionale “L’ingegneria sismica in Italia”, Genova 2004.
Dolce M., Masi A., Ponzo F. C., Mucciarelli M., Gallipoli M., Di Cesare A.,
Tetta M., Vona M., “Identificazione delle caratteristiche strutturali dell’edificio
IACP di Bonefro gravemente danneg-
Ingegneri
Napoli
giato nel sisma del Molise 2002”, XI
Congresso Nazionale “L’ingegneria sismica in Italia”, Genova 2004.
8. Faella C., Martinelli E., Nigro E., “Valutazione della risposta sismica di edifici in c.a. calcolati per soli carichi verticali ed esame comparativo delle tecniche di intervento”, XI Congresso Nazionale “L’ingegneria sismica in Italia”,
Genova 2004.
9. Fib 2003a: “Seismic Assessment and
Retrofit of Reinforced Concrete Buildings”, State of art report prepared
Task Group 7.1.
10. Parducci A., “Progetto delle costruzioni
in zona sismica”, Liguori editore,
2007.
11. Manfredi G., Masi A., Pinho R., Verderame G., Vona M., “Valutazione degli edifici esistenti in cemento armato”,
IUSS PRESS editore, 2007.
12. Dolsek M., Fayfar P., “The effect of masonry infills on the seismic response of
a four – storey reinforced concrete frame – a deterministic assessment”. Engineering Structures, Volume 30, Issue
7, July 2008.
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.25
Pagina 51
PALAZZO PENNE:
STORIA E RIQUALIFICAZIONE
DI UN MONUMENTO
STORICO
Di Palazzo Penne si è molto parlato
negli ultimi tempi, ma il risveglio dell’interesse per la storia e le vicende
che lo riguardano è assai recente, ed
è legato all’intervento di un gruppo
di intellettuali, della Fondazione Benedetto Croce e dell’Istituto Italiano
per gli Studi Storici, i quali sono riusciti ad attirare l’attenzione sulla questione del degrado e dell’abbandono
dello storico edificio.
Palazzo Penne costituisce un significativo esempio non solo di architettura civile napoletana, ma anche di
artigianato locale del sec. XV, osservabile nel portale monumentale dove ancora si conserva il portone di
quercia.
La sua fondazione risale al «Ventesimo anno del regno di re Ladislao»
(1406), com’è ricordato dall'epigrafe posta sul portale. L’edificio fu commissionato da Antonio Penne, segretario del re Ladislao di Durazzo.
Il creatore di tale progetto resta a noi
ancora ignoto, anche se Carlo Celano avanzò il nome di Antonio Baboccio da Piperno che risultava, al
tempo della realizzazione del palazzo, al servizio dei Penne per l’esecuzione del monumento funebre di Antonio.
L’edificio sorge nella piazza oggi dedicata a Teodoro Monticelli e si sviluppa in pendio, lungo il “pennino di
Santa Barbara”.
Il Palazzo presenta due caratteristiche fondamentali: una d’impostazione gotica senese presente negli archi
del cortile (analoghi a quelli di Castel
Nuovo e del palazzo Carafa, successivi di mezzo secolo), l’altra di stile elegante nel gotico fiorito della facciata.
La facciata di Palazzo Penne si compone di una lavorazione a bugnato,
in piperno e trachite, dal cui centro
emerge il bellissimo portale ad arco
ribassato, in travertino di Bellona
(marmo bianco) e Portanova rosato.
Le bugne della parte superiore della
facciata sono decorate a rilievo con i
simboli della casata dei Penne (il simbolo araldico della piuma), e quelli
della casata angioina-durazzesca (il
simbolo araldico del giglio). L’intera
facciata si caratterizza dall’alternanza cromatica data dalle diverse tipologie delle pietre e dei marmi.
Nella parte superiore dell’arco è presente una lapide su cui è inciso l’anno di fondazione del Palazzo suggellato da tre piccole penne (simbolo
della casata del committente).
La lapide forma un unico blocco con
lo stemma della casa Angiò-Durazzo. Nello spazio tra l’estradosso dell’arco e la cornice sono presenti altri
due scudi in formato ridotto, con all’interno tre penne, mentre nel centro dell’arco ritroviamo una figurazione di non facile interpretazione,
costituita da un gruppo di nuvole rese in stilizzate forme di petali, attraversate da raggi dai quali fuoriescono due mani. Queste ultime reggono l’orlo di due nastri che scorrono lungo tutto l’arco e sui quali vi sono incisi dei versi del poeta Marziale: «qui ducis vultus nec aspicis ista
numero
marzo-luglio
2010
Gilda Mauriello
“
Le battaglie per la
riqualificazione e la
sopravvivenza di questo
Monumento sono state
molteplici e difficili, e
dopo questo primo
intervento di recupero non
finirà l’interesse per la sua
rinascita
”
2
51
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.25
Pagina 52
Facciata di Palazzo Penne
Particolare della facciata
52
libenter» (sul nastro di sinistra), «omnibus invideas invide nemo tibi» (sul
nastro di destra, dove si osserva anche il segno notarile di Antonio di
Penne), «Tu che volti la faccia e non
guardi volentieri questo [palazzo] o
invidioso, invidia pure tutti, nessuno
invidia te».
Il portone in quercia offre uno straordinario esempio della qualità dell’artigianato di quel tempo. La composizione decorativa dell’ornato, che ha
le sue origini nel periodo centrale del
gotico, si compone di due ordini (in
precedenza tre) di archetti gotici, i
quali staccandosi dal fondo richiamano la decorazione marmorea del-
Ingegneri
Napoli
le loggette dette “caminata”, e tra
questi sono ancora presenti le borchie a conetto.
Superato il portone ci si ritrova in uno
stretto andito da cui si nota la parte
centrale della volta a crociera costolonata, mentre il resto della volta e i
suoi piedritti sono ancora osservabili
nei due ambienti chiusi ai lati dell’entrata.
La chiusura dell’ampio atrio risale al
sec. XVIII, in occasione della costruzione del piano sopraelevato.
Ad una quota più bassa dell’ingresso è presente il portico quattrocentesco a cinque archi, che affaccia ancora sull’antico giardino.
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.25
Pagina 53
Portale quattrocentesco
Le parti risalenti al sec. XV sono i primi tre archi a sezione esagonale
dall’ampia corda poggianti su grossi pilastri di piperno, che espongono un ornamento intagliato negli angoli a colonnine fiorate, tipico della
cultura architettonica catalana molto
diffusa nell’area campana nel quattrocento.
All’interno del portico i primi due archi sono, in parte, inglobati nella muratura, da cui emerge la sagoma intonacata di un pilastro, mentre sull’antica muratura esterna, è individuabile il profilo di questi, delineati
dalla cornice in piperno aggettante
verso il giardino.
All’interno del portico è presente anche una delle tre finestre quattrocentesche in piperno, ornate con colonnine dal capitello fiorato, che riprende la decorazione dei pilastri del portico e quella dei piedritti della volta
nell’atrio. Le altre due sono osservabili nel prospetto sui gradini di Santa
Barbara, insieme ai resti del lungo
cornicione marcapiano.
Le finestre sono realizzate secondo il
modello a croce guelfa con giogo, e
le quattro aperture, due quadrate in
alto e due rettangolari in basso, sono divise da cornici dalla rilevante
modanatura. Quelle prospicienti i
gradini di Santa Barbara mostrano
numero
storia
marzo-luglio
2010
Cornici e pilastro in piperno che tracciano, sulla parete esterna del portico, la sagoma degli
archi quattrocenteschi
2
53
ingegneri_napoli_2010-2:Layout 1
Scala settecentesca
Facciata settecentesca
54
13/07/2010
12.26
Pagina 54
ancora la cosiddetta “cornice a bilancia” (A. Venturi), che inquadra la
parte alta delle finestre, ornata da fiori nei punti terminali.
Dalla fine del Seicento hanno avuto
inizio le trasformazioni sostanziali dell’assetto originario dell’antico edificio.
Tali modifiche erano legate all’acquisto del Palazzo da parte dell’ordine
dei Padri Somaschi, i quali adattarono gli spazi originari alla quotidianità del monastero.
Con l’avvento dell’Ottocento, gli ordini religiosi furono aboliti e il Palazzo
fu messo in vendita passando in proprietà dell’abate Teodoro Monticelli,
un illustre vulcanologo appartenente
all’ordine dei frati Celestini di San Pietro a Majella. Teodoro Monticelli nella sua casa costituì un vero e proprio
museo di mineralogia ed una cospicua biblioteca. Alla morte dell’abate,
alla fine della prima metà dell’Ottocento, le collezioni, mineralogica e libraria, furono vendute all’Università,
dove un tempo aveva insegnato. Il palazzo rimase proprietà della famiglia
Monticelli per vari anni senza subire
cambiamenti di grande rilievo.
Per assistere ad una nuova opera di
ristrutturazione rilevante bisogna
giungere ai nostri tempi.
Il Palazzo dopo essere stato acquistato da una Società napoletana, è
divenuto oggetto di lavori, atti a trasformarlo in residence e bed and breakfast. Il programma non è stato portato a termine per opposizione della
Soprintendenza competente che è intervenuta bloccando i lavori.
Lo storico edificio, dopo questo iniziale abbandono, è stato acquistato
dalla Regione Campania, e affidato
Ingegneri
Napoli
in seguito all’Università degli Studi di
Napoli l’Orientale.
Sin dall’affidamento all’Orientale, vi
era la volontà di destinarlo a biblioteca, per accogliere nelle sue sale le
collezioni delle Biblioteche Pietro Piovani e Fabbrocino Tessitore.
Tale destinazione sembra essere stata confermata in una delle ultime riunioni svolte presso la sede della Giunta Regionale unitamente alla possibilità di designare anche degli spazi
polivalenti alla promozione e diffusione culturale.
Gli intenti sembrano preannunciare
un ritorno di Palazzo Penne allo
splendore di un passato ormai lontano. Le battaglie per la riqualificazione e la sopravvivenza di questo Monumento, dimenticato dalla gente e
dal tempo, sono state molteplici e difficili, e dopo questo primo intervento
di recupero non finirà l’interesse per
la sua rinascita.
Bibliografia
Abbate F., La scultura a Napoli nell'età durazzesca, in “Storia di Napoli”, 1972, vol.
IV (I).
Avena A., Monumenti nell’Italia Meridionale. Roma, 1902.
Borrelli G., Il Palazzo Penne – Un borghese
a Corte. Arte Tipografica, Napoli, 2000.
Ceci G., Il Palazzo Penne, in “Napoli Nobilissima” Vol. III, Napoli, 1963.
Celano C., Notizie del bello dell’antico e
del curioso della città di Napoli. ed Chiarini, 1850.
Rosi M., L’altro rinascimento – Architettura
meridionale nel‘400. Liguori Editore Napoli, 2007.
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.26
Pagina 55
SAN GIOVANNI A TEDUCCIO
TRA PREESISTENZE STORICHE
E REALTÀ INDUSTRIALI
DISMESSE
Recupero e riqualificazione integrata
del Forte di Vigliena e dello Stabilimento Iannone
Presentazione
Obiettivo della tesi di laurea in Ingegneria Edile-Architettura di Valentina Guariglia è stato quello di creare, attraverso il recupero di un edificio storico in totale abbandono e il riutilizzo di una struttura industriale dismessa, un polo integrato finalizzato alla valorizzazione del patrimonio storico e alla promozione delle iniziative culturali e turistiche presenti sul territorio di San Giovanni a Teduccio.
La scelta è stata dettata dalla circostanza che la zona, oltre a costituire un
comparto urbanistico con una consolidata edilizia storica e con un forte e secolare rapporto con il mare, oggi è anche uno dei quartieri della città di Napoli maggiormente interessato da grandi progetti di sviluppo: dalla realizzazione del Porto turistico di Vigliena a quella delle Facoltà di Ingegneria e di
Giurisprudenza.
Si è così pensato ad un progetto integrato del Fortino di Vigliena e dello Stabilimento Iannone, inseriti in un unico parco urbano.
Il Forte di Vigliena, simbolo della resistenza giacobina durante la rivoluzione
napoletana del 1799, è stato riconfigurato spazialmente dando vita al Museo
della Rivoluzione Napoletana, un museo multimediale in cui si narrano le vicende della rivoluzione, del fortino e del contesto.
Lo Stabilimento Iannone, opportunamente recuperato, è stato destinato a Centro studi di supporto al Museo, per la consultazione e l’elaborazione di tutto
quanto riguarda la rivoluzione napoletana e la cultura vesuviana, in generale.
In questo progetto di recupero Valentina Guariglia ha tenuto in debito conto i
moderni criteri guida, quali la reversibilità degli interventi, il minimo intervento, la distinguibilità degli interventi, la compatibilità fisico - chimica dei nuovi
materiali con l’esistente.
Il lavoro, sviluppato da Valentina Guariglia con la guida del prof. Alfredo Buccaro e della sottoscritta, è stato particolarmente apprezzato dalla Commissione di laurea consentendo alla candidata di laurearsi con lode.
Per ovvi motivi di sintesi Valentina Guariglia si limita a presentare, in questo
articolo, soltanto l’intervento progettato per il Fortino di Vigliena.
Flavia Fascia
Il primo passo del lavoro di tesi è stato quello della conoscenza del contesto in cui sono inseriti i due edifici,
ovvero il quartiere di San Giovanni a
Teduccio, collocato nella zona orientale della città di Napoli. A tal fine è
stata svolta una attenta indagine sul
tessuto edilizio, che si caratterizza
numero
marzo-luglio
2010
Valentina Guariglia
“
Creazione di un polo
integrato finalizzato alla
valorizzazione del
patrimonio storico e alla
promozione delle iniziative
culturali e turistiche
presenti sul territorio di
San Giovanni a
Teduccio
”
2
55
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.26
Pagina 56
per la presenza sia di edifici storici,
tra i quali emergono il Forte di Vigliena, la Dogana al Ponte della
Maddalena e tredici ville vesuviane
risalenti al ‘700, sia di edifici di recente formazione, residenziali ed industriali.
Il territorio è stato studiato anche mediante l’esame dell’evoluzione degli
strumenti urbanistici: dal 1939 al
1970 si sono susseguiti vari Piani Regolatori che hanno cercato di regolamentare la sorte dei casali inglobati
nella periferia napoletana. Gli strumenti attuali, il PIAU ed il PUA, hanno come obiettivo principale la riconnessione tra quartiere e mare (oggi impedita dalla barriera costituita
dalla linea ferroviaria), la messa a sistema degli spazi e delle attrezzature
pubbliche, la riconfigurazione urbanistica di alcune aree nodali, gli indirizzi di dettaglio per gli interventi
privati nei tessuti edilizi abitativi e
produttivi. Tra gli interventi previsti sono da ricordare la realizzazione della passeggiata da Vigliena a Pietrarsa con il recupero del rapporto con il
mare, la realizzazione del parco archeologico-urbano del Forte di Vigliena con sovrappassi per superare
i binari, l’acquisizione dell’ex stabilimento Cirio per l’attivazione di due
poli universitari (Facoltà di Ingegneria e di Giurisprudenza), la realizzazione del porticciolo turistico di Vigliena.
Completata l’analisi storica ed urbanistica del contesto è stata affrontata
l’analisi degli edifici in esame, sia
dal punto di vista storico che nello
stato attuale.
Il Forte di Vigliena, costruito tra il
1703 e il 1705 per volere del Vicerè
Juan Manuel Fernandez Pacheco, duca di Escalona e marchese di Villena,
rientrava in un piano militare che mirava alla fortificazione del litorale napoletano, da Napoli a Castellammare, con la costruzione di cinque forti:
a S. Giovanni a Teduccio, al Granatello, a Torre di Resina, a Scoglio di
Rovigliano ed a Castellammare. Il
Forte di Vigliena non sparò mai alcun
colpo fino alla Rivoluzione Napole-
56
Ingegneri
Napoli
tana del 1799, che vide da un lato i
giacobini napoletani sostenuti dalle
truppe francesi e dall’altro i popolani, guidati dal cardinale Ruffo, a favore della monarchia. Il Fortino fu attaccato sia da terra che da mare e i
difensori combatterono valorosamente resistendo contro l’artiglieria nemica che alla fine riuscì ad aprire una
breccia nelle mura. I difensori, pur di
non cadere nelle mani del nemico, fecero saltare in aria il forte incendiando la polveriera. Il 13 giugno terminò
la resistenza dei giacobini e la battaglia si concluse a favore della monarchia.
Nella prima metà dell’Ottocento il
forte venne destinato a scuola di pratica di artiglieria e, fino all’Unità
d’Italia, fu oggetto di varie trasformazioni.
Nel Novecento il Fortino è sparito
dalle carte ufficiali anche se, in realtà, l’impianto era perfettamente leggibile come si evince dai rilievi aerofotografici dell’Istituto Geografico Militare.
Il Fortino di Vigliena presenta una forma pentagonale simmetrica ed è circondato da un fossato a forma di stella, rimasto in gran parte inalterato.
Attualmente un terrapieno consente
di scavalcare il fossato e immette all’interno della costruzione ad una
quota di circa 1 m dal calpestio originario, a causa dell’accumulo di materiali avvenuto nel corso del tempo.
All’interno la superficie è ricoperta
da vegetazione e piante.
Della struttura originaria sono rimasti
i muri perimetrali, ben conservati dal
punto di vista statico al livello inferiore, ma quasi inesistenti superiormente, a causa dello storico scoppio che
ne ha provocato il crollo. Dalla lettura
dei resti si comprendono facilmente la
tessitura muraria, le tracce delle aperture e degli elementi in piperno per il
rinforzo delle facciate. All’interno sono ancora riconoscibili gli archi a tutto sesto, tracce di quelle che un tempo
erano le volte a botte su cui poggiava
il camminamento di guardia superiore, e spezzoni dei muri divisori delle
varie celle al livello inferiore.
ingegneri_napoli_2010-2:Layout 1
13/07/2010
Dei due livelli originari ne rimane solo il primo. Il piano di ronda, infatti,
è completamente distrutto e restano
soltanto le tracce nei muri e le volte
di sostegno che coprivano gli accessi ai bastioncini. Delle scalette, degli
orizzontamenti e delle suddivisioni interne non è rimasta traccia ed anche
il rivellino in gran parte è coperto dal
terreno e dai depositi accumulati nel
corso del tempo.
Una seconda fase del lavoro di tesi
ha riguardato l’Analisi del degrado
dei materiali lapidei, che ha consentito di mettere in evidenza le diverse
patologie di degrado che hanno aggredito il manufatto. L’indagine è stata svolta, e rappresentata, secondo le
indicazioni fornite dal Documento
Normal 1/88, che fornisce una guida per il riconoscimento delle alterazioni macroscopiche dei materiali lapidei.
12.26
Pagina 57
Nella maggior parte dei casi il tufo è
risultato affetto da erosione, mancanza, deposito superficiale e dalla presenza di vegetazione infestante; il
pietrame, invece, da mancanza e patina; il piperno, infine, da efflorescenza, deposito superficiale, patina
biologica e da erosione. In relazione
alla tipologia di degrado sono stati
previsti interventi di preconsolidamento, pulitura, consolidamento, protezione, tutti indipendenti dalla nuova destinazione d’uso.
Nel merito degli interventi di ripristino strutturale, necessari per restituire la continuità e la solidità strutturale originali, è stato previsto la stilatura dei giunti per tutte le murature, scuci e cuci per eliminare le fessure passanti, iniezioni a base di
calce per le fessure non passanti, ricostruzioni in sottosquadro dei paramenti murari crollati; la ricostru-
numero
riqualificazione
marzo-luglio
2010
Nella Tavola 18 è riportata la Sistemazione
del Parco di Vigliena
2
57
ingegneri_napoli_2010-2:Layout 1
13/07/2010
Nella Tavola 6 è riportato il Rilievo materico
del complesso
58
12.26
Pagina 58
zione della volta crollata del bastioncino.
Il Fortino di Vigliena, simbolo della
difesa della Repubblica Napoletana,
è stato riconfigurato spazialmente
per l’allestimento del Museo della Rivoluzione Napoletana del 1799. L’intervento di recupero è stato condotto
nel rispetto degli orientamenti moderni del restauro, cercando di collocare funzioni compatibili con la struttura preesistente, adeguandola, tuttavia, alle esigenze attuali. Si tratta
di un museo multimediale, ispirato al
Museo Archeologico Virtuale (MAV)
di Ercolano, che narra le vicende della rivoluzione napoletana del 1799,
del fortino e del contesto. Sarà possibile ri-vivere le vicende storiche grazie alle ricostruzioni tridimensionali e
all’approccio interattivo.
Il Museo si sviluppa su una superficie
di 975 m2 e, dopo la biglietteria/in-
Ingegneri
Napoli
fo point, alla quale sono annessi ambienti di servizio per il personale, si
articola attraverso una serie di sale
di seguito illustrate.
– Inizio mostra: è la zona filtro chiamata a separare nettamente la
parte esterna dal percorso museale.
– Corpi scomposti in luce: illustrazione del concetto di intelligenza
connettiva su cui si fonda il museo;
i visitatori, una volta riconosciuti,
sono circondati da cerchi luminosi
proiettati su un pannello.
– Un salto nel tempo: attraverso pannelli interattivi il visitatore entra nel
contesto storico, culturale, economico e politico dell’epoca.
– Nomi e volti dei protagonisti: gli
ologrammi dei protagonisti dell’evento escono dallo schermo e
raccontano chi sono, il loro ruolo,
le loro gesta, le vicende di Vigliena.
ingegneri_napoli_2010-2:Layout 1
13/07/2010
– Proiezione della battaglia: in una
piccola sala viene proiettata la ricostruzione della battaglia che vide come protagonista il Fortino di
Vigliena.
– Proiezione dello scoppio: in un’altra sala viene proiettata la ricostruzione dello scoppio che coinvolse il fortino e i suoi valorosi difensori. La proiezione viene sdoppiata perché in ogni sala il visitatore deve sostare solo per pochi
minuti, in modo da consentire lo
smaltimento veloce dei flussi.
– Gli oggetti bellici: pannelli interattivi
touch screen, descrivono gli oggetti
bellici del tempo e, in particolare,
quelli usati durante la battaglia.
– Ologrammi: proiezione degli oggetti bellici, utensili e attrezzi vari
sotto forma di ologrammi.
– Tavolo interattivo: su un tavolo interattivo è possibile selezionare
12.27
–
–
–
–
Pagina 59
parole fluttuanti, in modo da attivare di volta in volta sequenze tematiche differenti sempre inerenti
al tema, per approfondirne i contenuti.
Proiezione dei soldati di guardia:
lungo le pareti della sala vengono
proiettate le immagini dei soldati
di guardia che camminano lungo
il piano di ronda con il fucile in
spalla.
Viaggio nel fortino, livello inferiore: ricostruzione tridimensionale
della struttura al livello inferiore e
viaggio spaziale in tutti i suoi ambienti.
Viaggio nel fortino, livello superiore: ricostruzione tridimensionale
della struttura al livello superiore e
viaggio spaziale in tutti i suoi ambienti.
Giro in nave e vista del fortino dal
mare: viaggio tridimensionale in
numero
riqualificazione
marzo-luglio
2010
Nella Tavola 8 è riportata l’Analisi del degrado e il progetto di conservazione delle superfici murarie
2
59
ingegneri_napoli_2010-2:Layout 1
13/07/2010
Nella Tavola 12 è riportato Progetto di recupero e rifunzionalizzazione del Forte di Vigliena
60
12.27
Pagina 60
nave che consente di vedere il forte dal mare, sia di notte che di
giorno, per capire come appariva
ai nemici che intendevano attaccarlo da quella direzione. Il viaggio è reso ancor più realistico grazie alle poltrone motorizzate che,
poggiate su un apposito supporto,
simulano il movimento della nave
in mare.
– Leggio interattivo: su un leggio è
possibile sfogliare un libro immateriale contenente dipinti e raffigurazioni del forte e dell’evento che
lo coinvolse. Il visitatore può sfogliare le pagine del libro, leggerne
i contenuti, ingrandire i particolari,
che vede proiettati sulla parete di
fronte.
– Mostra fotografica: mostra delle
fotografie storiche raffiguranti il
fortino e il contesto.
Ingegneri
Napoli
– Teche ritrovamenti: teche di vetro
in cui vengono esposti i ritrovamenti e gli oggetti vari a tema.
– Descrizione nuove tecnologie: descrizione delle nuove tecnologie,
effetti speciali, programmi innovativi, strumenti usati per realizzare i
contenuti del museo.
– Zona filtro / punto ristoro: fine del
percorso museale con punto ristoro
e poltrone.
– Approfondimenti: per approfondire la conoscenza del forte e dei
contenuti del museo sono stati previsti una mediateca, la sala lettura
e alcune postazioni internet.
– Shop: punto vendita di souvenir e
materiale a tema.
All’interno della struttura, tra una sala
e l’altra sono previsti pannelli scuri isolanti per evitare la diffusione del suo-
ingegneri_napoli_2010-2:Layout 1
13/07/2010
no e della luce da una parte all’altra;
lungo le pareti invece non è previsto
alcun rivestimento, in modo da leggerne la tessitura muraria originaria.
Per ciascuna sala è stata prevista una
controsoffittatura alla quale agganciare faretti, proiettori, o tutto ciò che
serve per restituire l’immagine che si
vuole trasmettere al pubblico.
Gli uffici, quali segreteria, amministrazione, direzione, sono stati inseriti nel Centro studi allestito nello Stabilimento Iannone.
Il fortino ospita anche una piccola sala proiezione, per cinquanta spettatori, completa di biglietteria/info
point, locali per i dipendenti, depositi. All’occorrenza la sala può essere
usata anche per conferenze.
Una terza funzione è quella prevista
per la piazza d’armi che, su una superficie di 550 m2, può ospitare manifestazioni all’aperto.
Attraverso le scale laterali e la rampa in fondo alla piazza d’armi, si accede al piano di ronda, l’antico camminamento dei soldati, realizzato
con orizzontamenti in acciaio e vetro. L’intero piano, scoperto, presenta
una superficie di 975 m2 ed è destinato ad esposizioni temporanee.
In conclusione, il fortino verrà trasformato in una struttura che, con una
superficie complessiva di 2500 m2,
vivrà ventiquattro ore al giorno:
quando l’orario di visita al museo o
alle esposizioni temporanee sarà terminato, il complesso sarà ancora fruibile e animato grazie alla sala proiezione, la piazza per le manifestazioni all’aperto, la passeggiata al livello superiore.
Dal punto di vista formale il forte di
Vigliena viene ricostruito, riprendendo in linea generale le forme origi-
12.27
Pagina 61
narie, ricostruendo e integrando la
cinta muraria in tufo, con blocchi
squadrati, regolari, di colore diverso
e trattati diversamente e, aspetto molto importante, disposti sottosquadro
per rendere subito leggibile l’integrazione. Vengono ricreati, inoltre, il redondone ed i rinforzi angolari, non
più in piperno, perché impossibile da
reperire, ma in pietra lavica. Le bucature danneggiate al livello inferiore
non vengono ridotte e rimodellate come quelle iniziali, in modo da leggere i segni del tempo e le tracce lasciate dalla storia, mentre quelle superiori, in parte o completamente
sventrate dall’esplosione storica, vengono ricostruite secondo le dimensioni iniziali insieme ai paramenti crollati, sempre con le stesse tecniche.
Non viene invece riproposta la fascia
basamentale in piperno, perché si è
deciso di intervenire sulla muratura
preesistente solo con trattamenti superficiali per la pulitura e per il consolidamento delle superfici ma non
con l’apposizione di nuovi elementi.
All’interno il forte viene ricostruito in
acciaio e vetro in modo da garantire
un intervento completamente distinguibile e reversibile. La struttura portante viene realizzata con travi e pilastri in acciaio, creando una maglia
semplice e regolare, su cui poggiano
solai in acciaio e vetro con i quali si
riconfigura l’antico piano di ronda. Il
fronte interno viene riproposto in vetro, realizzando una vetrata continua, composta da cristalli stratificati
agganciati ai pilastri o ai montanti
con giunti a ragno, riproponendo,
con il trattamento della satinatura del
vetro, il disegno degli archi che coronavano le aperture dei vari ambienti al livello inferiore.
numero
riqualificazione
marzo-luglio
2010
2
61
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.27
Pagina 62
DISSESTI IDROGEOLOGICI:
COLATE RAPIDE
Seminario tecnico
Sergio Burattini
Ingegnere
Coordinatore scientifico del seminario
62
Il giorno 9 aprile, presso la Facoltà
di Ingegneria Federico II di Napoli,
nell’aula S. Bobbio gremita di tecnici
e docenti universitari, si è tenuto il Seminario Tecnico “Dissesti Idrogeologici: Colate rapide coordinata dall’Ing. Sergio Burattini, con la collaborazione dei Coordinatori delle
Commissioni di Geotecnica, prof.ing.
Vincenzo Caputo, Commissione Beni
culturali e edilizia: ing. Salvatore Landolfi, e Commissione Edilizia scolastica. ing. Sergio Burattini, oltre alla
fattiva collaborazione degli ing. Vincenzo Landi, ing. Massimo Ramondini e il geologo Dott. Rosario Santonastasio.
I lavori sono stati aperti dal Preside
della Facoltà di Ingegneria Prof. ing.
Edoardo Cosenza, cui ha fatto seguito il saluto del Presidente dell’Ordine ing. Luigi Vinci.
L’introduzione al Seminario è stata
del Prof. Vincenzo Caputo, che ha
posto l’accento sull’importante ruolo
che la Geologia e la Geotecnica ricoprono nella mitigazione del rischio
da frana intesa in senso molto ampio.
in particolare quest’ultima che in Italia ha avuto la sua culla proprio nella Facoltà di Ingegneria di Napoli affermando progressivamente la sua
capacità, tipicamente ingegneristica,
di affrontare questi problemi in chiave quantitativa e oggettiva.
Il Prof. ing. Giuseppe De Martino,
nella qualità di moderatore ha introdotto il primo relatore della giornata
il Prof. Geologo Domenico Calcaterra, della sezione di Geologia appli-
Ingegneri
Napoli
cata della Facoltà di Ingegneria, egli
ha spiegato che la Campania è una
Regione particolarmente esposta al
rischio da frane da flusso rapido in
terreni di origine vulcanica, poiché
esistono due distretti vulcanici attivi, i
Campi Flegrei e il Somma Vesuvio e
pertanto sono presenti due tipologie
fondamentali di frane, le valanghe di
detrito e gli scorrimenti-colate detricofangose, inoltre ha descritto i principali scenari geologico-geomorfologici della Campania più altamente interessati da frane da flusso rapido.
L’ing. Anna Scotto di Santolo del Dipartimento di Ingegneria Idraulica
Geotecnica ed Ambientale ha parlato dei metodi attualmente disponibili
per la previsione della propagazione
di una colata rapida, illustrando una
sua applicazione nel caso di un versante carbonatico ricoperto da una
successione insatura di depositi piroclastici.
Il Prof. Gianfranco Urciuoli, del Dipartimento di Ingegneria Idraulica,
Geotecnica e Ambientale, ha trattato
degli interventi sostenibili, cioè quelli di modesto impatto ambientale e di
costo contenuto, che possono essere
messi in atto da Amministrazioni locali, quali i piccoli Comuni. Tali interventi risultano efficaci per la salvaguardia del territorio montano e
collinare ed in particolare del reticolo di drenaggio, che in caso di frana
potrebbe svolgere la funzione di collettore del materiale franato, recapitandolo sulle aree urbane della zona
pedemontana.
ingegneri_napoli_2010-2:Layout 1
13/07/2010
Il Prof. Ing, Pasquale Versace, dell’Università degli Studi della Calabria, Presidente del Gruppo Italiano
di Idraulica, ha illustrato, attraverso
le esperienze del Commissariato straordinario per l’Emergenza Idrogeologica, istituito in Campania dopo i
tragici eventi del maggio 1998, che
colpirono i comuni di Sarno, Quindici, Siano, Bracigliano e S.Felice a
Cancello, il sistema di interventi realizzati per la messa in sicurezza dei
territori di quei comuni a rischio di
colata rapida. Si trattava in quel caso di un complesso di opere assai rilevanti, la cui realizzazione doveva
essere necessariamente demandata
ad un organismo sovra comunale in
cui fossero concentrate competenze
tecniche e risorse non reperibili negli
Enti territoriali.
La giornata di lavori è stata chiusa
dagli interventi interessanti dei tecnici
12.28
Pagina 63
degli sponsor della manifestazione e
cioè la Borghi Azio S.p.A. di Reggio
Emilia vale a dire dal Prof. Ing. Maurizio Ponte dell’Università della Calabria che ha parlato della stabilizzazione di coltri instabili e della mitigazione del rischio idrogeologico mediante l’utilizzo di trincee drenanti
prefabbricate illustrandone le diverse
tipologie e i relativi metodi di calcolo
per il dimensionamento e L’ing. Romano Lamperti, amm.re Delegato della Sisgeo-Ingeo Srl che ha illustrato
come si realizza il controllo preventivo di aree potenzialmente soggette a
dissesti veloci, attraverso una serie di
attività e procedure che permettono di
riconoscere, dimensionare, valutare
gli effetti e definire le necessarie azioni da intraprendere al fine di garantire il necessario livello di sicurezza alle persone e alle infrastrutture soggette all’incipiente pericolo.
numero
sicurezza
marzo-luglio
2010
2
63
ingegneri_napoli_2010-2:Layout 1
13/07/2010
12.28
Pagina 64
I SISTEMI DI HOMELAND
SECURITY: SCENARIO,
TECNOLOGIE E APPLICAZIONI
Recensione
Giorgio Franceschetti
Giovanni Manco
64
Segnaliamo all’attenzione dei lettori
questo prima pubblicazione della
Collana Leonardo dell’Ordine degli
Ingegneri della Provincia di Napoli
su una tematica innovativa dalle vaste applicazione che è quella della
Homeland Security (HS). Il lavoro curato dal prof. Giorgio Franceschetti
dell’Università degli Studi Federico II
di Napoli e dall’ing. Giovanni Manco Consigliere dell’Ordine degli Ingegneri di Napoli, si avvale dei contributo di più autori espressione di un
largo numero di istituzioni coinvolte
nello scenario della sicurezza del territorio: Mondo Accademico, Forze
Armate, Carabinieri, Protezione civile, Commissione Telecomunicazioni
dell’Ordine degli Ingegneri di Napoli, Ansaldo STS, Autorità Portuale,
Capitaneria di Porto.
I testi e le esperienze raccolte sono
costruiti in modo da sollecitare le iniziative di ricerca e industriali e istituzione per la definizione di nuovi
metodi e strumenti per garantire la
sicurezza del territorio: un condizione indispensabile per lo sviluppo socio-economico di ogni paese moderno.
Lo spettro delle problematiche trattate dal libro, che rappresenta la prima pubblicazione organica sull’HS
in Italia, è molto ampio, certamente
utile e di piacevole e interessante lettura.
Ingegneri
Napoli
Il libro presenta una raccolta di temi
sulla sicurezza che spaziano dall’analisi del settore dell’HS al suo sviluppo storico, arricchito inoltre da una
utilissima guida ai simboli di gergo, fino alle realizzazioni di notevole portata sviluppate in regione Campana.
Il lettore potrà trovare saggi di carattere teorico e l’impiego di essi come
supporto operativo su temi quali: i disastri naturali, le reti di calcolatori, il
traffico marittimo e metropolitano.
È risaltato e analizzato il bisogno
umano di sicurezza, causato dal pericolo di perdita della riservatezza,
autenticità e disponibilità delle informazioni.
Il libro presenta, infine, una lucida
sintesi dei problemi associati alle realizzazioni industriali dei prodotti HS
presenti in regione Campania ed associati alla presenza di due stabilimenti Selex-Sistemi Integrati e un significativo indotto.
Lo stile sobrio, il linguaggio semplice
ma non banale, la chiarezza e il rigore analitico delle soluzione proposte, caratteristiche peculiari degli autori, rendono il libro prezioso e indispensabile nella biblioteca dell’ingegnere.
a cura di
Mattia Siciliano
Commissone Telecomunicazioni
Ordine Ingegneri Napoli