ingegneri_napoli_2010-2:Layout 1.qxd
Transcript
ingegneri_napoli_2010-2:Layout 1.qxd
13/07/2010 12.40 Pagina 1 IRENE: la postina delle stelle PAGINA 17 Valutazione della riduzione del livello di vulnerabilità sismica Palazzo Penne: storia e riqualificazione di un monumento storico PAGINA 35 PAGINA 51 numero 2 marzo-luglio 2010 POSTE ITALIANE S.P.A. - SPED. IN ABB. POST. - D.L. 353/2003 (CONV. IN L. 27.02.2004, N. 46) ART. 1, COMMA 1, DCB (NA) ingegneri_napoli_copertina_2010-2:Layout 1 13/07/2010 12.40 Pagina 1 IRENE: la postina delle stelle PAGINA 17 Valutazione della riduzione del livello di vulnerabilità sismica Palazzo Penne: storia e riqualificazione di un monumento storico PAGINA 35 PAGINA 51 numero 2 marzo-luglio 2010 POSTE ITALIANE S.P.A. - SPED. IN ABB. POST. - D.L. 353/2003 (CONV. IN L. 27.02.2004, N. 46) ART. 1, COMMA 1, DCB (NA) ingegneri_napoli_copertina_2010-2:Layout 1 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.16 Pagina 1 SOMMARIO Ingegneri Napoli marzo-luglio 2010 Normativa Per un governo pubblico dell’acqua Il decreto Ronchi, tra pubblico e privato pag. 3 Commissione Ambiente e Sostenibilità Ambientale pag. 6 In copertina: ISS (International Space Station). marzo-luglio 2010 Bimestrale di informazione a cura del Consiglio dell’Ordine Editore Ordine degli Ingegneri della Provincia di Napoli Tecnologia Tecnologia Voice over IP: scenari di convergenza Attuali tendenze del mercato, nuove opportunità di business, scenari futuri pag. 7 Tecnologia IRENE: la postina delle stelle Studio di una piccola capsula di rientro in grado di riportare sulla Terra carichi utili limitati da orbita LEO pag. 17 Tecnologia Algoritmi di messa a fuoco di immagini satellitari Proposta di un’innovativa tecnica di autofocus basata sull’applicazione dei filtri armonici circolari pag. 24 Direttore editoriale: Luigi Vinci Direttore responsabile: Armando Albi-Marini Redattori capo: Edoardo Benassai, Pietro Ernesto De Felice, Mario Pasquino Direzione, redazione e amministrazione 80134 Napoli, Via del Chiostro, 9 Tel. 081 5525604 – Fax 081 5522126 www.ordineingegnerinapoli.it [email protected] c/c postale n. 25296807 Comitato di redazione: Luigi Vinci, Paola Marone, Nicola Monda, Eduardo Pace, Marco Senese, Annibale de Cesbron de la Grennelais, Giovanni Esposito, Paola Astuto, Francesco Paolo Capone, Fabio De Felice, Renato Iovino, Andrea Lizza, Giovanni Manco, Salvatore Vecchione, Eduardo Sgro’ Coordinamento di redazione: Claudio Croce Progetto grafico e impaginazione: doppiavoce Stampa: Officine Grafiche Francesco Giannini & Figli s.p.a. Via Cisterna dell’Olio, 6/B – 80134 Napoli Reg. Trib. di Napoli n. 2166 del 18/7/1970 Spediz. in a.p. 45% – art. 2 comma 20/b – I. 662/96 Fil. di Napoli I contenuti possono essere modificati per esigenze di spazio con il massimo rispetto del pensiero dell’autore. Le riproduzioni di articoli e immagini sono consentite citandone la fonte. L’editore resta a disposizione di ogni eventuale avente diritto per le competenze su testi e immagini. Associato U.S.P.I. Unione Stampa Periodica Italiana Tiratura: 13.000 copie Finito di stampare nel mese di luglio 2010 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.17 Pagina 2 Ricerca Valutazione della riduzione del livello di vulnerabilità sismica di un edificio esistente in c.a. tramite disaccoppiamento dei pannelli murari pag. 35 Storia Palazzo Penne: storia e riqualificazione di un monumento storico pag. 51 Riqualificazione San Giovanni a Teduccio tra preesistenze storiche e realtà industriali dismesse Recupero e riqualificazione integrata del Forte di Vigliena e dello Stabilimento Iannone pag. 55 Sicurezza Dissesti idrogeologici: colate rapide Seminario tecnico pag. 62 Recensione I Sistemi di Homeland Security: scenario, tecnologie e applicazioni pag. 64 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.17 Pagina 3 PER UN GOVERNO PUBBLICO DELL’ACQUA Il decreto Ronchi, tra pubblico e privato Il 18 novembre 2009, alla Camera dei deputati si approvava, con ricorso alla fiducia, il decreto Ronchi, che all’art. 15 avviava un processo di privatizzazione dei servizi pubblici locali, di dismissione della proprietà pubblica e delle relative infrastrutture. A rendere ancor più grave, nel merito e nel metodo, l’approvazione del decreto Ronchi, vi è il fatto che esso sia stato approvato ignorando il consenso popolare che soltanto due anni fa si era raccolto intorno alla legge d’iniziativa popolare per l’acqua pubblica (raccolte oltre 400.000 firme), elaborata e promossa dal Forum italiano dei movimenti per l’acqua pubblica ed oggi in discussione in Parlamento. Nel frattempo cinque regioni hanno impugnato il decreto Ronchi di fronte alla Corte costituzionale, lamentando la violazione di proprie competenze costituzionali esclusive. Il decreto Ronchi, convertito in l. n. 166 del 2009, colloca tutti i servizi pubblici essenziali locali (non solo l’acqua) sul mercato, sottoponendoli alle regole della concorrenza e del profitto, espropriando il soggetto pubblico e quindi i cittadini dei propri beni faticosamente realizzati negli anni sulla base della fiscalità generale. Un testo che non sembra considerare come negli ultimi anni la gestione privatistica dell’acqua abbia determinato significativi aumenti delle bollette e una riduzione drastica degli investimenti per la modernizzazione degli acquedotti, della rete fognaria, degli impianti di depurazione1. Ciò nonostante, la nuova legislazione, imponendo la svendita forzata del patrimonio pubblico e l’ingresso sostanzialmente obbligatorio dei privati nella gestione dei servizi pubblici, renderà obbligatoria, anche per l’acqua, la privatizzazione, alimentando sacche di malaffare e fenomeni malavitosi. La malavita già da tempo ha compreso il grande business dei sevizi pubblici locali, si pensi alla gestione 1 Le diverse esperienze privatistiche di gestione dell’acqua degli ultimi anni hanno dimostrato come esse siano incompatibili con la gestione del bene comune, poiché la finalità riconosciuta alle società commerciali è incompatibile con la gestione del bene. Infatti il conseguimento del profitto si basa sulla contrazione dei costi e sull’aumento dei ricavi, e inoltre sull’imputazione degli investimenti sulla tariffa. Questo comporta da un lato l’aumento delle tariffe, dall’altro tagli ai costi del lavoro, con relativa precarizzazione, e della gestione, con conseguente peggioramento della qualità dei servizi. A questo va aggiunta l’interruzione del servizio per gli utenti che non sono in grado di pagare e ai quali non è garantita neanche la quantità minima giornaliera per i bisogni primari. numero marzo-luglio 2010 Edoardo Benassai Ingegnere “ Si auspica che tutte le forze politiche e sociali capiscano l’importanza di mantenere la campagna referendaria prossima unicamente legata al tema altamente simbolico dell’acqua ” 2 3 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.17 Pagina 4 dei rifiuti, e la grande possibilità di gestirli in regime di monopolio. Per chi conquisterà fette di mercato, l’affare è garantito. Infatti, trattandosi di monopoli naturali, l’esito della legge sarà quello di passare da monopoli-oligopoli pubblici a monopolioligopoli privati, assoggettando il servizio non più alle clausole di certezza dei servizi delineati dall’Unione Europea, ma alla copertura dei costi ed al raggiungimento del massimo dei profitti nel minor tempo possibile. Insomma il decreto Ronchi, rappresenta un danno per l’ambiente, la salute e non da ultimo per l’occupazione. Di tutto ciò non sembrano rendersi conto le posizioni espresse dall’attuale presidente del Co.N.Vi.R.I. (Commissione Nazionale di Vigilanza sulle Risorse Idriche) secondo le quali (Sole 24 ore di giovedì 19 novembre) poca conta se il gestore sia una S.p.A. controllata dal pubblico o dal privato, conta che tutte le leggi confermino da anni l’acqua come bene pubblico, che gli impianti idrici siano tutti di proprietà pubblica, che l’organismo di controllo sia pubblico e che la formazione delle tariffe sia in mano pubbliche. Ma non sembrano neppure rendersene conto le ingenue affermazioni contenute nel forum aperto sulla voce.info, sito di natura economico-finanziaria, laddove si sostengono le ragioni del decreto Ronchi in nome del fatto che: a) non viene privatizzato il bene ma il servizio di fornitura idrica; b) tale processo è efficiente considerato che l’innalzamento del capitale privato nella gestione dei condotti idrici porterà ad investimenti tali da ridurre gli sprechi legati alla dispersione dell’acqua lungo la rete idrica in ragione della migliore posizione in cui si trova il privato per bilancia- re costi e benefici nello sfruttamento del bene. Le cose non stanno così. È noto che, soprattutto in beni come l’acqua a valore aggiunto assai basso, tra proprietà formale del bene e delle infrastrutture e gestione effettiva del servizio vi è una tale asimmetria d’informazioni, al punto da far parlare di proprietà formale e proprietà sostanziale, ovvero il proprietario reale è colui che gestisce il bene ed eroga il servizio. È nota inoltre la debolezza dei controlli e la loro pressoché totale incapacità di incidere sulla governance della società. Ma soprattutto è noto che il governo e il controllo pubblico diventino pressoché nulli nel momento in cui ci si trova dinanzi a forme giuridiche di diritto privato, regolate dal diritto societario. In questo senso, è opportuno ricordare l’esperienza francese dove in piena gestione privata del servizio idrico a Parigi (Lyonnaise des eaux e Veolia Eau) la Chambre régionale des comptes et l’inspection générale de la ville de Paris denunziava nel 2000 e nel 2001 l’opacità dell’organizzazione e del funzionamento del servizio dell’acqua e la difficoltà di esercitare controlli sul gestore privato2. I grandi principi ispiratori della nostra Carta costituzionale, che avevano negli anni posto le basi e legittimato il governo pubblico e democratico dell’economia, secondo una logica ed una prospettiva di tutela effettiva dei diritti fondamentali, finiscono mortificati. Purtroppo una maggioranza trasversale proclama principi liberisti ma introduce al contrario posizioni di rendita privata che saranno poi impossibili da sradicare. Certo con una maggioranza più attenta all’interesse pubblico, si potrebbe ripartire da una riforma au- A. Le Strat, Le choix de la gestion publique de l’eau à Paris, relazione presentata a Torino al Convegno: Acqua bene comune: il diritto al futuro, 15 febbraio 2010. 2 4 Ingegneri Napoli ingegneri_napoli_2010-2:Layout 1 13/07/2010 tentica fondata sulla legge di iniziativa popolare del Forum dei movimenti per l’acqua e sul testo della legge delega di riforma dei beni pubblici (commissione Rodotà). Entrambe queste proposte organiche hanno come obiettivo il governo dei beni pubblici e dei beni comuni nell’interesse dei diritti fondamentali della persona, tramite gestioni di diritto pubblico e nel rispetto dei principi costituzionali. Purtroppo queste riforme non sono verosimili e l’arma del referendum abrogativo ex art. 75 Costituzione è la sola utilizzabile in chiave riformista. Ovviamente, le possibilità di successo di una tale via sono legate a molte variabili, incluso l’atteggiamento della Corte Costituzionale e la capacità dei promotori di far comprendere ai cittadini l’importanza della posta in gioco al fine di ottenere il quorum necessario previsto dalla legge. Idealmente entrambe queste difficoltà sarebbero più agevolmente superabili con un quesito unico secco e chiaro. Tuttavia ciò non risulta tecnicamente fattibile perché il regime dell’acqua risulta connesso con quello degli altri servizi di pubblica utilità. In virtù di queste difficoltà tecniche e 12.17 Pagina 5 del mandato ricevuto di presentare ai cittadini un progetto referendario capace di ripubblicizzare l’acqua, si sono esplicitati tre quesiti. Si auspica che tutte le forze politiche e sociali capiscano l’importanza di mantenere la campagna referendaria prossima unicamente legata al tema altamente simbolico dell’acqua. I quesiti sono: 1. abrogazione dell’art. 23 bis (12 commi) della l. n. 133 del 2008 relativo alla privatizzazione dei servizi pubblici di rilevanza economica, così come modificato dall’art. 15 della legge di conversione n. 166 del 2009. 2. abrogazione dell’art. 150 (quattro commi) del d. lgs. n. 152 del 2006 (c.d. codice dell’ambiente), relativo alla scelta della forma di gestione e procedure di affidamento, segnatamente al servizio idrico integrato; 3. abrogazione dell’art. 154 del d. lgs. n. 152 del 2006, limitatamente a quella parte del comma 1 che dispone che la tariffa costituisce corrispettivo del servizio idrico integrato ed è determinata tenendo conto dell’adeguata remunerazione del capitale investito. numero normativa marzo-luglio 2010 2 5 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.17 Pagina 6 COMMISSIONE AMBIENTE E SOSTENIBILITÀ AMBIENTALE A cura della Commissione Ambiente Ordine Ingegneri Napoli “ La Commissione Ambiente ha raccolto varia documentazione nazionale ed internazionale sul tema della sostenibilità ambientale, che confluirà nella redazione di linee guida affidate a due gruppi di lavoro: rifiuti e risorse idriche ” 6 La Commissione Ambiente dell’Ordine degli Ingegneri della provincia di Napoli, sotto la guida del coordinatore prof. ing. Mario Pasquino e del project manager dott. ing. Paola Morgese, affronta quest’anno il tema della sostenibilità ambientale. Dal mese di gennaio 2010, in cui ha iniziato il suo operato, ad oggi, ha raccolto il consenso, la partecipazione e la collaborazione di molti colleghi, che dedicano ad essa volontariamente il loro tempo, la loro professionalità ed il loro entusiasmo. La commissione, seguendo quanto si è prefissata ad inizio lavori nel suo programma, svolge le sue attività con una tabella di marcia fitta di appuntamenti. Organizza due incontri al mese, uno presso gli uffici dell’Ordine stesso ed un altro in team virtuale. Durante gli incontri “dal vivo” accoglie degli ospiti per delle conversazioni informali. Le conversazioni formative, mirate ad affinare le capacità di collaborazione e di comunicazione tra i componenti della commissione stessa, hanno visto la partecipazione degli ospiti di seguito riportati. Daniela Cenciotti, attrice e regista, moglie dell’attore e doppiatore Carlo Croccolo, con la sua socia Paola Esposito: ha fornito dei suggerimenti per parlare in pubblico e dei cenni di dizione. Giovanna Scafuro, project manager certificato PMP (Project Management Professional), direttore aggiunto del PMI-SIC (Project Management Institu- Ingegneri Napoli te Southern Italy Chapter) e coordinatrice della commissione programma ed eventi dello stesso: ha dato dei consigli sulla gestione delle commissioni e dei gruppi di lavoro. Francesco Violi, ingegnere e docente di project management presso l’Ordine stesso dai primi corsi organizzati nel 2005: ha fornito una introduzione al project management. Le conversazioni informative, mirate ad accrescere le conoscenze su temi tecnici, hanno accolto gli ospiti di seguito riportati. Paola Morgese, ingegnere e project manager certificato PMP: ha illustrato il compostaggio domestico vegetale ed il modello C2C (Cradle to cradle) del prof. Dr. Michael Braungart. Paolo Bidello, ingegnere: ha illustrato il capitolo 6 “Criteri per l’individuazione delle destinazioni potenziali ottimali” del Programma 2010-2013 di gestione integrata dei rifiuti speciali della Regione Campania. Ciro Tortora, dottore in chimica con master in ingegneria sanitaria ed ambientale: ha illustrato un prodotto, alla cui formulazione ha contribuito personalmente, per il controllo degli odori molesti nella gestione dei rifiuti. La commissione ambiente, nel corso di questi suoi primi mesi di attività, ha raccolto varia documentazione nazionale ed internazionale sul tema della sostenibilità ambientale, che confluirà nella redazione di linee guida affidate a due gruppi di lavoro: rifiuti e risorse idriche. ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.17 Pagina 7 TECNOLOGIA VOICE OVER IP: SCENARI DI CONVERGENZA Attuali tendenze del mercato, nuove opportunità di business, scenari futuri 1. Introduzione La progressiva diffusione di reti a commutazione di pacchetto ha indotto ricercatori ed aziende ad esplorare la possibilità di utilizzare tali reti anche per l’erogazione di servizi vocali. Si è, pertanto, assistito ad un susseguirsi di sviluppi di tecnologie per la trasmissione vocale su reti packet switched: Voice over X.25 (VoX.25), Voice over Frame Relay (VoFR), Voice over Asynchronous Transfer Mode (VoATM), Voice over Multiprotocol Label Switching (MPLS), Voice over Wi-Fi (VoWi-Fi) e Voice over IP (VoIP). Tra tutte queste, la tecnologia VoIP è quella che ha riscosso maggiore successo, anche in virtù della capillare diffusione del protocollo IP, correlata al crescente successo della rete Internet. Per “Tecnologia Voice over Packetbased networks (VoP)” si intende l’insieme di protocolli, tecnologie e infrastrutture di rete che include la commutazione di pacchetto utilizzate per la fornitura di un servizio di comunicazione vocale, anche integrato con dati, suoni e immagini, servizi a valore aggiunto, servizi di condivisione in tempo reale di risorse e informazioni, e che possono consentire l’interoperabilità con reti telefoniche tradizionali. La tecnologia VoP, pertanto, nasce come naturale contraltare alla tradizionale tecnologia per la fornitura di servizi vocali, storicamente erogati attraverso l’utilizzo di reti a commutazione di circuito. Sono numerose le opportunità che derivano dalle applicazioni VoP ed in particolare VoIP e tra queste: – possibilità di nuove applicazioni e relative opportunità di commercializzazione: servizi nomadici, messaggistica istantanea integrata ed in generale convergenza tra servizi voce e servizi dati; – utilizzo di un unico cablaggio per la rete fonia e per la rete dati in contesti aziendali e maggiore flessibilità per l’implementazione e la gestione di reti e centralini privati; – risparmio nelle comunicazioni a lunga distanza; – possibilità, grazie ai nuovi dispositivi mobili evoluti (ad es. smartphone) di nuovi servizi in mobilità, prescindendo dalla terminazione delle chiamate su reti cellulari tradizionali, con l’opportunità di nuove offerte convergenti fissomobile. In questo articolo ci soffermeremo, principalmente, sulla tecnologia VoIP, analizzandone il ruolo nella convergenza, con particolare riferimento alla convergenza fisso-mobile, nonché sulle attuali tendenze del mercato in merito al Voice over IP, sulle nuove opportunità di business derivanti dalla convergenza e sugli scenari futuri legati alla crescente diffusione di questa tecnologia, sia dal punto di vista degli utenti, sia dei fornitori di servizi di comunicazione. numero marzo-luglio 2010 Sergio Palumbo Ingegnere “ Si assisterà ad una spinta sempre maggiore verso la convergenza fissomobile e ad un successo sempre maggiore delle offerte quadruple play ” 2 7 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.17 Pagina 8 2. Aspetti tecnologici Il termine VoIP si riferisce ad una famiglia di tecnologie e protocolli e non ad uno specifico standard.Per definire i contorni di una specifica applicazione VoIP occorre fissare alcune scelte implementative che hanno notevole impatto sulla complessità della soluzione, sulle caratteristiche qualitative e sull’occupazione di banda per singola conversazione. Le scelte da operare sono essenzialmente le seguenti: – tecnica di codifica vocale; – protocollo di segnalazione; – protocollo di trasporto. Dal punto di vista dell’utente, invece, l’applicazione VoIP può prevedere un apposito dispositivo (telefono VoIP, wired o cordless) oppure può essere fruita attraverso un software (cosiddetto softphone) da installare su specifici sistemi operativi. Esistono software VoIP sia per i sistemi operativi tipici dei personal computer, ivi compresi notebook e netbook (Microsoft Windows, Linux, Apple McIntosh), sia per i sistemi operativi dei moderni palmari e smartphone (Symbian, Windows Mobile, Android, iPhone, etc.). Di seguito si passano brevemente in rassegna le principali soluzioni disponibili per la codifica vocale ed i protocolli di segnalazione e di trasporto. 2.1 Tecniche di codifica vocale Le tecniche di codifica vocale possono essere suddivise, in prima analisi, in due macrocategorie: – codificatori waveform: effettuano una codifica della forma d’onda del segnale vocale, attraverso operazioni di campionamento, quantizzazione e codifica; – Vocoder: analizzano il segnale vocale per ricavarne i parametri da dare in input ad un modello dell’apparato di produzione del suono (sistema corde vocali-tratto vocale), in modo da trasmettere i soli parametri del modello. Il più semplice codificatore waveform, intensivamente utilizzato in passato e tuttora protagonista di gran parte delle installazioni nei backbone delle reti fisse, è il PCM (Pulse Code Modulation). Un codificatore PCM si basa, essenzialmente, sull’applicazione del teorema di Nyquist. Considerato che il segnale vocale ha una banda netta di circa 3100 Hz (nella finestra 300 Hz – 3400 Hz), si procede a campionare il segnale vocale con una frequenza pari al doppio di una banda lorda di 4000 Hz, pertanto a 8 kHz. Ciascun campione viene quantizza to1 con 256 livelli, in modo che possa essere codificato tramite l’utilizzo di 8 bit. Ne discende un segnale numerico con un bitrate di 64 kbps2. Per ridurre l’occupazione di banda, senza perdere molto in termini di qualità, sono state introdotte due varianti alla codifica PCM: le tecniche PCM adattative (APCM) e le tecniche PCM adattative differenziali (ADPCM). Le tecniche adattative riducono il numero di livelli di quantizzazione utilizzati, a seconda della variabilità del contenuto informativo del segna- La quantizzazione può essere uniforme o logaritmica. Si è verificato che la quantizzazione logaritmica, per la natura del segnale vocale, è in grado di ridurre il rumore di quantizzazione. Esistono due apposite “leggi” per la definizione del metodo di quantizzazione logaritmica, utilizzate negli Stati Uniti d’America (legge “mu”) ed in Europa (legge “A”). Per approfondimenti: G.E. Pelton, Voice Processing, McGraw-Hill, 1993. 2 È da osservare come le tecniche di multiplexing a divisione di tempo utilizzate nelle reti fisse si basino su un canale vocale base esattamente di 64 kbps: si tratta proprio di un canale adatto al trasporto di una comunicazione vocale codificata con la tecnica PCM. 1 8 Ingegneri Napoli ingegneri_napoli_2010-2:Layout 1 13/07/2010 le vocale istante per istante. È così possibile utilizzare, ad esempio, 4 bit (quindi 16 livelli), incrementandoli quando necessario. Alla base delle tecniche differenziali c’è l’idea di trasmettere, istante per istante, invece dell’ampiezza del segnale vocale in sé, il suo scostamento da un valore predetto. La predizione, basata sui campioni precedenti, viene effettuata sia in trasmissione che in ricezione, pertanto è possibile trasmettere il solo scostamento. La predizione è particolarmente efficace in caso di segnali non troppo velocemente variabili. Si può così arrivare a riduzioni notevoli della banda necessaria alla trasmissione del segnale codificato: anche fino a 32 kbps, ossia la metà della banda necessaria per un canale fonico con codifica PCM. Seppur un bitrate di 32 kbps possa sembrare adeguatamente basso, a partire dagli anni ‘90 sono stati fatti diversi sforzi per ridurlo ulteriormente. Difatti, in quegli anni si sono verificati due eventi: da un lato, la rapida diffusione della telefonia cellulare ha reso necessaria un’ottimizzazione della risorsa scarsa costituita dallo spettro radio, in modo da garantire, a parità di occupazione di banda, un maggior numero di comunicazioni contemporanee; dall’altro, le innovazioni tecnologiche dei microprocessori e dei chip ad altissima integrazione (VLSI3) hanno reso disponibili, a costi accettabili, potenze di calcolo prima insperate. Sono stati, pertanto, condotti nuovi studi per algoritmi finalizzati alla trasmissione del segnale vocale con un bitrate più basso rispetto ai codificatori waveform, ma comunque con un accettabile livello qualitativo. Risultato di tali ricerche sono stati i cosiddetti vocoders (dalla contrazione di voice e coders, ossia codificatori vocali), anche noti come 3 4 12.17 Pagina 9 codificatori model based, in quanto basati su un modello dell’apparato di produzione vocale. La differenza sostanziale tra un codificatore waveform ed un vocoder consiste nel fatto che un vocoder, invece di trasmettere la codifica dei campioni del segnale vocale nel dominio del tempo, trasmette delle informazioni derivanti da un’analisi del segnale vocale, ricostruito con una sintesi in ricezione. Il segnale vocale viene analizzato per trame di una lunghezza dipendente dallo specifico algoritmo (in genere con una durata compresa tra i 2 ed i 50 millisecondi). L’analisi avviene sia nel dominio del tempo che nel dominio della frequenza. È palese, pertanto, che la codifica con un vocoder implichi intrinsecamente una latenza nella trasmissione. A partire dal segnale vocale in ingresso, nella specifica finestra temporale, vengono calcolati alcuni parametri che descrivono un modello dell’apparato di produzione che vengono trasmessi e utilizzati in ricezione per pilotare il modello e riprodurre un segnale che viene percepito dall’orecchio come simile a quello originale, anche se non esiste alcuna garanzia di uguaglianza o finanche di somiglianza tra la forma d’onda trasmessa e quella ricevuta. I parametri possono essere, ad esempio: coefficienti che descrivono le caratteristiche di risonanza del tratto vocale, flag indicante se il segnale in quella finestra temporale contiene o non contiene parlato, frequenza di pitch, etc. Al fine di migliorare l’occupazione di banda, una tecnica spesso utilizzata congiuntamente alle predette è quella di soppressione dei silenzi: da studi condotti sui canali fonici con codifica PCM si è visto che in media addirittura il 60% dei bit trasmessi sono di “silenzio”4. Le virgolette sono d’ob- Very Large Scale Integration. Cfr. W. Goralski e M.C. Kolon, IP Telephony, McGraw-Hill, 1999. numero tecnologia marzo-luglio 2010 2 9 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.17 Pagina 10 bligo, poiché è sempre presente un rumore di fondo. Proprio a causa di questo rumore di fondo, non è del tutto banale riconoscere il parlato dal silenzio ed il preciso istante in cui inizia il parlato e, a tal fine, si utilizzano apposite tecniche di Voice Activation Detection5. Grazie ai vocoder e all’uso di tecniche predittive e/o di codebook6 è Algoritmo G.711 G.726 G.728 G.729 G.729a G.723.1 G.723.1 Tecnologia PCM ADPCM LD-CELP10 CS-ACELP11 CS-ACELP MPMLQ12 ACELP13 Bit Rate (Kbps) 64 32 16 8 8 6.3 5.3 Complessità (MIPS9) .34 13 33 20 10.5 16 16 possibile trasmettere segnali vocali con discreta o buona qualità anche con bitrate abbastanza bassi. Nella Tabella17 sono riportati gli algoritmi di codifica più comuni e, per ciascuno di essi, la banda occupata dal segnale codificato con quello specifico algoritmo ed una misura di qualità basata sul Mean Opinion Score (MOS)8. Ritardo di compressione (ms) 0.75 1 3–5 10 10 30 30 Dimensione trama (ms) 0.125 0.125 0.625 10 10 30 30 MOS 4.1 3.85 3.61 3.92 3.9 3.9 3.8 Tabella 1 5 Si noti, tra l’altro, che chi conversa al telefono si aspetta, comunque, un certo rumore di fondo, altrimenti potrebbe non distinguere un silenzio dall’altro lato della linea da un’eventuale caduta della comunicazione e si troverebbe a chiedere continuamente all’interlocutore se lo stesso sia ancora in linea, inficiando la conversazione. Per evitare tali inconvenienti, si usano tecniche per l’introduzione ad hoc di un rumore di fondo (comfortable noise), talvolta registrando e riproponendo i rumori di fondo reali percepiti dall’altro lato della linea. 6 Un codebook è un “catalogo di segnali”, dove vengono raccolte tutte le possibili eccitazioni del filtro che modella il tratto vocale. In tal modo, è possibile trasmettere il solo indice del catalogo che produce la migliore qualità (minimizzazione dell’errore quadratico) più un termine di guadagno relativo. 7 D. Minoli, Voice Over IPv6: Architectures for Next Generation VoIP Networks, Elsevier, 2006. 8 Con Mean Opinion Score (MOS) si intende un insieme di metodi di misura della qualità della voce di tipo soggettivo, basato su prove di ascolto. La misurazione avviene attraverso campagne di prova mirate, che prevedono la sottomissione, ad un campione numericamente consistente di persone, di un certo numero di frasi sulle quali devono esprimere dei giudizi in termini numerici, da 1 (qualtià molto bassa) a 5 (qualità eccellente). I restanti livelli sono: 4 (qualità buona), 3 (qualità abbastanza buona), 2 (qualità bassa). Per approfondimenti, cfr. Raccomandazione ITU-T P.800. 9 Million Instructions Per Second. 10 Low Delay-Code Excited Linear Prediction. 11 Conjugate Structure Algebraic Code-Excited Linear Prediction. 12 Muulti Pulse-Maximum Likelihood Quantization. 13 Algebraic Code Excited Linear Prediction. 10 Ingegneri Napoli ingegneri_napoli_2010-2:Layout 1 13/07/2010 2.2 Procolli VoIP Dal punto di vista protocollare, il VoIP richiede la coesistenza di un protocollo per il trasporto dei dati multimediali ed uno per il signalling. Per il trasporto delle informazioni vocali (e multimediali in genere), sebbene sia possibile utilizzare i protocolli che tradizionalmente si appoggiano sullo strato IP nelle reti Internet, ossia UDP e TCP, è preferibile utilizzare un altro tipo di protocollo, ossia RTP14 (Real Time Protocol). Il limite del protocollo UDP consiste nel fatto che, trattandosi di un protocollo connectionless, in nessun modo è possibile garantire che l’arrivo dei pacchetti a destinazione rispecchi l’ordine di partenza, né è possibile ricostruire l’originario ordine dei pacchetti in fase di ricezione, poiché nessuna informazione relativa all’ordinamento viene inviata nell’header di tale protocollo. Di converso, il protocollo TCP, connection oriented, risulta troppo pesante per le esigenze del VoIP, poiché, se da un lato garantisce la ricezione ordinata dei pacchetti, dall’altro offre caratteristiche di ritrasmissione degli stessi in caso di mancata o errata ricezione, che possono essere superflue se non dannose per lo streaming di dati multimediali. Difatti, una volta che un pacchetto è arrivato con un delay superiore al tempo di buffering, questo va in ogni caso scartato e non è possibile attendere i singoli pacchetti, poiché si perderebbe la fluidità della riproduzione a valle. Il compromesso ideale è proprio il protocollo RTP, che garantisce il corretto ordinamento dei pacchetti ricevuti, senza però la ritrasmissione dei pacchetti errati o mancanti. Peraltro, è da notare che un singolo pacchetto rappresenta qualche decina di millisecondi di segnale vocale, pertanto una simile perdita, se sporadica ed isolata, non inficia assolutamente la comprensibilità del segnale in fase di 14 15 12.17 Pagina 11 ricezione. Esiste, inoltre, una versione “sicura” del protocollo RTP, il Secure RTP15 (SRTP), che garantisce anche la crittazione delle informazioni trasmesse. Oltre al trasporto delle informazioni multimediali, è necessario un protocollo per la segnalazione, ossia per le operazioni di instaurazione di una chiamata, per la sua terminazione, per la selezione del destinatario, etc. Per la segnalazione esistono sia protocolli proprietari (ad esempio IAX, Skype, SCCP) sia standardizzati (SIP, Session Initiation Protocol, proposto da IETF e H.323, proposto da ITU-T). Tra i protocolli standardizzati, il primo ad essere utilizzato è stato l’H.323, largamente diffuso già nei sistemi di videoconferenza su rete ISDN e, proprio per la sua maturità, adottato anche dalla comunità VoIP. Ciò nonostante, il SIP si è fatto sempre più strada e si prevede che in futuro la faccia da padrone. Il protocollo SIP (Session Initiation Protocol) è un protocollo applicativo basato su IP che offre meccanismi per instaurare, modificare e terminare (rilasciare) una sessione di comunicazione multimediale (voce, video, dati) su rete IP. SIP favorisce un’architettura modulare e scalabile, ovvero capace di crescere con il numero degli utilizzatori del servizio. Queste potenzialità hanno fatto sì che il SIP sia, oggi, il protocollo VoIP più diffuso nel mercato residenziale e business, preferito ad altri protocolli, tra i quali H.323. La comunicazione con il protocollo SIP può essere peer-to-peer oppure passare attraverso un proxy server, che si occupa di instradare correttamente le comunicazioni verso i destinatari, oltre che dell’autenticazione. Gli utenti si possono registrare ai registrar server per comunicare le proprie informazioni di localizzazione, che vengono inoltrate al location ser- Definito da IETF (RFC 3550). Definito da IETF (RFC 3771). numero tecnologia marzo-luglio 2010 2 11 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.17 Pagina 12 ver. Molto utile ai fini del nomadismo sono le funzioni di redirezione, cui sovraintende il redirect server, grazie alle quali il chiamante ottiene le informazioni utili per riuscire a contattare un dato destinatario. In sintesi, le funzionalità di base messe a disposizione da SIP sono: – presence: la possibilità di pubblicare e notificare il proprio stato di disponibilità oppure di conoscere quello degli altri utenti; – registrazione: l’utente, in fase di attivazione, notifica alla rete le informazioni necessarie a raggiungerlo; – identificativo unico: ogni utente è caratterizzato da un identificativo logico detto SIP URI (Uniform Resource Identifier); – mobilità utente: grazie alle informazioni inviate dall’utente in fase di registrazione, la rete riesce ad instradare dinamicamente le chiamate verso il terminale da cui l’utente ha effettuato la registrazione, ovunque esso sia; – forking: nel caso in cui un utente si registri su più terminali contemporaneamente, i server in rete possono instradare le chiamate su tutti i terminali secondo un ordine prestabilito. Utilizzando queste funzionalità è possibile realizzare numerosi servizi convergenti che integrano le comunicazioni vocali e multimediali ed i dati. Nuove applicazioni si rendono, così, disponibili sia per l’utente consumer (messaggistica unificata, telefonia IP, nomadismo, etc.) sia per l’utente business (IP-PBX, IP-Centrex, Web Call Center, telelavoro, teledidattica, etc.). I fattori che hanno decretato la fattiva affermazione del protocollo SIP sono: l’integrazione con i restanti protocolli Internet, la scalabilità, la semplicità, il supporto alla mobilità ed alla comunicazione collaborativa e unificata e la semplicità di sviluppo delle applicazioni che adottano questo protocollo. Proprio per queste caratteristiche, è opinione di molti che SIP costituisca, per le comunicazioni real-time ciò che il protocollo HTML è stato, in passato, per la navigazione web16. 2.3 Problematiche di qualità del servizio Oltre alla problematica dell’occupazione di banda e della qualità del segnale vocale derivante dalla codifica scelta, vi sono altri fattori che influenzano la buona riuscita di una conversazione vocale su una rete a commutazione di pacchetto. Prima di tutto, un aspetto da considerare riguarda il ritardo di trasmissione (delay). Il delay è dato dalla risultante di tre componenti: il tempo di trama (necessaria per la codifica), il tempo di elaborazione (in codifica e in decodifica) ed il tempo di trasporto dei pacchetti. I primi due tempi sono pressoché deterministici, mentre il tempo di trasporto è variabile. Prima di tutto, il tempo di trasporto è la somma dei tempi di impacchettamento a monte e di ricostruzione a valle, del tempo di propagazione del segnale (particolarmente sentito nelle reti mobili) e del tempo di attraversamento della rete. Quest’ultimo, in particolare, presenta la variabilità intrinseca delle reti a commutazione di pacchetto, non essendo stato stabilito a monte un circuito. Difatti, a differenza delle reti a commutazione di circuito, non è garantito che i pacchetti seguano sempre lo stesso percorso dall’origine alla destinazione e, soprattutto in caso di congestione, i pacchetti potrebbero subire ritardi variabili (jitter). Al fine di ridurre i disagi in ricezione, si procede, pertanto, ad una bufferizzazione del segnale, introducendo una nuova componente di ritardo. Diventa, allora, fonda- 16 Nortel White Paper, SIP: Enabling real-time communications effectiveness for today’s virtual enterprise, 2004. 12 Ingegneri Napoli ingegneri_napoli_2010-2:Layout 1 13/07/2010 mentale trovare il giusto compromesso tra le varie componenti in gioco, ossia complessità di calcolo dell’algoritmo di compressione, banda occupata, qualità della voce, numero di pacchetti scartati (perché ricevuti troppo tardi rispetto al tempo di bufferizzazione) e massimo ritardo end to end accettabile. Per quanto riguarda il ritardo end to end, secondo la raccomandazione ITU G.114, esso dovrebbe essere inferiore ai 150 ms e comunque non superiore ai 400 ms, limite oltre il quale il segnale vocale non è più comprensibile da chi lo riceve. Una latenza end to end compresa tra i 150 ed i 400 ms può causare fenomeni di eco, per i quali si rende necessario adottare appositi meccanismi di cancellazione dell’eco. Per quanto riguarda il jitter, invece, secondo il 3GPP17, lo stesso deve essere inferiore ad 1 ms, mentre la percentuale di pacchetti errati o scartati per eccessivo ritardo deve essere inferiore al 3%18. Alla base di molti dei problemi di qualità dei servizi VoIP c’è la natura tipicamente best effort della rete Internet, nonché delle reti locali (ad esempio Ethernet o Wi-Fi). Per le reti locali, l’IEEE ha definito lo standard 802.1p, che aggiunge informazioni a livello data-link per la definizione di otto livelli di priorità del traffico. Per le reti geografiche, invece, in attesa della migrazione verso IPv6, che offre meccanismi più evoluti per la gestione della qualità del servizio, è possibile, già con IPv4, utilizzare il campo Type of Service dell’intestazione del pacchetto IP al fine di definire 64 classi di priorità su ogni sin- 12.17 Pagina 13 golo pacchetto. Questa tecnica è conosciuta come DiffServ (Differentiated Services) e risulta particolarmente scalabile, motivo per cui è stata preferita a protocolli come RSVP (Resource reSerVation Protocol), che consente di riservare le risorse di rete per comunicazioni per le quali è necessaria una maggiore qualità. Per le reti mobili le caratteristiche richieste per la buona riuscita di una conversazione VoIP possono essere talvolta difficili da raggiungere, soprattutto in condizioni di frequenti handover e di non eccellente ricezione del segnale. Proprio questa è una delle motivazioni per le quali alcuni operatori mobili potrebbero optare per l’introduzione di limitazioni mirate all’utilizzo di applicazioni VoIP sulle proprie reti: la difficoltà nel garantire una buona qualità del servizio. Peraltro, lo sviluppo delle reti mobili di terza generazione e la diffusione sempre maggiore di dispositivi ad alte velocità su protocolli come HSDPA, consentono di ottenere buoni se non ottimi livelli qualitativi anche per il VoIP su rete mobile ed in futuro assisteremo a miglioramenti sempre maggiori, con le reti di quarta generazione, le cosiddette reti Long Term Evolution (LTE). All’interno di edifici con una ricezione non eccellente, poi, si potrà optare o per lo sfruttamento di reti wireless (sono state definite apposite procedure di seamless handover perché ciò avvenga in modo pressoché trasparente per l’utente) oppure l’utilizzo diffuso della tecnologia a femtocelle19, che, se diffusa, potrebbe risolversi anche in un discreto risparmio, in termini di backhauling20, per il gestore mobile. 17 Il Third Generation Partnership Project (3GPP) è un accordo di collaborazione fra enti che si occupano di standardizzare sistemi di telecomunicazione in diverse parti del mondo. 18 Cfr.: 3GPP TS 26.071, AMR speech codec: general description. 19 Una femtocella è una stazione radio base “in piccolo” che, connessa tramite connessione broadband (ad es. ADSL) si connette alla rete dell’operatore mobile, fungendo da ripetitore nella zona circostante (in genere per coprire una casa o un piccolo ufficio). 20 In una rete mobile, il backhaul è il tratto di rete che collega la stazione radio base alla dorsale. numero tecnologia marzo-luglio 2010 2 13 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.17 Pagina 14 3. Il VoIP come fattore abilitante nella convergenza fisso-mobile Diversi operatori hanno già adottato il VoIP per arricchire le proprie offerte (sia business che residenziali) nell’ottica di fornire una rosa di servizi “convergenti” su reti IP. È il caso, ad esempio, delle recenti offerte “triple play”, con telefonia fissa, Internet e TV proposte da diversi operatori di rete fissa. In prospettiva, sempre il VoIP potrà essere protagonista delle future offerte “quadruple play”, che prevedono, in aggiunta al “triple play” anche la convergenza fisso-mobile (FMC). La convergenza fisso-mobile è un’esigenza sempre più sentita dagli utenti, oltre ad essere un potenziale volano per la creazione di nuove opportunità di business, sia per gli operatori già presenti sul mercato, sia per nuovi player che potrebbero entrare sul mercato in modo altamente competitivo. Fino ad ora, le offerte commercializzate e vendute come “convergenti” sono state soluzioni ibride basate sulle reti cellulari, attribuendo all’utente una numerazione geografica aggiuntiva, la quale viene deviata su un’utenza cellulare se la stessa è attiva in una specifica cella. In tal modo, la sensazione dell’utente è quella di avere un unico dispositivo in grado di ricevere sia telefonate cellulari, sia, in una zona ristretta nell’intorno della propria abitazione o del proprio ufficio, telefonate di rete fissa. Si prevede che in futuro, oltre alle reti di telefonia cellulare, i dispositivi possano utilizzare anche le reti Wi-Fi domestiche o aziendali (e quindi anche le reti fisse), le reti WiMAX in corso di implementazione ed i tanti hotspots Wi-Fi che si vanno via via diffondendo. Difatti, sempre più, gli smartphone di nuova generazione offrono la possibilità di fruire di reti 2G, 3G e di reti wireless (terminali multimodali). Il VoIP può costituire il modo migliore per unificare, sotto un’unica numerazione di un unico gestore, in modo convergente e traspa- 14 Ingegneri Napoli rente per l’utente, le comunicazioni vocali (ma non solo) originate attraverso questa molteplicità di punti d’accesso alla rete Internet. In tal modo, si possono ottenere risparmi non indifferenti per gli utenti e si possono configurare nuove opportunità di business per gli operatori, sia di rete fissa, sia di rete mobile. Anche per gli operatori la FMC ottenuta per mezzo del VoIP può costituire un importante risparmio, con la possibilità di erogare servizi sia fissi che mobili attraverso un unico sistema centralizzato: il cosiddetto IMS (IP Multimedia System), al quale è delegata l’attività di convogliamento delle comunicazioni su un’unica rete. In tal modo, si otterrebbe una maggiore flessibilità nella gestione delle reti e la riduzione di duplicazioni, una remotizzazione sempre più spinta delle attività di monitoraggio e manutenzione della rete, con conseguente riduzione dei costi. Sul versante corporate e SOHO (Small Office Home Office), è possibile ottenere significativi vantaggi, anche economici, dalla possibilità di offrire servizi IP-PBX e IP-Centrex, rendendo più flessibili o addirittura virtualizzando i centralini telefonici. In questo modo, quella che normalmente era una dotazione infrastrutturale delle aziende, può a tutti gli effetti divenire un servizio, con un vantaggio per i fornitori di servizio ed un risparmio per le aziende, che possono evitare investimenti infrastrutturali e costi manuntentivi e logistici, potendosi maggiormente concentrare sul proprio business, secondo il paradigma Infrastructure as a Service. Infine, sempre in ambito corporate, grazie alla comunicazione in mobilità integrata, si possono ottenere significativi e veloci ritorni d’investimento associati, oltre che ai risparmi, anche al migliore supporto alla produttività. Anche scenari di remotizzazione delle postazioni lavorative e di telelavoro possono trovare nel VoIP e nella convergenza fissomobile il fattore abilitante che in passato mancava. ingegneri_napoli_2010-2:Layout 1 13/07/2010 4. Scenari futuri Come previsto da molti analisti, assisteremo, negli anni, ad uno spostamento delle comunicazioni vocali dalle reti a circuito sempre più verso le reti a commutazione di pacchetto. Il successo del VoIP si configurerà come una sfida per gli operatori già presenti sul mercato ed appariranno nuovi fornitori di servizi di comunicazione vocale su rete IP. Inoltre, è opinione diffusa tra gli analisti che si assisterà ad una spinta sempre maggiore verso la convergenza fisso-mobile e ad un successo sempre maggiore delle offerte quadruple play. Per quanto riguarda il mercato europeo, dalla relazione annuale del 2009 dell’Agcom si evince come nel 2008 sia proseguito il processo di sostituzione dei servizi voce tradizionali su rete fissa con il VoIP. Per quanto sia ancora complicato misurare i volume di traffico VoIP, soprattutto per le chiamate “PC to PC”, secondo i dati Agcom le chiamate originate su protocollo IP rappresenterebbero, in media, l’8% del traffico di telefonia fissa in Europa, seppure con alcune rilevanti differenze. Francia e Olanda, difatti registrano la più alta percentuale di utenti di tale servizio: l’Olanda mantiene posizioni di leadership con il 32% delle chiamate VoIP sul totale chiamate fisse, cui segue la Francia con il 27%. Secondo l’Agcom, dietro l’uso ancora limitato di tale servizio in altri paesi europei emerge sia la scarsa consapevolezza dei consumatori dei vantaggi economici del VoIP, sia il limitato incentivo ad usarlo, connesso con la bassa diffusione delle reti a larga e larghissima banda. La penetrazione del VoIP in Europa è comunque particolarmente alta nelle 12.17 Pagina 15 aziende: secondo IDC21, infatti, nel 2009 quasi la metà delle aziende europee (il 45%) hanno adottato il VoIP per le loro comunicazioni. Secondo Gartner22 entro il 2019, grazie allo sviluppo delle reti di quarta generazione (WiMAX e LTE), il 50% delle comunicazioni vocali mobili saranno effettuate attraverso tecnologia VoIP e gli analisti consigliano agli operatori mobili di iniziare a pensare a come affrontare questa transizione e alle forme di cooperazione o di partnership con fornitori di altri tipi di servizi. Anche i giganti di Internet, come Google o Yahoo, ma anche i social network, come Facebook e Myspace, dovrebbero iniziare a pensare di fornire anche servizi vocali, utilizzando le reti degli operatori mobili e le reti Wi-Fi. Gli attuali operatori, ed in particolare gli operatori di rete mobile, hanno, attualmente, una posizione privilegiata sul mercato, ma la spinta sempre più forte verso il VoIP tende a rendere sempre più forte la competizione in un mercato dove, prima, chi non aveva a disposizione l’infrastruttura per il trasporto delle comunicazioni vocali doveva accontentarsi di una nicchia. Andando sempre più verso una rete di trasporto completamente IP, la voce diventa semplicemente una delle applicazioni che dovrà interagire e, spesso, competere, con le restanti (dati, video, etc.) sulla stessa rete. La tendenza mostrata dagli utenti, difatti, è quella di muoversi rapidamente verso una comunicazione multicanale e sempre più asimmetrica: la voce è stata via via affiancata, e talvolta surclassata, da nuove forme di comunicazione (SMS, chat, e-mail, instant messaging, social networking ma anche videochiamate e videconferenze). La rapida diffusione 21 R. Cornelissen, C. Barnard, European WAN Manager Survey 2009: European Attitudes to VoIP Services, IDC, 2010. 22 T. J. Hart, A.K. Sharma, Emerging Technology Analysis: Mobile Portal VoIP, Global Consumer Communications Services, Gartner, 2009. numero tecnologia marzo-luglio 2010 2 15 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.17 Pagina 16 di dispositivi always on-always connected, ossia sempre connessi alla rete Internet, congiuntamente al successo delle diverse opzioni e promozioni commercializzate dagli operatori mobili sono la testimonianza tangibile di questa tendenza ad una visione unificata della comunicazione, dove assume una sempre maggiore importanza il concetto di presence, ossia l’essere connessi e notificarlo ai propri contatti (o ad una parte di essi). La diffusione sempre più larga di software per dispositivi mobili come Fring o Nimbuzz, che integrano l’accesso a siti di social networking, servizi di instant messaging e servizi VoIP su protocollo SIP, è un chiaro esempio dell’orientamento degli utenti in tal senso. Gli operatori già presenti sul mercato, per essere davvero competitivi nel lungo termine, dovrebbero evitare di cedere alla tentazione di snaturare la neutralità della rete introducendo filtri per date tipologie di traffico o privilegiandone altre; dovrebbero, piuttosto, iniziare a pensare alle comunicazioni in modo più olistico, fornendo soluzioni sempre più integrate ai propri clienti. In questo, i fornitori di servizi VoIP dovrebbero essere visti come preziosi partner, anziché come competitor, arricchendo l’offerta anche grazie a nuove virtuose alleanze. Peraltro, una simile tendenza a stabilire alleanze per arricchire l’offerta mobile con servizi sempre più integrati di messaggistica istan- tanea (ad es. MSN Messenger) e di social networking (ad es. Facebook, Myspace, etc.) è stata già sperimentata con successo, con la predisposizione di bundle comprendenti quote di messaggi IM o accesso a condizioni economiche facilitate a siti di social network in offerte co-branding o anche branded23. Secondo Idate24, gli utenti di servizi di social networking da rete mobile, nel 2012, saranno un bilione. Sul fronte dei nuovi player, invece, è plausibile che si assista sempre più ad una penetrazione degli operatori concessionari di frequenze WiMAX, che potranno incalzare gli operatori mobili 3G sul fronte della convenienza in termini economici, della lotta al digital divide e, soprattutto, della convergenza. Grazie al Voice over Wi-Fi, difatti, potranno bypassare del tutto le reti mobili dei tradizionali operatori o, in ogni caso, tendere ad instaurare partnership con operatori mobili virtuali (MVNO) o diventarlo essi stessi, offrendo ai propri clienti nuovi servizi integrati e convergenti, costituendo così una minaccia per gli attuali operatori mobili. Per evitare una simile eventualità, invece di limitare il traffico VoIP, gli operatori dovrebbero sfruttare questa tecnologia per arricchire la propria offerta, stabilendo opportune partnership con i fornitori di servizi VoIP, così come già fatto per i servizi di social networking e di instant messaging. 23 Alcuni operatori mobili hanno optato, in passato, per la creazione di community alternative con il proprio marchio, ma con scarso successo. 24 P. Carbonne, S. Nakajima, The future of mobile communications. New communication methods to preserve revenue growth, Idate, 2009. 16 Ingegneri Napoli ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.17 Pagina 17 IRENE: LA POSTINA DELLE STELLE Studio di una piccola capsula di rientro in grado di riportare sulla Terra carichi utili limitati da orbita LEO Il programma IRENE (Italian Re-Entry NacellE) ha lo scopo di studiare una piccola capsula di rientro in grado di riportare sulla Terra carichi utili limitati, in termini di massa e volume, da orbita LEO (Low Earth Orbit). Tale sfida tecnologica è oggi diventata concreta con l’avvio di uno studio per conto dell’ASI (Agenzia Spaziale Italiana), da parte di un folto gruppo di aziende Campane (riunite all’interno consorzio ALI). Sin dalla nascita dell’iniziativa è stato evidente come tutte le competenze necessarie al buon esito del progetto fossero reperibili nella nostra regione. Ciò dimostra come il settore aerospaziale sia un campo in cui la Campania possa vantare realtà di eccellenza, in grado di competere a livello internazionale. La compagine progettuale è molto eterogenea e si avvale del Know-How di piccole realtà locali specializzate in settori di nicchia ad elevata tecnologia (Euro.Soft, Foxbit, TES), della forza della grande impresa (Telespazio e ITS) e della supervisione scientifica di istituti di ricerca sia pubblici che privati (con la partecipazione del CIRA e del Dipartimento di Ingegneria Aerospaziale della Federico II). Il progetto si inquadra in un contesto più ampio, relativo ai sistemi di rientro che in breve, a causa della fine del programma Space Shuttle, resterà appannaggio delle sole capsule russe Soyuz TMA. In tale contesto, IRENE rappresenta un sistema riutilizzabile, a basso costo e sviluppabi- le in breve tempo per svolgere diverse tipologie di missioni. L’intenzione alla base del progetto è quella di verificare la fattibilità e realizzare un sistema di rientro di piccole dimensioni e massa limitata basato sulle più moderne tecnologie aerospaziali. Le principali caratteristiche della capsula saranno: – La riutilizzabilità del sistema. Il modulo che rientrerà in atmosfera potrà essere riutilizzato per una successiva missione, previo un opportuna sostituzione delle parti gonfiabili od umbrella like e/o refurbishment delle parti danneggiate durante il rientro e l’impatto. Si noti come l’economicità del sistema entri in gioco qualora l’analisi degli aspetti ricorrenti possa essere confrontabile con quelli non-ricorrenti a fronte di uno scenario di utilizzo di più missioni. – La capacità di riportare a terra carichi utili. Si pensi alle possibili applicazioni anche in altri ambiti quale il rientro da LEO ad uso Space Station, applicazione attualmente (e raramente) impiegata attraverso la capsula Raduga montata sopra veicoli Progress opportunamente modificati. – Struttura di protezione termica gonfiabile umbrella-like. Le protezioni ed il controllo termico rappresentano un aspetto cruciale per il progetto in quanto applicazione di tecnologie e metodologie note e/o in sviluppo (sistemi di protezione a numero marzo-luglio 2010 Renato Aurigemma Ingegnere Coordinatore Commissione Aerospaziale Ordine Ingegneri Napoli Nicola Cimminiello Ingegnere “ IRENE rappresenta un sistema riutilizzabile, a basso costo e sviluppabile in breve tempo per svolgere diverse tipologie di missioni ” 2 17 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.17 Pagina 18 Ipotesi di layout della capsula IRENE ombrello gonfiabili) in scenari avanzati quali i sistemi di rientro. – Strutture composite. Utilizzo di materiali innovativi come elementi portanti del veicolo in tali applicazioni. Lo studio preliminare si propone di delineare la fattibilità dell’intero progetto e di ottenere come prodotto un dimostratore ingegneristico, soprattutto per la parte relativa al sistema ISS 18 Ingegneri Napoli di protezione termica. Il dimostratore sviluppato consentirà di effettuare prove nella Galleria del Vento ipersonica al Plasma Scirocco presso il Centro Italiano Ricerche Aerospaziali (CIRA), atte a validare sul campo i risultati teorici ottenuti dallo studio. Irene potrebbe essere impiegata in missioni di Earth-Observation, per eseguire test, o missioni limitate nel tempo. ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.17 Pagina 19 Galleria del Vento Scirocco Contesto programmatico e applicativo Sin dalla nascita del programma ISS (International Space Station) si è posta in evidenza la dicotomia tra la quantità, di payload trasportabile a bordo della stazione (upload) (con svariati mezzi), rispetto alla quantità trasportabile dalla stazione a terra (download). I mezzi disponibili per l’upload sono: – Space Shuttle (con o senza MPLM) Soyuz TMA (versione attuale della capsula russa a tre posti); – Progress M (versione da trasporto, a perdere, della Soyuz); – ATV (veicolo logistico europeo a perdere); – HTV (veicolo logistico giapponese a perdere). Finora il massimo possibile, in termini di payload, per il download è ottenibile dallo Space Shuttle il quale sarà ritirato dal servizio nel 2012. Considerando che sia la Progress M che l’ATV non sono stati progettati per rientrare nell’atmosfera l’unico modo possibile per far tornare a terra del carico scientifico dalla ISS è affidato al modulo di rientro russo della Soyuz TMA, il quale può allocare al massimo qualche decina di kg. Questa scenario lascia un “buco” causato dalla uscita di scena dello Shuttle, fino all’avvento della prossima generazione di veicoli spaziali abitati americani (Orion) ed europei (ATV Manned) di almeno cinque anni per quel che concerne la possibilità di poter far rientrare a terra carichi significativi, in termini di peso, dalla Stazione Spaziale Internazionale. In tal senso una capsula IRENE potrebbe esercitare un ruolo molto utile, potendo essere utilizzata come “postino” dalla ISS grazie alla sua capacità di consentire il recupero di piccoli payload in sezione pressurizzata e grazie anche alla sua relativa economicità (rispetto a sistemi grandi e complessi come quelli “manned”). Un possibile schema di missione vedrebbe la capsule IRENE arrivare alla ISS in configurazione “piggyback” (ossia trasportata con un “passaggio” da un altro mezzo) ed in tal senso i candidati sarebbero tre: – Space Shuttle (con un GAS - Get Away Special - ospitato nella Cargo Bay) sino al suo “pensionamento”; – Progress M (agganciata all’estero); – ATV (agganciata all’estero). Di qui la capsula potrebbe essere trasferita all’interno di uno dei due Airlock (quello americano “Quest” o quello russo “Pirs”) per essere caricato con il payload. Una volta caricata del payload la capsula IRENE ha due possibili modi per rientrare a terra: 1. effettuare un rientro in piggyback con la Progress M o l’ATV; 2. effettuare un rientro autonomo. numero tecnologia marzo-luglio 2010 2 19 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.18 Pagina 20 Nel primo caso si renderebbe necessaria una EVA (Extra-Vehicular Activity), o l’uso di un braccio robotico, per riagganciare la capsula IRENE al suo vettore di rientro. Dopo che il vettore ha effettuato la sua accensione per il de-orbiting la capsula IRENE si separerebbe da questi ed effettuerebbe un rientro autonomo mentre il vettore si distruggerebbe negli strati alti dell’atmosfera. Nel secondo caso la capsula IRENE dovrebbe essere equipaggiata con un proprio motore di deorbiting, sistema di controllo dell’assetto e sistema di guida attiva. Il primo caso è vantaggioso perché consente di risparmiare il peso del modulo di servizio nonché un complesso flyaround della ISS (complesso e potenzialmente rischioso) ma pone dei limiti al rientro della capsula IRENE in zone disabitate (generalmente ATV e Progress M vengono fatti deorbitare sopra l’Oceano Pacifico) rendendo così complesso e costosa l’operazione di recupero. Nel secondo caso si può ipotizzare un rientro pilotato e quindi diretto verso una zona “conveniente” dal punto di vista del recupero, come potrebbe Profilo di missione IRENE-Space Mail Rientro Autonomo 20 Ingegneri Napoli essere il bacino del Mediterraneo, ma impone l’utilizzo di un modulo di servizio e l’effettuazione di una manovra di separazione e flyaround della ISS la quale deve essere attentamente studiata per evitare, al massimo, i rischi di collisione. In ogni caso, una volta rientrata nell’atmosfera, la capsula IRENE sarebbe recuperata dal team di terra e trasportata al centro di gestione del veicolo per le operazioni di recupero del payload. Il vantaggio di avere una capsula IRENE versione “space mail” sarebbe quello di poter far scendere dei carichi utili scientifici e non in tutta sicurezza, non implicando l’utilizzo di vettori manned, in tempi diversi da quelli imposti dalle operazioni con equipaggio umano e con una frequenza maggiore (considerando quante Progress M ed ATV vengono lanciati all’anno). Il programma IRENE Lo studio preliminare assegnato ad ALI scarl ha lo scopo di investigare tutti gli aspetti configurativi, costrutti- ingegneri_napoli_2010-2:Layout 1 13/07/2010 vi ed operativi del progetto IRENE prima della loro effettiva progettazione. Lo studio di sistema serve a congelare la configurazione, a delineare pesi, dimensioni e prestazioni della capsula, ad analizzare i principali sottosistemi, a definire un profilo di missione e a scegliere i vettori per il lancio. La capsula dovrà avere le seguenti caratteristiche di base: – massa al lancio dell’ordine di 100120 kg; – struttura portante realizzata in materiali compositi; – sistema di protezione termica (TPS) che consenta la riutilizzabilità della capsula; – vita operativa superiore a 3 anni; – tempi di produzione ricorrente non superiori a 12 mesi; – lanciatori compatibili: Shtil-2, o altri lanciatori commerciali (ad es. VEGA); – orbite LEO, tutte le inclinazioni; – approccio modulare Capacità di ripuntamento veloce (agility); – sistema di propulsione per controllo d’assetto ed orbitale; – stabilizzazione a 3 assi; – puntamento inerziale, stellare o nadirale; – elevata autonomia di bordo. Nello specifico lo studio di sistema prevede di approfondire ed elaborare le seguenti tematiche: 1. analisi di missione; 2. configurazione; 3. aerodinamica e aero-termodinamico; 4. struttura e controllo assetto; 5. scudo di protezione termica; 6. potenza, avionica ed elettronica di bordo; 7. studio impatto della capsula in fase di atterraggio/ammaraggio. Nell’ambito della progettazione dei veicoli spaziali, l’esigenza di un sistema di protezione termica nasce in tutte le applicazioni in cui un veicolo spaziale rimane esposto, in certe fasi della missione, ad un ambiente aerodinamico che lo sottopone a sollecitazioni termiche e meccaniche ten- 12.18 Pagina 21 denti a compromettere l’integrità di strutture ed equipaggiamenti, dei carichi paganti e, nel caso di veicoli abitati, d’esseri umani. Per descrivere la fenomenologia caratteristica di tali sollecitazioni è utile riferirsi alla fase di rientro atmosferico. Durante il rientro in atmosfera, il veicolo perde energia cinetica; questa è trasformata in energia termica e trasferita al gas che circonda il veicolo. Il fluido aerodinamico tende a riscaldare mediante convezione, conduzione e radiazione attraverso lo strato limite viscoso che circonda il veicolo, dando luogo al cosiddetto “riscaldamento aerodinamico”. Di fronte al problema della scelta di una protezione termica per un veicolo di rientro si parte innanzi tutto dalla tipologia dei materiali scelti e dalla loro modalità operativa secondo i seguenti meccanismi: – l’assorbimento del calore incidente sulla superficie del materiale attraverso un innalzamento della sua temperatura; – la reiezione del calore incidente mediante emissione radiativa della superficie del materiale; – passaggi di fase e/o reazioni chimiche di degradazione che assorbono gran parte del calore incidente e che, come ulteriore meccanismo di reiezione del calore, possono rigettare calore mediante diffusione di massa fluida che tende ad agire come refrigerante. Molto spesso la protezione termica è caratterizzata da uno o più materiali principali che si oppongono all’input termico mediante uno dei meccanismi appena citati, e da un materiale secondario che agisce da isolante tra la superficie esterna della protezione, maggiormente sollecitata, e la struttura vera e propria del veicolo. Pertanto nello studio saranno approfonditi i sistemi di protezione termica da adottare sulla capsula con particolare attenzione al meccanismo ablativo. Per il dimensionamento individuato per la capsula, lo scudo termico farà numero tecnologia marzo-luglio 2010 2 21 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.18 Pagina 22 uso di materiali ablativi, combinati con metodi alternativi per diminuire i flussi termici, quale ad esempio l’ottenimento di un elevato parametro balistico (Area/massa) attraverso l’uso combinato di tecnologie innovative quali appendici aerodinamiche dispiegabili e gonfiabili. Strutture “inflatable” in campo aerospaziale Una struttura spaziale gonfiabile è sostanzialmente una sorta di enorme “camera d’aria” realizzata attraverso una serie di strati di materiali compositi, gomma e nylon il cui scopo è quello, una volta gonfiata, di garantire un grosso volume pressurizzato in maniera tale da consentire a degli esseri umani di abitarlo per periodi di tempo più o meno lunghi. Il lancio del satellite Genesis 1 (luglio 2006), della società Bigelow Aerospace, inteso 22 Ingegneri Napoli come dimostratore tecnologico per strutture spaziali pressurizzate gonfiabili, ha riaperto l’interesse dell’opinione pubblica per queste ultime. I vantaggi delle strutture pressurizzate gonfiabili, rispetto a quelle tradizionali in alluminio, sono sostanzialmente legati al basso peso, al grosso volume ottenibile e dalla loro economicità (ricordiamo che il costo di lancio in orbita terrestre attualmente si aggira intorno 20.000 euro/kg). Naturalmente le strutture pressurizzate gonfiabili sono, per contro, più fragili e delicate rispetto a quelle tradizionali ed offrono meno protezione rispetto alle radiazione ed ai micrometeoriti. Se ci si chiede, al di là del successo del lancio del Genesis, se sia possibile realizzare ed utilizzare strutture pressurizzate gonfiabili, la risposta è che in passato sono già state realizzate e collaudate con successo più volte. Storicamente sono stati i russi ingegneri_napoli_2010-2:Layout 1 13/07/2010 ad inaugurare questa nuova tecnologia, imbarcando a bordo della Voskhod 2 una speciale camera di decompressione gonfiabile, dato che la capsula Voskhod (derivata dalla Vostok) non poteva essere depressurizzata come le americane Gemini ed Apollo. Grazie a tale camera di decompressione gonfiabile i russi effettuarono, il 18 marzo 1965, la prima passeggiata spaziale con Aleksej Leonov che rimase nello spazio per 12 minuti. Anche gli americani in quel periodo studiarono e collaudarono diverse strutture pressurizzate gonfiabili, grazie agli sforzi della Goodyear Aerospace Corporation (GAC) che nel 1960 realizzò il prototipo di un habitat gonfiabile, a forma toroidale, di ben 24 piedi di diametro. Sempre la GAC propose alla NASA nel 1965, lo STEM, prototipo di un piccolo ricovero gonfiabile da utilizzare sulla Luna. I due astronauti, scesi sulla Luna con il LEM, avrebbero potuto utilizzare il rifugio (dotato di una propria camera di decompressione) per un periodo che varia tra gli 8 ed i 30 giorni, adeguatamente protetti sia dalle radiazioni sia dalle micrometeoriti, il progetto non fu realizzato a causa della cancellazione delle missioni Apollo a lunga permanenza. Agli inizi degli anni ‘80 il Johnson Space Center della NASA diede il via al Progetto Spacehab (da non confondersi con l’omonimo modulo trasportato all’interno della stiva dello Shuttle), che consisteva nel realizzare una grossa struttura pressurizzata gonfiabile modulare. La struttura avrebbe avuto una forma “a zucca” di 68 piedi di diametro e composta da otto “spicchi” ognuno dei quali dedicato ad una particolare 12.18 Pagina 23 funzione. Questo progetto fu vittima dei tagli susseguenti all’incidente occorso allo Shuttle Challenger nel gennaio del 1986. Più recentemente la SICSA, ente di ricerca del dipartimento di Architettura della Università di Houston, in Texas, ha proposto una base lunare realizzata in gonfiabile denominata Lunarhab. Nel corso degli anni sono state proposte le più svariate applicazioni per le strutture spaziali pressurizzate gonfiabili, le più verosimili sono quelle connesse alla realizzazione di habitat interplanetari (sulla Luna o su Marte), oppure come estensioni (in termini di volume) dello spazio pressurizzato dei futuri veicoli interplanetari, così come la stessa Bigelow Aerospace ha proposto alla NASA per il Mars Ferry. Naturalmente le strutture gonfiabili potrebbero trovare un’utile ed immediata applicazione nell’aumentare il volume pressurizzato disponibile a bordo della Stazione Spaziale Internazionale, così come il già proposto Transhab. Nel campo delle strutture gonfiabili non pressurizzate, quindi non adatte all’uomo, sono stati proposti utilizzi quali antenne, scudi protettivi anti-meteoriti o come protezione per il rientro nell’atmosfera. Anche il nostro paese è impegnato da tempo nella ricerca sulle strutture pressurizzate gonfiabili, grazie al programma FLECS avviato dall’Agenzia Spaziale Italiana, la cui realizzazione è stata affidata alla Alcatel Alenia Space Italia. In tale contesto scientifico si innesta l’attività del programma IRENE, che applicherà tale innovativa tecnologia ad una capsula di rientro riutilizzabile, con peso contenuto e bassi costi. numero tecnologia marzo-luglio 2010 2 23 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.18 Pagina 24 ALGORITMI DI MESSA A FUOCO DI IMMAGINI SATELLITARI Proposta di un’innovativa tecnica di autofocus basata sull’applicazione dei filtri armonici circolari Giovanni Amoroso Renato Aurigemma Nicola Cimminiello Ingegneri “ La misura basata sui filtri armonici di LaguerreGauss presenta migliori performance rispetto alle tecniche tradizionali ” 24 La messa a fuoco degli apparati ottici è un problema molto sentito in diversi campi applicativi, quali la microscopia, l’osservazione della Terra e dell’universo, la computer vision, la fotografia, ecc. Tale problema è, quindi, oggetto di studio da decenni. Le tecniche per la messa fuoco degli apparati ottici possono essere classificati in due macrofamiglie: tecniche attive, che utilizzano sensori in grado di misurare la distanza tra l’oggetto e la camera, e tecniche passive (che non richiedono la calibrazione della camera stessa), ma si basano sull’analisi dell’immagine acquisita. Un autofocus si definisce attivo quando il dispositivo di acquisizione emette un segnale per riuscire a determinare la distanza del soggetto inquadrato e, di conseguenza, a regolare la posizione delle lenti. In ambito fotografico tali sistemi sono basati sull’utilizzo di onde sonore o di raggi infrarossi. Il dispositivo dopo aver emesso il segnale si pone in ascolto dell’eco, cioè del segnale di ritorno che viene ricevuto dopo aver colpito il target. Questo sistema riduce drasticamente i tempi di messa a fuoco. In altre parole il tempo di messa a fuoco è sostanzialmente dipendente dalla meccanica mentre nelle tecniche di messa a fuoco basate sull’analisi numerica di più campioni della scena, il tempo impiegato per la messa a fuoco dipende fortemente dall’elaborazione. Uno svantaggio che hanno i sistemi di messa a fuoco attiva rispetto ai sistemi di messa a Ingegneri Napoli fuoco passiva è dovuto alla possibilità di errori dovuti a effetti rifrattivi del mezzo costituente il campione osservato. L’autofocus di tipo passivo si basa sull’acquisizione di varie immagini dello stesso campione. Ad ognuna di queste immagini è associato un indice numerico che rappresenta la qualità della messa a fuoco. In altre parole, viene analizzata l’immagine attraverso un algoritmo matematico che ha il compito di assegnare una valutazione all’immagine basata sul contenuto informativo. È noto, infatti, che le immagini non a fuoco sono prive di dettaglio, inoltre la luminosità dell’immagine è omogenea e il contrasto è basso, quindi è difficile riconoscere gli oggetti presenti dallo sfondo. Intuitivamente, quindi, si può affermare che il processo del de-focusing abbia un comportamento passa basso, che sopprime le alte frequenze. Nel paragrafo successivo verrà data una spiegazione formale di questo fenomeno. Se si costruisce un grafico in cui sulle ascisse è riportata la distanza dell’oggetto dalla lente e sulle ordinate l’indice calcolato sull’immagine, la curva ottenuta ha generalmente un andamento a campana, il cui massimo corrisponde alla posizione di messa a fuoco ottimale. È indispensabile che l’indice utilizzato per la calibrazione passiva sia robusto rispetto al rumore introdotto dall’ottica e dal sensore CCD, per evitare che ci siano dei falsi massimi ingegneri_napoli_2010-2:Layout 1 13/07/2010 nella curva del fuoco che possono portare ad un comportamento anomalo del sistema di messa a fuoco. In quest’articolo verrà sommariamente descritto il modello di “image defocusing” derivato dall’ottica geometrica e verranno introdotte le tecniche di auto-focus passive che costituiscono lo stato dell’arte in questo ambito. Nelle sezioni successive, inoltre, verrà proposta un’innovativa tecnica di autofocus basata sull’applicazione dei filtri armonici circolari, le cui performance verranno comparate con lo stato dell’arte. Alla fine si dimostrerà come questa tecnica sia un’ottima candidata per la calibrazione di payload ottici passivi per l’osservazione della Terra. 1. Modello del processo di sfuocatura Gaskill e altri negli anni ’70 proposero un modello del processo di defocusing di un’immagine, derivato dall’ottica geometrica parassiale. In Figura 2 è mostrato il processo di formazione di un’immagine in un sem- 12.18 Pagina 25 plice sistema ottico. Detto P un punto appartenente al “piano oggetto” e P’ il corrispettivo punto nel “piano immagine” a fuoco, la relazione che lega P e P’ è detta “equazione della lente sottile”: (1) dove u è la distanza tra il piano della lente e il piano oggetto e v è la distanza tra il piano della lente e il piano immagine. In Figura 2, ID è il sensore (il CCD), D è il diametro di apertura, e s la distanza tra il piano della lente e il sensore. La distanza s, la lunghezza focale f e il diametro di apertura D, vengono detti i parametri della camera . Se P non è messo a fuoco, allora la sua immagine P’’ sul sensore sarà una macchia non nitida. Secondo l’ottica geometrica, la macchia avrà la forma dell’apertura della lente, ma scalata nelle dimensioni. Se supponiamo che l’apertura sia di forma circolare, allora anche l’immagine di P sarà circolare, con un valore di luminosità uniforme all’interno del cer- Figura 1 Figura 2. Modello della lente sottile, camera non a fuoco numero tecnologia marzo-luglio 2010 2 25 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.18 Pagina 26 chio. L’immagine sfuocata di P è la risposta della camera alla fonte di luce applicata. Se la fonte di luce è unitaria, tale risposta è detta Point Spread Function (PSF) del sistema ottico. Detto R il raggio della macchia e q un fattore di scala definito come q = 2R/D, considerando le proprietà dei triangoli simili si ottiene: (2) Sostituendo dalla (1) (3) Quindi (4) Supponendo che il sistema ottico sia ideale (quindi senza perdite) e che la macchia abbia luminosità uniforme nel cerchio di raggio R e nulla al di fuori, la PSF può essere scritta (5) Nella pratica se viene acquisita una serie di immagini gi(x,y) di una stessa scena, con diversi parametri della camera ei, l’ingrandimento dell’immagine e la luminosità media possono variare, sebbene non sia cambiato nulla nella scena ripresa. Ad esempio, allontanando la lente dal sensore aumenterà l’ingrandimento e il cambiando il diametro dell’apertura cambierà la luminosità media. Supponiamo di poter normalizzare le immagini sia rispetto la luminosità che rispetto l’ingrandimento. Normalizzare rispetto l’ingrandimento può essere effettuato interpolando e decimando l’immagine, in modo tale che tutte le immagini della serie corrispondano allo stresso campo di vista. Comunque, nella maggior parte delle applicazioni pratiche, i cambi di ingrandimento sono inferiori al 3% e possono essere trascurati. Senza perdere di generalità, supponiamo che sia la luminosità media che l’ingrandimento siano normalizzati ad 1. Dopo questa operazione di normalizzazione il raggio della macchia circolare può essere espresso come funzione dei parametri della camera e e della distanza u (6) La Funzione di Trasferimento Ottico (OTF) corrispondente alla PSF (5) è (7) dove ω,ν sono le frequenze spaziali espresse in radianti/unità di distanza, J1 è la funzione di Bessel di prima specie e ρ è la frequenza spaziale radiale. La (7) rappresenta esplicitamente la dipendenza della OTF dai parametri della camera e e dalla distanza dell’oggetto u. Nella pratica, però, l’immagine di un punto non è una netta macchia circolare di luminosità costante, come si ricava dall’ottica geometrica. A causa della diffrazione, delle aberrazioni della lente, ecc. la luminosità della macchia decade gradualmente. In base a queste considerazioni, in letteratura sono pro- 26 Ingegneri Napoli ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.18 Pagina 27 posti modelli alternativi della PSF; il più usato è una Gaussiana bidimensionale definita come (8) dove r è la deviazione standard della PSF. Si dimostra che r è legato a R da un fattore di proporzionalità costante c, pari approssimativamente a 1/√2. La OTF corrispondente a una PSF gaussiana è (9) dove (10) Il processo di de-focusing di un’immagine ha, quindi un comportamento passa-basso, cioè un’immagine non a fuoco non ha dettagli definiti e nitidi. In conclusione, quindi, il processo di messa a fuoco di un’immagine può essere modellato come una serie di filtraggi gaussiani, in cui il “grado di fuoco” è controllato dalla deviazione standard σ del filtro applicato. 2. Stato dell’arte degli algoritmi di autofocus Molte tecniche di Autofocus sono state analizzate in letteratura; in queste tecniche si definisce una misura che tiene conto di determinate caratteristiche dell’immagine, si acquisiscono quindi un certo numero di immagini e si assume come immagine a fuoco quella che presenta la misura più grande. In altre parole, quando la lente dell’obiettivo si sposta da un estremo all’altro, la misura di Autofocus aumenta gradualmente, raggiunge un massimo in corrispondenza della posizione di fuoco e quindi diminuisce (Figura 1). Il problema di trovare la posizione di messa a fuoco per la lente diventa pertanto un problema di ricerca di un massimo. È essenziale quindi che, al fine di facilitare la fase di ricerca, la misura deve essere: – monotona con la sfocatura (decrescente all’aumentare della sfocatura) – accurata (il massimo assoluto deve ricadere in corrispondenza dell’immagine a fuoco) – unimodale (non devono esserci ulteriori punti di massimo locale oltre al punto di massimo assoluto). Queste tecniche prendono spunto dalle considerazioni fatte nella sezione precedente riguardo della funzione di trasferimento ottica; in particolare, il processo di de-focusing di un’immagine ha un comportamento di tipo passa-basso, cioè tende a sopprimere le alte frequenze che in un’immagine corrispondono ai bordi, alle brusche transizioni, in generale ai dettagli. Le misure del grado di messa a fuoco di un’immagine si basano quindi sull’anali del contenuto frequenziale dell’immagine stessa. Molti metodi sfruttano la trasformata di Fourier per l’ispezione del contenuto frequenziale dell’immagine, ma data la complessità di questo algoritmo, non le rendono misure papabili per applicazioni real-time e quindi non verranno prese in considerazione in tale lavoro. Gli operatori basati sulle derivate di un segnale si comportano come filtri passa alto e hanno una complessità molto bassa. In letteratura è spesso suggerita come misura del grado di messa a fuco l’energia del Laplaciano [1] dell’immagine stessa. Tale misura va, quindi, ad analizzare il contenuto alle alte numero tecnologia marzo-luglio 2010 2 27 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.18 Pagina 28 frequenze dell’immagine. Purtroppo il Laplaciano è estremamente sensibile al rumore di cui inevitabilmente è affetta un’immagine acquisita con un sensore CCD. Il metodo di Tenengrad [2], invece, nasce con il presupposto di migliorare il calcolo del gradiente nel contesto di immagini rumorose. La presenza di rumore infatti rende molto critica la misura di Autofocus in quanto le componenti spettrali in alta frequenza sono molto sensibili ai disturbi; d’altro canto l’operatore gradiente è sintonizzato proprio sulle alte frequenze, per cui si intuisce come sia necessaria una azione preventiva di soppressione del rumore. A tal proposito si può risolvere il problema facendo precedere il calcolo delle derivate da uno smoothing dell’immagine, e un operatore differenziale basato su questa filosofia è ad esempio il gradiente di Sobel. Altri algoritmi, invece, sfruttano le proprietà della trasformata wavelet [3] per l’ispezione del contenuto frequenziale dell’immagine. L’analisi wavelet di un’immagine prevede la sua scomposizione in diverse sottobande: supponendo di scegliere un solo livello di decomposizione, si otterrà la banda LL, che rappresenta il contenuto dell’immagine in bassa risoluzione, e le bande LH, HL e HH, che sono le bande dei dettagli (corrispondenti alle alte frequenze); ai fini di una misura di Autofocus saranno proprio queste a dare l’informazione sul grado di messa a fuoco. Il vantaggio dell’analisi wavelet è che essa può essere implementata tramite un banco di filtri separabili, quindi presenta una complessità estremamente bassa. Un ultima tipologia di algoritmi analizzata nel presente lavoro utilizza i momenti dei polinomi discreti di Chebyshev [4]. L’ordine dei momenti è legato alle frequenze spaziali; precisamente, momenti di ordine “basso” corrispondono alle basse frequenze dell’immagine, mentre momenti di ordine “alto” sono sintonizzati sulle alte frequenze. Partendo da tale proprietà, è possibile utilizzare i polinomi di Chebyshev per eseguire misure di messa a fuoco; infatti se si considerano polinomi di ordine non troppo elevato si può analizzare il contenuto spettrale delle medie frequenze, le quali oltre che possedere informazioni sul grado di sfocatura sono anche più robuste al rumore. Nelle sezioni successive verrà presentata una nuova misura basata sull’anali dell’immagine mediante filtri armonici circolari. 3. Armoniche Circolari Un’immagine può essere sviluppata secondo una successione ortonormale costituita da invarianti per operatori di rotazione [5]. Se infatti si considera un’immagine f appartenente allo spazio di funzioni sommabili in R2, essa può essere rappresentata in coordinate polari come (11) dove ξ = (ξ1, ξ2) è il centro del sistema di coordinate polari (r, θ). Si definisce funzione armonica circolare (CHF) di ordine n una funzione polarmente separabile della forma (12) Le armoniche circolari godono di due proprietà particolari [6]: 1. Hanno una diversa risposta alle primitive dell’immagine in funzione dell’indice n di modulazione angolare dell’armonica. In Figura 3.a è mostrato un pattern di riferimento, mentre in Figura 3.b è riportato (andando da sinistra a destra) il modulo dell’uscita di filtri armoni- 28 Ingegneri Napoli ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.19 Pagina 29 Figura 3 ci circolari di ordine 1, 2, 3 e 4. In Figura 3.c sono poi evidenziati i picchi del modulo dell’uscita dei filtri: si noti come al variare dell’ordine del filtro l’energia del segnale venga concentrata in punti diversi. Le armoniche di ordine uno sono sintonizzate sull’armonica fondamentale dei bordi (cioè in quelle zone dell’immagine dove si ha un’alternanza nel valore di luminanza), le armoniche di ordine due sulle linee (due alternanze), le armoniche del terzo ordine, invece, sugli gli incroci di tre linee, le triadi, mentre le armoniche del quarto ordine sono sintonizzate sull’armonica fondamentale degli incroci. 2. Dallo studio della trasformata di Hankel di queste funzioni si ricava una seconda interessante proprietà: ogni CHF di ordine n può essere facilmente ruotata di un angolo ϕ semplicemente moltiplicando per un fattore complesso ejnϕ. Questa proprietà è nota in letteratura come self-steerability (13) La proprietà di self-steerability implica che solo la fase dell’uscita di un filtro armonico è modificata dalla rotazione dell’immagine, come si evince dall’esempio di Figura 4, dove uno stesso pattern di riferimento è stato ruotato di 30° e 60° (prima colonna di Figura 4): nella colonna centrale è riportato il modulo dei coefficienti dell’uscita di un filtro armonico circolare di ordine uno, mentre nella colonna di destra la fase. Il valore del modulo dell’uscita della decomposizione resta costante nei tre esempi di Figura 4, mentre l’informazione sulla rotazione del pattern si trasferisce completamente alla fase. Figura 4 numero tecnologia marzo-luglio 2010 2 29 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.19 Pagina 30 Nella formulazione precedente il profilo radiale dipende dall’immagine. Una rappresentazione più generale può essere ottenuta espandendo il profilo radiale hn(r) in un set di funzioni ortogonali: una possibile base per questa espansione sono i polinomi di Laguerre generalizzati. Le funzioni armoniche circolari di Laguerre-Gauss sono definite come: (14) dove sono i polinomi di Laguerre generalizzati di indice n e ordine k. In Figura 5 è raffigurata la parte reale e quella immaginaria di queste funzioni: si noti come la parte immaginaria può essere ottenuta ruotando quella reale di 90°. Figura 5 4. Misura di autofocus basata su armoniche circolari Le armoniche circolari hanno in frequenza un comportamento passabanda e quindi possono essere sfruttate per definire una misura del grado di autofocus che sia estremamente robusta al rumore: (15) dove f(x,y) è una generica immagine discreta. A questo punto è necessario determinare l’ordine n e k dei filtri da considerare. Nelle simulazioni effettuate abbiamo verificato che: 1. All’aumentare dell’ordine n e k dei filtri la misura risulta essere meno robusta al rumore. Ciò è intuitivamente spiegabile dal fatto che, come visto nella sezione precedente, le armoniche circolari di ordine diverso sono sintonizzate su diverse features dell’immagine. All’aumentare dell’ordine i filtri sono accordati su quelle features che vengono maggiormente corrotte dal rumore (incroci, triadi, ecc.) e ciò comporta una minor robustezza della misura. Questo fenomeno è indicativamente mostrato in Figura 6 e Figura 7. 2. All’aumentare del numero di filtri considerato aumenta il tempo necessario per calcolare la metrica, senza un consistente miglioramento delle performances. In base a queste due considerazioni la metrica è stata in ultimo definita come: . 30 (16) Ingegneri Napoli ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.19 Pagina 31 Figura 6. Immagine Lena con rumore gaussiano con deviazione standard pari a 10 e sue decomposizioni nelle sottobande (n=1,k=0), (n=4,k=0) e (n=7,k=0) rispettivamente Figura 7. Immagine Lena con rumore gaussiano con deviazione standard pari a 10 e sue decomposizioni nelle sottobande (n=1,k=0), (n=4,k=0) e (n=7,k=0) rispettivamente 5. Risultati sperimentali È stata condotta un’esaustiva campagna di test sulla misura proposta per confrontarne le performance con lo stato dell’arte. Gli esperimenti sono stati condotti su di un database [7] di 38 immagini aeree digitalizzate messo a disposizione dall’USC-SIPI (University of Southern California, dipartimento di Signal and Image Processing Institute) finalizzato a sostenere la ricerca nell’elaborazione e l’analisi delle immagini e nella visione industriale. Per effettuare un confronto oggettivo tra le varie misure si è utilizzato un indice di merito, che permettesse di valutare le performance dei diversi algoritmi. In letteratura sono proposti molti metodi per valutare le prestazioni delle misure di messa a fuoco. Per simulare il processo di messa a fuoco, ad ogni immagine del database è stato applicato una serie di filtraggi gaussiani con deviazione standard crescente. Se si considera, per la singola immagine, la curva che si costruisce va- numero tecnologia marzo-luglio 2010 2 31 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.19 Pagina 32 Figura 8. Esempio di immagini estratte dal database utilizzato lutando la misura di Autofocus al crescere del grado di sfocatura, lo score è il metodo che tiene conto di vari fattori di merito, quali: – intervallo di unimodalità (range); – numero di falsi massimi (number of false maxima); – larghezza (width). In particolare, l’intervallo di unimodalità è la distanza tra il minimo locale più vicino alla condizione di fuoco; il numero di falsi massimi corrisponde al numero di massimi locali che si presentano durante la fase di misura, mentre la larghezza è definita come la distanza alla quale si trovano i punti la cui ampiezza è il 50% del valore massimo (Figura 9). Ciò premesso, lo score è dato da Figura 9 32 dove max .range è l’ampiezza dell’intervallo di analisi, corrispondente al numero totale di posizioni che la lente può assumere nella pratica. Quindi più basso è il valore dello score, migliori sono le performance dell’algoritmo. In Figura 10 è riportato l’andamento della media dello score calcolato applicando un processo di sfuocatura sintetica a tutte le immagini del database, all’aumentare dell’intensità del rumore gaussiano applicato, per la misura proposta e per quelle allo stato dell’arte. In Figura 11 sono riportati i risultati dello stesso esperimento, in questo caso applicando rumore sale & pepe con densità crescente. Per bassi valori di rumore la misura proposta presenta mediamente un valore dello score più alto. Abbiamo verificato che tale comportamento è dovuto a un valore di width più elevato e non alla presenza di falsi estremi. All’aumentare del rumore (caso più vicino alle applicazioni reali) le performance del metodo proposto sono nettamente superiori. Nel caso di rumore sale & pepe (tipico dei sensori CMOS) la tecnica proposta dimostra delle performance nettamente superiori allo stato dell’arte. La metrica proposta si candida quindi, ad essere un algoritmo per la calibrazione di payload ottici per l’osservazione della Terra. Un ultimo test è stato svolto su di un processo di messa a fuoco reale e non simulato: una serie di immagini di una stessa scena sono state catturate variando il fuoco di una fotocamera. Il sistema di acquisizione è costituito da una fotocamera Canon 450D montata su un treppiedi metallico, controllata da remoto con un PC attraverso il software Remote Capture; le immagini sono state acquisite con sensibilità ISO 800 in condizioni di bassa luminosità. Impostando la messa a fuoco manuale, e controllando quest’ultima attraverso il software di controllo in dotazione, sono state acquisite in totale 12 immagini a piena risoluzione (4272 × 2848) della stessa scena con vari gradi di sfocatura (Figura 12). Gli autori, ad una successiva ispezione visiva, hanno determinato che l’immagine a fuoco fosse la decima della serie. Ingegneri Napoli ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.19 Pagina 33 Figura 10 Figura 11 Figura 12. Esempio delle 12 immagini acquisite In Figura 13 si riportano, pertanto, i risultati ottenuti post-processando le immagini acquisite con gli algoritmi descritti in precedenza; sull’asse delle ascisse è riportato il numero dell’immagine della serie acquisita, mentre sulle ordinate il valore della misura calcolato per ogni immagine. Come si evince dalla Tabella 1, la misura basata sui filtri armonici di LaguerreGauss presenta migliori performance rispetto alle tecniche tradizionali; pertanto si può concludere che tale tecnica sia estremamente affidabile. numero tecnologia marzo-luglio 2010 2 33 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.19 Pagina 34 Figura 13. Le misure sono state normalizzate al fine di un confronto visivo. Si noti che la metrica basata sui polinomi di Chebishev (curva azzurra), addirittura fallisce l’identificazione dell’immagine a fuoco Tabella 1. Valori dello score calcolati per l’esperimento su immagini reali Metrica Lagurre-Gauss Tenengrad Laplaciano Wavelet Chebishev 34 Score 6,00 7,00 12,04 12,04 12,53 6. Riferimenti 1. Subarrao, M., Choi, T., Nikzad, A.: Focusing tecnique. Proc SPIE-Int. Soc. Opt. Eng (1992) 163-174. 2. Tenebaund, J.: Accomodation in Computer Vision. Ph.D. Dissertation (1970) Standford University. 3. Kautsky, J., Flusser, J., Zitov, B., Simberov, S.: A new wavelet-based measure of image focus. Pattern Recognition Letters 23 (2002) 1785-1794. 4. Yap, P., Raveendran, P.: Image focus measure based on chebyshev moments. IEEE Proc.-Vis. Image Signal Process 151 (2004) 128-136. Ingegneri Napoli 5. Neri, A., Iacovitti, G.: Maximum likelihood localization of 2-d patterns in the gauss-laguerre transform domain: Theoretic framework and preliminary results. IEEE Transaction on Image Processing 13 (2004) 72-86. 6. Sorgi, L., Cimminiello, N., Neri, A.: Keypoints selection in the gauss laguerre transformed domain. In Proc. Of the British Machine Vision Conference (2006) Edimburgh, UK. 7. http://sipi.usc.edu/database/database.cgi?volume=aerials. ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.19 Pagina 35 VALUTAZIONE DELLA RIDUZIONE DEL LIVELLO DI VULNERABILITÀ SISMICA DI UN EDIFICIO ESISTENTE IN C.A. TRAMITE DISACCOPPIAMENTO DEI PANNELLI MURARI Il presente lavoro rappresenta la sintesi di una prima fase di analisi teorico-sperimentale sulla mitigazione della vulnerabilità sismica di strutture esistenti, svolta dal gruppo di studio e ricerca coordinato e coadiuvato dal Prof. Ing. Mario Pasquino, presso il Dipartimento di Ingegneria Strutturale dell’Università degli Studi di Napoli Federico II. D. Cancellara Dottorando in Ingegneria delle Costruzioni, Università degli Studi di Napoli Federico II D. Siniscalco 1. Introduzione L’Italia è un paese caratterizzato da una pericolosità sismica, ovvero la frequenza e l’intensità dei fenomeni sismici, medio-alta, e da una vulnerabilità delle costruzioni esistenti particolarmente elevata. L’aspetto legato alla vulnerabilità, è una conseguenza diretta della qualità scadente delle costruzioni, sia in termini di materiali e particolari costruttivi sia in termini di concezione strutturale. Larga parte del territorio è a rischio sismico, ma solo una bassissima percentuale di edifici ricadenti in tali aree, è stato progettato utilizzando criteri antisismici. Inoltre, le costruzioni più datate in zona sismica, sono state progettate e realizzate con riferimento a norme ormai obsolete, non in grado di garantire una sicurezza paragonabile a quella che si potrebbe assicurare applicando le attuali Norme Tecniche. Tali edifici andrebbero necessariamente adeguati per dare loro la possibilità di fronteggiare le azioni derivanti dal terremoto di progetto. In questo lavoro, si adotterà un approccio agli spostamenti (DBA - Displacement Based Approach) per la valutazione della resistenza e della vulnerabilità sismica di un edificio in c.a., in vista di un suo adeguamento mediante tecniche tradizionali e/o innovative. Tale metodologia è inserita nell’ottica di un approccio prestazionale (PBA – Performance Based Approach) cui le attuali norme simiche fanno riferimento. In particolare, il lavoro verterà sulla descrizione dettagliata del processo di valutazione, mediante analisi statica non lineare, di un edificio situato in una zona ad alta sismicità, quale la Sicilia sud-orientale, in provincia di Siracusa, progettato per soli carichi gravitazionali, con lo scopo di valutarne l’inadeguatezza nei confronti del sisma secondo le prescrizioni delle attuali normative. Nella fase di valutazione della vulnerabilità sismica, è stato considerato l’effetto delle tamponature sulla struttura, modellando in regime non lineare tutti quei pannelli murari ritenuti efficaci. Nel caso in esame, l’effetto della tamponatura ha determinato un peggioramento del comportamento sismico della struttura esistente e qualora tali tamponature non fossero state considerate, come spesso accadde, illudendosi in un suo generalizzato effetto numero marzo-luglio 2010 Libero professionista D. Buccafusca Libero professionista “ È sembrato opportuno disaccoppiare i pannelli murari dalla struttura intelaiata, in modo che la struttura risulti nuda senza quindi alcuna interazione significativa con le tamponature ” 2 35 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.20 Pagina 36 benefico, avrebbe orientato la progettazione su un intervento di adeguamento completamente diverso e non rispondete alle reali esigenze della struttura esistente. In altre parole, se le tamponature fossero state trascurate nella modellazione, non si sarebbero apprezzati meccanismi di collasso fragili, come si vedrà ampiamente in seguito, e si sarebbe progettato un intervento di adeguamento come se la struttura di riferimento fosse differente da quella che realmente si vorrebbe adeguare. Figura 2. Spettri elastici in accelerazione Figura 1. Qualità scadente dei materiali da costruzione e difetti di progettazione di strutture esistenti Figura 3. Spettri elastici in spostamento 36 Ingegneri Napoli 2. Il caso di studio Il fabbricato, oggetto del presente studio, è situato in provincia di Siracusa (lat. 37.175, long. 14.991). Di seguito si riporta la caratterizzazione dell’azione sismica, secondo le NTC 2008, attraverso gli spettri di risposta elastici in termini di accelerazione e spostamenti per gli Stati Limite considerati: SLC, SLV e SLD. L’edificio è costituito complessivamente da sette livelli adibiti a civile abitazione con copertura a falda pia- ingegneri_napoli_2010-2:Layout 1 13/07/2010 na praticabile. La struttura portante è realizzata da travi e pilastri a sezione rettangolare in conglomerato cementizio armato ed è costituita da quattro telai paralleli lungo l’asse X. I telai trasversali lungo l’asse Y non sono presenti ad eccezione di quelli esterni di chiusura del perimetro. I due nuclei scala sono ubicati lungo i lati corti della pianta dell’edificio, alle estremità opposte, in maniera simmetrica. L’edificio, progettato per soli carichi verticali, è caratterizzato da una concezione “gravitazionale”, e presenta simmetria rispetto ad entrambi gli assi di riferimento (X e Y). – Lunghezza totale lungo l’asse X (Lx): 30.00 m – Lunghezza totale lungo l’asse Y (Ly): 15.00 m – Numero di piani: 7 – Luce campate direzione X: 5.00 m – Luce campate direzione Y: 5.00 m – H interpiano: 3.00 m – H totale: 21.00 m – Numero campate direzione X: 6 – Numero campate direzione Y: 3 – Solai orditi nella direzione trasversale (lungo l’asse Y). La valutazione è stata effettuata considerando gli impalcati infinitamente rigidi, credendo efficace la presenza della soletta di ripartizione nel solaio. I pilastri si rastremano in elevazione, 12.20 Pagina 37 mentre le sezioni delle travi, tutte emergenti, sono le stesse per ogni impalcato e misurano 30x50 cm. Si riportano i prospetti architettonici, nonché le pinte piano terra e piano tipo. Tali prospetti permettono di comprendere le motivazioni che hanno portato a ritenere solo alcune tamponature efficaci, nel modello di calcolo. Sulla base degli approfondimenti effettuati nella fase conoscitiva, si individua il cosiddetto Livello di Conoscenza e conseguentemente si definisce il parametro da adottare come coefficiente parziale di sicurezza, che tiene conto delle carenze e/o incertezze dei parametri del modello di struttura che si vuole costruire. Tale coefficiente è il Fattore di Confidenza (FC). Questo particolare coefficiente parziale di sicurezza, dipende dalla “quantità” e “qualità” dei dati acquisiti sul fabbricato esistente e sarà applicato alle proprietà dei materiali per le verifiche di sicurezza. Inoltre il Livello di Conoscenza determina anche il metodo di analisi strutturale che si può utilizzare. Per il caso in esame, la disponibilità di informazioni raggiunta con riferimento a geometria, dettagli costruttivi e proprietà dei materiali, consente di definire un livello di conoscenza dell’edificio del tipo LC2, che defini- numero ricerca marzo-luglio 2010 Figura 4. Pianta 1° piano; sezione trasversale 2 37 ingegneri_napoli_2010-2:Layout 1 13/07/2010 Figura 5. Prospetti architettonici Figura 6. Pianta piano terra, piano tipo 38 12.21 Pagina 38 sce un fattore di confidenza, da doversi adoperare nelle verifiche di sicurezza, pari a FC=1.20. Tale FC consente l’utilizzo di qualsiasi tipo di analisi e pertanto, ai fini del presente lavoro, sarà possibile adottare l’analisi statica non lineare. I materiali utilizzati presentano le seguenti caratteristiche, precisando che le valutazioni sono state effettuate considerando come resistenze di riferimento, quelle medie: – calcestruzzo: fcm = 18 N/mm2 (MPa) (resistenza media cilindrica a compressione); – acciaio: fym = 275 N/mm2 (MPa) (tensione di snervamento media). Le tamponature sono realizzate in mattoni forati a doppia fodera con camera d’aria, per uno spessore delle parti in laterizio di 12 + 8 cm, con posa a fori orizzontali; la percentuale di foratura dei laterizi è superiore al 55%. In seguito ad un esame diretto i corsi orizzontali e verticali di malta sono risultati di buona qualità. Delle tamponature presenti, solo alcune possono essere definite “efficaci”, ossia tali da garantire una certa rigidezza e resistenza alle azioni orizzontali nonostante le scarse caratteristiche meccaniche dei materiali con cui sono state realizzate. Ingegneri Napoli È evidente l’irregolarità in elevazione delle tamponature, causata da una diversa disposizione al piano terra rispetto ai piani superiori. Al livello più basso sono stati collocati i garage, mentre la parte rimanente è porticata; ne consegue che, al primo livello, le tamponature si estendono solo parzialmente. Analizzando la posizione dei pannelli ai piani superiori al primo, si nota che la maggior parte delle tamponature sono efficaci in direzione trasversale nei due telai di estremità e sono disposti in modo pressoché continuo su tutti i piani. Nella campata centrale dei due telai di estremità, le tamponature si estendono tra due pilastri con luce libera di inflessione dimezzata rispetto alle altre due pilastrate, a causa della presenza della trave di interpiano e inoltre, non sono efficaci per tutta l’altezza di interpiano per la presenza di aperture. In direzione longitudinale le tamponature efficaci si collocano in corrispondenza dei telai di estremità, solo al primo livello e sul lato longitudinale del vano scale. A causa della presenza del porticato in direzione longitudinale, solo quattro maglie del telai esterni in direzione longitudinale sono tamponate al primo livello. Le tamponature efficaci poste in corrispondenza del vano ingegneri_napoli_2010-2:Layout 1 13/07/2010 scale sono invece presenti su tutta l’altezza dell’edificio. Non si ritengono efficaci quelle tamponature arretrate che non sono quindi inserite in alcuna maglia strutturale. Rientrano in tale tipologia, tutti i pannelli murari in direzione longitudinale in corrispondenza dei livelli superiori al primo. Si potrà osservare nelle immagini relative alla modellazione della struttura, le tamponature considerate efficaci nel modello di calcolo. 3. Metodo di analisi per la valutazione della risposta sismica I codici sismici consentono di utilizzare analisi elastiche lineari (statiche e dinamiche) che pur con i relativi limiti, risultano ancora procedure largamente diffuse. Un’alternativa, già introdotta anche in normativa, è l’uso di procedure di analisi non lineari (statiche e dinamiche) che consentono stime più realistiche ed affidabili della risposta strutturale. In effetti, è sempre più frequente la loro applicazione sia nella progettazione che nella verifica strutturale. Nel caso oggetto di studio, trattandosi di un edificio esistente, con non poche incertezze sulla proprietà geometriche e meccaniche della struttura, si è preferito non scomodare l’analisi dinamica non lineare con la sua maggiore complessità rispetto all’analisi statica non lineare. L’utilizzo di uno strumento così complesso e sofisticato, quale l’analisi dinamica non lineare non sarebbe stato giustificato a fronte delle incertezze strutturali di cui prima si è accennato. Pertanto, l’analisi adottata è stata la statica non lineare che oltretutto conserva la notevole semplicità d’uso e di interpretazione dei risultati. Questo tipo di analisi comprende essenzialmente due aspetti: 1. la determinazione di un legame forza-spostamento (curva di capacità o curva pushover), rappresentativo del reale comportamento 12.21 Pagina 39 monotono della struttura, la cui definizione richiede un’analisi di spinta; 2. la valutazione dello spostamento massimo o punto prestazionale (performance point) raggiunto dalla struttura a fronte di un evento sismico definito tramite uno spettro di risposta elastico in accelerazione. L’analisi di spinta consente di descrivere il comportamento della struttura tramite un semplice legame monodimensionale forza-spostamento, quale appunto la curva di capacità della struttura. Tale curva è solitamente espressa, in termini di taglio alla base (Vb) e spostamento in sommità (Dt) (Figura 7) che rappresenta appunto la capacità esibita dal sistema a fronteggiare una certa azione esterna. Analizzando la risposta di strutture reali, è necessario semplificare il problema, linearizzando a tratti la risposta del sistema, e quindi la sua curva di capacità, adottando approssimazioni bilineari come mostrato a titolo di esempio in Figura 7. Sono disponibili numerosi criteri per bilinearizzare la curva di capacità. Al fine di verificare la capacità di una struttura di sopportare un terremoto mediante un confronto tra la sua capacità deformativa e gli spostamenti richiesti dal sisma, senza però incorrere nelle difficoltà operative connesse all’uso dell’analisi dinamica non lineare, sono state proposte in letteratura varie metodologie “displacement based”: ad esempio il metodo dello spettro di capacità oppure (CSM) o il metodo N2. I metodi statici non lineari oggi consentiti dalle normative per la valutazione della risposta sismica delle strutture si basano sostanzialmente sul metodo N2. Le differenze che si riscontrano tra questi, sono essenzialmente dovute al diverso modo con cui il legislatore ha voluto rendere più agevole il loro impiego. Il metodo statico non lineare proposto dall’O.P.C.M. 3431 e successivamente dalla NTC 2008 segue abbastanza numero ricerca marzo-luglio 2010 Figura 7. Profilo di carico in un’analisi di spinta. Linearizzazioni bilineari della curva di capacità 2 39 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.21 Pagina 40 Figura 8. Metodo N2 nel piano ADRS (Acceleration Displacement Response Spectrum) Figura 9. Valutazione della Domanda di spostamento per il sistema SDOF (sistema ad 1 g.d.l.) e per il sistema MDOF (sistema a più g.d.l. rappresentate la struttura oggetto di studio) fedelmente la formulazione originaria del metodo N2, proposta da Fajfar (1999). 4. Modellazione non lineare della struttura Nella schematizzazione dell’edificio sono state introdotte alcune ipotesi, ossia: – trascurare gli elementi non strutturali: vengono considerati come non strutturali (e perciò non vengono modellati) le tramezzature interne, le tamponature esterne con un’alta percentuale di foratura e quelle arretrate che non sono quindi inserite in alcuna maglia strutturale; – considerare ciascun impalcato come infinitamente rigido nel proprio piano; – assumere uno schema costituito da un insieme spaziale di telai piani; questo implica che gli assi delle aste che si uniscono in un nodo convergano in un punto; – considerare la struttura incastrata al piede e trascurando le interazioni col terreno. La modellazione dell’edificio è stata condotta a plasticità concentra, con l’utilizzo del programma agli elementi finiti SAP2000 v.10/14 che ha 40 Ingegneri Napoli permesso di definire ed assegnare in modo opportuno le cerniere plastiche. La struttura portante dell’edificio è costituita da pilastri, travi e tamponature resistenti; non sono presenti pareti strutturali in grado di resistere a taglio. Il vano scale viene modellato con una trave di interpiano sulla quale si va ad innestare la soletta rampante, mentre i solai, pur essendo elementi resistenti, vengono tenuti in conto mediante l’inserimento un vincolo mutuo di rigidità tra i nodi del telaio spaziale che giacciono nel suo stesso piano, riproducendo quindi l’ipotesi di impalcato rigido. Gli elementi che compongono il telaio in c.a. vengono rappresentati con elementi frame, in grado di reagire alle sollecitazioni assiali, flettenti e taglianti. Per quanto riguarda i pannelli di tamponatura, si è inserito un elemento frame, dotato unicamente di rigidezza assiale, che collega i vertici opposti della maglia strutturale in cui il pannello è inserito. Tale elemento diagonale non connette esattamente il punto di incontro degli assi del telaio, ma si innesta sul pilastro ad una distanza pari ad un quindicesimo della sua altezza. Nelle figure seguenti sono riportate delle immagini dell’edificio, dove in giallo sono rappresentati gli elementi in c.a. e in blu le tamponature con il modello a puntone ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.22 Pagina 41 diagonale equivalente, nel caso di analisi monotona da sx verso dx. 4.1. Le tamponature Il comportamento della tamponatura non può essere descritto andando a definire un legame sforzo-deformazione per il materiale che lo compone; infatti a seconda dell’intensità del carico cambiano i meccanismi resistenti ed una porzione di muratura può essere considerata “inattiva” (ossia non soggetta al flusso di sforzi di compressione) in base alla sua posizione rispetto alla diagonale principale. Si giunge quindi alla conclusione che per descrivere in modo appropriato il comportamento di una tamponatura si debba ricorrere ad una curva scheletro, ossia ad una relazione globale valida per l’elemento nel suo insieme e che definisce il legame tra la forza imposta e lo spostamento da esso subito. Per la modellazione numerica dei pannelli, viene proposto il modello di puntone equivalente di Panagiotakos e Fardis con l’associazione di un legame del tipo forza-spostamento per il pannello in muratura sottoposto a soli carichi laterali. La curva scheletro che rappresenta tali relazioni, definisce tre rami che si riferiscono ai meccanismi che governano il comportamento della tamponatura: una prima parte non fessurata in cui è preponderante la resistenza a taglio, poi un tratto post-fessurazione in cui prevalgono le compressioni, ed una parte finale di softening in cui viene meno la resistenza del pannello; inoltre, viene considerata nulla la resistenza a trazione dell’elemento. I parametri che, in base alle caratteristiche della muratura, definiscono i tre rami della curva nella fase di compressione sono ben evidenziati nel modello. Si precisa che la larghezza efficace del puntone è stata valutata con la formula di Mainstone valida per pannelli in laterizio di forma rettangolare: Figura 10. Telaio esterno (a) Figura 11. Telaio interno (b) dove: – hw è l’altezza del pannello; – dw è la lunghezza del puntone; – lw è la lunghezza del paramento murario; – tw è lo spessore del paramento murario; – θ è l’inclinazione del puntone rispetto l’orizzontale; – Ew è il modulo elastico a compressione assunto pari a 2500 MPa; – Ec è il modulo elastico del calcestruzzo; – Ip è l’inerzia effettiva dei pilastri adiacenti. Figura 12. Telaio esterno (c) Figura 14. Curva del legame definito da Panagiotakos-Fardis. rigidezza del tratto iniziale non fessurato: R1 = Gw ⋅ tw ⋅ lw/hw carico di fessurazione: Fy = fws ⋅ tw ⋅ lw rigidezza del secondo tratto: R2 = Ew ⋅ tw ⋅ bw/dw carico massimo: Fm = 1,3 ⋅ Fy rigidezza del tratto di softening: R3 = (0,01÷ 0,10) ⋅ R1 carico residuo dopo la rottura: Fu = 0,1 ⋅ Fy (Ew = 2500 MPa; Gw = 600 MPa; fws = 0,30 MPa) numero ricerca marzo-luglio 2010 Figura 13. Vista 3D con modellazione tamponature ritenute efficaci 2 41 ingegneri_napoli_2010-2:Layout 1 13/07/2010 Figura 15. Legame momento-curvatura sezione in c.a. 12.22 Pagina 42 Le bielle equivalenti non vengono posizionate esattamente negli angoli della maglia, ma sono traslati verso il basso, a contatto col pilastro, in modo da tener conto del fatto che il contatto tra pannello e puntone equivalente non è puntiforme, ma si estende per una lunghezza teorica z. È stata assegnata una cerniera assiale, attraverso le hinge properties, posta in una generica posizione della diagonale, in cui il legame forzaspostamento adottato, differisce da quello presentato da Panagiotakos & Fardis soltanto per il terzo tratto, per il quale si trascura il comportamento degradante. Tale scelta, comunque conservativa, è dettata dal voler migliorare la stabilità numerica del programma di calcolo e non avere problemi di convergenza dei risultati. Inoltre, nel modello di calcolo, si sottrae l’aliquota elastica, definendo quindi il solo campo plastico, tramite un comportamento rigido-plastico. Infatti, la risposta elastica, viene determinata automaticamente dal programma di calcolo, in base alle proprietà meccaniche del materiale e alle caratteristiche geometriche dell’elemento. 4.2. Travi e pilastri La modellazione a plasticità concentrata prevede che tutti gli elementi costituenti la struttura rimangano sempre in campo elastico e che vengano introdotti, alle estremità di questi, elementi cerniera con comportamento anelastico laddove si preveda la formazione di una cerniera plastica. La non linearità della struttura rimane quindi concentrata in zone prestabilite della struttura. La caratterizzazione meccanica della cerniera plastica è effettuata, assumendo come riferimento il comportamento non lineare della sezione di estremità dell’elemento attraverso il legame momento curvatura e della luce di taglio. In generale, il comportamento non lineare della sezione di estremità di travi e pilastri, definito dal legame momento-curvatura, può sintetica- 42 Ingegneri Napoli mente esprimersi mediante una legge quadrilineare definita da: 1. una fase elastico-lineare fino alla formazione della prima fessura (Φcr, Mcr); 2. una fase fessurata durante la quale si registra la formazione di ulteriori fessure fino allo snervamento (Φy, My); 3. una fase post-elastica definita da una notevole diminuzione di rigidezza con conseguente aumento di deformabilità sino all’attingimento del valore massimo di resistenza flessionale (Φmax, Mmax); 4. una fase di degrado (softening) caratterizzata da una diminuzione di resistenza e da una elevata capacità deformativa sino al raggiungimento della rotazione ultima (Φu, Mu). Per definire il diagramma momento – rotazione (M - θ ) di una cerniera plastica, sono stati valutati i seguenti punti caratteristici: rotazione di yielding (θy); rotazione ultima (θu); momento di cracking (Mcr); momento di yielding (My). La rotazione di snervamento θy è valutata come somma di tre aliquote: contributo flessionale; contributo tagliante; contributo per scorrimento delle barre longitudinali, secondo quanto dettato dalle NTC 2008. Per quanto riguarda la rotazione ultima, si utilizza l’espressione fornita dalle NTC 2008 relativa alla formulazione sperimentale. Si precisa che, si è trascurato il contributo del confinamento, data l’incertezza circa il corretto posizionamento delle staffe e l’incertezza sulla loro chiusura. È utile precisare che nella modellazione al SAP2000, è stata sottratta l’aliquota elastica dalle rotazioni di yielding e dalla rotazione ultima poiché tale valore viene automaticamente calcolato dal SAP2000 attraverso la rotazione di estremità dell’elemento frame cui sono applicate le due cerniere plastiche. Si precisa inoltre che, il legame M - θ è simmetrico per i pilastri, ma non per le travi. ingegneri_napoli_2010-2:Layout 1 13/07/2010 Per ogni pilastro sono state definite 4 cerniere plastiche, mentre per ogni trave 2, per un totale di 1348 cerniere plastiche per l’intera struttura intelaiata. Particolare attenzione è stata adottata per la definizione delle cerniere plastiche dei pilastri in corrispondenza del vano scala e in particolare quei pilastri in corrispondenza della trave di interpiano. Per tali elementi, la luce da considerare sarà pari ad h (altezza d’interpiano) per la definizione delle cerniere plastiche secondo la direzione X, mentre sarà h/2 per la definizione delle cerniere plastiche secondo la direzione Y. In tal modo si riesce a considerare l’effetto del pilastro tozzo, in direzione Y, in seguito alla presenza della trave di interpiano del vano scala. 5. Analisi dello stato di fatto La capacità di una struttura di resistere ad un evento sismico, dipende fortemente dalla sua capacità deformativa in regime anelastico, ovvero dalla sua duttilità. Tali aspetti è possibile valutarli tramite l’analisi statica non lineare adottata. Al modello della struttura vengono applicate due distribuzioni di forze orizzontali definite come: – distribuzione delle forze di piano proporzionale al prodotto delle masse di piano per lo spostamento di piano relativo al I modo di vibrare: questa distribuzione di forze è rappresentativa della risposta dinamica della struttura in campo elastico; – distribuzione delle forze proporzionale alla sola massa di ciascun piano: tale distribuzione è rappresentativa del comportamento dinamico della struttura in campo plastico. La Domanda di sollecitazione e di deformazione è rappresentata sulla curva di capacità in corrispondenza dei valori relativi alla massima domanda in termini di spostamento della strut- 12.22 Pagina 43 tura soggetta ai diversi terremoti di progetto. Per eseguire questa operazione si adotta il metodo N2 nella formulazione prevista dalle NTC2008. Tramite la curva di capacità si è in grado di valutare la domanda della struttura sia in termini di resistenza sia in termini di deformabilità. La Capacità in termini di spostamento, viene valutata sulla curva di capacità, ritenendo raggiunto lo SLD quando la rotazione in una generica cerniera plastica è tale che θ = θy; lo SLV quando θ = 3/4θu; lo SLC quando θ = θu. Si riporta nel seguito i risultati relativi alla struttura in presenza ed in assenza di tamponatura. 5.1. Struttura Tamponata (ST) Le analisi statiche non lineari sono state condotte indipendentemente, secondo le due direzioni principali, imponendo all’edificio: – un set di forze agenti in direzione longitudinale (E-O); – un set di forze agenti in direzione trasversale (N-S). In ciascuna direzione sono state considerate due possibili distribuzioni di forze orizzontali e quindi il numero di analisi complessive eseguite è stato 4, essendo la struttura simmetrica in entrambe le direzioni. Tali analisi sono siglate: Mode X; Masse X; Mode Y; Masse Y. Per ciascuna di queste analisi, con riferimento agli stati limite considerati, è stata valutata la Domanda di spostamento a valle di una procedura che ha previsto la determinazione di un sistema SDOF bilineare equivalente; la determinazione della risposta massima in spostamento del sistema bilineare equivalente; la conversione del valore di spostamento relativo al sistema SDOF equivalente, nello spostamento del sistema MDOF (spostamento massimo effettivo sulla struttura analizzata). Una volta trovato lo spostamento effettivo per lo SL considerato, si procede alla verifica di compatibilità degli spostamenti per numero ricerca marzo-luglio 2010 2 43 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.23 Pagina 44 Figura 16. Curva pushover MODE X Figura 17. Telai interessati dalla crisi delle tamponature Figura 18. Rottura dei pannelli di tamponatura (step A) Figura 19. Meccanismo di piano del telaio con tamponature in crisi (step B) 44 elementi/meccanismi duttili e delle resistenze per gli elementi/meccanismi fragili. Per saggiare il livello di vulnerabilità della struttura e quindi il livello di inadeguatezza all’azione sismica prevista dalla norma, si calcola un Fattore di Sicurezza (FS) come rapporto tra la Capacità di spostamento e la Domanda di spostamento per lo SL richiesto. Si riportano per ovvi motivi di spazio, le sole analisi allo Stato Limite di Collasso con riferimento alla distribuzione di forze orizzontali proporzionale al prodotto delle masse di piano per lo spostamento di piano relativo al I modo di vibrare che risulta essere la distribuzione più penalizzante. Si evidenzia la Domanda di spostamento allo SLC e si sintetizza in Tabella 1 la proceduta adotta per giungere alla valutazione del Fattore di Sicurezza (FS). Si riporta inizialmente l’analisi in direzione X e successivamente l’analisi in direzione Y. In ultima battuta viene sintetizzata la valutazione sismica della struttura, tabellando i valori FS sia allo Stato Limite di Collasso sia allo Stato Limite di salvaguardia della Vita. 5.1.1. Analisi allo Stato Limite di Collasso (SLC) – direzione X A valle dell’analisi statica non lineare si ottiene la seguente curva di capacità, di cui si evidenziano i due step più significativi, indicati rispettiva- Ingegneri Napoli mente con step A e step B. Si evidenzia anche la domanda di spostamento allo SLC. Dall’analisi della curva pushover si nota che per uno spostamento di 7.8 cm, corrispondente allo step A, si ha la rottura dei pannelli di tamponatura al secondo, al terzo e al quarto impalcato come è chiaramente mostrato nella Figura 18. Dalla Figura 19 si nota che a causa della crisi dei pannelli di tamponatura, si crea un meccanismo di piano con collasso della struttura (step B) per raggiungimento della rotazione ultima delle cerniere plastiche all’estremità dei pilastri, relativi al quarto impalcato. Ai fini della sola bilinearizzare della curva pushover che presenta un drop in corrispondenza dello step A, si è scelta una curva di riferimento, a vantaggio di sicurezza, che non considera i pannelli di tamponatura che hanno raggiunto la rottura, sin dall’inizio dell’analisi di spinta. Tutto ciò, è stato necessario per facilitare la bilinearizzazione della curva e conseguentemente il calcolo della domanda di spostamento. Tale semplificazione, poiché considera un sistema SDOF equivalente più deformabile, comporta una stima più conservativa della domanda di spostamento. Di seguito si riportano le caratteristiche del sistema bilineare equivalente, relativo al sistema SDOF e la valutazione della domanda di sposta- ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.23 Pagina 45 Figura 20. Curva pushover del sistema MDOF, SDOF e bilinearizzazione Tabella 1. Domanda e capacità di spostamento. Fattore di Sicurezza mento secondo quanto prescritto dalle NTC 2008. 5.1.2. Analisi allo Stato Limite di Collasso (SLC) – direzione Y Si riportano i risultati dell’analisi pushover, nella direzione trasversale che sappiamo essere quella più deformabile e quindi di maggiore vulnerabilità per l’intera struttura. Dall’analisi della curva pushover si nota che per uno spostamento di 7.5 cm (step A), si ha la rottura di alcuni pannelli di tamponatura al secondo e al terzo impalcato come è chiaramente mostrato nella Figura 22, mentre per uno spostamento di 8.1 cm si ha la rottura di ulteriori pannelli al secondo impalcato. Dalla Figura 23 si nota che a causa della crisi dei pannelli di tamponatura, si crea un meccanismo di piano al terzo impalcato (step B). Di seguito si riportano le caratteristiche del sistema bilineare equivalente relativo al sistema SDOF e la valutazione del livello di vulnerabilità con il relativo valore del FS. Figura 21. Curva pushover MODE Y numero ricerca marzo-luglio 2010 2 45 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.24 Pagina 46 Figura 25. Curva pushover del sistema MDOF, SDOF e bilinearizzazione Figura 22. Rottura dei pannelli di tamponatura (step A) Tabella 2. Domanda e capacità di spostamento–Fattore di Sicurezza Figura 23. Meccanismo di piano del telaio con tamponature in crisi (step B) Si riporta una tabella riassuntiva dei Fattori di Sicurezza delle analisi effettuate, nelle due direzioni, per le due distribuzioni di forze orizzontali e per i due Stati Limite Ultimi considerati. Si evita di riportare i risultati relativi allo SLD, solo perché decisamente meno penalizzanti rispetto a quelli relativi allo Stato Limite Ultimo. Dall’analisi dei Fattori di Sicurezza, si osserva il considerevole livello di vulnerabilità della struttura, maggiormente accentuata nella direzione Y poiché tale direzione risulta essere la più deformabile per la minore presenza di elementi sismo-resistenti. Lavoro analogo è stato svolto per la struttura nuda cioè priva di tamponature. Per ovvi motivi di spazio, si riporta direttamente nel paragrafo seguente, il confronto sia in termini di curve di capacità sia in termini di Fattori di Sicurezza. Tabella 3. Fattori di Sicurezza per la struttura tamponata Figura 24. Telai interessato dalla crisi delle tamponature 46 Ingegneri Napoli ingegneri_napoli_2010-2:Layout 1 13/07/2010 6. Analisi Struttura Nuda e comparazione con Struttura Tamponata Si riporta una sovrapposizione delle curve di capacità relative alla Struttura Tamponata (ST) e Struttura Nuda (SN), sia nella direzione X sia nella direzione Y, per le due distribuzioni di forze orizzontali considerate (Mo- 12.25 Pagina 47 de; Mass), per i due Stati Limite Ultimi considerati (SLV e SLC). Si riporta anche una tabella riassuntiva dei Fattori di Sicurezza (FS) valutati sia nel caso di struttura ST sia nel caso di struttura SN. Anche in questo caso, si evita di riportare i risultati relativi allo SLD, solo perché decisamente meno penalizzanti rispetto a quelli relativi allo Stato Limite Ultimo. Figura 26. Curve di capacità per la Struttura Tamponata (ST) e per la Struttura Nuda (SN) allo SLC Figura 27. Curve di capacità per la Struttura Tamponata (ST) e per la Struttura Nuda (SN) allo SLV Tabella 4. Fattori di Sicurezza per la struttura ST e SN numero ricerca marzo-luglio 2010 2 47 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.25 Pagina 48 Dalle analisi sopra riportate si nota come l’effetto delle tamponature sia deleterio per il comportamento sismico della struttura analizzata, in quanto determina un drastico cambiamento del meccanismo di collasso, passando da un meccanismo duttile di trave ad un meccanismo fragile di piano. Tale risultato non deve meravigliare in quanto su strutture particolarmente deformabili, come accade nel caso in esame lungo la direzione Y, le tamponature possono avere un’incidenza negativa anche in presenza di una loro disposizione regolare in pianta ed in elevazione. Tale aspetto evidenzia come il considerare o meno le tamponature non è una variabile trascurabile, dato che qualora non venissero considerate si giungerebbe a dei risultati errati non rispondenti al reale comportamento della struttura. Inoltre, in vista di un intervento di adeguamento sismico, partendo da risultati errati (nel caso in esame, ben lontani dal poterli definire conservativi), si seguirebbe ad una progettazione errata. In altre parole, si adeguerebbe la struttura in modo anomalo senza quindi essere certi che la struttura stessa, risulti effettivamente adeguata e quindi in grado di soddisfare i livelli prestazionali previsti dalla norma: SLD e SLV (o SLC). 6. Conclusioni e proposta di disaccoppiamento delle tamponature La scelta di includere o meno i pannelli di muratura, nel modello di calcolo di in una struttura intelaiata in c.a., è legata alla comprensione del comportamento della struttura in presenza di azioni sismiche e quindi alla valutazione dell’entità degli effetti indotti su travi e pilastri dalla presenza dei tompagni. Se si considera per la tamponatura un semplice modello meccanico, quale quello di asta incernierate nelle sue sezioni di estremità, si capisce facilmente che la componente verticale della forza as- 48 Ingegneri Napoli siale che esso assorbe, induce sforzo normale nei due pilastri adiacenti. Tenendo poi presente che nella realtà, il pannello murario ha un contatto diffuso con le aste e non trasmette la forza direttamente nel nodo, si comprende che all’estremità dei pilastri nasce un taglio, che può cautelativamente essere considerato pari alla componente orizzontale della forza nel pannello, ed un momento flettente, convenzionalmente valutato ipotizzando che la forza di taglio sia applicata ad una distanza dal nodo pari ad un quindicesimo dell’altezza del pilastro. Anche se i pannelli murari generalmente, assorbono un’aliquota dell’azione sismica che in molti casi può andare dal 10 al 50%, con una relativa riduzione delle caratteristiche di sollecitazione nelle aste della struttura intelaiata, è pur vero che la presenza dei pannelli murari comporta un irrigidimento dello schema strutturale e quindi una riduzione del suo periodo proprio; condizionando la risposta dinamica elastica e provocando un aumento dell’azione sismica. Nel caso in esame, essendo la struttura nuda molto deformabile in direzione trasversale, l’aspetto dell’irrigidimento e dell’incremento dell’azione sismica, da parte della tamponatura, è sicuramente preponderante sul primo aspetto in cui si considera l’effetto collaborante nell’assorbire l’azione sismica. Si ricorda inoltre che la muratura ha un comportamento fragile il che giustifica la presenza di “salti” sulle curve di capacità che rappresentano quindi, l’improvvisa perdita di resistenza della struttura. Ciò ha influenza sulla risposta inelastica, perché al sopraggiungere della rottura dei pannelli, l’aliquota di azione sismica da essi assorbita, si scarica istantaneamente sulla struttura facilitando il raggiungimento di un collasso fragile. Nel caso oggetto di studio, la distribuzione dei pannelli non è del tutto regolare, e quindi il comportamento strutturale peggiora sensibilmente ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.25 Pagina 49 Figura 28. Disaccoppiamento delle tamponature mediante tasselli di neoprene poiché i pilastri e le travi adiacenti alle tamponature, vanno in crisi prima di quando avverrebbe nel caso di struttura nuda. Inizialmente, si poteva pensare che la disposizione delle tamponature, per la struttura esaminata, poiché non particolarmente irregolare, potesse apportare dei benefici sulla risposta sismica dell’edificio, ma dall’approfondimento in regime non lineare, tutto ciò è stato disatteso. In conclusione, la struttura presenta un collasso fragile, molto insidioso e pericoloso, considerando l’effetto delle tamponature. Dalle considerazioni fatte finora, prima di passare alla fase di adeguamento della struttura tramite tecniche tradizionali (ringrosso dei pilastri; controventi in acciaio; pareti) o innovative (controventi con dispositivi ADAS, controventi ad instabilità impedita; controventi con dissipatori in serie), è sembrato opportuno disaccoppiare i pannelli murari (ovviamente solo quelli ritenuti “efficaci”) dalla struttura intelaiata, in modo che la struttura risulti nuda senza quindi alcuna interazione significativa con le tamponature. Ciò è suggerito dall’evidente beneficio che la struttura avrebbe se si evitasse che essa interagisca con quei pannelli che abbiamo evidenziato determinare un peggioramento del comportamento postsisma dell’edificio. Tale disaccoppiamento permette, in modo poco invasivo e con una ridotta incidenza sui costi finali, di minimizzare l’entità dell’intervento di adeguamento e quindi, di facilitare il raggiungimento di valori del Fattore di Sicurezza >1, in corrispondenza degli SL considerati. Per fare ciò, sarebbe sufficiente mantenere separato il pannello murario dai pilastri laterali lasciando un’intercapedine di dimensioni adeguate, da riempire con materiale caratterizzato da una notevole deformabilità. Per ridurre le azioni taglianti sul pannello murario, si crea una sconnessione anche con la trave sovrastante, come mostrato in Figura 28. La dimensione dell’intercapedine, tra la tamponatura e i pilastri laterali, si calcola in base allo spostamento di interpiano valutato allo SLU considerato, con riferimento alla struttura priva di tamponature. Si precisa inoltre che una soluzione di questo tipo, richiede un controllo a posteriori sulla resistenza della pannello murario in direzione trasversale, dal momento che la presenza della sconnessione, riduce il grado di vincolo della tamponatura lungo i bordi. Bibliografia 1. 2. Panagiotakos T.B., Fardis M.N., “Deformations of RC members at yielding and ultimate”, ACI Structural Journal, 2001. Fayfar P., “Capacity spectrum method based on inelastic demand spectra”, Proceedings of the 12th European Con- numero ricerca marzo-luglio 2010 2 49 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.25 3. 4. 5. 6. 7. 50 Pagina 50 ference on earthquake engineering, London, 2002. Ghersi A., “La regolarità strutturale nella progettazione di edifici in zona sismica”, Problemi attuali di ingegnria sismica, CUEN, 2002. Albanesi S., Carboni F., Albanesi T., “Ruolo delle murature leggere portate nel comportamento sismico di strutture intelaiate in cemento armato”, XI Congresso Nazionale “L’ingegneria sismica in Italia”, Genova 2004. Albanesi T., Nuti C., “Analisi di spinta: valutazione dell’accuratezza della risposta sismica attesa in edifici in c.a.”, XI Congresso Nazionale “L’ingegneria sismica in Italia”, Genova 2004. Colangelo F., “Effetto delle tamponature sul comportamento sismico di telai di c.a. coi pilastri deboli”, XI Congresso Nazionale “L’ingegneria sismica in Italia”, Genova 2004. Dolce M., Masi A., Ponzo F. C., Mucciarelli M., Gallipoli M., Di Cesare A., Tetta M., Vona M., “Identificazione delle caratteristiche strutturali dell’edificio IACP di Bonefro gravemente danneg- Ingegneri Napoli giato nel sisma del Molise 2002”, XI Congresso Nazionale “L’ingegneria sismica in Italia”, Genova 2004. 8. Faella C., Martinelli E., Nigro E., “Valutazione della risposta sismica di edifici in c.a. calcolati per soli carichi verticali ed esame comparativo delle tecniche di intervento”, XI Congresso Nazionale “L’ingegneria sismica in Italia”, Genova 2004. 9. Fib 2003a: “Seismic Assessment and Retrofit of Reinforced Concrete Buildings”, State of art report prepared Task Group 7.1. 10. Parducci A., “Progetto delle costruzioni in zona sismica”, Liguori editore, 2007. 11. Manfredi G., Masi A., Pinho R., Verderame G., Vona M., “Valutazione degli edifici esistenti in cemento armato”, IUSS PRESS editore, 2007. 12. Dolsek M., Fayfar P., “The effect of masonry infills on the seismic response of a four – storey reinforced concrete frame – a deterministic assessment”. Engineering Structures, Volume 30, Issue 7, July 2008. ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.25 Pagina 51 PALAZZO PENNE: STORIA E RIQUALIFICAZIONE DI UN MONUMENTO STORICO Di Palazzo Penne si è molto parlato negli ultimi tempi, ma il risveglio dell’interesse per la storia e le vicende che lo riguardano è assai recente, ed è legato all’intervento di un gruppo di intellettuali, della Fondazione Benedetto Croce e dell’Istituto Italiano per gli Studi Storici, i quali sono riusciti ad attirare l’attenzione sulla questione del degrado e dell’abbandono dello storico edificio. Palazzo Penne costituisce un significativo esempio non solo di architettura civile napoletana, ma anche di artigianato locale del sec. XV, osservabile nel portale monumentale dove ancora si conserva il portone di quercia. La sua fondazione risale al «Ventesimo anno del regno di re Ladislao» (1406), com’è ricordato dall'epigrafe posta sul portale. L’edificio fu commissionato da Antonio Penne, segretario del re Ladislao di Durazzo. Il creatore di tale progetto resta a noi ancora ignoto, anche se Carlo Celano avanzò il nome di Antonio Baboccio da Piperno che risultava, al tempo della realizzazione del palazzo, al servizio dei Penne per l’esecuzione del monumento funebre di Antonio. L’edificio sorge nella piazza oggi dedicata a Teodoro Monticelli e si sviluppa in pendio, lungo il “pennino di Santa Barbara”. Il Palazzo presenta due caratteristiche fondamentali: una d’impostazione gotica senese presente negli archi del cortile (analoghi a quelli di Castel Nuovo e del palazzo Carafa, successivi di mezzo secolo), l’altra di stile elegante nel gotico fiorito della facciata. La facciata di Palazzo Penne si compone di una lavorazione a bugnato, in piperno e trachite, dal cui centro emerge il bellissimo portale ad arco ribassato, in travertino di Bellona (marmo bianco) e Portanova rosato. Le bugne della parte superiore della facciata sono decorate a rilievo con i simboli della casata dei Penne (il simbolo araldico della piuma), e quelli della casata angioina-durazzesca (il simbolo araldico del giglio). L’intera facciata si caratterizza dall’alternanza cromatica data dalle diverse tipologie delle pietre e dei marmi. Nella parte superiore dell’arco è presente una lapide su cui è inciso l’anno di fondazione del Palazzo suggellato da tre piccole penne (simbolo della casata del committente). La lapide forma un unico blocco con lo stemma della casa Angiò-Durazzo. Nello spazio tra l’estradosso dell’arco e la cornice sono presenti altri due scudi in formato ridotto, con all’interno tre penne, mentre nel centro dell’arco ritroviamo una figurazione di non facile interpretazione, costituita da un gruppo di nuvole rese in stilizzate forme di petali, attraversate da raggi dai quali fuoriescono due mani. Queste ultime reggono l’orlo di due nastri che scorrono lungo tutto l’arco e sui quali vi sono incisi dei versi del poeta Marziale: «qui ducis vultus nec aspicis ista numero marzo-luglio 2010 Gilda Mauriello “ Le battaglie per la riqualificazione e la sopravvivenza di questo Monumento sono state molteplici e difficili, e dopo questo primo intervento di recupero non finirà l’interesse per la sua rinascita ” 2 51 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.25 Pagina 52 Facciata di Palazzo Penne Particolare della facciata 52 libenter» (sul nastro di sinistra), «omnibus invideas invide nemo tibi» (sul nastro di destra, dove si osserva anche il segno notarile di Antonio di Penne), «Tu che volti la faccia e non guardi volentieri questo [palazzo] o invidioso, invidia pure tutti, nessuno invidia te». Il portone in quercia offre uno straordinario esempio della qualità dell’artigianato di quel tempo. La composizione decorativa dell’ornato, che ha le sue origini nel periodo centrale del gotico, si compone di due ordini (in precedenza tre) di archetti gotici, i quali staccandosi dal fondo richiamano la decorazione marmorea del- Ingegneri Napoli le loggette dette “caminata”, e tra questi sono ancora presenti le borchie a conetto. Superato il portone ci si ritrova in uno stretto andito da cui si nota la parte centrale della volta a crociera costolonata, mentre il resto della volta e i suoi piedritti sono ancora osservabili nei due ambienti chiusi ai lati dell’entrata. La chiusura dell’ampio atrio risale al sec. XVIII, in occasione della costruzione del piano sopraelevato. Ad una quota più bassa dell’ingresso è presente il portico quattrocentesco a cinque archi, che affaccia ancora sull’antico giardino. ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.25 Pagina 53 Portale quattrocentesco Le parti risalenti al sec. XV sono i primi tre archi a sezione esagonale dall’ampia corda poggianti su grossi pilastri di piperno, che espongono un ornamento intagliato negli angoli a colonnine fiorate, tipico della cultura architettonica catalana molto diffusa nell’area campana nel quattrocento. All’interno del portico i primi due archi sono, in parte, inglobati nella muratura, da cui emerge la sagoma intonacata di un pilastro, mentre sull’antica muratura esterna, è individuabile il profilo di questi, delineati dalla cornice in piperno aggettante verso il giardino. All’interno del portico è presente anche una delle tre finestre quattrocentesche in piperno, ornate con colonnine dal capitello fiorato, che riprende la decorazione dei pilastri del portico e quella dei piedritti della volta nell’atrio. Le altre due sono osservabili nel prospetto sui gradini di Santa Barbara, insieme ai resti del lungo cornicione marcapiano. Le finestre sono realizzate secondo il modello a croce guelfa con giogo, e le quattro aperture, due quadrate in alto e due rettangolari in basso, sono divise da cornici dalla rilevante modanatura. Quelle prospicienti i gradini di Santa Barbara mostrano numero storia marzo-luglio 2010 Cornici e pilastro in piperno che tracciano, sulla parete esterna del portico, la sagoma degli archi quattrocenteschi 2 53 ingegneri_napoli_2010-2:Layout 1 Scala settecentesca Facciata settecentesca 54 13/07/2010 12.26 Pagina 54 ancora la cosiddetta “cornice a bilancia” (A. Venturi), che inquadra la parte alta delle finestre, ornata da fiori nei punti terminali. Dalla fine del Seicento hanno avuto inizio le trasformazioni sostanziali dell’assetto originario dell’antico edificio. Tali modifiche erano legate all’acquisto del Palazzo da parte dell’ordine dei Padri Somaschi, i quali adattarono gli spazi originari alla quotidianità del monastero. Con l’avvento dell’Ottocento, gli ordini religiosi furono aboliti e il Palazzo fu messo in vendita passando in proprietà dell’abate Teodoro Monticelli, un illustre vulcanologo appartenente all’ordine dei frati Celestini di San Pietro a Majella. Teodoro Monticelli nella sua casa costituì un vero e proprio museo di mineralogia ed una cospicua biblioteca. Alla morte dell’abate, alla fine della prima metà dell’Ottocento, le collezioni, mineralogica e libraria, furono vendute all’Università, dove un tempo aveva insegnato. Il palazzo rimase proprietà della famiglia Monticelli per vari anni senza subire cambiamenti di grande rilievo. Per assistere ad una nuova opera di ristrutturazione rilevante bisogna giungere ai nostri tempi. Il Palazzo dopo essere stato acquistato da una Società napoletana, è divenuto oggetto di lavori, atti a trasformarlo in residence e bed and breakfast. Il programma non è stato portato a termine per opposizione della Soprintendenza competente che è intervenuta bloccando i lavori. Lo storico edificio, dopo questo iniziale abbandono, è stato acquistato dalla Regione Campania, e affidato Ingegneri Napoli in seguito all’Università degli Studi di Napoli l’Orientale. Sin dall’affidamento all’Orientale, vi era la volontà di destinarlo a biblioteca, per accogliere nelle sue sale le collezioni delle Biblioteche Pietro Piovani e Fabbrocino Tessitore. Tale destinazione sembra essere stata confermata in una delle ultime riunioni svolte presso la sede della Giunta Regionale unitamente alla possibilità di designare anche degli spazi polivalenti alla promozione e diffusione culturale. Gli intenti sembrano preannunciare un ritorno di Palazzo Penne allo splendore di un passato ormai lontano. Le battaglie per la riqualificazione e la sopravvivenza di questo Monumento, dimenticato dalla gente e dal tempo, sono state molteplici e difficili, e dopo questo primo intervento di recupero non finirà l’interesse per la sua rinascita. Bibliografia Abbate F., La scultura a Napoli nell'età durazzesca, in “Storia di Napoli”, 1972, vol. IV (I). Avena A., Monumenti nell’Italia Meridionale. Roma, 1902. Borrelli G., Il Palazzo Penne – Un borghese a Corte. Arte Tipografica, Napoli, 2000. Ceci G., Il Palazzo Penne, in “Napoli Nobilissima” Vol. III, Napoli, 1963. Celano C., Notizie del bello dell’antico e del curioso della città di Napoli. ed Chiarini, 1850. Rosi M., L’altro rinascimento – Architettura meridionale nel‘400. Liguori Editore Napoli, 2007. ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.26 Pagina 55 SAN GIOVANNI A TEDUCCIO TRA PREESISTENZE STORICHE E REALTÀ INDUSTRIALI DISMESSE Recupero e riqualificazione integrata del Forte di Vigliena e dello Stabilimento Iannone Presentazione Obiettivo della tesi di laurea in Ingegneria Edile-Architettura di Valentina Guariglia è stato quello di creare, attraverso il recupero di un edificio storico in totale abbandono e il riutilizzo di una struttura industriale dismessa, un polo integrato finalizzato alla valorizzazione del patrimonio storico e alla promozione delle iniziative culturali e turistiche presenti sul territorio di San Giovanni a Teduccio. La scelta è stata dettata dalla circostanza che la zona, oltre a costituire un comparto urbanistico con una consolidata edilizia storica e con un forte e secolare rapporto con il mare, oggi è anche uno dei quartieri della città di Napoli maggiormente interessato da grandi progetti di sviluppo: dalla realizzazione del Porto turistico di Vigliena a quella delle Facoltà di Ingegneria e di Giurisprudenza. Si è così pensato ad un progetto integrato del Fortino di Vigliena e dello Stabilimento Iannone, inseriti in un unico parco urbano. Il Forte di Vigliena, simbolo della resistenza giacobina durante la rivoluzione napoletana del 1799, è stato riconfigurato spazialmente dando vita al Museo della Rivoluzione Napoletana, un museo multimediale in cui si narrano le vicende della rivoluzione, del fortino e del contesto. Lo Stabilimento Iannone, opportunamente recuperato, è stato destinato a Centro studi di supporto al Museo, per la consultazione e l’elaborazione di tutto quanto riguarda la rivoluzione napoletana e la cultura vesuviana, in generale. In questo progetto di recupero Valentina Guariglia ha tenuto in debito conto i moderni criteri guida, quali la reversibilità degli interventi, il minimo intervento, la distinguibilità degli interventi, la compatibilità fisico - chimica dei nuovi materiali con l’esistente. Il lavoro, sviluppato da Valentina Guariglia con la guida del prof. Alfredo Buccaro e della sottoscritta, è stato particolarmente apprezzato dalla Commissione di laurea consentendo alla candidata di laurearsi con lode. Per ovvi motivi di sintesi Valentina Guariglia si limita a presentare, in questo articolo, soltanto l’intervento progettato per il Fortino di Vigliena. Flavia Fascia Il primo passo del lavoro di tesi è stato quello della conoscenza del contesto in cui sono inseriti i due edifici, ovvero il quartiere di San Giovanni a Teduccio, collocato nella zona orientale della città di Napoli. A tal fine è stata svolta una attenta indagine sul tessuto edilizio, che si caratterizza numero marzo-luglio 2010 Valentina Guariglia “ Creazione di un polo integrato finalizzato alla valorizzazione del patrimonio storico e alla promozione delle iniziative culturali e turistiche presenti sul territorio di San Giovanni a Teduccio ” 2 55 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.26 Pagina 56 per la presenza sia di edifici storici, tra i quali emergono il Forte di Vigliena, la Dogana al Ponte della Maddalena e tredici ville vesuviane risalenti al ‘700, sia di edifici di recente formazione, residenziali ed industriali. Il territorio è stato studiato anche mediante l’esame dell’evoluzione degli strumenti urbanistici: dal 1939 al 1970 si sono susseguiti vari Piani Regolatori che hanno cercato di regolamentare la sorte dei casali inglobati nella periferia napoletana. Gli strumenti attuali, il PIAU ed il PUA, hanno come obiettivo principale la riconnessione tra quartiere e mare (oggi impedita dalla barriera costituita dalla linea ferroviaria), la messa a sistema degli spazi e delle attrezzature pubbliche, la riconfigurazione urbanistica di alcune aree nodali, gli indirizzi di dettaglio per gli interventi privati nei tessuti edilizi abitativi e produttivi. Tra gli interventi previsti sono da ricordare la realizzazione della passeggiata da Vigliena a Pietrarsa con il recupero del rapporto con il mare, la realizzazione del parco archeologico-urbano del Forte di Vigliena con sovrappassi per superare i binari, l’acquisizione dell’ex stabilimento Cirio per l’attivazione di due poli universitari (Facoltà di Ingegneria e di Giurisprudenza), la realizzazione del porticciolo turistico di Vigliena. Completata l’analisi storica ed urbanistica del contesto è stata affrontata l’analisi degli edifici in esame, sia dal punto di vista storico che nello stato attuale. Il Forte di Vigliena, costruito tra il 1703 e il 1705 per volere del Vicerè Juan Manuel Fernandez Pacheco, duca di Escalona e marchese di Villena, rientrava in un piano militare che mirava alla fortificazione del litorale napoletano, da Napoli a Castellammare, con la costruzione di cinque forti: a S. Giovanni a Teduccio, al Granatello, a Torre di Resina, a Scoglio di Rovigliano ed a Castellammare. Il Forte di Vigliena non sparò mai alcun colpo fino alla Rivoluzione Napole- 56 Ingegneri Napoli tana del 1799, che vide da un lato i giacobini napoletani sostenuti dalle truppe francesi e dall’altro i popolani, guidati dal cardinale Ruffo, a favore della monarchia. Il Fortino fu attaccato sia da terra che da mare e i difensori combatterono valorosamente resistendo contro l’artiglieria nemica che alla fine riuscì ad aprire una breccia nelle mura. I difensori, pur di non cadere nelle mani del nemico, fecero saltare in aria il forte incendiando la polveriera. Il 13 giugno terminò la resistenza dei giacobini e la battaglia si concluse a favore della monarchia. Nella prima metà dell’Ottocento il forte venne destinato a scuola di pratica di artiglieria e, fino all’Unità d’Italia, fu oggetto di varie trasformazioni. Nel Novecento il Fortino è sparito dalle carte ufficiali anche se, in realtà, l’impianto era perfettamente leggibile come si evince dai rilievi aerofotografici dell’Istituto Geografico Militare. Il Fortino di Vigliena presenta una forma pentagonale simmetrica ed è circondato da un fossato a forma di stella, rimasto in gran parte inalterato. Attualmente un terrapieno consente di scavalcare il fossato e immette all’interno della costruzione ad una quota di circa 1 m dal calpestio originario, a causa dell’accumulo di materiali avvenuto nel corso del tempo. All’interno la superficie è ricoperta da vegetazione e piante. Della struttura originaria sono rimasti i muri perimetrali, ben conservati dal punto di vista statico al livello inferiore, ma quasi inesistenti superiormente, a causa dello storico scoppio che ne ha provocato il crollo. Dalla lettura dei resti si comprendono facilmente la tessitura muraria, le tracce delle aperture e degli elementi in piperno per il rinforzo delle facciate. All’interno sono ancora riconoscibili gli archi a tutto sesto, tracce di quelle che un tempo erano le volte a botte su cui poggiava il camminamento di guardia superiore, e spezzoni dei muri divisori delle varie celle al livello inferiore. ingegneri_napoli_2010-2:Layout 1 13/07/2010 Dei due livelli originari ne rimane solo il primo. Il piano di ronda, infatti, è completamente distrutto e restano soltanto le tracce nei muri e le volte di sostegno che coprivano gli accessi ai bastioncini. Delle scalette, degli orizzontamenti e delle suddivisioni interne non è rimasta traccia ed anche il rivellino in gran parte è coperto dal terreno e dai depositi accumulati nel corso del tempo. Una seconda fase del lavoro di tesi ha riguardato l’Analisi del degrado dei materiali lapidei, che ha consentito di mettere in evidenza le diverse patologie di degrado che hanno aggredito il manufatto. L’indagine è stata svolta, e rappresentata, secondo le indicazioni fornite dal Documento Normal 1/88, che fornisce una guida per il riconoscimento delle alterazioni macroscopiche dei materiali lapidei. 12.26 Pagina 57 Nella maggior parte dei casi il tufo è risultato affetto da erosione, mancanza, deposito superficiale e dalla presenza di vegetazione infestante; il pietrame, invece, da mancanza e patina; il piperno, infine, da efflorescenza, deposito superficiale, patina biologica e da erosione. In relazione alla tipologia di degrado sono stati previsti interventi di preconsolidamento, pulitura, consolidamento, protezione, tutti indipendenti dalla nuova destinazione d’uso. Nel merito degli interventi di ripristino strutturale, necessari per restituire la continuità e la solidità strutturale originali, è stato previsto la stilatura dei giunti per tutte le murature, scuci e cuci per eliminare le fessure passanti, iniezioni a base di calce per le fessure non passanti, ricostruzioni in sottosquadro dei paramenti murari crollati; la ricostru- numero riqualificazione marzo-luglio 2010 Nella Tavola 18 è riportata la Sistemazione del Parco di Vigliena 2 57 ingegneri_napoli_2010-2:Layout 1 13/07/2010 Nella Tavola 6 è riportato il Rilievo materico del complesso 58 12.26 Pagina 58 zione della volta crollata del bastioncino. Il Fortino di Vigliena, simbolo della difesa della Repubblica Napoletana, è stato riconfigurato spazialmente per l’allestimento del Museo della Rivoluzione Napoletana del 1799. L’intervento di recupero è stato condotto nel rispetto degli orientamenti moderni del restauro, cercando di collocare funzioni compatibili con la struttura preesistente, adeguandola, tuttavia, alle esigenze attuali. Si tratta di un museo multimediale, ispirato al Museo Archeologico Virtuale (MAV) di Ercolano, che narra le vicende della rivoluzione napoletana del 1799, del fortino e del contesto. Sarà possibile ri-vivere le vicende storiche grazie alle ricostruzioni tridimensionali e all’approccio interattivo. Il Museo si sviluppa su una superficie di 975 m2 e, dopo la biglietteria/in- Ingegneri Napoli fo point, alla quale sono annessi ambienti di servizio per il personale, si articola attraverso una serie di sale di seguito illustrate. – Inizio mostra: è la zona filtro chiamata a separare nettamente la parte esterna dal percorso museale. – Corpi scomposti in luce: illustrazione del concetto di intelligenza connettiva su cui si fonda il museo; i visitatori, una volta riconosciuti, sono circondati da cerchi luminosi proiettati su un pannello. – Un salto nel tempo: attraverso pannelli interattivi il visitatore entra nel contesto storico, culturale, economico e politico dell’epoca. – Nomi e volti dei protagonisti: gli ologrammi dei protagonisti dell’evento escono dallo schermo e raccontano chi sono, il loro ruolo, le loro gesta, le vicende di Vigliena. ingegneri_napoli_2010-2:Layout 1 13/07/2010 – Proiezione della battaglia: in una piccola sala viene proiettata la ricostruzione della battaglia che vide come protagonista il Fortino di Vigliena. – Proiezione dello scoppio: in un’altra sala viene proiettata la ricostruzione dello scoppio che coinvolse il fortino e i suoi valorosi difensori. La proiezione viene sdoppiata perché in ogni sala il visitatore deve sostare solo per pochi minuti, in modo da consentire lo smaltimento veloce dei flussi. – Gli oggetti bellici: pannelli interattivi touch screen, descrivono gli oggetti bellici del tempo e, in particolare, quelli usati durante la battaglia. – Ologrammi: proiezione degli oggetti bellici, utensili e attrezzi vari sotto forma di ologrammi. – Tavolo interattivo: su un tavolo interattivo è possibile selezionare 12.27 – – – – Pagina 59 parole fluttuanti, in modo da attivare di volta in volta sequenze tematiche differenti sempre inerenti al tema, per approfondirne i contenuti. Proiezione dei soldati di guardia: lungo le pareti della sala vengono proiettate le immagini dei soldati di guardia che camminano lungo il piano di ronda con il fucile in spalla. Viaggio nel fortino, livello inferiore: ricostruzione tridimensionale della struttura al livello inferiore e viaggio spaziale in tutti i suoi ambienti. Viaggio nel fortino, livello superiore: ricostruzione tridimensionale della struttura al livello superiore e viaggio spaziale in tutti i suoi ambienti. Giro in nave e vista del fortino dal mare: viaggio tridimensionale in numero riqualificazione marzo-luglio 2010 Nella Tavola 8 è riportata l’Analisi del degrado e il progetto di conservazione delle superfici murarie 2 59 ingegneri_napoli_2010-2:Layout 1 13/07/2010 Nella Tavola 12 è riportato Progetto di recupero e rifunzionalizzazione del Forte di Vigliena 60 12.27 Pagina 60 nave che consente di vedere il forte dal mare, sia di notte che di giorno, per capire come appariva ai nemici che intendevano attaccarlo da quella direzione. Il viaggio è reso ancor più realistico grazie alle poltrone motorizzate che, poggiate su un apposito supporto, simulano il movimento della nave in mare. – Leggio interattivo: su un leggio è possibile sfogliare un libro immateriale contenente dipinti e raffigurazioni del forte e dell’evento che lo coinvolse. Il visitatore può sfogliare le pagine del libro, leggerne i contenuti, ingrandire i particolari, che vede proiettati sulla parete di fronte. – Mostra fotografica: mostra delle fotografie storiche raffiguranti il fortino e il contesto. Ingegneri Napoli – Teche ritrovamenti: teche di vetro in cui vengono esposti i ritrovamenti e gli oggetti vari a tema. – Descrizione nuove tecnologie: descrizione delle nuove tecnologie, effetti speciali, programmi innovativi, strumenti usati per realizzare i contenuti del museo. – Zona filtro / punto ristoro: fine del percorso museale con punto ristoro e poltrone. – Approfondimenti: per approfondire la conoscenza del forte e dei contenuti del museo sono stati previsti una mediateca, la sala lettura e alcune postazioni internet. – Shop: punto vendita di souvenir e materiale a tema. All’interno della struttura, tra una sala e l’altra sono previsti pannelli scuri isolanti per evitare la diffusione del suo- ingegneri_napoli_2010-2:Layout 1 13/07/2010 no e della luce da una parte all’altra; lungo le pareti invece non è previsto alcun rivestimento, in modo da leggerne la tessitura muraria originaria. Per ciascuna sala è stata prevista una controsoffittatura alla quale agganciare faretti, proiettori, o tutto ciò che serve per restituire l’immagine che si vuole trasmettere al pubblico. Gli uffici, quali segreteria, amministrazione, direzione, sono stati inseriti nel Centro studi allestito nello Stabilimento Iannone. Il fortino ospita anche una piccola sala proiezione, per cinquanta spettatori, completa di biglietteria/info point, locali per i dipendenti, depositi. All’occorrenza la sala può essere usata anche per conferenze. Una terza funzione è quella prevista per la piazza d’armi che, su una superficie di 550 m2, può ospitare manifestazioni all’aperto. Attraverso le scale laterali e la rampa in fondo alla piazza d’armi, si accede al piano di ronda, l’antico camminamento dei soldati, realizzato con orizzontamenti in acciaio e vetro. L’intero piano, scoperto, presenta una superficie di 975 m2 ed è destinato ad esposizioni temporanee. In conclusione, il fortino verrà trasformato in una struttura che, con una superficie complessiva di 2500 m2, vivrà ventiquattro ore al giorno: quando l’orario di visita al museo o alle esposizioni temporanee sarà terminato, il complesso sarà ancora fruibile e animato grazie alla sala proiezione, la piazza per le manifestazioni all’aperto, la passeggiata al livello superiore. Dal punto di vista formale il forte di Vigliena viene ricostruito, riprendendo in linea generale le forme origi- 12.27 Pagina 61 narie, ricostruendo e integrando la cinta muraria in tufo, con blocchi squadrati, regolari, di colore diverso e trattati diversamente e, aspetto molto importante, disposti sottosquadro per rendere subito leggibile l’integrazione. Vengono ricreati, inoltre, il redondone ed i rinforzi angolari, non più in piperno, perché impossibile da reperire, ma in pietra lavica. Le bucature danneggiate al livello inferiore non vengono ridotte e rimodellate come quelle iniziali, in modo da leggere i segni del tempo e le tracce lasciate dalla storia, mentre quelle superiori, in parte o completamente sventrate dall’esplosione storica, vengono ricostruite secondo le dimensioni iniziali insieme ai paramenti crollati, sempre con le stesse tecniche. Non viene invece riproposta la fascia basamentale in piperno, perché si è deciso di intervenire sulla muratura preesistente solo con trattamenti superficiali per la pulitura e per il consolidamento delle superfici ma non con l’apposizione di nuovi elementi. All’interno il forte viene ricostruito in acciaio e vetro in modo da garantire un intervento completamente distinguibile e reversibile. La struttura portante viene realizzata con travi e pilastri in acciaio, creando una maglia semplice e regolare, su cui poggiano solai in acciaio e vetro con i quali si riconfigura l’antico piano di ronda. Il fronte interno viene riproposto in vetro, realizzando una vetrata continua, composta da cristalli stratificati agganciati ai pilastri o ai montanti con giunti a ragno, riproponendo, con il trattamento della satinatura del vetro, il disegno degli archi che coronavano le aperture dei vari ambienti al livello inferiore. numero riqualificazione marzo-luglio 2010 2 61 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.27 Pagina 62 DISSESTI IDROGEOLOGICI: COLATE RAPIDE Seminario tecnico Sergio Burattini Ingegnere Coordinatore scientifico del seminario 62 Il giorno 9 aprile, presso la Facoltà di Ingegneria Federico II di Napoli, nell’aula S. Bobbio gremita di tecnici e docenti universitari, si è tenuto il Seminario Tecnico “Dissesti Idrogeologici: Colate rapide coordinata dall’Ing. Sergio Burattini, con la collaborazione dei Coordinatori delle Commissioni di Geotecnica, prof.ing. Vincenzo Caputo, Commissione Beni culturali e edilizia: ing. Salvatore Landolfi, e Commissione Edilizia scolastica. ing. Sergio Burattini, oltre alla fattiva collaborazione degli ing. Vincenzo Landi, ing. Massimo Ramondini e il geologo Dott. Rosario Santonastasio. I lavori sono stati aperti dal Preside della Facoltà di Ingegneria Prof. ing. Edoardo Cosenza, cui ha fatto seguito il saluto del Presidente dell’Ordine ing. Luigi Vinci. L’introduzione al Seminario è stata del Prof. Vincenzo Caputo, che ha posto l’accento sull’importante ruolo che la Geologia e la Geotecnica ricoprono nella mitigazione del rischio da frana intesa in senso molto ampio. in particolare quest’ultima che in Italia ha avuto la sua culla proprio nella Facoltà di Ingegneria di Napoli affermando progressivamente la sua capacità, tipicamente ingegneristica, di affrontare questi problemi in chiave quantitativa e oggettiva. Il Prof. ing. Giuseppe De Martino, nella qualità di moderatore ha introdotto il primo relatore della giornata il Prof. Geologo Domenico Calcaterra, della sezione di Geologia appli- Ingegneri Napoli cata della Facoltà di Ingegneria, egli ha spiegato che la Campania è una Regione particolarmente esposta al rischio da frane da flusso rapido in terreni di origine vulcanica, poiché esistono due distretti vulcanici attivi, i Campi Flegrei e il Somma Vesuvio e pertanto sono presenti due tipologie fondamentali di frane, le valanghe di detrito e gli scorrimenti-colate detricofangose, inoltre ha descritto i principali scenari geologico-geomorfologici della Campania più altamente interessati da frane da flusso rapido. L’ing. Anna Scotto di Santolo del Dipartimento di Ingegneria Idraulica Geotecnica ed Ambientale ha parlato dei metodi attualmente disponibili per la previsione della propagazione di una colata rapida, illustrando una sua applicazione nel caso di un versante carbonatico ricoperto da una successione insatura di depositi piroclastici. Il Prof. Gianfranco Urciuoli, del Dipartimento di Ingegneria Idraulica, Geotecnica e Ambientale, ha trattato degli interventi sostenibili, cioè quelli di modesto impatto ambientale e di costo contenuto, che possono essere messi in atto da Amministrazioni locali, quali i piccoli Comuni. Tali interventi risultano efficaci per la salvaguardia del territorio montano e collinare ed in particolare del reticolo di drenaggio, che in caso di frana potrebbe svolgere la funzione di collettore del materiale franato, recapitandolo sulle aree urbane della zona pedemontana. ingegneri_napoli_2010-2:Layout 1 13/07/2010 Il Prof. Ing, Pasquale Versace, dell’Università degli Studi della Calabria, Presidente del Gruppo Italiano di Idraulica, ha illustrato, attraverso le esperienze del Commissariato straordinario per l’Emergenza Idrogeologica, istituito in Campania dopo i tragici eventi del maggio 1998, che colpirono i comuni di Sarno, Quindici, Siano, Bracigliano e S.Felice a Cancello, il sistema di interventi realizzati per la messa in sicurezza dei territori di quei comuni a rischio di colata rapida. Si trattava in quel caso di un complesso di opere assai rilevanti, la cui realizzazione doveva essere necessariamente demandata ad un organismo sovra comunale in cui fossero concentrate competenze tecniche e risorse non reperibili negli Enti territoriali. La giornata di lavori è stata chiusa dagli interventi interessanti dei tecnici 12.28 Pagina 63 degli sponsor della manifestazione e cioè la Borghi Azio S.p.A. di Reggio Emilia vale a dire dal Prof. Ing. Maurizio Ponte dell’Università della Calabria che ha parlato della stabilizzazione di coltri instabili e della mitigazione del rischio idrogeologico mediante l’utilizzo di trincee drenanti prefabbricate illustrandone le diverse tipologie e i relativi metodi di calcolo per il dimensionamento e L’ing. Romano Lamperti, amm.re Delegato della Sisgeo-Ingeo Srl che ha illustrato come si realizza il controllo preventivo di aree potenzialmente soggette a dissesti veloci, attraverso una serie di attività e procedure che permettono di riconoscere, dimensionare, valutare gli effetti e definire le necessarie azioni da intraprendere al fine di garantire il necessario livello di sicurezza alle persone e alle infrastrutture soggette all’incipiente pericolo. numero sicurezza marzo-luglio 2010 2 63 ingegneri_napoli_2010-2:Layout 1 13/07/2010 12.28 Pagina 64 I SISTEMI DI HOMELAND SECURITY: SCENARIO, TECNOLOGIE E APPLICAZIONI Recensione Giorgio Franceschetti Giovanni Manco 64 Segnaliamo all’attenzione dei lettori questo prima pubblicazione della Collana Leonardo dell’Ordine degli Ingegneri della Provincia di Napoli su una tematica innovativa dalle vaste applicazione che è quella della Homeland Security (HS). Il lavoro curato dal prof. Giorgio Franceschetti dell’Università degli Studi Federico II di Napoli e dall’ing. Giovanni Manco Consigliere dell’Ordine degli Ingegneri di Napoli, si avvale dei contributo di più autori espressione di un largo numero di istituzioni coinvolte nello scenario della sicurezza del territorio: Mondo Accademico, Forze Armate, Carabinieri, Protezione civile, Commissione Telecomunicazioni dell’Ordine degli Ingegneri di Napoli, Ansaldo STS, Autorità Portuale, Capitaneria di Porto. I testi e le esperienze raccolte sono costruiti in modo da sollecitare le iniziative di ricerca e industriali e istituzione per la definizione di nuovi metodi e strumenti per garantire la sicurezza del territorio: un condizione indispensabile per lo sviluppo socio-economico di ogni paese moderno. Lo spettro delle problematiche trattate dal libro, che rappresenta la prima pubblicazione organica sull’HS in Italia, è molto ampio, certamente utile e di piacevole e interessante lettura. Ingegneri Napoli Il libro presenta una raccolta di temi sulla sicurezza che spaziano dall’analisi del settore dell’HS al suo sviluppo storico, arricchito inoltre da una utilissima guida ai simboli di gergo, fino alle realizzazioni di notevole portata sviluppate in regione Campana. Il lettore potrà trovare saggi di carattere teorico e l’impiego di essi come supporto operativo su temi quali: i disastri naturali, le reti di calcolatori, il traffico marittimo e metropolitano. È risaltato e analizzato il bisogno umano di sicurezza, causato dal pericolo di perdita della riservatezza, autenticità e disponibilità delle informazioni. Il libro presenta, infine, una lucida sintesi dei problemi associati alle realizzazioni industriali dei prodotti HS presenti in regione Campania ed associati alla presenza di due stabilimenti Selex-Sistemi Integrati e un significativo indotto. Lo stile sobrio, il linguaggio semplice ma non banale, la chiarezza e il rigore analitico delle soluzione proposte, caratteristiche peculiari degli autori, rendono il libro prezioso e indispensabile nella biblioteca dell’ingegnere. a cura di Mattia Siciliano Commissone Telecomunicazioni Ordine Ingegneri Napoli