un`analisi del xvii convegno biennale aim 2005 a napoli
Transcript
un`analisi del xvii convegno biennale aim 2005 a napoli
Sommario In ricordo di Paolo Corradini ........................................................................................ pag. 3 L’EDITORIALE Saluto del nuovo Presidente AIM (B. Pirozzi)................................................................ » 5 IL CONVEGNO BIENNALE Un’analisi del XVII Convegno biennale AIM 2005 a Napoli (R. Palumbo) .................... » Al margine del Convegno AIM di Napoli: una gita a Capua e a S. Leucio (R. Filippini Fantoni) » 6 8 ATTUALITÀ & DIVULGAZIONE I polimeri energetici: nuovi leganti per propellenti solidi compositi (U. Barbieri, G. Polacco, R. Massimi) ............................................................................ Il consolidamento e la protezione dei manufatti lapidei di interesse storico e industriale mediante materiali polimerici (E. Pedemonte) ............................................ » 11 » 16 POLYMERS AND LIFE Cellule staminali accoppiate a supporti di crescita polimerici: nuova frontiera della medicina rigenerativa o “elisir di lunga vita”? (G. Tell) ................ Forse non sapevate che … La cioccolata e i sogni Aztechi (R. Filippini Fantoni) ...... » » 21 25 MACROTRIVIAL A Thorpedo’s tale: polimeri e nuoto (E. Polo) .............................................................. » 28 » 34 » 40 BIOPOLIMERI La reazione di metatesi: una reazione da Nobel (L. Pasquato) .................................... » 48 POLYMERS ABROAD L’Associazione Brasiliana dei Polimeri: un’inaspettata e consolidata realtà (R. Filippini Fantoni).................................................................................................... » 55 INTELLECTUAL PROPERTY MONITOR Il rischio di una fama eccessiva (A. Scotton) .............................................................. » 58 DAL MONDO DELLA SCIENZA Gli italiani negli Editorial Boards delle riviste macromolecolari: aggiornamento .......... » 62 POLIMERI E ... SOCIETÀ R & S in Italia, dati Istat 2003-2005: tra Scilla e Cariddi (M. Pracella) ........................................................................................................................ » 64 I GIOVANI Macrogiovani 2006 (S. Carroccio, S. Vicini) ................................................................ » 66 L’AMBIENTE Mutamenti climatici e riscaldamento globale: quanto incide il fattore antropico? (L. Lepori).................................................................................................................... La produzione biologica dell'idrogeno: il ruolo dei materiali polimerici (P. Cerruti, C. Carfagna, M. Malinconico) .................................................................... 1 RECENSIONI Cervelli in gabbia (Comitato Editoriale ADI) ................................................................ IL MONDO DI AIM Commenti e considerazioni sul Rendiconto finanziario AIM (M. Aglietto) .................... Quanto sono fedeli i nostri soci? Una storia dell’AIM (1995-2005) attraverso la sua Mailing List (M. Aglietto, R. Po’) .................................................................................. Libri e Atti AIM .......................................................................................................... pag. 68 » 70 » » 75 80 NOVITÀ IN AIM MAGAZINE! Doppio fiocco azzurro in redazione! PAOLO DAVIDE Dall'uscita dell'ultimo numero di AIM Magazine due nostre valide collaboratrici sono diventate mamme, una per la seconda volta e l'altra per la prima volta. Paolo Ciardelli, figlio di Gianluca e Simona Bronco, è venuto alla luce il 19 settembre 2005 proprio mentre i nostri lettori ricevevano il n. 2-3 del 2005. Paolo quindi è già ben paffuto ma non per questo non gli sono dovuti gli auguri di benvenuto e un abbraccio a Gianluca, Simona e Matteo. Davide Robiglio, invece, venuto alla luce il 29 dicembre 2005, è figlio di Marco e di Silvia Vicini. Silvia è stata per vari anni coordinatrice della Commissione Giovani. Continua per noi ad essere una macrogiovane e ci auguriamo di far conoscenza con Davide sulle rive del Lago di Garda dove mamma Silvia non potrà fare a meno di portarlo. 2 IN RICORDO DI PAOLO CORRADINI Lo scorso 27 febbraio 2006 è giunta in redazione la triste notizia che Paolo Corradini non è più fra noi. Sapevamo che Paolo aveva subito diversi interventi, che non si era più completamente ripreso ma non possiamo nel contempo ricordare, con un certo orgoglio, che la comunità scientifica italiana, la nostra associazione e soprattutto i colleghi napoletani hanno accolto con tutti gli onori dovuti il prof. Paolo Corradini nel giorno dell’apertura del XVII Convegno AIM, come viene ampiamente ricordato negli articoli dedicati al nostro Convegno e contenuti in questo fascicolo di AIM Magazine. Qui di seguito pubblichiamo volentieri un ricordo dello scienziato e della persona il cui contributo alla scienza delle macromolecole ha lasciato un segno importante. La redazione si associa al lutto dell’intera comunità scientifica italiana. Il Comitato Editoriale dovuta al periodo bellico e post-bellico, Paolo Corradini ha rinnovato completamente lo stile con cui si conduceva la ricerca scientifica presso il Dipartimento di Chimica, creando una vera e propria scuola nel campo delle ricerche sui materiali polimerici, in particolare quelle concernenti l’indagine strutturale dei polimeri mediante l’uso della diffrazione dei Raggi X: gli si attribuiva la capacità di “vedere con gli occhi della mente” l’organizzazione spaziale delle catene polimeriche e dei cristalli macromolecolari. Successivamente si è dedicato anche allo studio dei meccanismi di polimerizzazione stereospecifica delle alfa olefine, portando anche in questo campo idee originali di grande rilievo. Ha fatto di Napoli un polo di eccellenza internazionale nel campo dello studio della chimica delle macromolecole, trasferendo ai suoi allievi l’entusiasmo e il rigore scientifico che egli ha sempre applicato nella sua attività di ricercatore. La sua influenza è stata avvertita anche nei laboratori di Ricerca del CNR essendo stato anche, per lunghi anni, Presidente del Consiglio Scientifico del Laboratorio di Ricerche su Tecnologia dei Polimeri e Reologia. Autore di oltre 400 pubblicazioni scientifiche su Il 27 febbraio è deceduto a Roma il prof. Paolo Corradini, Professore Emerito dell’Università “Federico II” di Napoli e Accademico dei Lincei. Era nato a Roma il 19 ottobre 1930. Giovanissimo, fu tra i più validi collaboratori del Premio Nobel Giulio Natta nelle ricerche che portarono alla scoperta dei primi polimeri stereoregolari e che proiettarono l’Italia alla ribalta mondiale nel campo delle ricerche sui materiali polimerici; a lui si deve, in particolare, la risoluzione della struttura del polipropilene isotattico e la messa a punto di principi che permisero la comprensione della struttura di molti polimeri sintetici. Professore Ordinario di Chimica Generale all’età di trent’anni, dopo un anno di insegnamento presso l’Università di Cagliari, dal 1961 al 2003 ha ricoperto la cattedra, prima di Chimica Generale e, successivamente, quella di Chimica Industriale, presso il Dipartimento di Chimica della Facoltà di Scienze MM.FF.NN. dell’Ateneo “Federico II” di Napoli. Più di un lungo quarantennio è stato il periodo durante il quale ha trasfuso le sue competenze scientifiche a diverse generazioni di chimici napoletani. Venuto a Napoli in un tempo in cui erano ancora tangibili le conseguenze della stasi della ricerca 3 il Rettore gli ha consegnato il sigillo d’oro dell’Ateneo Federiciano come riconoscimento da parte della comunità scientifica napoletana della sua quarantennale attività di ricercatore e di docente. Paolo Corradini lascia all’Università “Federico II” di Napoli, e in particolare alla Facoltà di Scienze MM.FF.NN., una grande eredità di competenze e di risorse umane in termini di allievi formatisi alla sua scuola. L’Associazione Italiana delle Macromolecole ed in par ticolare il suo Presidente che è stato suo allievo esprime la sua gratitudine per averlo avuto come socio e lo ricorda con grande affetto. riviste di risonanza internazionale, per le sue eccelse doti di ricercatore, per le sue diversificate competenze nel campo, ma soprattutto per il rigore scientifico delle ricerche da lui condotte, è stato nominato membro di diversi Comitati Scientifici Internazionali di esperti nel campo della scienza macromolecolare. Ha inoltre ricoperto la carica di Presidente dell’European Polymer Federation per il biennio 1989-1990. La sua ultima apparizione in pubblico a Napoli è stata nello scorso mese di settembre, in occasione dell’apertura del XVII Convegno dell’Associazione di Scienza e Tecnologia delle Macromolecole. Nell’occasione 4 L’EDITORIALE SALUTO DEL NUOVO PRESIDENTE AIM di Beniamino Pirozzi Cari amici, la mia nomina a presidente dell’AIM segue un biennio durante il quale ho già fatto parte del Consiglio Direttivo (CD) ed ho potuto, pertanto, apprezzare più a fondo il lavoro svolto dalla nostra associazione. Infatti, sebbene io sia socio AIM abbastanza attivo fin dalla sua fondazione, soltanto durante questi due anni mi sono reso conto veramente della sua grande vitalità e della mole di iniziative che riesce a portare a termine: Convegni, Scuole, Seminari sia Nazionali che Internazionali, Giornate Tecnologiche, Libri di Testo, Rapporti con Enti Internazionali, l’AIM Magazine, etc. Gli ottimi risultati scaturiscono da un grosso e proficuo lavoro di squadra che, se fatto in sintonia, rende molto di più della somma degli impegni dei singoli. A questa squadra appartengono non soltanto i membri del CD, ma tutti i responsabili delle varie (tante) Commissioni, delle Scuole, dei Rapporti Internazionali, la segretaria Amministrativa, tutta la Redazione del Magazine e tanti altri che con estrema generosità non lesinano aiuti che forniscono con la loro disponibilità e competenza. Desidero ringraziare il CD uscente, soprattutto il suo Presidente, per l’ottimo lavoro svolto durante i passati due anni e ringrazio il nuovo CD per avermi dato la sua fiducia votandomi all’unanimità come Presidente per il biennio 2006-2007. Da parte mia mi impegnerò a portare a termine le iniziative in corso ed a proporne nuove che diano una sempre maggiore visibilità alla nostra associazione, principalmente in ambito europeo. Tra le più importanti iniziative portate a termine dal precedente CD è senz’altro notevole la costituzione di un buon sito Web, ricco di servizi e facilmente consultabile. Ciò ha richiesto un ingente sforzo economico da parte dell’AIM ed un notevole impegno da parte di alcuni membri del CD e della segreteria amministrativa. Sarà mia cura stimolare i respon- sabili a fare in modo che il sito sia sempre aggiornato e che offra sempre più servizi. Il sito Web dovrà essere nei prossimi anni il canale attraverso il quale creare un collegamento diretto tra i soci e i coordinatori del lavoro dell’associazione. Il momento più importante di aggregazione dei soci è rappresentato dal Convegno dell’associazione che, come sappiamo, si svolge ogni due anni nelle varie città italiane nelle quali è sviluppato lo studio dei materiali polimerici. Il XVII Convegno AIM, che cadeva nel trentennale dell’associazione, si è svolto a Napoli dal 11 al 15 settembre 2005 nel Centro Congressi dell’Università “Federico II” di Napoli sito in via Partenope, di fronte a Castel dell’Ovo. Per celebrare degnamente i 30 anni dell’AIM non si poteva trovare una sede migliore, ricca di un panorama splendido esaltato dalla luce e dal sole che caratterizza il clima di Napoli. La partecipazione è stata nutrita e molto attiva ed, essendo uno dei principali organizzatori, ho avuto modo di raccogliere molti apprezzamenti da parte dei soci. Siamo anche riusciti a portare a termine la preparazione di un volume di Macromolecular Symposia che uscirà a breve con il titolo Trends and Perspectives in Polymer Science and Technology, che raccoglie un’ampia selezione di interessanti lavori presentati al Convegno. Questa iniziativa segue quella intrapresa per la prima volta dagli organizzatori del XVI Convegno AIM tenuto a Pisa e spero che tali iniziative si ripetano in modo da diventare una tradizione della nostra associazione. Intanto, gli organizzatori del XVIII Convegno AIM che si terrà a Catania nel settembre 2007 si sono già impegnati, dietro mio invito, a mantenerla. Scorrendo l’elenco delle città nelle quali si sono tenuti i precedenti Convegni AIM, si nota, purtroppo l’assenza di Roma. Auspico che il XIX Congresso AIM si possa tenere nella nostra bella capitale. Intanto auguro a tutti un ottimo biennio AIM. 5 IL CONVEGNO DI NAPOLI UN’ANALISI DEL XVII CONVEGNO BIENNALE AIM 2005 A NAPOLI di Rosario Palumbo Le previsioni (quelle meteorologiche, però!) non erano delle migliori, eppure per celebrare degnamente i 30 anni dell’AIM anche il tempo ha deciso di comportarsi da gentiluomo offrendo agli iscritti al XVII Convegno luce e sole per incorniciare nel migliore dei modi lo splendido panorama che si ammirava dalla sede di via Partenope. L’apertura del Convegno, dopo gli interventi del Rettore dell’Università “Federico II” e del Preside della Facoltà di Scienze, è stata segnata dalla cerimonia di consegna del sigillo in oro dell’Università “Federico II” al prof. Paolo Corradini per l’attività didattica e di ricerca svolta in oltre 40 anni a Napoli dove ha creato una vera e propria scuola di “polimeristi”. Il prof. Corradini ha quindi tracciato una sintesi storica dello sviluppo della scienza macromolecolare in Italia evidenziandone le tappe più significative, dalle scoperte del Premio Nobel Giulio Natta fino alle più recenti conquiste. Quanto al Convegno, due cose meritano innanzitutto di essere segnalate: la partecipazione di tanti giovani e, soprattutto, la assidua presenza ai lavori da parte di tutti gli iscritti nonostante le tentazioni del clima. Le conferenze plenarie, tenute da Bernard Lotz (CNRS, Strasburgo), Etienne Schacht (Università di Gent) e da Luigi Resconi (Basell Poliolefine, Ferrara) in un’Aula Magna completamente riempita, sono state dedicate a temi di grande interesse, come la superstruttura di polimeri cristallini, i polimeri biodegradabili per applicazioni biomediche e la polimerizzazione di alfa-olefine. Grande e attenta partecipazione anche alla presentazione delle key notes e, sorprendentemente, finanche alle comunicazioni tenute nelle ultime due sessioni nel giorno di chiusura del Convegno! Il numero degli iscritti, nel suo complesso, è stato molto alto, al di là delle previsioni, se si tiene conto della concomitanza con altri due Convegni su tematiche riguardanti la scienza dei materiali polimerici, uno a Sorrento (European Conference on Biomaterials) e un altro a Tirrenia (IUPAC Int. Symp. on Macromolecule-Metal Complexes). Ciò ha comportato che alcuni aspetti della ricerca nel campo dei polimeri, in particolare quelli concernenti i biomateriali, sono rimasti parzialmente in ombra e, pertanto, è auspicabile un più attento coordinamento sulle date di futuri convegni sui materiali polimerici. I partecipanti, come consuetudine di diversa estrazione, sono stati 281, così suddivisi: industria: 10,7%, università 68,0%, enti di ricerca 21,3%. Attraverso otto key notes e 246 comunicazioni (di cui 92 orali e 154 sotto forma di poster) è stata fatta una panoramica sui principali temi di ricerca attualmente in corso di svolgimento nelle varie sedi in Italia. Alla fine delle presentazioni, sia delle key notes che delle conferenze plenarie, tutte seguite da un numeroso pubblico, il dibattito scientifico è stato vivace, trattandosi di argomenti di ampio interesse e tali da coinvolgere buona parte dell’uditorio. Non altrettanto si è verificato per molte delle comunicazioni orali, e ciò può essere attribuibile ad un fenomeno che sta verificandosi da alcuni anni a questa parte: la frammentazione in tanti “rivoli” di quelle che erano in passato le “tematiche guida” della ricerca in campo macromolecolare, cioè la polimerizzazione Zigler-Natta, la policondensazione e i biopolimeri, sulle quali erano impegnati folti e qualificati gruppi di ricerca. Ciò ha comportato che ricerche sempre più specialistiche e diversificate, su materiali polimerici sempre più sofisticati, vengano portate avanti da gruppi talvolta piccoli, disseminati in varie sedi, il che spiega lo scarso numero di potenziali interlocutori e il dialogo scientifico piuttosto asfittico constatato nelle brevi presentazioni orali. L’impressione generale è stata che in Italia sono attivi numerosi gruppi di ricerca nel campo dei materiali polimerici ma che non esistono più sedi 6 specializzate in particolari tematiche. Al di là di queste impressioni di primo impatto, tuttavia, si è avuta la conferma che è sempre viva, produttiva e di buon livello la linea di ricerca tradizionale, cioè quella riguardante la sintesi e modifica di polimeri (aspetti sia tradizionali che innovativi della catalisi, funzionalizzazione, sistemi ibridi), la caratterizzazione strutturale e superstrutturale dei polimeri (numerosi i lavori nel campo dei nanocompositi) e lo studio delle relazioni tra struttura, architettura e proprietà di macromolecole (proprietà termiche e reologiche). Molto affollata anche la sessione “Polimeri funzionali e per usi speciali” (oltre 40 tra comunicazioni orali e poster) e ciò è indice di un indirizzo della ricerca verso usi applicativi dei polimeri in senso mirato. In questa linea, è senz’altro positivo constatare la sempre crescente disponibilità di diversi gruppi di ricerca al dialogo e alla collaborazione con quanti operano in altri settori, come ad esempio i fisici (polimeri per ottica non lineare, polimeri conduttori), i medici, i farmacologi e i biologi (biomateriali, biosensori), nonché l’attenzione rivolta a problemi di caratteri ambientale e socio-culturale (riciclaggio di polimeri, conservazione di beni culturali, …). Tutte queste iniziative dimostrano quanto alto, e ancora solo parzialmente esplorato, sia il potenziale applicativo delle macromolecole e, quindi, evidenziano la necessità di incrementare le ricerche interdisciplinari soprattutto per quanto riguarda gli aspetti relativi alle conoscenze di base. Infine, un’osservazione che riguarda i rapporti con quanti operano nel campo industriale: la loro partecipazione al Convegno è sembrata alquanto ridotta laddove sarebbe stata auspicabile in maniera più numerosa al fine di rendere sempre più stretti i rapporti di collaborazione tra Industria, Università e Istituti di Ricerca extra-universitari. La Tavola Rotonda, coordinata da Pietro Greco, editorialista scientifico, e con la partecipazione dei proff. Dante Gatteschi (Università di Firenze) e Luigi Nicolais (Università “Federico II” di Napoli) e del dott. Riccardo Fabiani (Federchimica, Milano) ha toccato alcuni aspetti di grande attualità come quelli relativi al ruolo della ricerca scientifica nel panorama poco promettente dello sviluppo culturale ed economico del paese. Il prof. Gatteschi con un lucido e dettagliato intervento ha esposto le attuali potenzialità dell’ISTM e la politica che esso intende seguire nel prossimo futuro. Il prof. Nicolais ha posto l’accento sull’attuale stato dell’Università, in termini di risorse umane e finanziarie. Tra i suggerimenti per un salto di qualità della ricerca, la necessità di interventi da parte di Enti locali, in particolare le Regioni, e il richiamo nelle nostre strutture di ricerca di ricercatori qualificati dall’estero. Nel dibattito che ne è seguito, vari interventi hanno messo in evidenza soprattutto la mancanza di politiche e mezzi adeguati per garantire la formazione di giovani ricercatori e la loro occupazione, che oggi si esprime in dilaganti condizioni di precariato e subalternità. Tutti hanno espresso grande preoccupazione per la grave situazione esistente sia nell’ambito della ricerca pubblica – con problemi relativi all’attuazione della riforma dell’Università e del CNR – che della ricerca industriale, con i risultati che sono ampiamente visibili nelle graduatorie internazionali sulla spesa per ricerca, innovazione e produttività, nelle quali l’Italia si colloca agli ultimi posti. Infine, l’“Assemblea Plenaria Eno-gastronomica” di chiusura, tenutasi nell’“Aula Magna” della Masseria “Giò Sole”, in quel di Capua, ha visto riuniti tutti i partecipanti ai lavori che si sono salutati con un caloroso “Arrivederci a Catania”!! NOTA REDAZIONALE Rosario Palumbo ci ha voluto far sapere che per il suo articolo a pag. 34 di AIM Magazine 2-3/2005 dal titolo “La storia della pastiera napoletana” ha in gran parte utilizzato materiale che ha trovato in Internet sul sito www.pastiera.it. I cultori della pastiera possono continuare ad approfondire il problema andando su questo sito e su altri equivalenti. 7 IL CONVEGNO DI NAPOLI AL MARGINE DEL CONVEGNO AIM DI NAPOLI: UNA GITA A CAPUA E A S. LEUCIO di Roberto Filippini Fantoni GITA A CAPUA anche alla clemenza di Giove Pluvio e alla felice posizione di quella specie di reggia-officina da dove si ammirava l’imponenza della rocca di Gaeta e della pianura sottostante. Chi l’avrebbe detto mai che ai reali borbonici napoletani potesse essere venuto in mente di costruire una dimora abbastanza sobria, anche se elegante, considerando la loro barocca dignità? Poi, questo sì veramente inaspettato, chi avrebbe potuto pensare che ne avessero voluto adibire una parte a industria per la filatura della seta con macchinari che per l’epoca erano da considerare all’avanguardia? Proprio questo abbinamento, che si rivelò alquanto felice, è la caratteristica di questa reggia provvisoria. E fu felice anche per la popolazione di quella parte della Campania che per diversi lustri seppe sfruttare proprio l’arte della seta per mantenere un po’ più alto il proprio tenore di vita, che per il popolo di quelle contrade era in generale miserrimo. I visitanti, divisi in due gruppi, hanno goduto delle piacevoli spiegazioni delle accompagnatrici che hanno veramente fatto del loro meglio per farli compartecipare, almeno con lo spirito, alla vita di corte e a quella, meno nobile ma più produttiva, del lavoro tessile. Poi dobbiamo citare come interessante la visita alle seterie, non certo settecentesche, con la quale abbiamo avuto un’idea di come l’arte antica, per quanto aiutata da macchine tecnologicamente avanzate, resti comunque il cuore di questa industria sempre più rara benché preziosa. A seguire, l’immancabile visita allo spaccio della seta, per la gioia delle congressiste e delle consorti dei congressisti e la disperazione di questi ultimi che vedevano minate le potenzialità del loro portafoglio. Il programma del pomeriggio turistico a Capua e dintorni prevedeva la visita alla Basilica di S. Angelo in Formis, un vero gioiello dell’architettura trecentesca, splendidamente conservato, la visita del Castello di Carlo V e di alcune delle sette chiese longobarde in Capua. Purtroppo non fu possibile la visita della Basilica di S. Angelo a causa di un matrimonio che ivi si celebrava proprio nell’orario di visita da noi programmato. La visita al Forte di Carlo V invece è stata una vera “chicca” in quanto i resti di questo castello-fortezza sono all’interno delle mura dello Stabilimento Militare Pirotecnico dell’Esercito e vi si può accedere solo chiedendo preventivamente un permesso alle autorità competenti. La costruzione di questa fortezza, voluta da Carlo V, rappresenta un esempio tipico di architettura militare del periodo della dominazione spagnola. La visita, guidata con estrema cortesia dagli stessi dipendenti del Pirotecnico, ha lasciato sicuramente in molti dei visitatori una notevole impressione. Più rapida, invece la visita delle chiese longobarde. Districandoci nel caotico traffico di Capua, guidati da graziose fanciulle che facevano da guida illustrandocene i pregi architettonici, ne abbiamo visitate solo tre delle sette in quanto l’ora dell’aperitivo alla Fattoria GioSole si avvicinava velocemente! Anzi, era già passata da un bel po’! GITA A S. LEUCIO Mentre coloro che avevano scelto Capua come meta dei loro interessi turistico-culturali cercavano a tutti i costi di essere puntuali all’aperitivo, senza riuscirci, l’altro gruppo di visitatori, si godeva una magnifica e inusuale visita a S. Leucio, da dove poteva godere un panorama delizioso, grazie 8 “chiacchiere” a ruota libera intra- e inter-tavoli (non poteva mancare un’espressione tipica di un sintetizzatore macromolecolare!) ad eccezione dell’annuncio del nome del nuovo presidente dell’AIM, uscito dalle rapide decisioni prese dal neo-eletto Consiglio Direttivo. Purtroppo il ritardo di cui abbiamo detto precedentemente, ci ha costretto ad accelerare un poco i tempi della cena per evitare che gli autisti dei pullman se ne tornassero a casa anzitempo lasciandoci a piedi. Poi gli arrivederci a Catania per coloro che si vedono e sentono solo in occasione del Congresso, gli arrivederci “al solito posto” di lavoro per coloro che invece lavorano fianco a fianco, e gli “a risentirci a presto” per coloro che, come sempre accade, hanno trovato al congresso AIM nuovi amici, con cui semplicemente scambiarsi idee, oppure con i quali iniziare qualche buon lavoro in comune. Poi via di corsa alla fattoria GioSole ad attendere i ritardatari di Capua. Per fortuna un quartetto di musicanti ci ha dilettati con della buonissima musica folcloristica napoletana, interpretata con buon gusto e così l’attesa dell’altro gruppo è stata meno gravosa. CENA ALLA MASSERIA GIOSOLE Che a Napoli e dintorni la puntualità sia qualcosa di quasi misconosciuto, era noto a tutti e anche questa volta non c’è stata eccezione alla regola. Comunque, pur in ritardo, l’aperitivo nel cortile della Masseria, accompagnati dalla musica folcloristica, è stato piacevolissimo e i primi arrivati, dato l’incombente tramonto, si sono goduti un caleidoscopio di colori via via smorzantisi. Cena di buon livello, divisi in tavolate da otto, con nessun discorso ufficiale – meno male – ma tante 9 ATTUALITÀ & DIVULGAZIONE Polimeri alle stelle!! No, no, questa frase d’inizio non è la solita lamentela (tra parentesi, comunque, purtroppo fondata) sull’incremento dei prezzi! È che la rubrica “L’attualità” di questo numero ci arricchisce con un contributo originale, competentemente preparato dalla collaborazione tra i ricercatori dell’Università di Pisa e della società AVIO di Roma, che ci spiega le fondamentali proprietà dei materiali polimerici quali leganti impiegati per conferire le adeguate prestazioni meccanico-reologiche alle miscele solide comburente-combustibile adottate per condurre uomini e mezzi nello spazio. In questi casi qualcuno obbietta sempre che la ricerca dovrebbe preoccuparsi maggiormente di quello che succede qui sulla Terra; è vero però che le tecnologie aerospaziali ci stanno dando grandi soddisfazioni nell’ambito satellitare a scopi civili e, d’altronde, come si può frenare l’istinto umano a cercare di superare sempre i propri limiti? Per dimostrarvi che la ricerca macromolecolare è tutt’altro che silente anche sulla terraferma, vi invito a leggere il pezzo di Enrico Pedemonte che ci racconta come sfruttare i polimeri acrilici, siliconici e fluorurati per salvaguardare i manufatti lapidei distribuiti nella nostra bella Italia, nonché l’articolo di Gianluca Tell in “Polymers and Life”. Qui vi raccontiamo di come polimeri a porosità controllata, sia di origine naturale che sintetica, svolgano un ruolo chiave nella innovativa branca della medicina rigenerativa, operando come supporti per la crescita delle cellule staminali e prospettando un futuro in cui molte malattie degenerative si possano curare semplicemente ricostruendo il tessuto naturale degli organi e delle strutture danneggiate, riportandole al loro grado di funzionalità iniziale. E se alla medicina per il corpo associamo quella per lo spirito, che cosa c’è di meglio di un bel pezzo di cioccolata per tirarsi su di morale? I segreti di questa affermazione li trovate descritti da Roberto Filippini Fantoni nel “Forse non sapevate che …”. Per concludere, torniamo ancora un attimo alla questione dell’uomo e della sua voglia di superare se stesso. Quale esempio migliore di questa tendenza inarrestabile se non quello dello sport? Eleonora Polo, in “Macrotrivial”, ci spiega quali incredibili sforzi, in termini di studi e di investimenti finanziari, si stiano facendo per aumentare anche di poche frazioni di secondo le prestazioni dei campioni di nuoto. C’è da sbalordirsi nello scoprire che le scienze dei materiali in questo campo ricorrono persino alla scansione tridimensionale del corpo degli atleti, progettando costumi, cuffie ed occhialini capaci di contrastare quello che, ironicamente, è proprio il peggior nemico del nuotatore professionista: l’acqua!! Michele Suman 10 I POLIMERI ENERGETICI: NUOVI LEGANTI PER PROPELLENTI SOLIDI COMPOSITI di Ugo Barbieri*, Giovanni Polacco*, Roberto Massimi** I vettori aerospaziali possono avere diversi tipi di motori, i quali vengono classificati in base allo stato di aggregazione di combustibile e comburente. Si distinguono quindi in motori a propellente liquido (tipicamente a base di idrogeno ed ossigeno), solido ed “ibrido” nei quali una componente è solida ed una è liquida. I propellenti solidi sono, per esempio, attualmente utilizzati nei due booster di accelerazione del lanciatore europeo Ariane 5, ed il loro impiego è previsto nei primi tre (P80, Zefiro 23 e Zefiro 9) dei quattro stadi del Vega, che presto dovrebbe affiancare Ariane 5 per carichi paganti fino a 1.500 kg, in funzione dell’orbita di destinazione. Per “visualizzare” le dimensioni di un lanciatore, si può far riferimento alla Figura 1, dalla quale si vede che l’Ariane 5 ha approssimativamente la stessa altezza della torre pendente. I due booster laterali hanno altezza complessiva e diametro di 26,2 metri e 3 metri, rispettivamente, cui corrisponde un volume utile di circa 135 m3, riempito con 239 tonnellate di propellente solido che viene completamente consumato in circa 2 minuti dall’accensione. Ovviamente, combustibile e comburente devono essere premiscelati nei propellenti solidi, i quali, pertanto, sono materiali polifasici. Oltre alle proprietà energetiche indispensabili per vincere l’attrazione gravitazionale, il propellente deve soddisfare una serie di esigenze reologiche e meccaniche. Esso deve esibire buona fluidità durante le fasi di miscelazione delle componenti e di riempimento del motore, ed elevata consistenza durante il lancio, per poter resistere alle notevoli sollecitazioni meccaniche cui è sottoposto. Per questo motivo, una tipica formulazione di propellente solido oltre a combustibile e comburente (generalmente alluminio e perclorato d’ammonio) contiene dei plastificanti ed un 10-15% in peso di legante polimerico. Quest’ultimo è costituito da un polimero viscoso amorfo, di peso molecolare mediobasso, che viene mescolato alla carica e reticolato chimicamente in situ, ovvero all’interno del motore. In tal modo il legante dà luogo alla formazione di un network che conferisce compattezza e proprietà elastomeriche all’intera massa, per far sì che questa possa resistere alle sollecitazioni del lancio, ma anche assorbire e dissipare l’energia proveniente da sollecitazioni accidentali durante la fase di trasporto e montaggio delle componenti. Attualmente, il legante polimerico più comunemente utilizzato nella formulazione dei propellenti solidi è il polibutadiene idrossi-terminato (HTPB) che viene reticolato mediante reazione con isocianati per dare una rete poliuretanica. Per quanto Figura 1 * Università di Pisa, Dipartimento di Ingegneria Chimica, Chimica Industriale e Scienza dei Materiali, Via Diotisalvi 2, Pisa; E-mail: [email protected] ** AVIO SpA, Corso Garibaldi 22, 00034 Colleferro (RM) 11 riguarda il futuro, l’industria aerospaziale rivolge la sua attenzione verso propellenti con sempre maggior capacità di spinta, per poter aumentare il carico massimo dei vettori e quindi ridurre i costi di lancio. In questo senso, la via più promettente ed interessante è quella che prevede la sostituzione dell’HTPB con un legante che, oltre a svolgere le funzioni suddette, dia anche un contributo significativo dal punto di vista energetico. Un legante di questo tipo potrebbe essere impiegato in percentuali più elevate di quanto non lo siano quelli attuali, permettendo quindi di ridurre la carica solida complessiva, a vantaggio sia della processabilità, sia della successiva vulnerabilità del composito finale. Sulla base di queste considerazioni, negli ultimi anni la ricerca scientifica si è concentrata sulla sintesi di polimeri “energetici”, caratterizzati cioè dalla presenza di gruppi funzionali in grado di decomporsi esotermicamente ad alte temperature, dando luogo allo sviluppo di elevati volumi di gas, e/o con proprietà ossidanti. L’introduzione di questi nuovi materiali leganti dovrebbe conferire al propellente un elevato contenuto energetico, senza gravare in termini di sicurezza sulle fasi di fabbricazione, stoccaggio e trasporto del materiale. È ovvio, tuttavia, che i nuovi polimeri energetici potranno competere favorevolmente con i leganti polimerici attualmente in uso solo se, oltre a contenere gruppi energetici e/o ossidanti, saranno anch’essi in grado, dopo miscelazione con il combustibile ed il comburente, di subire un processo di reticolazione capace di trasformare la miscela in una massa di composizione il più possibile uniforme e con proprietà elastomeriche. I polimeri devono pertanto essere caratterizzati da: • bassa temperatura di transizione vetrosa (Tg < -35 °C) e basso (possibilmente nullo) grado di cristallinità, in modo che le macromolecole abbiano discreta “mobilità” a temperatura ambiente e sia garantito, macroscopicamente, un appropriato comportamento visco-elastico del materiale; • presenza di gruppi funzionali in grado di reagire con l’agente reticolante. I polimeri energetici possono essere classificati in funzione dei gruppi sostituenti in essi presenti: azidici (gruppo funzionale -N3), nitrici (-ONO2) o fluorurati (-NF2). È inoltre possibile impiegare copolimeri “misti”, derivati cioè da due o più monomeri appartenenti a classi energetiche differenti (es. copolimeri a blocchi nitrico/azidici). POLIMERI prietà dei polimeri azidici, risalgono ai primi anni Ottanta, quando alcuni ricercatori della Rockwell International Co. sintetizzarono il GAP (Glycidyl Azide Polymer) per azidazione con NaN3 di poliepicloridrina di basso peso molecolare 1. Qualche anno più tardi, Manser 2 brevettò la sintesi e la polimerizzazione di due monomeri ossetanici 3-azidosostituiti: il 3-azidometil-3-metil ossetano (AMMO) ed il 3,3-bis(azidometil)ossetano (BAMO), che ancora oggi, dopo circa vent’anni, destano l’interesse della ricerca nel settore aerospaziale. Figura 2: Principali monomeri ossetanici 3-azido sostituiti La polimerizzazione degli ossetani è condotta per via cationica, utilizzando un catalizzatore acido di Lewis ed un promotore, generalmente un diolo (il primo sistema catalitico impiegato fu il trifluoruro di boro eterato/1,4-butandiolo TFBE/1,4 BDO). Successivamente furono studiati sistemi catalitici (es. AgSbF4/BSB 3, sale alchilante/1,4-butandiolo 4 ) in grado di garantire un miglior controllo su alcune importanti proprietà del polimero energetico, quali il peso molecolare e il numero delle funzionalità ossidriliche terminali per macromolecola. Il contenuto energetico dei tre omopolimeri azidici è proporzionale alla rispettiva percentuale ponderale di azoto, cioè pAMMO (33%) < GAP (42%) < pBAMO (50%). Il pBAMO sarebbe pertanto, fra i tre, il miglior candidato per la sostituzione dell’HTPB, ma, purtroppo, non può essere utilizzato tal quale come legante elastomerico, a causa della sua elevata cristallinità. Di conseguenza, la soluzione migliore sembra quella di sfruttare l’elevato contenuto energetico del BAMO, introducendolo in copolimeri random (per esempio con AMMO o glicidil azide) o a blocchi. Occorre cioè sacrificare parzialmente il contenuto energetico, a favore della lavorabilità del legante. Nel caso dei copolimeri random, si deve cercare il quantitativo minimo di comonomero necessario a garantire la formazione di un materiale amorfo, mentre relativamente ai copolimeri a blocchi è stata studiata la possibilità di produrre elastomeri termoplastici (ETPE “Energetic Thermoplastic Elastomers”) costituiti da un copolimero a tre blocchi avente il segmento centrale amorfo e quelli laterali cristallini 5-8. In questo caso viene ovviamente a cadere il AZIDICI I primi brevetti sullo studio della sintesi e delle pro- 12 prerequisito della non cristallinità e si ottengono materiali con morfologia analoga a quella degli elastomeri termoplastici tipo l’SBS (stirene-butadiene-stirene), nei quali il recupero di forma non è garantito da vincoli chimici intermacromolecolari, bensì dalla rigidità dei blocchi terminali del copolimero (con l’ovvia differenza che nel caso degli elastomeri la rigidità è dovuta alla presenza di domini stirenici amorfi che si trovano in uno stato vetroso piuttosto che cristallino). Il principale vantaggio di questi ETPE è legato al fatto che con essi non è più necessaria la fase di reticolazione in situ, mentre lo svantaggio è che probabilmente diviene piuttosto complicata la fase di miscelazione delle componenti solide, che deve garantire la formazione di un reticolo che sia intimamente distribuito nell’intera massa di propellente. L’analisi termogravimetrica effettuata su polimeri azidici ha mostrato che il gruppo -N3 è soggetto a due stadi di decomposizione. Il primo, esotermico, è dovuto alla liberazione di azoto dal polimero (Fig. 3); il secondo, atermico, è causato dalla frammentazione delle catene macromolecolari in molecole leggere (HCN, CO, CO2, CH4 etc.). o 5 kg da diverse altezze su un campione di alcuni milligrammi e riporta il minimo valore (espresso in Joule e calcolato come prodotto dei kg peso per altezza di caduta) necessario per innescare l’esplosione. Il test di frizione consiste nel sottoporre a sfregamento il campione mediante applicazione di una forza di taglio che viene gradualmente incrementata e riporta il valore minimo (espresso in kg) necessario per osservare l’intervento di fenomeni degradativi. Come si può vedere dalla Tabella, per i monomeri energetici non è riportata una temperatura di decomposizione, in quanto a pressione atmosferica interviene prima l’evaporazione e la decomposizione si può osservare solo in ambiente pressurizzato (almeno 15 psi per il BAMO e 500 psi per l’AMMO 9). Tuttavia, entrambi i monomeri manifestano una sensibilità all’impatto ed alla frizione molto maggiore di quelle dei rispettivi omopolimeri. Si osserva, inoltre, che non esiste il dato relativo al monomero del GAP, perché questo viene prodotto per azidazione della poliepicloridrina, la quale deriva da un monomero non energetico. Dai dati di Tabella 1 appare chiaro che i margini di sicurezza del processo di sintesi di polimeri azidoossetanici sarebbero certamente più ampi conducendo la reazione di azidazione su substrati polimerici preformati, analogamente a quanto già accade nella sintesi del GAP. In tal modo, si potrebbe evitare la sintesi del monomero energetico che, senza dubbio, costituisce lo stadio più pericoloso della preparazione. Seppur sia attesa una maggiore lentezza cinetica dell’azidazione quando essa è condotta su matrici polimeriche, sono molto poche le pubblicazioni che approfondiscono dettagliatamente le effettive potenzialità e i limiti di questa strategia sintetica applicata a substrati poliossetanici 10. Per tale ragione, presso i nostri laboratori, sono attualmen- Figura 3: Primo stadio di decomposizione di un polimero La Tabella 1 riporta alcune delle più importanti proprietà (misurate nei nostri laboratori) dei suddetti monomeri e relativi omopolimeri azidici. Il test di impatto consiste nel far cadere un peso di 1 Tabella 1: Alcune proprietà dei più comuni monomeri ed omopolimeri azidici. 13 Tabella 2: Alcune proprietà dei più comuni polimeri nitrici 13. ossidrilici in cloruro di metilene, che è utilizzato anche nella successiva reazione di polimerizzazione; infatti, a causa dell’elevata instabilità dei monomeri nitrici, si preferisce non isolarli, ma mantenerli in soluzioni organiche sufficientemente diluite da garantire buoni margini di sicurezza in tutte le fasi della sintesi 12. Ovviamente, anche in questo caso tutte le fasi di manipolazione dei materiali, dalla sintesi alla carica e trasporto del motore, devono poter essere svolte in sicurezza e di nuovo i test di stabilità (Tab. 2) mostrano che i polimeri sono piuttosto sicuri da questo punto di vista. Le temperature di decomposizione, come era prevedibile, sono più basse di quelle viste per i polimeri azidici, ma restano sufficientemente elevate per poter dire che anch’esse non sono un fattore critico. Inoltre, entrambi gli omopolimeri hanno carattere amorfo (con temperatura di transizione vetrosa sufficientemente bassa) e si presentano come liquidi oleosi, di viscosità variabile in funzione del loro peso molecolare e quindi sono da considerare a tutti gli effetti come validi candidati per essere utilizzati come leganti. Viste le loro caratteristiche, i polimeri nitrici possono anche essere utilizzati come segmento centrale di copolimeri a blocchi, aventi caratteristiche di ETPE e quindi, se i blocchi esterni sono di pBAMO, il legante viene ad essere azido/nitrico. te in corso prove di azidazione condotte su substrati polimerici aventi in catena laterale gruppi uscenti di varia natura, per cercare di trovare le condizioni più agevoli per il processo di azidazione diretta del polimero. POLIMERI NITRICI I polimeri energetici, appartenenti a questa classe sono polieteri, ossetanici o ossiranici, contenenti gruppi nitrici -ONO2. Utilizzando un polimero nitrico nella composizione di un propellente solido, il surplus energetico deriva dall’azione ossidante dei gruppi nitrato che va a sommarsi a quella del perclorato. Questo comporta la possibilità di ridurre la percentuale di quest’ultimo nella formulazione complessiva, con il vantaggio di avere un propellente con minor contenuto di cloro e quindi meno inquinante. È chiaro che il numero di lanci che vengono effettuati è piuttosto limitato e pertanto, quale che sia la composizione del propellente, l’impatto ambientale che ne deriva è estremamente modesto, se non trascurabile, a confronto con le moltissime altre fonti di inquinamento. Ciononostante, oggi come oggi questo è un aspetto che deve comunque essere valutato e che può assumere un peso significativo (a parità di caratteristiche prestazionali) nella scelta delle formulazioni. Attualmente, i polimeri nitrici più studiati sono il poli-3-nitratometil-3-metil ossetano (pNMMO) e il poli-glicidil nitrato (pGLYN), ottenuti per omopolimerizzazione cationica ad apertura di anello dei rispettivi monomeri energetici 11. DIFLUOROAMMINO POLIMERI I polimeri difluoroamminici sono caratterizzati dalla presenza in catena laterale di gruppi -NF2. Da un punto di vista energetico, questi polimeri sono potenzialmente molto interessanti in quanto durante la decomposizione liberano esotermicamente HF gassoso ed anche una certa quantità di F2, il che consentirebbe loro di contribuire all’azione propellente sia grazie all’elevato sviluppo di gas, sia fornendo un buon agente ossidante il quale potrebbe sostituire parte del perclorato d’ammonio presente nella carica redox. Purtroppo, però, dalla tendenza del gruppo NF2 ad interagire con gli atomi di idrogeno vicini e liberare spontaneamente acido fluoridrico, derivano Figura 4: Monomeri nitrici. Generalmente, questi monomeri sono preparati per nitrazione con N2O5 dei rispettivi precursori 14 Sebbene gli studi effettuati sulle proprietà meccaniche, reologiche e termiche sembrino incoraggiare l’applicazione di questi nuovi materiali nella futura tecnologia dei propellenti solidi, le maggiori perplessità permangono circa i costi di produzione. Infatti, come detto, la via sintetica più semplice dal punto di vista chimico è quella che passa attraverso la produzione dei monomeri energetici, la cui instabilità è stata più volte ricordata. È evidente che una produzione industriale, sia pure su scala limitata, rispetto al caso dell’HTPB dovrebbe sopportare investimenti molto maggiori in termini di materie prime e di impianto, per garantire condizioni di sicurezza accettabili per la sintesi e lo stoccaggio dei prodotti. Per tale ragione, è forse necessario approfondire le possibilità di sintesi alternative dei medesimi materiali energetici, che forniscano cioè maggiori margini di sicurezza e quindi minori investimenti nell’ottica di uno scaleup industriale. In questo senso la funzionalizzazione di precursori polimerici non energetici merita maggiore attenzione, perché le difficoltà sintetiche di questa via sono probabilmente più facili da affrontare di quanto non lo siano quelle indicate sopra per la sintesi e la polimerizzazione di monomeri energetici. un’elevatissima sensibilità all’impatto ed una scarsa stabilità chimica. Per questo motivo le applicazioni pratiche di questo gruppo funzionale vanno limitate a composti in cui il gruppo NF2 è inserito in strutture neopentiliche, che sembrano essere quelle che garantiscono maggiori margini di stabilità della molecola. Omo- e copolimeri difluoroamminici sono stati sintetizzati per via cationica 14, impiegando monomeri ossetanici (Fig. 5) ed il classico sistema iniziatore TFBE/1,4 BDO. Figura 5: Monomeri ossetanici 3-difluoroammino sostituiti. Questi monomeri sono preparati mediante due passaggi consecutivi, partendo dalle rispettive ammine primarie ossetaniche: per prima cosa si sintetizza un dicarbammato che poi viene sottoposto ad un trattamento in corrente di fluoro gassoso per permettere la formazione dei gruppi NF2. Nonostante il fatto che, analogamente a quanto visto per i materiali azidici, la sensibilità alle sollecitazioni meccaniche si riduca notevolmente passando dai monomeri ai rispettivi polimeri, negli ultimi anni lo studio dei polimeri difluoroamminici è stato progressivamente abbandonato a favore dei polimeri azidici e nitrici. Questo non solo per la maggiore complessità di sintesi, ma anche per problemi insiti nella stessa natura dei polimeri difluoroamminici che hanno temperatura di transizione vetrosa piuttosto elevata (Tg ≈ -20 °C) ed inferiore stabilità a lungo termine. Tutti questi motivi, nonostante la buona potenzialità della molecola, rendono piuttosto improbabile una loro futura applicazione in propellenti solidi compositi. BIBLIOGRAFIA 1 2 3 4 5 6 7 8 9 CONCLUSIONI 10 L’uso di leganti azido e/o nitrato sostituiti è una via molto promettente al fine di aumentare la prestazione energetica dei propellenti solidi, espressa in termini non solo di impulso specifico (Isp), ma anche di impulso volumetrico (Iv = Isp·η, dove η è la densità) grazie al fatto che questa nuova generazione di propellenti ha una densità maggiore rispetto a quelli a base di HTPB. Si stima che complessivamente l’impulso volumetrico potrebbe avere un guadagno addirittura del 10-12% grazie all’introduzione dei nuovi leganti. 11 12 13 14 15 Frankel MB, Flanagan JE. US Patent 4,268,450, 1981. Manser GE. US Patent 4,483,978, 1984. Talukder MA. Makromol Chem, Macromol Symp 1991;42:501-11. Wardle RB, Edwards WW. US Patent 6,100,375, 2000. Talukder MA, Lindsay GA. J Polym Sci: Part A Polym Chem 1990;28:2393-401. Xu B, Lin YG, Chien CW. J Appl Polym Sci 1992;46:1603-11. Hsiue GH, Liu YL, Chiu YS. J Polym Sci: Part A Polym Chem 1994;32:2155-9. Sanderson AJ, Edwards WW. PTC WO 00/34350 2000. Oyumi Y, Brill TB. Combustion and Flame. 1986;65:127-35. Jutier JJ, De Gunzbourg A, Proud’Homme RE. J Polym Sci: Part A Polym Chem 1999;37:10271039. Desai HJ, Cunliffe AV, Hamid J, Honey PJ, Steward MJ. Polymer 1996;37:3461-9. Golding P, Millar RW, Paul NC. UK Patent 2,240,779, 1992. Provatas A. Energetic polymer and plasticisers for explosive formulations. DSTO-TR-0966, 2000. Archibald TG, Manser GE, Immons JE. US Patent 5,272,249, 1993. IL CONSOLIDAMENTO E LA PROTEZIONE DEI MANUFATTI LAPIDEI DI INTERESSE STORICO E INDUSTRIALE MEDIANTE MATERIALI POLIMERICI di Enrico Pedemonte* L’AZIONE DELL’ACQUA agenti inquinanti veicolati dall’acqua è più o meno marcato a seconda della natura chimica della pietra stessa: le rocce carbonatiche sono più facilmente degradabili delle siliciche, che sono relativamente stabili. Il marmo è quindi una roccia particolarmente degradabile, anche perché, pur avendo una porosità complessiva relativamente bassa (circa il 4%) ha una distribuzione incentrata sui micropori. È ben noto che la principale responsabile del degrado della pietra è l’acqua, sia piovana che di condensa; essa determina il degrado sia attraverso fenomeni fisici (gelo/disgelo) sia, soprattutto, mediante l’attacco chimico, in quanto veicola le sostanze nocive per la pietra presenti nell’atmosfera (anidride carbonica, ossidi d’azoto e anidridi dello zolfo). La veicolazione degli agenti inquinanti ad opera dell’acqua avviene attraverso i pori della pietra, per effetto di capillarità; è ben noto che i pori della pietra possono essere distinti in macro pori, con diametro maggiore di 500 Å, mesopori, con diametro compreso tra 500 e 20 Å e micropori, con diametro inferiore ai 20 Å: questi ultimi sono i più pericolosi dal punto di vista del degrado, in quanto in essi la penetrazione dell’acqua per capillarità è più profonda. Ovviamente il degrado della pietra ad opera degli GLI EFFETTI DEL DEGRADO L’effetto del degrado, sia fisico che chimico determinato dall’acqua, consiste in un aumento della porosità complessiva della pietra: per questo motivo il marmo di Carrara della colonna Traiana di Roma, dopo duemila anni di esposizione agli agenti atmosferici, ha una porosità totale del 7%, che, pur essendo nel complesso ancora relativamente bassa, è tuttavia quasi il doppio di quella del marmo di cava. Figura 1: Esempi di degrado di materiali lapidei: il Partenone di Atene con un particolare del fregio. * Dipartimento di Chimica e Chimica Industriale, Università di Genova 16 Ne consegue che, considerando la stratigrafia della pietra degradata, si può distinguere la parte originaria, sana, caratterizzata da una sua particolare porosità, a cui succede uno strato di pietra degradata a porosità maggiore, che può raggiungere lo spessore del centimetro, ed a cui si sovrappone ancora uno strato sottile (dell’ordine del millimetro) di materiale estraneo derivante dallo sporco che con il tempo si accumula sulla pietra. Gli aspetti chimici del degrado sono variegati, ma i più importanti sono quelli della solfatazione e della formazione delle croste nere. La solfatazione è dovuta alla trasformazione del carbonato di calcio costituente la pietra in solfato di calcio ad opera delle anidridi solforosa e solforica, contenute nell’atmosfera e provenienti dai processi di combustione; si presenta talvolta come spolvero fine e talvolta come crosta dura e compatta. La crosta nera è un sistema complesso, costituito da diverse componenti: in primo luogo dai residui cristallini della roccia carbonatica su cui si forma, che in generale hanno grana piuttosto grossa (ricordiamo che il marmo è una roccia metamorfica e come tale è caratterizzata da grani cristallini ben formati e di grosse dimensioni); in secondo luogo da carbonato di calcio di grana cristallina molto piccola, derivante dalla trasformazione del bicarbonato di calcio che si è prodotto per azione della pioggia acida e che si trova disciolto nell’acqua. Nella crosta sono inoltre presenti solfato e nitrato di calcio, derivati dalla trasformazione del carbonato ad opera degli inquinanti atmosferici, e particellato, derivante dai processi di combustione e che conferisce alla crosta il caratteristico colore nero. La crosta nel suo complesso è dura e compatta per la presenza del gesso. Figura 2: Esempi di degrado di materiali lapidei: statua di marmo (Pontremoli). applicata ad un manufatto non ancora esposto all’azione dell’atmosfera oppure ad un manufatto degradato e consolidato e dunque restaurato. Il consolidamento si realizza attraverso il parziale riempimento dei pori dello strato decoeso, in modo da riportare il suo valore della porosità totale a quello della pietra sana. Le caratteristiche fondamentali di un buon consolidante debbono essere: – profondità di penetrazione; – affinità chimica con la pietra, in modo che il materiale consolidante distribuito all’interno dei pori aderisca bene alle loro pareti interne; – affinità fisica con la pietra, in modo che le sue proprietà non si discostino troppo da quelle della matrice ospitante; – stabilità agli agenti fisici e chimici dell’atmosfera, in particolare alla luce, alle radiazioni ultraviolette, ed agli agenti inquinanti anche gassosi; – mancanza di sottoprodotti dannosi per la pietra in fase di applicazione; – occupazione dei pori solo parziale, in modo da IL RESTAURO: PULITURA, CONSOLIDAMENTO E PROTEZIONE In base a quanto detto è facile intuire che le fasi del restauro di un manufatto lapideo dovranno essere tre: la pulitura, il consolidamento e la protezione. La pulitura ha come obiettivo quello di rimuovere le sostanze estranee alla pietra che si sono accumulate sulla superficie a seguito dei processi di degrado. Si realizza con diverse tecniche, ma non è questo l’argomento qui trattato. Il consolidamento interessa lo strato ad alta porosità ed ha come obiettivo quello di ridare consistenza meccanica alla parte decoesa. La protezione interessa lo strato superficiale del manufatto, ed ha come obiettivo quello di isolare il manufatto dall’ambiente esterno. Essa può essere preventiva o conservativa, secondo che venga 17 consentire una buona permeabilità della pietra ai gas e ai vapori; – reversibilità; questo requisito (richiesto dalla carta del restauro di Atene – 1931) è oggi molto discusso in quanto si ritiene assolutamente inutile all’atto pratico, nella comune consuetudine del cantiere. I consolidanti attualmente utilizzati possono essere classificati in due gruppi, a seconda della natura chimica, in consolidanti inorganici e organici. I primi sono composti che vengono veicolati nei pori della pietra degradata in soluzione acquosa o alcolica e che, per reazione con un componente dell’ambiente, danno luogo ad un precipitato insolubile, che si deposita all’interno dei pori. I consolidanti organici invece sono sostanze polimeriche, che vengono veicolate all’interno della pietra degradata sciolte in un solvente organico e che formano un film continuo sulle pareti interne dei pori, per semplice evaporazione del solvente stesso. Tra i consolidanti inorganici, a titolo di esempio, si può citare l’idrato di bario che, veicolato in soluzione acquosa, reagisce con l’anidride carbonica dell’aria per formare all’interno dei pori un precipitato di carbonato di bario, insolubile. Come sottoprodotto della reazione si forma semplicemente acqua, che, unitamente all’acqua del veicolante, evapora attraverso i pori della pietra. Un secondo esempio interessante è il silicato di etile, veicolato in un solvente misto acqua/etanolo, il quale subisce una reazione d’idrolisi che porta alla precipitazione di silice; come sottoprodotto della reazione si forma alcol etilico, molto volatile. I consolidanti organici sono composti polimerici, che appartengono a classi diverse: possiamo ricordare i polimeri acrilici, i siliconici ed i fluorurati. Ovviamente non esiste un consolidante ideale, che abbia contemporaneamente tutti i requisiti sopra elencati. Si proverà dunque a fare un confronto fra i consolidanti organici e inorganici per illustrarne pregi e difetti. Per quanto concerne la profondità di penetrazione, è indubbio che i consolidanti inorganici sono maggiormente efficaci, in quanto sono costituiti da molecole di piccola dimensione, che possono penetrare con facilità all’interno dei pori, anche a diametro minore; i composti polimerici, d’altra parte, sono sostanze macromolecolari, il cui diametro in soluzione è dell’ordine di alcune centinaia di Å e come tali hanno difficoltà a penetrare nei pori della pietra, limitandosi dunque a consolidare solo lo strato più superficiale. Per quanto concerne invece l’affinità chimica con la pietra e dunque la possibilità di interagire con i costituenti delle pareti dei pori, i polimeri hanno un Figura 3: Esempi di degrado di materiali lapidei: chiesa di Ferla (Siracusa). indubbio vantaggio, in quanto non si limitano a riempirli in parte con un semplice meccanismo fisico (come fanno i consolidanti inorganici), ma attraverso la formazione di un film continuo aderiscono bene alle pareti dei pori stessi. L’affinità fisica rappresenta anch’essa un aspetto favorevole ai consolidanti inorganici, in quanto questi hanno la stessa natura chimica della pietra. In particolare si rivela importante, a questo proposito, il coefficiente di dilatazione termica che deve essere dello stesso ordine di grandezza per la pietra e per il consolidante; infatti un riscaldamento accidentale del manufatto consolidato non deve determinare dilatazioni diverse, capaci di produrre scollamenti tra le due fasi. La stabilità alla luce, alle radiazioni ultraviolette e agli agenti chimici esterni è indubbiamente superiore per i consolidanti inorganici rispetto agli organici, in quanto questi ultimi si degradano facilmente, tendendo ad ingiallire. Per quanto concerne i sottoprodotti in fase di applicazione, i consolidanti organici sono da preferirsi a quelli inorganici, in quanto il meccanismo attraverso il quale si realizza il consolidamento prevede, nel caso dei polimeri, la semplice evaporazione del solvente usato come mezzo veicolante, senza che sia necessaria alcuna reazione chimica. Negli esempi riportati per i consolidanti inorganici, i sottoprodotti della reazione non sono dannosi per la pietra in quanto possono facilmente evaporare, ma altri composti comportano reazioni che lasciano nel manufatto sottoprodotti non volatili; questi rimangono stabilmente nei pori, sono solubili in acqua e, sciolti in essa, possono migrare da un poro all’altro dentro la pietra. Per quanto concerne infine la reversibilità, i con- 18 Figura 4: Esempi di degrado di materiali lapidei: Palazzo del Toro, piazza San Babila (Milano). solidanti organici sono migliori di quelli inorganici, in quanto permane nel tempo la loro solubilità nello stesso solvente organico che è stato impiegato per veicolarli. I consolidanti inorganici sono precipitati insolubili e come tali del tutto irreversibili. In conclusione, come si è detto, non si può individuare un consolidante che abbia contemporaneamente tutte le caratteristiche richieste. Di volta in volta bisogna scegliere il consolidante più appro- 19 priato e molto spesso questa scelta viene fatta sulla base di considerazioni del tutto soggettive. Indubbiamente oggi i consolidanti organici sono preferiti a quelli inorganici; questo richiede, considerati gli aspetti sopra riportati, che si tenti una spiegazione possibile. A tal proposito è necessario considerare la terza fase del restauro e cioè la protezione che, come si è detto, ha come obiettivo quello di isolare il manufatto dall’azione dell’ambiente esterno, in particolare dall’acqua, sia meteorica che di condensa. Questo si realizza con materiali idrorepellenti e dunque con composti polimerici, che, se opportunamente scelti, hanno un elevato valore dell’angolo di contatto. È chiaro allora che se si impiega, nel restauro di un manufatto lapideo, un composto polimerico, questo può consentire il raggiungimento contemporaneamente di due obiettivi: il consolidamento e la protezione. I consolidanti inorganici non sono mai idrorepellenti e quindi non possono avere azione protettiva: la loro applicazione alla pietra richiede un successivo trattamento con un protettivo polimerico. È ovvio che la scelta di un materiale polimerico riduce i tempi del cantiere e quindi i costi complessivi del restauro. Tra le classi dei polimeri ordinariamente impiegati (acrilici, siliconici e fluorurati) i siliconici rappresentano un buon compromesso qualità/prezzo. I polimeri acrilici hanno prezzi molto bassi, ma qualità modeste, sia per quanto riguarda la stabilità, sia per quanto riguarda l’idrorepellenza; per contro i fluorurati hanno stabilità eccezionale e valori dell’angolo di contatto molto elevati, ma il loro impiego è fortemente condizionato dal costo, che è eccessivo per la maggior parte dei casi. Stabilita dunque la preferenza accordata in generale ai materiali polimerici, rimane da risolvere il problema della profondità di penetrazione. Questo è un aspetto fondamentale per un consolidante, che, per essere tale, deve penetrare nella pietra degradata sino a raggiungere lo strato sano e non può limitarsi a consolidare lo strato superficiale. La soluzione al problema può essere trovata se si considerano gli alchilalcossisilani. Questi composti sono precursori di consolidanti polimerici siliconici, che si formano all’interno dei pori della pietra a seguito di una reazione d’idrolisi dei gruppi alcossi, seguita da un processo di policondensazione dei gruppi ossidrilici che si formano. Si tratta, come si vede, di un consolidante polimerico che si forma all’interno della pietra a seguito di una reazione chimica, caratteristica questa che è propria dei consolidanti inorganici, come detto. LA BIBLIOGRAFIA POLIMERIZZAZIONE IN SITU 1 È questa la premessa per la polimerizzazione “in situ” dei monomeri acrilici e fluorurati, che è stata realizzata nei nostri laboratori. La pietra degradata viene trattata non con il polimero preformato, ma con il monomero o con una miscela di monomeri. Queste sono molecole piccole e, come tali, possono agevolmente penetrare in profondità. Successivamente questi monomeri vengono indotti a polimerizzare mediante una semplice reazione radicalica che porta alla formazione del polimero direttamente all’interno dei pori, anche di quelli più piccoli, che sono ordinariamente preclusi al polimero preformato. Il processo è molto duttile ed attraverso di esso si possono applicare alla pietra sia omopolimeri che copolimeri; particolarmente interessanti si dimostrano i copolimeri contenenti piccole percentuali di unità fluorurate, e che pertanto acquisiscono migliori proprietà protettive. Infine si sottolinea il fatto che questa tecnica è applicabile non solo ai manufatti lapidei degradati, ma anche agli intonaci e ai calcestruzzi, che presentano gli stessi problemi di consolidamento. 2 3 4 5 6 Figura 5: Schema generale della polimerizzazione in situ. 20 ESSENZIALE Lazzarini L, Laurenzi Tabasso M. Il restauro della pietra. Padova: Cedam 1996. Amoroso GG, Camaiti M. Scienza dei materiali e restauro. Alinea 1997. Vicini S, Princi E, Moggi G, Pedemonte E. La Chimica e l’Industria 1999;81:1013. Vicini S, Margutti S, Princi E, Moggi G, Pedemonte E. Macromol Chem Phys 2002;203:1413. Vicini S, Margutti S, Moggi G, Pedemonte E. J Cultural Heritage 2001;2:143. Vicini S, Princi E, Pedemonte E, Lazzari M, Chiantore O. J Applied Polymer Sci 2004;91:3202. POLYMERS AND LIFE CELLULE STAMINALI ACCOPPIATE A SUPPORTI DI CRESCITA POLIMERICI: NUOVA FRONTIERA DELLA MEDICINA RIGENERATIVA O “ELISIR DI LUNGA VITA”? di Gianluca Tell* COSA assicurato. Quindi, le cellule staminali sono potenzialmente in grado di ovviare alla scarsità di cellule e tessuti da trapiantare e quindi rappresentano un’ottima alternativa terapeutica. SONO LE CELLULE STAMINALI? Le cellule staminali sono le cellule “fondatrici” (capostipiti) di ogni organo, tessuto e tipo cellulare dell’organismo. Rappresentano una sorta di microchip programmabile ad eseguire qualsiasi tipo di operazione specializzata. Le cellule staminali sono cellule “indifferenziate” (vedi articolo dello stesso autore AIM Magazine, vol. 57 1-2, 2003), che non hanno ancora acquisito alcuna specifica funzione se non la capacità di poter divenire un qualsiasi tipo cellulare. In particolari condizioni, le cellule staminali iniziano a “differenziare” e a svilupparsi in specifici tessuti ed organi. Una delle caratteristiche fondamentali delle cellule staminali è la loro capacità di “autoriprodursi” per lunghi periodi di tempo. Sono, per così dire, immortali. Queste specifiche caratteristiche rendono le cellule staminali molto promettenti per la cura di malattie degenerative gravemente debilitanti come il morbo di Alzheimer, il diabete di tipo 1, il morbo di Parkinson, l’infarto e le cardiopatie, l’osteoartrite e l’artrite reumatoide, nonché il cancro. Oggigiorno, la strategia adottata per rimpiazzare un organo non funzionante, come il fegato, il cuore, il pancreas o i reni, è il trapianto da donatore. Sfortunatamente, però il numero dei pazienti che necessitano di un tale intervento supera di gran lunga la disponibilità degli organi da trapiantare e, nonostante siano comunque migliorate ampiamente, le strategie di trapianto presentano dei rischi e il successo terapeutico non è sempre DOVE ORIGINANO LE CELLULE STAMINALI? Si riconoscono due categorie principali di cellule staminali: quelle embrionali e le staminali adulte. Tutti gli esseri umani iniziano la propria vita da una singola cellula detta zigote, che si forma dopo la fecondazione dell’ovulo. Lo zigote, dopo una serie di divisioni multiple successive che dura circa 5 giorni, dà origine ad un agglomerato sferico cavo detto blastocisti. Questa struttura, più piccola di un granello di sabbia, contiene due tipi di cellule: il trofoblasto e le cellule della massa interna. Le cellule staminali embrionali costituiscono queste ultime cellule. Poiché le cellule staminali embrionali sono in grado di dare origine a tutti i tipi di cellule adulte, vengono anche definite cellule staminali pluripotenti o totipotenti. Gran parte delle conoscenze relative alle cellule staminali provengono dagli studi effettuati nel topo come organismo modello. Infatti, mentre la scoperta delle cellule staminali embrionali nel topo risale al 1981, nell’uomo è molto più recente, essendo datata 1998. È possibile trovare alcune cellule staminali anche in tessuti di individuo adulto, che vengono pertanto definite staminali adulte. Per esempio, le cellule staminali del midollo osseo possono dare origine a tutti i tipi specializzati di cellule del sangue (cellule staminali ematopoietiche). Inoltre, nel * Docente di Biologia Molecolare presso il Corso di Laurea in Biotecnologie, Dipartimento di Scienze e Tecnologie Biomediche, Facoltà di Medicina e Chirurgia, Università di Udine 21 vo trapianto nel paziente affetto. Dal punto di vista pratico, tuttavia, vi sono una serie di difficoltà all’applicazione delle terapie basate sull’utilizzo delle cellule staminali nella medicina rigenerativa. Una prima difficoltà è quella di identificare le cellule staminali dal tessuto adulto che è costituito da diverse popolazioni di cellule e dove le cellule staminali rappresentano un esiguo numero. Un secondo problema, una volta identificate le cellule staminali, è rappresentato dalla messa a punto di un’opportuna strategia volta al differenziamento della cellula staminale nella cellula specializzata voluta. In generale, si ritiene che le cellule staminali di derivazione embrionale e fetale siano più versatili di quelle di derivazione adulta, tuttavia gli studi mirati allo sviluppo di strategie adeguate per il differenziamento di cellule staminali embrionali in cellule specializzate sono ancora in corso. Un problema ancora aperto riguarda le caratteristiche delle cellule staminali embrionali che, data la loro elevata velocità di crescita, sono in grado di generare tumori detti teratomi. Un successivo problema, non secondario, è rappresentato dall’interazione della cellula staminale differenziata “in vitro”, una volta “trapiantata” nel paziente: questa cellula deve “integrarsi” nel tessuto del paziente ed “imparare” a funzionare nel contesto in cui è inserita. Ad esempio, le cellule cardiache differenziate che in vitro hanno capacità contrattili possono non averle una volta trapiantate o possono non contrarsi in maniera sincrona con le cellule del tessuto circostante. Inoltre, come nei trapianti classici, rimane il problema del rigetto qualora le cellule trapiantate fossero di derivazione eterologa. Quindi, la ricerca sulle cellule staminali e la loro applicazione in ambito biomedico è ancora agli inizi nonostante i risultati preliminari sui modelli animali siano piuttosto confortanti. midollo osseo, vi sono cellule staminali endoteliali, che daranno origine alle cellule del sistema vascolare (di arterie e vene) e le cellule staminali mesenchimali che formeranno l’osso, la cartilagine e i muscoli. Le cellule staminali adulte, tipicamente programmate per dare origine a diversi tipi cellulari del tessuto da cui derivano, vengono definite multipotenti proprio per indicare il fatto che non possono dare origine a tutti i tipi cellulari ma solo ad alcuni. Recentemente, è stata coniata una teoria della cosiddetta “plasticità delle cellule staminali adulte” secondo la quale queste cellule avrebbero una maggiore potenzialità a dare origine a più tipi cellulari diversi rispetto all’atteso. Ciò significa che le cellule staminali presenti nel midollo osseo potrebbero dare origine ad altri tipi cellulari rispetto a quelli indicati precedentemente, potendo così contribuire a rimpiazzare cellule danneggiate di tessuti specializzati come il fegato, il rene, il cuore ecc. Le cellule staminali adulte non sono state individuate in tutti i tessuti ed organi. In alcuni tessuti, come il cervello, benché esse esistano, tuttavia non sono molto attive e quindi non rispondono così prontamente ai danni cellulari. Uno degli obiettivi degli scienziati è quello di individuare nuove metodologie atte a promuovere la crescita delle cellule staminali e il loro differenziamento nei tipi cellulari in grado di rimpiazzare le cellule morte o danneggiate. Ancora, le cellule staminali possono anche essere ottenute da altre fonti quali il cordone ombelicale dei neonati: risulta evidente che questo costituisca una sorgente molto più accessibile di cellule staminali rispetto al cervello e al midollo osseo dell’adulto. Recentemente, infine, altre fonti di cellule staminali si sono dimostrate essere i denti dei bambini e il fluido amniotico; queste cellule possono essere cresciute in laboratorio ma solo per limitati periodi di tempo e quindi la ricerca in questi ambiti scientifici è ancora agli albori. QUALI QUALI SONO LE POTENZIALI APPLICAZIONI DELLE CELLU- PATOLOGIE POSSONO ESSERE ATTUALMENTE CURATE CON LE CELLULE STAMINALI? LE STAMINALI UMANE E GLI ATTUALI LIMITI? In linea teorica tutte le patologie su base degenerativa (vedi sopra) potrebbero essere affrontate con l’utilizzo delle cellule staminali per rimpiazzare cellule morte o difettose. Inoltre, la totipotenzialità delle cellule staminali embrionali fa sperare che, un giorno, sarà possibile produrre un intero organo (cuore, fegato, reni) o tessuto (pelle, cartilagine, osso) risolvendo quindi gran parte dei problemi legati ai trapianti. Un esempio delle applicazioni attuali della terapia con cellule staminali è rappresentato dalla cura di alcuni tumori di origine ematopoietica, quali le La maggior parte delle cellule del corpo umano non possono essere rimpiazzate in maniera efficiente attraverso i naturali processi rigenerativi qualora subiscano danni di tipo irreversibile. Quindi, le cellule staminali, essendo in grado di generare cellule specializzate sane, possono, in linea di principio, essere utilizzate allo scopo di sostituire le cellule danneggiate. Per esempio, nel caso del morbo di Parkinson, l’utilizzo delle cellule staminali è volto alla generazione di cellule nervose in grado di produrre dopamina per il successi- 22 leucemie, i linfomi e alcune malattie ereditarie, attraverso i trapianti di midollo osseo che, come abbiamo visto, contengono un certo numero di cellule staminali ematopoietiche adulte in grado di differenziare nei tipi cellulari del sangue. Attualmente, nuove strategie per applicazioni in ambito prettamente clinico delle cellule staminali sono in fase di studio per la terapia di patologie epatiche, patologie vascolari, disturbi metabolici, patologie autoimmuni, malattie infiammatorie di tipo cronico (lupus) nonché per il trattamento di altri tipi di tumori. COS’È numerosi tumori che causano perdita di massa ossea. Quest’area applicativa richiede la messa a punto di una serie di dettagliati ed efficienti protocolli sperimentali al fine di dirigere il differenziamento delle cellule staminali in cellule della linea osteogenica (in grado di produrre la matrice ossea), seguita dalla selettiva purificazione di queste cellule e dalla loro proliferazione in vitro. Questi protocolli devono ridurre la possibilità di un differenziamento spontaneo delle cellule, una volta trapiantate, in altri tipi cellulari ed impedire la formazione di teratomi, nel caso dell’utilizzo di cellule staminali embrionali. A tali fini, è indispensabile lo sviluppo di opportuni trattamenti farmacologici associati ad adeguati tests per lo screening della citotossicità dei biomateriali che vengono utilizzati per il trapianto stesso. Il tessuto osseo è costituito da un insieme eterogeneo di tipi cellulari (cellule della linea osteoide e cellule della linea endoteliale) situate all’interno di una matrice tridimensionale mineralizzata che serve per il mantenimento della propria integrità strutturale. Questa matrice è costituita sia da componenti organiche che inorganiche. Queste ultime, che costituiscono la maggior parte del peso secco della matrice, sono composte essenzialmente da minerali di calcio nella forma di idrossiapatite e da numerose altre impurità come il carbonato. Inoltre, sono presenti anche sali inorganici di magnesio, potassio, fluoruro, fosfato e citrato. La componente organica è composta essenzialmente da collagene di tipo I (> 95% del peso secco), da altri tipi di collagene e da proteine non collageniche come l’osteocalcina, l’osteopontina, la fibronectina, la trombospondina e i proteoglicani. Oltre al ruolo di tipo strutturale, la matrice extracellulare svolge anche un importante ruolo di tipo regolativo nei confronti della proliferazione e del differenziamento delle cellule del tessuto osseo stesse. Pertanto, l’introduzione di opportune componenti della matrice extracellulare nelle colture “in vitro” di cellule staminali sembra essere di fondamentale importanza per il loro differenziamento a cellule che costituiranno la matrice ossea. A questo scopo si stanno utilizzando sia componenti naturali della matrice sia composti e strutture di sintesi. Una delle importanti caratteristiche dei biomateriali che vengono utilizzati per gli scopi sopraccitati è la biocompatibilità e la biodegradabilità. Allo scopo vengono spesso utilizzate strutture polimeriche tridimensionali di opportuna porosità in grado di consentire la vascolarizzazione e la crescita delle cellule del trapianto. Infatti, queste strutture di matrice vengono spesso fabbricate sottoforma di schiume porose o di granuli. LA MEDICINA RIGENERATIVA? L’obiettivo principale della medicina rigenerativa è la riparazione di organi o tessuti danneggiati da eventi patologici, invecchiamento o traumi in maniera da ripristinarne o migliorarne il funzionamento biologico. Il termine viene comunemente utilizzato ad indicare quelle strategie mediche in ambito di ricerca o terapeutico che fanno uso delle cellule staminali (embrionali o adulte) a tali fini. Questo può essere ottenuto attraverso diverse modalità: primo, mediante la somministrazione di cellule staminali o determinate cellule derivate dalle cellule staminali ottenute in laboratorio; secondo, tramite la somministrazione di farmaci in grado di stimolare le cellule staminali già presenti nell’organismo malato ad una più efficace attività di riparo del tessuto malato. Attualmente, l’unica strategia applicativa in ambito medico che fa uso delle cellule staminali è il trapianto di midollo osseo. Seppur promettente, l’utilizzo delle cellule staminali embrionali per la terapia medica è, come detto, ancora nelle sue fasi iniziali. LA MEDICINA RIGENERATIVA PER LA PRODUZIONE DI TES- SUTO OSSEO: UN ESEMPIO CONCRETO Una delle maggiori aree di interesse per la medicina rigenerativa è rappresentata dall’utilizzo delle cellule staminali nella ricostruzione dell’osso e nell’ingegneria tissutale ossea per la chirurgia ricostruttiva. Quest’ambito di ricerca sta gradualmente acquisendo ulteriore importanza in seguito alla crescente incidenza di patologie di tipo osteodegenerativo associate all’aumento della vita media delle popolazioni nei paesi sviluppati. In particolare, l’osteoporosi e l’osteoartrite rappresentano uno dei maggiori problemi di sanità pubblica poiché affliggono una significativa percentuale della popolazione anziana. Inoltre, l’ambito applicativo di questa branca della medicina rigenerativa ricopre anche le patologie ossee di tipo traumatico nonché quelle di origine genetica e 23 L’attecchimento, la proliferazione e il successivo differenziamento osteogenico delle cellule staminali mesenchimali sulla matrice artificiale dipende da una serie di fattori: a) la composizione chimica del substrato; b) la carica elettrostatica; c) la ruvidità e la configurazione geometrica spaziale del supporto. Tutti questi parametri svolgono senz’altro un ruolo importante ma forse quello fondamentale è la natura chimica del supporto. Normalmente, le matrici artificiali sono costituite da componenti organiche ed inorganiche in buona parte di origine naturale come il collagene, l’acido ialuronico, il calcio mineralizzato, la fibrina; tuttavia, anche matrici di origine sintetica (costituite da polimeri sintetici di acido-co-glicolico, di glicole etilenico, di ε-caprolattone, per esempio) sono state ampiamente utilizzate. Comunque, nonostante le promettenti prospettive, siamo solo di fronte all’alba di una nuova era della moderna medicina e molta strada resta ancora da percorrere attraverso la comprensione dei complessi meccanismi responsabili del differenziamento cellulare per un fine applicativo. Parafrasando un recente saggio di A. Vescovi, è piacevole però pensare alla promessa delle cellule staminali come “la cura che viene da dentro” di noi: è forse questo l’elisir di lunga vita?? BIBLIOGRAFIA CONTATTI IN RETE http://www.stemcellnetwork.ca http://stemcells.nih.gov http://www.stemcellresearchnews.com http://www.clinicaltrials.gov Vescovi A. La cura che viene da dentro. Mondadori 2005. La nuova frontiera della medicina rigenerativa, l’utilizzo delle cellule staminali per la riparazione di tessuti danneggiati, riprende il mito di Prometeo dell’antichità classica. Il C.I.M.E. è il Centro Interdipartimentale di Medicina Rigenerativa che si è costituito a Udine con l’obiettivo di implementare questi studi nell’ambito delle patologie dell’osso, della rigenerazione cardiaca ed epatica. 24 POLYMERS FORSE AND LIFE NON SAPEVATE CHE … di Roberto Filippini Fantoni PREMESSA Continuiamo questa rubrica prendendo in considerazione le proprietà di un alimento molto comune e gradito non solo per il fatto di essere dolce. Dopo aver trattato dei miasmi provocati dal solfuro di selenio e dell’infido veleno qual è il solfato di tallio sono stato scherzosamente accusato di catastrofismo. Con questo panegirico sulle positive proprietà del cioccolato, e soprattutto della cioccolata, spero di confortare coloro che si erano smarriti nella negatività dei due precedenti articoli. Tutte le notizie più importanti sono, ancora una volta, tratte dal libro “Molecules at an Exhibition. Portraits of intriguing in everyday life” di John Emsley. Buona lettura! LA CIOCCOLATA E I SOGNI AZTECHI La cioccolata contiene 60% di carboidrati, 8% di proteine e 30% di grassi e 100 grammi forniscono 520 calorie. Ci sono però vari minerali e vitamine essenziali: Nessun alimento provoca reazioni emotive come la cioccolata. Alcuni la considerano alla stregua di “tentazione diabolica” e cercano di evitarla. Tra gli effetti negativi che più si evidenziano c’è la grossa concentrazione di zuccheri e di grassi, le enormi calorie assorbite e il cacao che può generare emicranie. Un’indagine nel Regno Unito ha dimostrato che i maggiori consumatori sono le donne (40%) mentre i bambini sono al secondo posto (35%) e gli uomini buoni ultimi (25%). Alcune donne si dichiarano cioccolatomani e non riescono a farne a meno; inoltre il maggior consumo sembra collocarsi nei giorni pre-mestruali. L’autrice del libro “Chocolate” ritiene che se anche la cioccolata contiene molte sostanze attive sull’organismo, alcune delle quali sono simili agli ormoni naturali, non si può averne dipendenza. Nella cioccolata esse cercano conforto attirate dalla dolcezza, dal gusto voluttuoso e dalla sua consistenza in bocca. Minerali mg Vitamine potassio 420 A 8 cloro 270 B1 0,1 fosforo 240 B2 0,24 calcio 220 E 0,5 sodio 120 PP 1,6 magnesio 25 55 ferro 2,6 rame 0,3 zinco 0,2 mg Si può notare che nonostante non sia un alimento completo (mancano le vitamine C e D) la cioccolata e il cioccolato costituiscono eccellenti razioni di emergenza per soldati ed esploratori. Inoltre contiene tre sostanze non nutrienti ma che sono influenti sull’organismo. Una delle tre sostanze è la feniletilammina che può avere qualche effetto inebriante sul cervello. Già i Maya quando scoprirono la cioccolata, una bevanda consumata dalle classi dominanti, sapevano di questi effetti stimolanti. La nobiltà azteca che la chiamava xocalatl “acqua amara”, da cui il nome attuale (in realtà era un liquido schiumoso mescolato con cannella e farina di mais), aveva riservato per sé il cacao e ne aveva vietato l’uso alle donne – per i mariti il vietarlo alle mogli era come tirarsi la zappa sui piedi, ma ben si sa che la gelosia è più forte della soddisfazione sessuale in famiglia. Quando il cacao arrivò in Europa lo seguì la fama di alimento afrodisiaco. La fama crebbe a tal punto che nel 1624 uno scrittore dedicò un libro intero per condannarla affermando, in un eccesso di puritanesimo, che era capace “di accendere violente passioni”. In poche parole un Viagra ante-litteram. Lo stesso Casanova asseriva di esserne un forte consumatore. Nonostante le convinzioni del famoso amatore veneziano la cioccolata non è un afrodisiaco, ma la verità sta nel fatto che può influenzare il cervello. Delle 300 sostanze che gli analisti hanno trovato nella cioccolata due hanno effetti stimolanti e sono la caffeina, a tutti ben nota, e la teobromina, simile alla prima dal punto di vista chimico e che deve il suo nome all’albero del cacao scientificamente chiamato Teobroma cacoa (cibo degli dei). Comunque è la feniletilammina (FEA) il componente capace di indurre un senso di benessere ai golosi bevitori di cioccolata o ai mangiatori di cioccolato: essa è presente in riguardevoli concentrazioni (0,7%). Test eseguiti iniettandola in individui umani hanno dimostrato che la pressione sanguigna aumenta così come il livello di zucchero nel sangue: due effetti entrambi capaci di dare lucidità e sensazione di benessere. Può essere che la FEA stimoli la produzione di dopamina dei cui effetti sul cervello siamo tutti al corrente, dopo che molti dei nostri giovani s’impasticcano con l’estasy. Anche il nostro organismo produce la FEA e soprattutto in situazioni di stress. Nei bambini schizofrenici e iperattivi il livello di FEA sale a livelli abbastanza alti. Ci sono individui che non sopportano bene l’eccesso di FEA e quindi mangiando cioccolato si ritrovano con forti dolori di testa a causa di una costrizione dei vasi sanguigni celebrali. L’organismo, che non la sopporta molto, utilizza l’enzima monoamminoossidasi per eliminarla in buona parte e pare che quelli che soffrono di mal di testa mangiando cioccolato non producano sufficienti quantità di tale enzima. E cosa diciamo dell’alto livello di grassi contenuti nel cacao? Le moderne teorie dicono di non preoccuparcene: pare che non faccia aumentare il colesterolo. Infatti quei grassi sono quasi esclusivamente grassi saturi. Tali grassi non si sciolgono lentamente come gli insaturi. Allora è consigliato tenere in bocca un pezzo di cioccolato per un po’ di tempo affinché i grassi saturi presenti possano sciogliersi e inoltre si avrà il vantaggio che l’intenso aroma e il sapore possono diffondersi meglio. Il burro di cacao può solidificare in diverse forme cristalline a seconda della temperatura. Solo una di queste è adatta a fare cioccolato ed è per questo che il lavoro del cioccolataio è un’arte raffinata e delicata. Il fuso necessita di una cura particolare per il suo raffreddamento in modo che solidifichi nella forma cristallina corretta. La patina bianca che dopo un po’ di tempo si nota su cioccolati conservati a lungo non è muffa ma solo una delle tante forme cristalline del burro di cacao ed è perfettamente commestibile. Fu lo svizzero Henri Nestlè che nel 1876 inventò il cioccolato al latte mescolando al cacao il latte condensato così da rendere il gusto più leggero e adatto ai bambini. L’ACIDO OSSALICO, UNA TOSSINA PERICOLOSA: MA CHE PENTOLE! Il cacao contiene anche acido ossalico – una sostanza dannosa – in ragione dello 0,5% ed è una delle sostanze nutrienti che ne è più fornito (lo precedono la bietola con 0,7%, gli spinaci con 0,6%). Il rabarbaro che ne contiene la stessa quantità ha fama di contenerne assai per aver causato la morte di alcune persone ghiottissime delle torte nella quale si inserisce tale rabarbaro e della quale gli americani sono ghiotti. L’acido ossalico diventa fatale a livelli di 1.500 mg. Oggi il rabarbaro non è molto usato ma nel passato era famoso per i suoi effetti lassativi in quanto l’intestino era stimolato a liberarsi rapidamente del suo composto tossico, l’acido ossalico appunto. I cioccolatomani non devono comunque temere perché il contenuto di acido ossalico nel cioccolato è talmente basso che si arriverebbe alla saturazione prima di poter raggiungere il livello fatale. 26 perché. Questa sua dote di reagire facilmente con i metalli impedisce all’organismo di assorbirne quantità utili e pertanto è definito un anti-nutriente. Gli spinaci, famosi per il loro contenuto in ferro, in effetti non permettono all’organismo di utilizzarne più del 5% in quanto il resto del ferro è bloccato dall’acido ossalico in essi presente. Se volete imitare Braccio di Ferro non mangiate spinaci! L’acido ossalico in forti quantità è un veleno in quanto abbassa a valori critici la quantità di calcio nel sangue. In dosi non letali è comunque pericoloso in quanto l’ossalato di calcio, insolubile, forma dolorosi calcoli ai reni e alla cistifellea. Eccessi di uso di vitamina C possono far sì che l’organismo la trasformi in acido ossalico con i conseguenti calcoli. Per ritornare al nostro cioccolato ricordiamoci che, se ne faremo un uso modesto e tale da consentirci anche di non ingrassare a causa del suo alto contenuto calorico, non ci avveleneremo con l’acido ossalico in esso contenuto, né ci drogheremo con la feniletilammina. Al contrario, se il rabarbaro, come accadeva all’inizio del secolo scorso, viene mangiato come verdura il raggiungimento della soglia letale è assai più facile e si devono registrare molte morti per avvelenamento. Nella medicina tradizionale cinese il rabarbaro è impiegato da oltre 4.000 anni e proprio da lì fu importato un paio di secoli prima della nascita di Cristo. Fu il famoso chimico-farmacista svedese Scheele che, nel 1784, lo scoprì nelle radici e dimostrò che le foglie ne contenevano troppo per poter essere commestibili. Si pensa che la pianta di rabarbaro lo usi come difesa contro il bestiame. In epoca vittoriana se ne usava in grandi quantità per fare torte, marmellate e persino vino di rabarbaro. Si cucinavano gli steli lessandoli con un po’ di acqua e zucchero. Quando si cominciarono a usare pentole di alluminio si scoprì un’altra dote del rabarbaro: al termine della cottura le pentole erano perfettamente pulite e questo era dovuto alla presenza di acido ossalico. Oggi nella pulizia industriale di parti metalliche l’acido ossalico è usato come decapante e tutti i chimici sanno il Cioccolata sì, ma in giusta misura! Avviso Per aiutare a tenere alto il livello di interesse di questa rubrica invitiamo i lettori che disponessero di notizie strane o aneddoti su materiali macromolecolari di inviarli, via posta elettronica, al curatore di questa rubrica ([email protected]) 27 MACROTRIVIAL A THORPEDO’S TALE: POLIMERI E NUOTO di Eleonora Polo Thorpedo, uno dei soliti errori di battitura che ci scappano qua e là? Nooo! Thorpedo è il soprannome del famoso campione di nuoto australiano Ian Thorpe, che ci accompagnerà in questa carrellata sulla tecnologia associata al nuoto. UN PESCE FUOR D’ACQUA Pur essendoci lasciati alle spalle la nostra vita acquatica primordiale da qualche era geologica, l’elemento liquido, pur suscitando a volte timori e paure, non ha mai cessato di affascinarci e attirarci. L’acqua costituisce per noi un limite da superare e una sfida per le nostre capacità, messe a dura prova dalla ricerca esasperata di velocità e resistenza alla fatica delle competizioni sportive. Come sempre, il risultato è frutto della combinazione di carattere, talento, tecnica sportiva e tecnologia. Doti naturali ed allenamento sono punti di partenza irrinunciabili, ma tecnica e materiali fanno la differenza. Vediamo come. SCIVOLARE decine di migliaia di anni perché la tecnica natatoria si evolvesse fino al punto in cui siamo oggi, e ancora non sappiamo per certo se siamo sulla strada giusta oppure no” 1. Per muoversi in un ambiente liquido gli esseri umani devono necessariamente affidarsi ad una tecnica che comporta la produzione di forti turbolenze. La resistenza dell’acqua, che a dispetto dell’apparenza resta comunque un liquido viscoso, è il più grande alleato di un nuotatore, ma anche un nemico da sconfiggere; infatti, permette la messa in moto di un corpo, ma allo stesso tempo ne rallenta il movimento. La velocità raggiunta da un nuotatore dipende sia dalla potenza della propulsione sia dalla riduzione del freno prodotto dagli attriti viscosi tra corpo e acqua. Quindi, la posizione ed il movimento di braccia e gambe devono essere attentamente controllati per spingere indietro quanta più acqua possibile senza creare eccessivi vortici e turbolenze. In un regime turbolento, infatti, gli attriti viscosi sono maggiori che in un regime laminare. I principali tipi di resistenza che i nuotatori devono affrontare sono: a) attrito superficiale (8%): è dovuto a rugosità e irregolarità delle superfici (pelle, capelli, peli, costumi da bagno) a contatto l’acqua. Per ridur- VIA: CI VUOLE UN FISICO BESTIALE? “Nonostante il nostro organismo sia costituito per il 65% da acqua, quando un essere umano entra in acqua la percepisce come un elemento estraneo, per il quale risulta scarsamente dotato ai fini della locomozione. Mentre i pesci e altri animali acquatici sono forniti di pinne relativamente piccole rispetto alle loro dimensioni corporee, noi abbiamo due paia di arti lunghi e sottili con una scarsa superficie da opporre alla resistenza dell’acqua. Possiamo raggiungere una velocità massima in acqua di appena sei miglia all’ora, mentre i delfini e alcuni pesci arrivano a cinque volte tanto. Ci sono volute 28 = 1,97 m/sec; vmedia = 1,83 m/sec). Il nuotatore, al massimo del rendimento, riesce a produrre due onde (una grossa davanti al petto e un’altra fra cosce e piedi) di dimensioni tali da poter letteralmente “surfare” su di esse, una volta raggiunta la velocità ottimale. Il suo modo di nuotare è stato definito anche come “un coltello arroventato che taglia un panetto di burro”. lo i nuotatori indossano costumi aderenti che esercitano anche un’azione contenitiva sui muscoli, lubrificano la pelle esposta, si depilano, rasano barba, capelli e sopracciglia (o indossano cuffie); b) resistenza di forma (56%): dipende dalla struttura corporea del nuotatore ed aumenta quanto più il corpo affonda nell’acqua. Essa produce una vasta area superficiale che spinge l’acqua in direzione opposta al movimento. Si può ridurre adottando un assetto di nuoto non proprio naturale, ma più idrodinamico, cioè facendo rotolare il corpo da un lato all’altro ad ogni bracciata e sollevando la testa il meno possibile durante la respirazione; c) resistenza trasversale (36%): è dovuta alla turbolenza prodotta dall’avanzamento di un corpo in movimento. L’acqua non riesce a colmare immediatamente il vuoto che si produce dietro il nuotatore, per cui si creano microvortici di acqua e bolle d’aria. Per farci un’idea di quanto “pesi” questo tipo di attrito, basti pensare che è stato calcolato che sulla schiena di Ian Thorpe si producano circa 70 kg di “acqua morta”. Un controllo costante dell’assetto del corpo è fondamentale nel corso di allenamenti e gare, ma è inevitabile che l’affaticamento finisca per far perdere coordinazione muscolare, per cui bisogna riuscire a ritardare il più possibile il momento in cui insorge la fatica. Qui entrano in campo le nuove tipologie di divise da nuoto adottate negli ultimi otto anni dai nuotatori professionisti; esse hanno reso possibile un maggiore controllo motorio in acqua e l’innalzamento della soglia di fatica, attraverso la riduzione dell’oscillazione dei muscoli e della produzione di acido lattico. Per la loro messa a punto sono state adottate le stesse tecniche di calcolo fluidodinamico impiegate nella progettazione di automobili, aerei e barche. Vari campioni e campionesse di nuoto hanno collaborato al loro perfezionamento in due modi: i) direttamente, facendosi studiare in acqua o nella galleria del vento; ii) per mezzo di manichini perfettamente identici realizzati a Hollywood sulla base di scansioni computerizzate dei loro corpi, per tutti quegli studi che richiedevano una permanenza in acqua troppo prolungata. DAI CURIOSITÀ N° 1 – SURF MUTANDONI AI NUOVI COSTUMI DA COMPETIZIONE Se confrontiamo la foto di Alfréd Hojós, il nuotatore ungherese vincitore dei 100 e 200 metri stile libero alle Olimpiadi di Atene del 1896, con quella di Ian Thorpe, sempre ad Atene, ma nel 2004, ci rendiamo subito conto di quanto sia cambiata la concezione di costume da competizione in poco più di un secolo di gare olimpiche. Nel 1998 Adidas è stata la prima azienda a pro- IN PISCINA Il dott. Bruce Mason, del Dipartimento di Biomeccanica dell’Istituto Australiano dello Sport, ha elaborato una teoria per spiegare la velocità (v) elevata raggiunta nello stile libero dal campione Ian Thorpe (ad es., nei 200 m, vmax 29 nuovo di tipo di divisa da nuoto basato sulla tecnologia degli aerei, l’Adidas JetConceptTM, indossata per la prima volta in gara da Ian Thorpe ai Campionati del Mondo di Barcellona (2003). Le divise hanno cuciture piatte, gambe e braccia presentano zone a compressione differenziata e sono stati introdotti nelle aree di propulsione (dalle ascelle, attraverso la zona lombare, fino ai glutei) fasci di pannelli a coste triangolari che aiutano a controllare la turbolenza intorno al corpo e incanalano l’acqua, in modo da ridurne la quantità che si scarica sulla schiena. L’ispirazione è venuta studiando le scanalature a V che sono collocate su ali e fusoliera degli aerei di linea per migliorarne l’ae- durre divise da nuoto che coprono interamente il corpo dei nuotatori. I nuovi materiali impiegati (a base di Lycra® Power) si sono dimostrati più efficaci di qualsiasi depilazione nella riduzione dell’attrito superficiale ed hanno anche consentito un migliore galleggiamento, perché sono così aderenti al corpo che l’acqua non riesce a penetrare all’interno da collo, polsi e caviglie. Questa fibra esercita anche una compressione graduata in vari punti del corpo con un meccanismo analogo alle calze contenitive. Questa compressione migliora il microcircolo sanguigno e stimola le terminazioni nervose superficiali, agendo anche a livello subconscio sulla percezione del movimento e fornendo la sensazione di possedere una “seconda pelle”. Tutti questi fattori contribuiscono a ritardare l’insorgere dell’affaticamento muscolare e riducono la conseguente perdita di coordinazione motoria. Una volta affrontato il problema dell’attrito superficiale, dopo le Olimpiadi di Sydney (2000), Adidas si è impegnata anche nel cercare di ridurre la resistenza di forma. È stato messo a punto un rodinamicità. I punti più critici da risolvere sono stati: a) trovare un materiale che non compromettesse l’estensibilità e l’aderenza dei costumi: il silicone è risultato il più adatto a questo scopo; b) ottimizzare le dimensioni dei pannelli: se sono troppo piccoli o troppo grandi, l’acqua scorre nei solchi sviluppando un’area superficiale maggiore di quella di un costume standard. Con le nuove divise le prestazioni degli atleti sono migliorate del 3% e non si tratta di un guadagno trascurabile, visto che ormai una manciata di cen- CURIOSITÀ N°2 L’antenata del JetConceptTM venne inventata nel 1915 da Charles Homewood. Nella tuta sono inserite piccole tasche triangolari che si chiudono quando gli arti si muovono in avanti e si aprono nella fase di propulsione per dare più forza ai movimenti di braccia e gambe. 30 tesimi di secondo può fare la differenza fra medaglia d’oro e medaglia d’argento. Naturalmente anche le altre aziende concorrenti (Speedo, Nike, Tyr, Arena) non sono rimaste a guardare ed hanno prodotto nuovi costumi da competizione: anche in questo caso i miglioramenti ottenuti sono il risultato di una sapiente combinazione di materiali e modifiche strutturali. Il modello Fast Skin II® (prodotto da Speedo e indossato da Michael Phelps, Amanda Beard, Grant Hackett, Inge de Bruijn alle Olimpiadi di Atene) è stato sviluppato imitando la tessitura della pelle degli squali; studi recenti hanno infatti scoperto che i “dentelli” presenti sulla loro pelle creano microturbolenze in grado di favorire la penetrazione nell’acqua. L’Aqua Shift® (prodotto da Tyr e utilizzato da Yana Klochkova, Mark Gangloff, Martina Moravcova, Erik Vendt) si avvale della tecnologia TripwireTM, che consiste nell’uso di sottili strisce di tessuto in rilievo, posizionate su petto, anche e glutei, che funzionano come lo spoiler di un tir. Il modello Swift Swim® (di Nike, indossato anche da Pieter van den Hoogenband, Jason Lezak, Haley Cope e Kristy Kowal) è costituito da un vero patchwork di sezioni di vari materiali ad elasticità e compressione differenziata in tutte le zone del corpo ed orientati in modo da ridurre quanto più possibile gli attriti. Il nuovo Powerskin Xtreme® (di Arena, che veste anche il team italiano), il più diffuso in Europa, sviluppato in collaborazione con il Politecnico di Milano, è costituito da un materiale che è circa il 30% più leggero (125g/m2) di qualsiasi altro, perché non è lavorato a maglia, bensì filato al 100%. Anch’esso si avvale di pannelli a coste per agevolare lo scorrimento dell’acqua ed uno strato esterno di poliammide lo rende particolarmente impermeabile. I CURIOSITÀ N°3 – COME MAI NEL NUOTO CI SONO COSÌ POCHI CAMPIONI OLIMPIONICI DI COLORE? Due fattori sfavoriscono il galleggiamento degli atleti di colore: hanno ossa più dense e minore percentuale di massa grassa rispetto ai loro colleghi di razza caucasica; inoltre, le loro fibre muscolari sono particolarmente adatte a sforzi intensi e rapidi, come la corsa su brevi distanze. Nel nuoto, invece, i muscoli lavorano più lentamente: la durata media della gara più breve di nuoto (i 50 metri) è intorno ai venti secondi, contro i dieci dei 100 metri su pista. Anche il paese d’origine dell’atleta svolge un ruolo rilevante nella scelta della disciplina sportiva. In Kenia ed Etiopia, patrie di molti maratoneti, le persone sono abituate a coprire a piedi o di corsa lunghissime distanze. Inoltre, le gare internazionali si svolgono generalmente a basse altitudini, per cui gli atleti africani, abituati ad allenarsi su altopiani in cui la percentuale di ossigeno nell’aria è inferiore, risultano favoriti. Negli Usa, invece, basket, football e baseball sono gli sport prediletti dai giovani afro-americani, perché costituiscono un valido e rapido strumento di promozione sociale ed economica. richiesto una scelta accurata dei materiali. I principali componenti sono fibre altamente elastiche, come poliesteri e Lycra®, rivestite da uno strato di Teflon® o poliammide per ridurre l’assorbimento di acqua e migliorare il galleggiamento. La Lycra®, o Spandex® o Elastam® (nome con cui è più nota in Europa), commercializzata da DuPont nel 1962 ed utilizzata per i costumi da bagno fin dal 1970, è un poliuretano termoplastico, elastomero in grado di allungarsi fino a 5-7 volte rispetto alla dimensione originaria e di ritornarvi senza subire deformazioni rilevanti; inoltre ha una capacità di contenimento fino a sei volte superiore rispetto ai comuni nylon elasticizzati, pur essendo notevolmente più leggera. Questa parti- MATERIALI L’alto rendimento di queste divise da nuoto ha 31 campo del nuoto. Oltre a sostituire i materiali tradizionali per blocchi di partenza, placche di virata e piscine, sono state efficacemente impiegate nei galleggianti che separano le corsie. Si tratta di dischi di polietilene infilati in un cavo d’acciaio rivestito da un polimero vinilico. I dischi consentono il libero scorrimento dell’acqua fra le varie corsie e, dato che si muovono ognuno indipendentemente dagli altri, riescono ad assorbire l’energia delle onde prodotte dai nuotatori in modo che non si disturbino reciprocamente. Un elemento quasi sempre presente nell’abbigliamento dei nuotatori sono gli occhialini. Sono indispensabili perché è necessario che la luce venga rifratta quando incontra la superficie dell’occhio, se vogliano che formi un’immagine definita sulla retina. Poiché acqua ed occhio hanno densità ottiche molto simili, gli effetti di rifrazione sulla superficie che li separa sono trascurabili e l’immagine sulla retina risulta piuttosto confusa. Grazie agli occhialini lo strato d’aria che rimane davanti all’occhio assicura una corretta rifrazione della luce ed una visione nitida sott’acqua. Il vetro, usato in passato per le lenti, è stato abbandonato da molti anni per i problemi di sicurezza legati alla sua fragilità. Ora si usano lenti in policarbonato, molto trasparenti, leggere, infrangibili e resistenti ai graffi. Le guarnizioni che garantiscono la tenuta all’acqua sono in neoprene, mentre le cinghie che fissano gli occhiali dietro la testa sono in PVC. Gli occhialini hanno forma idrodinamica e sporgono pochissimo dalle orbite oculari. Nike è andata addirittura oltre sviluppando lenti che sono fissate separatamente agli occhi per mezzo di un adesivo (una sorta di supercolla) impiegato in chirurgia. Anche le cuffie, in silicone o Spandex®, devono dare aerodinamicità al capo e presentare il meno possibile increspature e protuberanze. colare elasticità è dovuta alla struttura caratterizzata da blocchi alternati di sezioni flessibili, composte da polieteri o poliesteri a terminali ossidrilici, di solito a 40 unità ripetitive, condensati a diisocianati organici e diammine alifatiche (estenso- ri di catena), che costituiscono la parte rigida del polimero. Ossido di zinco o altri additivi minerali sono spesso inseriti nella fibra per inibire la degradazione prodotta dal cloro impiegato per la disinfezione delle piscine. La fibra Lycra® Power, costituita da un 78% di Elastam® e dal 22% di poliammide, sviluppata dal dott. William Kraemer, del Penn State Center for Sports Medicine in collaborazione con DuPont, è il risultato di anni di ricerche sulla relazione fra compressione dei muscoli e performance sportiva. I capi confezionati con Lycra® Power sono in grado di contenere l’oscillazione muscolare, causa principale dell’affaticamento, e stimolano i recettori nervosi sulla pelle con un conseguente miglioramento della precisione ed efficienza del movimento. UNO CURIOSITÀ N°4 Un’antica armatura da samurai? No! Non è altro che una graziosa tuta fatta con cordini e pezzi di sughero, inventata da Paschal Plant nel 1882 per stare meglio a galla. Finalmente sappiamo cosa fare dei tappi rimasti dai brindisi di Capodanno! SGUARDO AGLI ACCESSORI Le divise da nuoto non costituiscono l’unica innovazione introdotta dalle materie plastiche nel 32 Quale sarà il passo successivo, mani e piedi palmati? Arrivati alla fine di quest’analisi, non ci resta ormai che un solo dubbio: fino a che punto potrà arrivare la tecnologia per aiutare un atleta a migliorarsi? 12 13 “May the best swimsuit win” K. Clark, R. Milliken, US News and World Report (21/08/2000) 14 BIBLIOGRAFIA 15 1 Counsilman JE, Counsilman BE. La nuova scienza del nuoto. Ed. Zanichelli 2005 (prefazione). 2 Krieger K. Do pool sharks swim faster? Sciente 2004;305:636-7. 3 Wang Q. Breakthrough in the science of swimming. Yale Scientific Magazine 2004:18-21. 4 Lowensteyn I, Signorile JF, Giltz K. The effect of varying body composition on swimming performance. J Strength Conditioning 1994;8:149-54. 5 Lochhead JH. Control of swimming position by mechanical factors and proprioception. Quarterly Rev Biol 1942;17:12-30. 6 Mason B, Portus M. Biomechanical support in sport. Lancet 2005;366:S25-S26. 7 Troup JP. The physiology and biomechanics of competitive swimming. Clin Sports Med 1999;8:267-85. 8 Pendergast D, Zamparo P, di Prampero PE, Capelli C, Cerretelli P, Termin A, et al. Energy balance of human locomotion in water. Eur J Appl Physiol 2003;90:377-86. 9 Costill DL, Kovaleski J, Porter D, Kirwan J, Fielding R, King D. Energy expenditure during front crawl swimming: predicting success in middle-distance events. Int J Sports Med 1985;6:266-70. 10 Choi SW, Kurokawa T, Ebisu Y, Kikkawa K, Shiokawa M, Yamasaki M. Effect of wearing clothes on oxygen uptake and ratings of perceived exertion while swimming. J Physiol Anthropol Appl Hum Sci 2000;19:167-73. 11 Fujimoto H, Inokuchi S, Ishida H. Effects of physical training and mental practice of in-clothes swim- 16 SITI ming: assessment by physiological parameters. Tokai J Exp Clin Med 2001;26:139-45. Zamparo P, Bonifazi M, Faina M, Milan A, Sardella F, Schena F, et al. Energy cost of swimming of elite long-distance swimmers. Eur J Appl Physiol 2005;94:697-704. Yanai T. Buoyancy is the primary source of generating bodyroll in front-crawl swimming. J Biomech 2004;37:605-12. Yanai T. Stroke frequency in front crawl: its mechanical link to the fluid forces required in non-propulsive directions. J Biomech 2003;36:53-62. Capelli C, Pendergast DR, Termin B. Energetics of swimming at maximal speeds in humans. Eur J Appl Physiol Occup Physiol 1998;78:385-93. Kolmogorov SV, Duplishcheva OA. Active drag, useful mechanical power output and hydrodynamic force coefficient in different swimming strokes at maximal velocity. J Biomech 1992;25:311-8. WEB Sulla fisica del nuoto e le tecnologie http://ffden-2.phys.uaf.edu/211.fall2000.web. projects/Tina%20Osness/Physics%20Project%20I ndex.html http://en.wikipedia.org/wiki/Swimming http://swimming.about.com/od/swimsuits http://www.dupont.com/hagley/index.html http://www.sweatitout.com/newsweat/lycrapower.htm#5 http://www.usaswimming.org http://www.msnbc.msn.com/id/5289344/ Le aziende ed i prodotti http://www.lycra.com http://www.tyr.com/science.html http://www.teamarena.com http://www.swimtowin.com http://www.adidas.com http://www.nike.com/nikebiz (cercare Swift Swim) Avviso Le immagini di Ian Thorpe e del JetConceptTM sono tratte dal sito: http://www.swim.ee/adidas/index_adipics.html Le immagini dei brevetti si trovano all’indirizzo: http://patft.uspto.gov/netacgi/nph-Parser? Patentnumber = inserire il numero del brevetto 33 L’AMBIENTE Si parla molto in questi tempi di riscaldamento del pianeta e delle conseguenti variazioni climatiche e come sempre le opinioni sono varie e talvolta radicalmente diverse. È quindi d’obbligo il punto interrogativo nel titolo: c’è chi sostiene che è determinante il fattore antropico, c’è invece chi sostiene che il surriscaldamento del pianeta, se ci sarà, non sarà così drammatico. L’informazione disponibile sull’argomento è vastissima, scrittori, opinionisti e ricercatori continuano a produrre materiale sull’argomento e spesso siamo testimoni di veri e propri scontri, si può dire che si va dal terrorismo ecologico allo scetticismo e siamo ben lontani, per ora, da cedimenti sui due fronti. Il 16 febbraio 2005 è entrato in vigore il Protocollo di Kyoto che si pone come obiettivo minimo la riduzione di un 5,2% delle emissioni di gas-serra entro il 2012, ma nello stesso tempo c’è chi suggerisce il ritiro dell’Italia dal protocollo e chi propone tagli delle emissioni più drastici (50-60%). AIM Magazine ospita in questo numero un interessante contributo di Luciano Lepori, chimico e ricercatore del CNR presso l’Istituto per i Processi Chimico-Fisici nell’area di ricerca di San Cataldo a Pisa, dedicato a questi problemi. Il lettore sarà facilitato nella lettura da una struttura tipo intervista dell’articolo. Potrà non essere sempre d’accordo con le considerazioni di Lepori ma l’articolo è estremamente stimolante e direi anche, per certi aspetti, positivamente provocatorio. Oltre alla letteratura scientifica ed ai siti web citati nei riferimenti bibliografici dell’articolo, consiglierei ai nostri lettori più curiosi due testi sull’argomento completamente diversi ma utili per un’ampia visione sul problema dei problemi del primo secolo del nuovo millennio, l’ultimo romanzo di Michael Crichton State of fear, uscito nel 2004 e che ha avuto un grandissimo successo in USA (uscito in Italia nel 2005 nelle edizioni Garzanti con il titolo Stato di paura). È un romanzo molto avvincente ma è anche un tentativo di denunciare con tanto di grafici e riferimenti bibliografici il terrorismo ecologico, dice Crichton, di certi ambientalisti. Il secondo è un volumetto dal titolo Cambiare aria al mondo – La sfida dei mutamenti climatici a cura di Claudio Martini, presidente della Regione Toscana, che contiene gli interventi tenuti al Meeting di San Rossore 2004 dedicato ai mutamenti climatici. Il volume è edito da Baldini Castaldi Dalai Editore e sono nettamente in maggioranza gli interventi a sostegno dell’opinione che i mutamenti climatici siano il frutto delle attività dell’uomo. Mauro Aglietto MUTAMENTI CLIMATICI E RISCALDAMENTO GLOBALE: QUANTO INCIDE IL FATTORE ANTROPICO? di Luciano Lepori* Spesso, quasi quotidianamente, sui giornali e alla televisione si ripete che le variazioni climatiche dipendono dall’aumento dell’effetto serra, causato dalle attività umane che immettono anidride carbonica nell’atmosfera. Questa, che è una ipotesi o teoria, * è talmente diffusa e pubblicizzata che è diventata un fenomeno reale, un dato di fatto, e la stragrande maggioranza della gente ritiene che il riscaldamento del pianeta sia colpa dell’uomo. Probabilmente invece è colpa del sole, come spiegato più avanti. Istituto dei Problemi Chimico-Fisici del CNR (IPCF-CNR), sezione di Pisa, [email protected] 34 globo. Non sappiamo se questo incremento porterà danni o benefici. Le misure prospettate per limitare i temuti danni sono inefficaci e pericolose. Per prima cosa, cos’è l’anidride carbonica? È velenosa? La anidride carbonica o biossido di carbonio (CO2) è un composto che si forma per combustione (reazione con ossigeno) di sostanze contenti carbonio quali petrolio e derivati, carbone e legna. È un gas incolore, inodore, più pesante dell’aria, solubile in acqua, quasi inerte e non tossico. La CO2 si forma nella respirazione e nelle fermentazioni. È indispensabile per l’accrescimento delle piante che la usano per formare carboidrati nella fotosintesi clorofilliana. È impiegata come fertilizzante. Consideriamo una cosa alla volta. Il riscaldamento del pianeta è reale? I valori di temperatura registrati dalle stazioni di misura di superficie indicano che negli ultimi cento anni si è avuto un aumento della temperatura media del globo di circa 0,5 °C. Tale aumento è concentrato nelle regioni più fredde, nel periodo invernale, e durante le ore notturne (e non in estate nelle temperature massime, come comunemente si crede). Vi sono tuttavia molti dubbi su queste misurazioni. Sono stati denunciati errori in eccesso per l’effetto “isola di calore urbano” attorno alle stazioni, e per la scarsa manutenzione di queste. La temperatura degli Stati Uniti, da rilievi terrestri, è aumentata di 0,2 gradi tra il 1895 e il 1997 2. Le stazioni costiere della Groenlandia rivelano una chiara tendenza al raffreddamento nella seconda metà del secolo scorso 3. L’Antartide dal 1966 si sta raffreddando 4 . Misure effettuate dopo il 1960 da palloni e dopo il 1975 da satelliti sono in perfetto accordo e indicano aumenti di temperatura del globo piccoli o nulli 2. Non sappiamo quindi con certezza se il riscaldamento è reale. Qualora lo fosse, l’incremento di temperatura è assai minore di 0,5 °C per secolo e non uniformemente distribuito. Perché si vogliono ridurre le emissioni di CO2? Stiamo assistendo ad un continuo incremento nell’atmosfera di CO2, metano, e altri gas serra minori. La concentrazione di CO2 è aumentata da 280 ppm (parti per milione) dell’era pre-industriale a 380 ppm, il livello più alto degli ultimi 420.000 anni. Anche la velocità di crescita (1,5 ppm/anno) è più elevata rispetto al passato. La maggioranza dei climatologi 1 ritiene che l’incremento della CO2 sia principalmente causato dall’attività umana, che questo produrrà un crescente effetto serra e quindi un riscaldamento eccezionale e senza precedenti del globo ed effetti catastrofici sul clima: scioglimento dei ghiacci, innalzamento del livello del mare, desertificazione di zone verdi, aumento di fenomeni climatici estremi come uragani. Per scongiurare ciò, prima che sia troppo tardi, è stato proposto dal Intergovernmental Panel on Climate Change (IPCC) il protocollo di Kyoto (PdK) in cui i paesi industrializzati si impegnano a ridurre le emissioni di CO2. Supponiamo che vi sia un riscaldamento della terra. È questo colpa dell’uomo? Una risposta, seppure non esaustiva, si può avere esaminando il clima del passato. Nei ghiacci dell’Antartide è scritta la storia del nostro pianeta. Ogni strato di ghiaccio corrisponde ad una diversa era geologica. Gli strati più profondi sono quelli più antichi, quelli più superficiali sono i più recenti. Dalla analisi delle bollicine d’aria intrappolate nel ghiaccio si può determinare il contenuto di CO2 della atmosfera, mentre dalla composizione isotopica dell’idrogeno e dell’ossigeno nei vari strati di ghiaccio si può stabilire la temperatura della superficie terrestre nelle varie ere. Certamente, se le previsioni dell’IPCC sono vere ci attende un futuro disastroso Per fortuna le cose non stanno così e non sono così semplici. Per prima cosa non è certo che il pianeta si stia davvero scaldando. Non sappiamo se la causa dominante del riscaldamento è di origine antropica. Vi sono notevoli incertezze nella stima dell’effetto serra e nel prevedere quale sarà nei prossimi decenni l’aumento di temperatura del 35 Figura 1: Concentrazione di CO2 (ppm volume, grafico superiore) e temperatura della atmosfera (°C, grafico inferiore) durante gli ultimi 420.000 anni. Fonte: www.clearlight.com/~mhieb 5. 1940 e non può essere attribuito alle emissioni di CO2 poiché l’82% della CO2 è stata emessa dopo il 1940. Tra il 1940 e il 1970 la temperatura è diminuita di 0,2 gradi mentre la CO2 aumentava fortemente 2. E cosa dicono i ghiacci? Negli ultimi 420.000 anni, come illustrato in Figura 1, abbiamo avuto un susseguirsi, ogni 100.000 anni circa, di ere glaciali lunghe e fredde intercalate da ere interglaciali corte (10-20.000 anni) e calde. Durante l’ultima era glaciale la temperatura era 8 °C più bassa di oggi. Poi, 18.000 anni fa, la terra ha iniziato a scaldarsi: i ghiacci hanno smesso di avanzare, il livello del mare ha cessato di calare e si è alzato di oltre 100 metri, si è formato lo stretto di Bearing, le foreste hanno preso il posto del ghiaccio. Tutto questo è avvenuto per cause naturali, indipendenti dalle attività umane. Adesso ci troviamo in un era interglaciale calda 5. In un futuro più o meno lontano, probabilmente entro 10.000 anni, dobbiamo attenderci il ritorno al grande freddo. Altro che riscaldamento! Le passate ere glaciali dimostrano che il clima può cambiare radicalmente nell’arco di decine di millenni. Ci sono evidenze di forti variazioni climatiche anche più recenti e nell’arco di tempi più brevi? Ve ne sono parecchie, ottenute in modi diversi da: carote di ghiaccio, sedimenti di fondali marini, coralli, anelli degli alberi. Ecco alcuni esempi 8. Circa 12.000 anni fa in Scandinavia si è passati da clima caldo a clima freddo durante un millennio. Tra il 7500 e il 4000 a.C. si è avuto il cosiddetto Holocene maximum, il periodo più caldo della storia umana. Successivamente tra il 1000 e il 1500 abbiamo avuto l’Ottimo Climatico Medioevale, con temperature superiori a quelle attuali, seguito da una piccola glaciazione (1400-1800). Si è avuta cioè una successione rapida e irregolare di L’incremento di temperatura avvenuto dopo l’ultima glaciazione è stato causato da un incremento di CO2 o no? L’analisi delle carote di ghiaccio indica che la temperatura T e la CO2 hanno avuto nel tempo un andamento alternante con massimi e minimi, e sono strettamente correlate, cioè ogni aumento o diminuzione di T è accompagnato da un aumento o diminuzione della concentrazione di CO2. Ma la cosa più interessante è che ogni incremento di T precede (e non segue) quello della CO2 di un lasso di tempo di 800 ± 600 anni 6. Nonostante la forte incertezza di questo dato, sembra che sia un aumento di temperatura a causare un aumento della CO2 e non il contrario. Probabilmente molti scienziati hanno scambiato la causa, aumento di T, con l’effetto, aumento di CO2 7. La passata evoluzione del clima indica quindi che un forte incremento di CO2 non determina necessariamente un drammatico aumento della temperatura. Anche i rilevamenti terrestri degli ultimi 100 anni sembrano confermare ciò, come mostra la Figura 2. Più della metà del recente riscaldamento globale di 0,5 gradi è avvenuto prima del Figura 2: Temperatura della superficie terrestre (°C, linea sottile) e contenuto di CO2 nella atmosfera (ppm, linea spessa) durante il secolo scorso. Fonte: www.oism.org/pproject 2. 36 periodi glaciali e interglaciali, con aumenti di temperatura fino a 10 °C, nell’arco di un millennio. Recentemente è stato scoperto che in Groenlandia si sono verificate drammatiche diminuzioni di temperatura in pochi secoli e aumenti anche di 7 °C nell’arco di alcuni decenni o di pochi anni. Si può quindi affermare che il presunto eccezionale ed eccezionalmente rapido cambiamento climatico di cui saremmo testimoni, non ha niente di eccezionale perché fenomeni simili e di entità maggiore sono già avvenuti in passato. Le attuali temperature rientrano nella naturale variabilità sia come valore che come rapidità di cambiamento 8. aumento dei gas serra inferiore al 2%. Da cosa dipende il clima della terra? Le principali cause delle variazioni di temperatura del nostro pianeta sono le seguenti 5: 1) cause cosmiche o astronomiche come: rotazione della terra intorno al sole su orbita ellittica (periodo di 1 anno); variazione dell’attività solare (periodi di 11 e 206 anni); rotazione della direzione dell’asse terrestre o precessione degli equinozi (periodo 21.000 anni); variazione dell’inclinazione dell’asse di rotazione (periodo 41000 anni); variazione dell’eccentricità dell’ellisse dell’orbita (periodo 100.000 anni). Variazioni del flusso di raggi cosmici (periodo 100 milioni anni) 13; 2) cause atmosferiche come variazioni dell’effetto serra di alcuni gas dell’atmosfera (gas serra) e variazioni del potere riflettente di nuvole, polveri vulcaniche, e calotte polari di ghiaccio; 3) cause tettoniche: deriva dei continenti con conseguenti cambiamenti delle correnti oceaniche, e variazioni del fondo e dei rilievi sottomarini che causano lo spostamento degli oceani. Qual è l’effetto serra causato dalle attività umane? Mentre sull’effetto serra naturale vi è un sostanziale consenso, su quello di origine umana gli scienziati non sono d’accordo. La controversia è sul riscaldamento del globo: è questo un fenomeno naturale o causato principalmente dalle emissioni industriali di CO2? Come abbiamo visto, alcuni ritengono che il riscaldamento della terra non sia reale o almeno minore di quello registrato dalle stazioni di superficie. Altri ritengono che non sia un aumento di CO2 a causare l’aumento di temperatura, ma il contrario. Nell’ipotesi che il riscaldamento di 0,5 °C negli ultimi 100 anni sia reale e causato dall’aumento del 30% della CO2, si hanno stime molto diverse sul riscaldamento futuro. I climatologi dell’IPCC prevedono per il 2100 un aumento di temperatura compreso tra 1,4 e 5,8 °C, a seconda delle ipotesi di partenza 1. Altri 9 considerando che il 98% dell’effetto serra è naturale e solo il 2% antropogenico, stimano che un raddoppio della concentrazione di CO2 provocherà un aumento di T di 0,7 °C senza amplificazione e 1,8 °C con l’amplificazione del vapor d’acqua. Altri ancora, estrapolando le misure di T al suolo prevedono un aumento di 1,5 °C 10, mentre estrapolando le misure satellitari si ottiene un aumento di 0,5 °C 11. Hieb 5, considerando l’acqua come il principale gas serra, stima che solamente lo 0,28% dell’effetto serra è dovuto a emissioni dell’uomo. Infine Khilyuk e Chilingar 7 con un modello adiabatico, che tiene conto del trasferimento di calore per convezione, stimano che un raddoppio della CO2 provocherà un aumento di temperatura di appena 0,01 °C. Che cosa è l’effetto serra? È il processo con cui l’atmosfera scalda il pianeta. La terra riceve dal sole una enorme quantità di radiazioni bilanciate da una uguale quantità di radiazioni riemesse nello spazio. L’effetto serra è dovuto al fatto che l’atmosfera assorbe buona parte della radiazione termica (infrarossa) emessa dalla superficie. Così si scalda e scalda la superficie. Senza atmosfera non si avrebbe effetto serra e la temperatura della terra sarebbe più fredda di circa 32 °C 7. Non tutti i gas che costituiscono l’atmosfera producono effetto serra. Tra questi l’azoto e l’ossigeno che sono i principali costituenti dell’aria. Tra i gas serra, di gran lunga il più importante è l’acqua (vapore, non goccioline) che ha una concentrazione (~ 2%) molto maggiore della CO2 (0,038%) e di tutti gli altri gas serra messi insieme, compreso il metano 5. Un raddoppio della CO2 (che non si avrebbe nemmeno dopo aver bruciato tutto il petrolio esistente) porterebbe ad un Ma se l’uomo non è responsabile, qual è la causa dell’aumento della temperatura e delle conseguenti variazioni climatiche? Certamente le principali cause delle remote evoluzioni del clima sono di natura astronomica, come mostra la periodicità dei dati paleoclimatici (Fig. 1). Le variazioni di temperatura recenti sono probabilmente da attribuirsi a variazioni dell’irraggiamento solare, e solo in piccola parte ad un aumento dell’effetto serra. È stato osservato che dal 1860 al 1990 la temperatura della terra e l’andamento dell’attività solare (numero delle macchie) hanno avuto un andamento parallelo 2 8. Dalle variazioni d’irraggiamento (0,5%) si possono calcolare delle variazioni di T di 0,15 °C, inferiori a quelle rilevate. Tuttavia, poiché un aumento di 0,15 °C fa evaporare dagli oceani acqua, CO2 e metano, è ragionevole attendersi un effetto serra indotto ed un riscaldamento molto maggiore, fino a 0,6 °C. Un altro fenomeno, finora trascurato, si 37 somma a questo: l’effetto di schermo della radiazione solare sui raggi cosmici. Questi, ionizzando l’atmosfera, inducono la formazione di nuvole. Il vento solare, schermando i raggi cosmici, riduce le formazioni nuvolose producendo un aumento di temperatura tanto maggiore quanto maggiore è l’attività solare 12. romperà in alcuni decenni, che il petrolio non si esaurisca, e che i paesi in via di sviluppo raggiungeranno o addirittura supereranno il livello dei paesi industrializzati 11. In caso di riscaldamento, quali danni dobbiamo attenderci? E benefici ce ne saranno? La ricchezza prodotta nel 2100 in presenza di un raddoppio della CO2, sarebbe dell’1-2% inferiore a quella che si avrebbe in assenza di un aumento di temperatura 11. Il livello dei mari si alzerà nel peggiore degli scenari di 90 centimetri 1, una evenienza che anche i paesi più poveri saprebbero fronteggiare. L’innalzamento del livello dei mari è iniziato circa 15.000 anni fa alla fine dell’ultima era glaciale: da allora il livello dei mari è cresciuto di più di 120 metri con l’aumentare della temperatura e con il procedere dello scioglimento dell’Antartide 11. Le malattie trasmesse da insetti come la malaria erano molto più diffuse in Europa e Nord America nel secolo scorso, quando la temperatura era più bassa. Il tasso di mortalità per caldo anomalo è drasticamente diminuito a partire dal 1960. Inoltre è noto che il freddo estremo favorisce i decessi più del caldo estremo. Dato che il riscaldamento globale determinerà maggiori aumenti di temperatura nelle stagioni fredde, esso potrebbe determinare un beneficio 11. I fenomeni meteorologici estremi, quali uragani, tempeste tropicali ed extra-tropicali non sono aumentati di intensità e di frequenza nel ventesimo secolo. È lo stesso IPCC ad ammetterlo 1. Le tempeste sono originate dalla differenza di temperatura tra i poli e i tropici, che diminuisce con il riscaldamento del pianeta. Per quanto riguarda l’agricoltura, qualche effetto negativo potrebbe verificarsi nei paesi poveri solo in presenza di un rapido e irrealistico aumento della temperatura maggiore di 4 °C Un modesto global warming invece porterebbe benefici all’agricoltura, specialmente se accompagnato da un incremento della CO2. È ormai accertato che la CO2 agisce come fertilizzante, favorisce la crescita delle piante, migliora l’adattamento a numerosi stress e l’efficienza nell’uso dell’acqua. Nelle serre si pompa CO2 per aumentare la produttività 8. In sintesi, se avremo un riscaldamento del pianeta, esso non sarà realisticamente superiore a 1,5 °C da qui al 2100 e produrrà, nel complesso, più effetti benefici che negativi. Le previsioni del clima sono fatte col computer utilizzando modelli matematici. Come funzionano questi modelli? Come per le previsioni meteorologiche, l’atmosfera è suddivisa in tante “scatole” ed in ognuna di queste si fissano le condizioni iniziali di temperatura, pressione, umidità, composizione, velocità del vento, etc. Utilizzando alcune equazioni fondamentali si fa evolvere nel tempo la situazione e si calcolano i valori futuri delle grandezze fisiche. Si prova il modello cercando di “prevedere” le evoluzioni climatiche del passato. Se queste non sono riprodotte correttamente si modificano le condizioni iniziali e i parametri del modello finché non si ottengono le “previsioni” giuste. Data l’enorme complessità del problema, è questo il miglior modo di procedere. Non bisogna dimenticare però che un modello costruito su di un numero sufficientemente elevato di parametri è in grado di riprodurre qualsiasi fenomeno da qualunque insieme di dati di partenza 8. I climatologi dell’IPCC osservano che i modelli matematici riproducono l’attuale riscaldamento globale solo a patto che siano incluse le emissioni antropogeniche dei gas serra, e pertanto ritengono che vi sia una ben distinguibile influenza umana sui cambiamenti climatici 1. Questa opinione non è unanimemente condivisa perché i modelli 1) contengono un numero molto grande di parametri; 2) falliscono quando si includono gli aerosol; 3) danno risultati molto diversi tra loro per la difficoltà connessa al trattamento delle nuvole; 4) non sono in grado di riprodurre in modo sufficientemente accurato l’andamento della temperatura del passato 8 11. Quali sono le previsioni dei modelli per il futuro? L’IPCC, prese per buone le rilevazioni terrestri e attribuendo all’uomo la causa del riscaldamento globale, esamina 40 possibili scenari e prevede da qui a 100 anni un aumento di temperatura minimo di 1,4 °C e massimo di 5,8 °C 1. Queste previsioni sono poco affidabili sia perché fatte con modelli (problemi connessi al numero di parametri, agli aerosol, e alle nuvole) e per un futuro molto lontano, sia perché basate su assunzioni opinabili (economiche, politiche, e tecnologiche) sullo sviluppo dell’umanità. Ad esempio si assume che la crescita della popolazione si inter- Ammettiamo che le previsioni più pessimistiche dell’aumento di temperatura e dei suoi effetti dannosi siano corrette. Le misure prospettate per limitare i danni che effetto avranno? Il PdK impone ai paesi industrializzati (non a quelli 38 in via di sviluppo) di ridurre entro il 2012 le emissioni di gas serra nella misura del 5% rispetto a quelle del 1990. È questo un provvedimento per prevenire pericolose interferenze umane sul clima, preso in base al principio di precauzione 8, in assenza di una completa conoscenza del problema. È stato stimato che il contenimento delle emissioni provocherebbe da qui al 2100 una riduzione della temperatura di 0,15 gradi, cioè il temuto riscaldamento sarebbe 0,15 gradi più basso. Oppure, il raggiungimento della temperatura atteso per il 2100 sarebbe ritardato al 2101. I benefici derivanti dalla applicazione del PdK sarebbero quindi ben poca cosa: ad esempio il minor aumento del livello del mare sarebbe pari a 2,5 cm 8 11. Mentre i benefici sarebbero minimi, si avrebbero gravi danni per rendere operativo il protocollo. Prima di tutto una minore crescita economica dei paesi obbligati a ridurre le emissioni. Il costo del PdK sarebbe enorme per Stati Uniti, Europa, Giappone e altri paesi industrializzati: 1% del PIL nel 2010, 2% nel 2050, 4% a fine secolo. Nell’ipotesi che gli Stati Uniti non ratifichino il protocollo, le nazioni europee subirebbero una riduzione del PIL ancora maggiore. Il prezzo del gasolio da riscaldamento potrebbe aumentare di oltre il 20% e quello della benzina tra il 5 e il 10%. L’energia elettrica raddoppierebbe. Aumenterebbero i disoccupati di circa 1,5 milioni di unità. Solo in Italia si avrebbe una perdita di posti di lavoro di 51.000 unità nel 2010, e 277.000 nel 2025. La minor crescita economica dei paesi sviluppati avrebbe ripercussioni negative anche sui paesi poveri, riducendo le loro esportazioni, e di conseguenza il loro reddito, le condizioni di alimentazione e quelle sanitarie 11. sa efficacia e gravi conseguenze economiche. Lasciamo il pessimismo e le previsioni catastrofiche, siamo ottimisti: le variazioni climatiche che ci attendono non sono diverse da quelle passate, e l’uomo è sempre sopravvissuto ad esse. Non interveniamo se non vi sono pericoli scientificamente accertati, e se l’intervento comporta più costi che benefici. Intanto, dato che il petrolio è destinato ad esaurirsi, cerchiamo di risparmiare e di utilizzare fonti di energia alternative: il carbone pulito, il nucleare, l’energia idroelettrica, solare, eolica, e geotermica. BIBLIOGRAFIA 1 2 3 4 5 6 7 8 9 10 Si può trarre una conclusione sul clima futuro? Come dobbiamo comportarci? Vista l’evoluzione del clima nel passato, l’attuale riscaldamento della terra non ha niente di eccezionale e non è attribuibile all’uomo se non in piccola parte. L’aumento di temperatura nei prossimi 100 anni, se ci sarà, probabilmente non supererà 1,5 °C, e porterà più benefici che danni. Al contrario le misure (PdK) volte a ridurre i danni avrebbero scar- 11 12 13 39 Intergovernmental Panel on Climate Change. Climate change 2001: the scientific basis. Cambridge University Press 2001; http://www.ipcc.ch Robinson AB, et al. Environmental effects of increased atmospheric carbon dioxide. 2001; http://www.oism.org /pproject/s33p36.htm Chylek P, et al. Global warming and the Greenland ice sheet. Climate Change 2004;63:201-21. Doran PT, et al. Antartic climate cooling and terrestrial ecosystem response. Nature 2002;415:517-20. Hieb M, Hieb H. Global worming: a chilling perspective. 2002; http://www.clearlight.com/~mhieb Monnin E, et al. Atmospheric CO2 concentrations over the last glacial termination. Science 2001;291:112-4. Khilyuk LF, Chilingar GV. Global warming: are we confusing cause and effect? Energy Sources 2003;25:357-70. Battaglia F. Il Principio di precauzione: precauzione o rischio? 2004; http://www.Galileo2001.it, e riferimenti ivi citati. Real Climate, Water vapour: feedback or forcing? 2005; http://www.realclimate.org/pproject/index.php?p = 142, comment 6. Lean J, Rind D. Climate forcing by changing solar radiation. J Climate 1998;11:3069-94. Ramella F. Greenhouse effect: be prudent, look before you leap. 2004; http://www.sepp.org/NewSEPP/ Ramella%20English1.htm, e riferimenti ivi citati. Shaviv NJ. Seminario di Erice sulle “Emmergenze planetarie”. 2003; http://www.giornaleingegnere.it/num_162003/articolo.htm Shaviv NJ, Veizer J. Celestial driver of Phanerozoic climate? GSA Today 2003;13:4-10. LA PRODUZIONE BIOLOGICA DI IDROGENO: IL RUOLO DEI MATERIALI POLIMERICI di Pierfrancesco Cerruti, Cosimo Carfagna, Mario Malinconico INTRODUZIONE * soddisfatto da fonti fossili, il 7% dall’energia nucleare e solo l’8% da fonti rinnovabili 2. Una transizione su grande scala verso le energie rinnovabili non è pensabile a breve termine, a causa dei costi ancora troppo elevati. La Tabella 1 mostra un confronto tra i costi di produzione dell’elettricità da varie fonti nell’unione europea 3. È chiaro come, con le tecnologie attualmente disponibili, il costo dell’energia da fonti rinnovabili è 23 volte maggiore rispetto ai combustibili fossili. Il fabbisogno energetico planetario è ad oggi quasi completamente basato su fonti fossili contenenti carbonio, quali petrolio, carbone e gas naturale, formatisi durante molti milioni di anni dalla decomposizione di biomassa di origine perlopiù vegetale. Tuttavia, l’utilizzo sempre più intenso di queste fonti, dovuto anche al veloce sviluppo di paesi intensamente popolati come Cina, India, Brasile, ecc., oltre a preoccupazioni che riguardano l’approvvigionamento energetico in sé, provoca il rilascio del carbonio legato sottoforma di CO2. L’aumento della concentrazione di CO2 nell’atmosfera terrestre è generalmente riconosciuto come la causa principale del riscaldamento globale e dei conseguenti cambiamenti climatici. Nel quadro del Protocollo di Kyoto (PdK), attualmente ratificato da 140 paesi (con eccezioni importanti, quali USA e Australia) 1, un certo numero di nazioni industrializzate si è impegnato per ridurre il proprio livello di emissioni di CO2 del 5% tra il 1990 e il 2010. Le emissioni di CO2 possono essere ridotte aumentando l’efficienza dei processi di produzione di elettricità e tramite l’uso più efficiente di energia nell’industria e per il trasporto. Altre opzioni prevedono la sostituzione di alcuni combustibili fossili con altri a più bassa emissione, come il gas naturale. Ovviamente, metodi più radicali prevedono l’utilizzo di fonti di energia rinnovabile (eolica, solare, idroelettrica, biomasse). Tutte queste fonti si basano direttamente o indirettamente sull’energia solare, in maniera da non rilasciare CO2 all’atmosfera (CO2 neutre). Attualmente, l’effettivo consumo mondiale di energia è di circa 4 1020 J, equivalente ad appena lo 0,01% della disponibilità di energia solare 2. Tuttavia, anche se il rifornimento annuale di energia solare eccede di gran lunga il nostro fabbisogno, esistono ostacoli di natura in gran parte economica che impediscono la creazione di un sistema energetico “rinnovabile”. Così, circa l’85% del fabbisogno energetico mondiale è Tabella 1. Costi di produzione per l’elettricità da fonti rinnovabili nella UE Fonte energetica Costo medio in Euro per KW/h celle solari fotovoltaiche (PV) 0,30-0,80 energia idroelettrica 0,04-0,25 biomasse 0,07-0,19 energia eolica 0,04-0,08 combustibili fossili 0,03-0,05 L’IDROGENO COME FONTE DI ENERGIA Nel romanzo L’Isola Misteriosa (1870), Jules Vernes scriveva: “Credo che l’acqua un giorno sarà impiegata come combustibile, l’idrogeno e l’ossigeno che la costituiscono, usati separatamente o insieme, forniranno una fonte inesauribile di calore e di luce, di un’intensità di cui il carbone non è capace. Credo allora che quando i depositi di carbone saranno esauriti, ci riscalderemo con acqua. L’acqua sarà il carbone del futuro”. Al giorno d’oggi, più di 130 anni dopo, non è soltanto l’esaurimento delle fonti di energia fossili che impone con forza di studiare nuove possibilità per produrre energia; la spinta dell’opinione pubblica e le problematiche ambientali impongono la ricerca di fonti di energia alternativa. Le fonti rinnovabili e sostenibili di energia contribuiscono sempre più al nostro fabbisogno energetico. La maggior parte di queste fonti di energia sono però limitate a determinate località come le zone ricche di vento o di * Istituto di Chimica e Tecnologia dei Polimeri del CNR, Pozzuoli, Napoli (ICTP – CNR) Per informazioni: [email protected] 40 sole, e l’energia deve essere trasportata dai luoghi di produzione a quelli in cui è necessaria. Inoltre, l’energia deve essere immagazzinata, poiché la maggior parte delle fonti di energia rinnovabile non sono disponibili con continuità. Sotto forma di idrogeno, l’energia può essere immagazzinata fino a che non sia necessaria e trasportata là dove è necessaria. I benefici dell’idrogeno lo rendono un componente ideale per lo sviluppo del concetto di energia rinnovabile e sostenibile nel futuro. L’idrogeno è un vettore energetico. Non esiste alcun giacimento di idrogeno: è necessario produrlo. La produzione dell’idrogeno è una forma di immagazzinamento di energia. Questa viene restituita al momento dell’impiego finale dell’idrogeno. La reazione di combustione dell’idrogeno è la seguente: H2 + 1/2 O2→H2O + Energia. Come vettore energetico esso presenta degli indubbi vantaggi: oltre ad essere un combustibile pulito (l’unica emissione inquinante è costituita da ossidi di azoto, NOx, con miscele povere di H2, ad alte temperature di combustione), 1 kg di H2 fornisce 33,4 kWh, 9 kg di H2O, e nessuna emissione di CO2. Lo stesso contenuto energetico è fornito da circa 3 kg di CH4, che però producono 4,5 kg di H2O, e ben 11 kg di CO2. METODI tonnellate, ottenuti per il 60% dal processo chimico di reforming degli idrocarburi leggeri, principalmente il metano, per il 30% dal cracking di idrocarburi più pesanti (petrolio) e per il 6% dalla gassificazione del carbone. Solo il 4% dell’attuale produzione è ottenuta per elettrolisi (Fig. 1). STEAM REFORMING DI IDROCARBURI Lo steam reforming (trasformazione con vapore) si effettua, partendo da gas metano o da frazioni leggere di petrolio, con vapore d’acqua in presenza di un catalizzatore (generalmente nichel) alla temperatura di 800 °C. Il gas risultante contiene anche monossido di carbonio che, reagendo con il vapore, si trasforma in biossido di carbonio (anidride carbonica). Un’evoluzione dello Steam reforming consente di ottenere idrogeno estremamente puro con temperature di reazione particolarmente basse, rendendo il processo più economico. GASSIFICAZIONE DEL CARBONE L’idrogeno si produce facendo reagire a 900 °C il vapor d’acqua con carbone coke e poi, a 500 °C, con un catalizzatore a base di ossidi di ferro; il gas risultante, formato da idrogeno e monossido di carbonio, era un tempo utilizzato come gas di città. La produzione di idrogeno mediante gassificazione del carbone è una tecnologia che trova numerose applicazioni commerciali, ma è competitiva con lo steam reforming solo dove il costo del gas naturale è molto elevato. PER LA PRODUZIONE DI IDROGENO La produzione mondiale annua di idrogeno è di 500 miliardi di Nm3, equivalenti a 44 milioni di Figura 1. Fonti di produzione di idrogeno. 41 Tabella 2. Efficienze e costi della produzione di H2. ELETTROLISI DELL’ACQUA LA Attualmente è l’unico metodo per ottenere idrogeno (e ossigeno) dall’acqua. Consiste nell’introdurre nell’acqua un anodo e un catodo e stabilire una differenza di potenziale affinché avvenga la separazione dell’idrogeno dall’ossigeno. Gli elettrolizzatori in commercio ottengono un metro cubo di idrogeno con 3,7 kWh di energia elettrica. È un metodo con una efficienza elevata e produce idrogeno con un alto grado di purezza. Attualmente per elettrolisi si producono circa 20 miliardi di metri cubi all’anno di idrogeno, pari al 4% della produzione mondiale di idrogeno, e solo per soddisfare richieste limitate di idrogeno estremamente puro. Un altro metodo di produrre idrogeno dall’acqua usando fonti rinnovabili è costituito da processi che utilizzano microrganismi (accoppiando gli enzimi idrogenasi alla fermentazione o alla fotosintesi), di cui si parla successivamente. La Tabella 2 mostra un confronto tra le efficienze e i costi della produzione di idrogeno con differenti metodi. Si nota come tra i metodi già impiegati il reforming del gas naturale sia conveniente dal punto di vista economico, mentre i processi basati sulla fermentazione o sulla biofotolisi operata da microrganismi necessitano di essere ulteriormente sviluppati. PRODUZIONE BIOLOGICA DI IDROGENO La produzione di metano attraverso la digestione anaerobica di acque di scarico e di residui (compresi i fanghi provenienti da depurazione e la frazione organica di rifiuti urbani) è già largamente applicata. In questo processo, l’idrogeno è un prodotto intermedio, ma non disponibile perché convertito velocemente in metano dai microrganismi metanogeni. Oggi, ancora oltre il 96% dell’idrogeno prodotto in tutto il mondo dipende da fonti energetiche fossili, e consuma circa il 2% della domanda energetica mondiale. Parecchi programmi di ricerca internazionali sono orientati allo studio di mezzi alternativi per la generazione ecosostenibile di idrogeno, tra cui la produzione biologica dell’idrogeno (bioidrogeno) 4-7. Parecchi processi sono attualmente allo studio, tra i quali le fermentazioni di biomasse o i processi fotobiologici con cui l’idrogeno può essere prodotto direttamente dalla luce solare. La Tabella 3 descrive alcuni dei processi biologici per la produzione dell’idrogeno che sono attualmente oggetto di ricerca. Come si nota dalla Tabella, il bioidrogeno può essere prodotto sia attraverso processi che prevedono la fermentazione di substrati organici al buio o alla luce, sia mediante la diretta fotolisi dell’acqua, in cui l’energia per la reazione è fornita dalla luce (solare, se si vuole che il processo sia ecosostenibile). 42 Tabella 3. Metodi di produzione di bioidrogeno. scenedesmus obliquus di metabolizzare l’idrogeno molecolare 15. Anche se il significato fisiologico del metabolismo dell’idrogeno nelle alghe è ancora pertinente alla ricerca di base, il processo di produzione di fotoidrogeno dalle alghe verdi è di grande interesse tecnologico perché genera idrogeno dalle risorse universalmente più abbondanti, luce e acqua 6 11 16 17. Il requisito preliminare è l’adattamento delle alghe ad una atmosfera anaerobica. Purtroppo, la quantità di idrogeno prodotta in questo processo è abbastanza ridotta poiché l’ossigeno simultaneamente prodotto inibisce l’enzima idrogenasi. Quindi, in presenza di luce, lo sviluppo di idrogeno cessa solitamente dopo alcuni minuti a causa dell’inibizione da parte dell’ossigeno. Attualmente, l’efficienza di conversione in condizioni ideali è di circa il 10%. Tuttavia, i sistemi algali si saturano ad elevati valori di irraggiamento solare. In questo campo, la maggior parte degli sforzi sono quindi rivolti allo studio dei requisiti fisiologici necessari per il metabolismo dell’idrogeno in presenza di luce in alghe verdi 11 16 18-21, cianobatteri 10 22 23 ed altri batteri fotosintetici 7 12, e allo sviluppo di tecnologie impiantistiche (fotobioreattori) con l’obiettivo di aumentare l’efficienza degli impianti. Un reattore per la produzione fotobiologica di idrogeno deve soddisfare alcuni requisiti. Poiché l’idrogeno deve essere raccolto, è necessario che il sistema sia chiuso. Deve inoltre essere possibile Molti microrganismi contengono enzimi, conosciuti come idrogenasi, che ossidano l’idrogeno formando protoni ed elettroni, o riducono i protoni liberando idrogeno molecolare. Il ruolo fisiologico e le caratteristiche biochimiche di queste idrogenasi sono variabili 8-12. La maggior parte dell’idrogeno prodotto da fonti biologiche nella biosfera deriva da processi di fermentazione microbica. Questi organismi decompongono la materia organica in anidride carbonica e idrogeno, come è stato indicato già 100 anni fa dal biochimico Hoppe-Seyler 4. La riduzione dei protoni ad idrogeno serve a diminuire l’eccesso di elettroni all’interno della cellula e generalmente fornisce l’energia supplementare che genera alcuni processi metabolici. L’idrogeno prodotto è solitamente catturato direttamente da sistemi consumatori di idrogeno all’interno dello stesso ecosistema. Questi organismi usano il potere riducente dell’idrogeno per innescare alcuni processi metabolici. I batteri a idrogeno (batteri di Knallgas) possono persino svilupparsi autotroficamente con l’idrogeno come solo substrato di riduzione di energia e di alimentazione. LA PRODUZIONE DELL’IDROGENO DALLE ALGHE VERDI Per quanto riguarda la produzione di idrogeno mediante la fotobiolisi dell’acqua, già 70 anni fa Hans Gaffron mostrò la capacità dell’alga verde 43 avere una monocoltura per un tempo esteso (reattore facilmente sterilizzabile). Siccome la fonte di energia preferibile è la luce solare, il rendimento di un fotobioreattore è limitato dalla luce stessa, un elevato rapporto superficie/volume è un requisito preliminare per un reattore. L’efficienza fotochimica percentuale (% = tasso di produzione di H2 x contenuto energetico di H2/energia solare assorbita) è relativamente bassa (teoricamente un massimo di circa il 10%) e diminuisce per alte intensità luminose (l’energia fotonica non può essere utilizzata completamente, ma è dissipata come energia termica). Ciò significa che per generare un processo biologico efficiente, è importante sia “diluire” la luce sia distribuirla al meglio su tutto il volume del reattore, o usare alte velocità di agitazione della coltura in modo da esporre le cellule alla luce soltanto per brevi periodi. Tra le geometrie più utilizzate, ci sono quella planare e quella tubolare. REATTORI PLANARI Figura 2. Fotobioreattore a geometria planare. Tali reattori sono costituiti da contenitori trasparenti rettangolari di profondità compresa tra 1 e 5 cm (Fig. 2). La miscelazione della coltura è in genere operata da aria introdotta attraverso il pannello inferiore. I pannelli sono disposti verticalmente e illuminati solitamente su un lato dalla luce solare diretta. I cicli luce/buio sono in genere brevi e questo è probabilmente il fattore chiave che conduce ad una elevata efficienza fotochimica. Uno svantaggio di questi sistemi è che presentano un elevato assorbimento di energia per la miscelazione. FOTOBIOREATTORI FOTOBIOREATTORI: NUOVI SVILUPPI Una possibilità per aumentare le efficienze è quella di separare l’assorbimento di luce dalla zona di coltura della biomassa 24. La luce potrebbe essere raccolta mediante specchi parabolici e quindi convogliata sul fotobioreattore mediante fibre ottiche. Tale soluzione attualmente è costosa, ma è auspicabile che l’abbattimento dei costi per specchi, lenti, e sistemi di trasporto della luce possa rendere questo tipo di strategia di applicabilità generale. Il design di un fotobioreattore con un sistema di redistribuzione della luce è un’importante sfida ingegneristica. Già nel 1985 Mori 24 utilizzò una colonna verticale con un gran numero di fibre di TUBOLARI I reattori tubolari consistono in lunghi tubi trasparenti con diametri che variano da 3 a 6 centimetri e lunghezze da 10 a 100 m. Il mezzo di coltura viene fatto circolare attraverso i tubi per mezzo di pompe (Fig. 3). I tubi possono essere posizionati in differenti geometrie, sul piano orizzontale o verticale. La lunghezza dei tubi è limitata a causa dell’accumulazione di gas all’interno, benché ciò potrebbe non essere così importante per i processi basati su nitrogenasi, poiché essi sono poco inibiti dall’idrogeno prodotto. In generale, i reattori planari mostrano un buon rendimento fotochimico. I reattori tubolari in teoria dovrebbero mostrare migliori efficienze a causa dei cicli medi luce/buio più brevi. Figura 3. Fotobioreattore tubolare per la coltivazione di alghe verdi. 44 vetro fissate lungo l’asse. Ogbonna et al. 25 hanno sostituito le fibre con alcune barre trasparenti solide (vetro o quarzo) in un reattore stirred-tank. Entrambi i sistemi non sono scalabili, perché un elevatissimo numero di fibre o barre sarebbero necessarie in un fermentatore su grande scala. L’implementazione di tali sistemi è riportata in Figura 4, in cui è mostrato un sistema sviluppato presso l’Università di Wageningen in Olanda 26. Quest’ultimo dispositivo prevede la presenza di un fotobioreattore rettangolare in cui sono inserite alcune piastre in materiale plastico (PMMA o policarbonato) in grado di diffondere la luce all’interno del sistema. La miscelazione è garantita da aria iniettata nello spazio fra le piastre. La luce solare è convogliata direttamente alle piastre interne mediante fibre ottiche. Sembra che un tale sistema possa essere scalabile fino a volumi dell’ordine di oltre 100 m3. 2. sviluppo di sistemi a fibre ottiche per la canalizzazione della radiazione luminosa; 3. sviluppo di materiali e trattamenti superficiali dei bioreattori in grado di ottimizzare la produttività dei microrganismi impiegati, aumentando così l’efficienza globale degli impianti; 4. sviluppo di matrici per l’immagazzinamento dell’idrogeno. Relativamente al punto 3, le attività di ricerca attualmente in corso prevedono la preparazione di film o coatings polimerici in grado di ottimizzare la trasmissione delle bande luminose capaci di promuovere il massimo di crescita dei microorganismi, e che possano attenuare le più elevate intensità luminose che producono fotoinibizione nelle cellule; In particolare, due sono le strade potenzialmente perseguibili: a. realizzazione di filtri per l’assorbimento della componente della radiazione solare potenzialmente dannosa (UV e vicino IR), massimizzando la trasmissione nel visibile di frequenze associate con i massimi di assorbimento delle colture cellulari (cianobatteri e alghe verdi); b. realizzazione di film polimerici che convertano la radiazione inutilizzata dalle colture cellulari (UV e IR) in radiazione visibile. La Figura 5 mostra un confronto tra lo spettro della radiazione solare che raggiunge la superficie terrestre, e lo spettro di assorbimento della microalga Chlamydomonas Reinhardtii. Si nota come il microrganismo presenti due ampi massimi di assorbimento nelle regioni 400-500 nm, e attorno a 650 nm, mentre l’assorbimento nel vicino infrarosso è praticamente trascurabile. La presenza delle componenti IR e UV nello spettro solare è tuttavia fonte di potenziali complicazioni. Infatti, l’assorbimento di radiazione IR porta all’emissione di radiazione sotto forma di energia termica, incrementando così la temperatura del sistema con conseguente diminuzione della produttività. Ciò impone la necessità di utilizzare sistemi di raffreddamento, che in genere sono PROGETTO HYDROBIO Nell’ambito delle ricerche in corso a livello internazionale sulla produzione biologica di idrogeno, si colloca il progetto di ricerca: Metodologie Innovative per la Produzione di Idrogeno da Processi Biologici (Idrobio), finanziato dal MURST, che vede coinvolti diversi partners del mondo accademico e della ricerca italiana (alcuni istituti del CNR e dell’ENEA, l’Università di Padova, l’Università di Verona, e l’Università di Firenze). Un progetto così ambizioso necessita di riunire insieme competenze diversificate, che vanno dalla Biologia molecolare all’ingegneria genetica, alla biochimica, fino alla scienza dei materiali. L’Istituto di Chimica e Tecnologia dei Polimeri del CNR di Pozzuoli è coinvolto nelle seguenti attività di ricerca: 1. sviluppo di idrogeli in grado di immobilizzare le colture cellulari e di favorirne la crescita; Figura 4. Fotobioreattore con separazione del sistema di captazione della luce dalla crescita batterica 26. Figura 5. Confronto tra lo spettro di emissione solare e lo spettro di assorbimento di alghe verdi. 45 d’onda a cui si verificano i massimi di assorbimento dei microrganismi impiegati, e di impiegarli come additivi in materiali polimerici con cui ricoprire la superficie del reattore. È noto che alcuni sali organici e inorganici di terre rare quali europio, ittrio, erbio, hanno la caratteristica di assorbire la radiazione UV e di fotoemettere nel rosso. La Figura 7 mostra gli spettri di eccitazione e di emissione di un film di polietilene additivato con un complesso Eu(III)-fenantrolina 28 . Si osserva come il film abbia un notevole assorbimento nell’UV, e fotoemetta nel rosso visibile (λMAX = 611 nm), con una resa quantica del 5%. È interessante notare anche che l’intensità e la frequenza di emissione possono variare in dipendenza del tipo di matrice e di fotoemettitore utilizzati 29 . Altri composti noti per le loro caratteristiche di fotoemissione sono macromolecole dendritiche 30 e oligomeri coniugati a base di tiofene 31. costituiti da bagni d’acqua in cui sono immersi i bioreattori. L’elevata energia associata alla componente UV invece può inibire la crescita batterica. È noto che la radiazione UV-B solare, ha effetti inibitori sull’assorbimento fotosintetico degli elementi nutritivi e può danneggiare il DNA dei microrganismi fotosintetici. È stato dimostrato che la produzione primaria dal fitoplancton in acque di superficie antartiche (laddove maggiori sono gli effetti della riduzione dell’ozono stratosferico) può essere inibita fino al 30% 27. La strategia perseguita presso il nostro Istituto prevede la realizzazione di film polimerici da utilizzare come coating sul bioreattore, che possano efficacemente assorbire le radiazioni UV e IR termica, preservando nel contempo la trasmissione della componente visibile. La Figura 6 mostra lo spettro in trasmissione di un film polimerico a base di poliossadiazoli (pod) sintetizzato nel nostro laboratorio. È interessante notare come tale polimero assorba efficacemente la radiazione UV potenzialmente dannosa, presentando nel contempo una trasmittanza di circa il 90% su tutto il resto dello spettro investigato. Il secondo punto indicato in precedenza è sicuramente quello che presenta la maggiore attrattiva dal punto di vista scientifico e tecnologico. Sono noti in letteratura svariati materiali, inorganici e organici, che hanno la caratteristica di assorbire radiazione in un certo range di frequenza e di fotoemettere a frequenze diverse. In tal caso la strategia perseguita è quella di selezionare materiali opportuni, che fotoemettano alle lunghezze CONCLUSIONI Non esiste una soluzione unica al problema dell’approvvigionamento energetico, e la diversificazione delle fonti rappresenta un approccio anche culturalmente stimolante. La produzione biologica di idrogeno da microalghe e batteri rossi rappresenta una frontiera tecnologica dove si incontrano la biochimica, la chimica, la fisica e l’ingegneria. Così come nelle celle a combustibile l’aumento dell’efficienza passa anche attraverso i materiali polimerici, anche nei bioreattori è possibile applicare la scienza e la tecnologia delle macromolecole per ottenere migliori rese a costi contenuti. Figura 6. Spettro di assorbimento di un poliossadiazolo (pod), con n = 8. Figura 7. Spettri di emisssione e di assorbimento di un film di polietilene additivato con un complesso di eu(iii)fenantrolina. 46 BIBLIOGRAFIA 1 2 3 4 5 6 7 8 9 10 11 12 13 14 Website United Nations Framework Convention on Climate Change: http://www.unfccc.int. Energy Needs, Choices and Possibilities. Scenarios to 2050. Shell International 2001. Haas R, et al. Review report on Promotion Strategies for electricity from renewable energy sources in EU countries. 2001. Miyake M, Schnackenberg J, Nakamura C, Asada Y, Miyake J. Molecular handling of hydrogenase. In: Miyake J, Matsunaga T, Pietro AS, Miyake J, Matsunaga T, eds. Biohydrogen II. Amsterdam, The Netherlands: Elsevier Publishers 2001, p. 205-19. Zaborsky OR. Biohydrogen. New York, USA: Plenum Press 1998. Benemann J. Hydrogen biotechnology: progress and prospects. Nat Biotechnol 1996;14:1101-3. Debabrata D, Vezirolu TN. Hydrogen production by biological processes: a survey of literature. Int J Hydrogen Energy 2001;26:13-28. Vignais MV, Billoud B, Meyer J. Classification and phylogeny of hydrogenases. FEMS Microbiol Rev 2001;25:455-501. Adams MW, Mortenson LE, Chen JS. Hydrogenase. Biochim Biophys Acta 1980;594:105-76. Appel J, Schulz R. J Photochem Photobiol B: Biol 1998;47:1-11. Schulz R. J Mar Biotechnol 1996;4:16-22. Boichenko VA, Hoffmann P. Photosynthetica 1994;30:527-52. Hoppe-Seyler F. Die Methangarung der Essigsaure. Z Phys Chem 1887;11:561-8. Baelaich J-P, Bruschi M, Garcia J-L. Microbiology and biochemistry of strict anaerobes involved in 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 47 interspecies hydrogen transfer. New York, USA: Plenum Press 1990. Gaffron H. Am J Bot 1939;27:273-83. Melis A, Happe T. Plant Physiol 2001;127:740-8. Benemann JR. Int J Hydrogen Energy 1997;22; 979-87. Wunschiers R, Heide H, Follmann H, Senger H, Schulz R. FEBS Lett 1999;455:162-4. Wunschiers R, Senger H, Schulz R. Biochim Biophys Acta 2001;1503:271-8. Melis A, Zhang L, Forestier M, Ghirardi ML, Seibert M. Plant Physiol 2000;122:127-36. Ghirardi ML, Zhang L, Lee JW, Flynn T, Seibert M, Greenbaum E, et al. Trends Biotechnol 2000;18:506-11. Hansel A, Lindblad P. Appl Microbiol Biotechnol 1998;50:153-60. Tamagnini P, Axelsson R, Lindberg P, Oxelfelt F, Wunschiers R, Lindblad P. Microbiol Mol Biol Rev 2002;66:1-20. Mori K. Biotechnol Bioeng Symp 1985;15:331-345. Ogbonna JC, Soejima T, Tanaka H. J Biotechnol 1999;70:289-297. Janssen M, Tramper J, Mur LR, Wijffels RH. Biotechnol Bioeng 2003;81:2. Xu XQ, Beardall J, Hallam ND. Phytochemistry 1998;49:1249. Pogreb R, et al. Polym Adv Technol 2004;15:414. Bonzaninia R, et al. Polymer 2005;46:253. Adronov A, Fréchet J. Chem Commun 2000;1701. Gonzalo Rodrıguez J. Tetrahedron Letters 2004;45:7061. BIOPOLIMERI Eccoci all’appuntamento annuale con la nomina dei premi Nobel. Nel 2005 è stato riconosciuto l’importante contributo dato da Yves Chauvin, Robert Grubbs e Richard Schrock nel campo della chimica organica, con lo studio sulla reazione di metatesi. Mi sono quindi rivolto ad una collega di chimica organica, Lucia Pasquato, professore associato presso il Dipartimento di Scienze Chimiche dell’Università di Trieste, perché scrivesse per AIM Magazine una illustrazione della ricerca eseguita dai Nobelists. Lucia ha accettato volentieri e di questo la ringrazio sentitamente. Roberto Rizzo LA REAZIONE DI METATESI: UNA REAZIONE DA NOBEL di Lucia Pasquato INTRODUZIONE * greco metáthesis che significa spostamento, trasposizione). Come in molti altri casi la reazione di metatesi di olefine è stata trovata per caso nel 1955. In particolare si è trovato che catalizzatori formati in situ usati nelle polimerizzazione di tipo Ziegler-Natta non portano solo alla reazione di polimerizzazione di olefine ma possono anche catalizzare una reazione meccanicisticamente completamente diversa, la reazione di metatesi. Negli anni ’60 Natta et al., nella estensione degli studi sulla polimerizzazione, hanno riportato la polimerizzazione con apertura di anello di olefine cicliche in catalisi omogenea 2. Successivi studi di Calderon e di Mol hanno cominciato a fare luce sul meccanismo di Il premio Nobel per la Chimica 2005 è stato assegnato a tre ricercatori: Yves Chauvin, Robert Grubbs e Richard Schrock che hanno studiato ed hanno fatto diventare la reazione di metatesi una delle più importanti reazioni della chimica organica, uno strumento che consente la sintesi di polimeri e di nuove complicate molecole e farmaci rispettando i criteri della “chimica verde”. La reazione di metatesi e le sue applicazioni sono state oggetto di numerose reviews 1 oltre ad essere riportate nei libri di chimica organica e quindi in questa sede saranno ripresi alcuni punti salienti raggiunti dai vari studi su questa reazione e saranno discussi alcuni esempi di applicazioni alla sintesi di composti che rivestono importanza in diversi settori della chimica e che sono una scelta personale dell’autore. La reazione di metatesi è una reazione d’equilibrio e il sistema più classico prevede la reazione tra due doppi legami carbonio-carbonio in cui, in presenza di un catalizzatore opportuno, si rompono i due doppi legami presenti nei reagenti e si formano due nuovi doppi legami tra gli atomi di carbonio che prima non erano legati come illustrato nella Figura 1 e come indica il nome stesso (dal Figura 1. Principio generale di metatesi di olefine sostituite in modo simmetrico. * Università di Trieste, Dipartimento di Scienze Chimiche, via L. Giorgieri 1, 34127 Trieste; Fax 040 5583903; E-mail: [email protected] 48 questo processo, dimostrando che durante la reazione si ha uno scambio di alchilidene. Chauvin è stato il primo a postulare un meccanismo in cui è coinvolto un metallo-carbene come specie catalitica che evolve a metallo-ciclobutano 3. Questo meccanismo è stato successivamente supportato dagli studi dei gruppi di Casey, Katz e Grubbs. Come illustrato in Figura 2, questa trasformazione presenta una varietà di applicazioni. Come esempi sono illustrate le seguenti reazioni: “ring-opening methatesis polymerization” (ROMP), “ring-closing methatesis” (RCM), “acyclic diene methatesis polymerization” (ADMET), “ring-opening methatesis” (ROM) e “cross-methatesis” (CM). Negli ultimi anni la reazione è stata estesa anche ad alchini. Il triplo legame può essere presente in una sola parte reagente e in questo caso per RCM si ottiene un sistema 1,3-dienico che può poi subire successive trasformazioni (per esempio cicloaddizioni). Se il triplo legame carbonio-carbonio è presente su entrambi i siti reagenti si ottiene per reazione RCM un prodotto contenente un triplo legame C-C. Inoltre, esempi di catalizzatori od olefine, supportate per la sintesi in condizioni di catalisi eterogenea, sono stati sviluppati con l’obiettivo di ottenere processi più adatti ad una chimica verde. Le conoscenze acquisite sul meccanismo hanno dato impulso allo sviluppo di catalizzatori di nuova generazione con prestazioni migliori, più stabili e soprattutto con una miglior tolleranza a diversi gruppi funzionali rispetto ai catalizzatori inizialmente usati. In Figura 3 sono riportati alcuni catalizzatori o precursori che vengono trasformati in situ in metallo-alchilidene, tra questi il complesso tungsteno- o molibdeno-alchilidene 1 sviluppato da Schrock et al. e il complesso di rutenio 2 introdotto da Grubbs et al. che sono i più conosciuti e forse i più versatili. Entrambi questi reagenti sono commerciali ed il catalizzatore 2 è stato riconosciuto come reagente Fluka dell’anno nel 1998. Figura 2. Diverse reazioni di metatesi di olefine. industriali. Un esempio classico è il processo Phillips in cui il propene è convertito in una miscela di etene e 2-butene. Attualmente l’applicazione più importante dal punto di vista tecnico è uno APPLICAZIONI Questi catalizzatori sono stati utilizzati in aree diverse della chimica e, poiché questo settore di ricerca proveniva dall’industria chimica del petrolio e delle polimerizzazioni, le prime applicazioni sono state in diversi processi Figura 3. Alcuni catalizzatori e pre-catalizzatori usati nelle reazioni di metatesi. 49 stadio del processo “Shell Higher Olefin Process” (SHOP) in cui a partire da una miscela di olefine a catena corta e olefine a catena lunga si ottengono olefine a catena media da 11-14 atomi di carbonio. La reazione di metatesi in questo processo utilizza la prima e l’ultima frazione di distillazione della oligomerizzazione dell’etano catalizzata da nichel. In seguito ad una doppia isomerizzazione e successiva metatesi è possibile ottenere olefine con il numero desiderato di atomi di carbonio. Il processo SHOP è stato iniziato nel 1979 e sono stati costruiti impianti con capacità di 100.000 tonnellate/anno. Un’altra area di applicazione della reazione di metatesi è la polimerizzazione di olefine. Un esempio è il processo Norsorex della compagnia CDF-Chimie e il processo HülsVestenamer (Fig. 4). Questi processi si basano sulla polimerizzazione per apertura di anello (ROMP) del norbornene (Norsorex, 45.000 tonnellate/anno) e del ciclottene (Vestenamer), rispettivamente. Queste metodologie di polimerizzazione sono state applicate in modo originale da Kiessling per la sintesi di leganti multivalenti 4. È noto che l’aggregazione cellulare da parte di lectine o anticorpi riveste una notevole importanza biotecnologica per applicazioni terapeutiche. Per aumentare l’avidità e le proprietà di aggregazione di sistemi sintetici il gruppo del prof. Kiessling ha agito sull’aumento del numero di siti leganti. La valenza (il numero di siti di riconoscimento) presenti in lectine e anticorpi è limitato dalla loro struttura quaternaria. Il problema è stato affrontato usando polimeri generati con reazioni di polimerizzazione ROMP come scaffold (Fig. 5) per riconoscere coppie di lectine, in particolare la Con A. Con questo approccio gli Autori hanno dimostrato che complessi tra questi scaffold polimerici e Con A portano all’aggregazione di cellule di una linea di cellule T di leucemia più efficacemente della sola Con A. Figura 4. Reazione di metatesi applicata ad alcuni processi industriali. Per realizzare la strutturazione in elica di brevi sequenze peptidiche sono state elaborate diverse strategie incorporando elementi opportuni nelle catene laterali di ammino acidi (naturali o non naturali) per formare, per esempio, ponti a disolfuro o interazioni idrofobiche o legami con metalli di transizione. A questo scopo i sostituenti sono posti tra il residuo i ed il residuo i + 4 della catena peptidica cioè si trovano sullo stesso lato dell’elica e distanziati da un giro di elica (in alfa-elica). Il gruppo di Grubbs ha riportato un elegante metodo per bloccare un eptapeptide in alfa-elica usando una reazione di metatesi tra doppi legami carbonio-carbonio presenti nella catena laterale di due O-allil serine inserite nella sequenza peptidica (Fig. 6) 5. Una delle frontiere della reazione di metatesi di alcheni è la sua applicazione nel generare stereocentri. Per raggiungere questo scopo sono stati applicati due metodi: 1) reazioni diastereoselettive di RCM con catalizzatori achirali su sistemi contenenti centri stereogenici pre-esistenti; Figura 5: Monomero e polimeri preparati nel gruppo della prof. Kiessling usando la reazione ROMP. I polimeri si diversificano per numero di monomeri, variazione di valenza, e per densità, in questo caso introducendo derivati del mannosio e del galattosio in rapporti diversi. 50 Figura 6: Sintesi del peptide-macrociclo a partire dalle sequenze Boc-Val-Ser-Leu-Aib-Val-Ser-Leu-OMe 9 e Boc-ValHse-Leu-Aib-Val-Hse-Leu-OMe 10, dove Hse indica la L-omoserina. 2) reazioni di metatesi enantioselettive di substrati achirali con catalizzatori chirali. Un esempio del primo metodo è la sintesi selettiva innovativa dell’antagonista del recettore NK-1 sviluppato da ricercatori alla Merck 6. Come mostrato in Figura 7 la reazione del derivato della (S)fenilglicina tetraene 15 con il catalizzatore di Grubbs 2 (R = Ph) (4 mol %) in cloroformio a temperatura ambiente porta alla formazione dei due diatereoisomeri 18 e 19 con una resa chimica del 86% e una diastereoselettività del 70%. Si pensa che nel processo maggioritario ci sia la formazione di un anello a 5 membri per generare gli intermedi diidrofurani 16 e 17, che poi danno una seconda più lenta chiusura di anello. La diastereoselettività del processo generale deriva dal primo stadio con la preferenziale ciclizzazione del gruppo O-allile con uno dei due gruppi vinilici in C5 diastereotopici controllata dallo stereocentro adiacente. Dopo separazione del prodotto maggioritario 18 dal composto 19 non desiderato si usa la reazione di Heck, in questo caso altamente chemoregio- e stereoselettiva, per aggiungere il sistema aromatico al C3 dell’anello del dididrofurano ottenendo il composto triciclico 20 che viene trasformato nella struttura del target finale 21 in due stadi. Lo sviluppo di metodologie di sintesi asimmetriche è particolarmente importante per la sintesi totale di prodotti naturali. Le reazioni di metatesi sono state utilizzate in numerosi spettacolari esempi di sintesi totale. In alcuni casi la disponibilità di processi asimmetrici è fondamentale. Il primo esempio di RCM enantioselettiva è stata riportata da Grubbs nel 1996 in una risoluzione cinetica usando un catalizzatore di molibdeno ma i valori di enantiodifferenziazione erano piuttosto Figura 7: Sintesi dell’antagonista del recettore NK-1 via doppia RCM diastereoselettiva e reazione di Heck riduttiva (Merck). 51 bassi (krel < 2.2) 7. Studi in collaborazione tra i gruppi di Hoveyda e Schrock hanno portato alla sintesi di catalizzatori chirali di molibdeno efficienti nelle reazioni di metatesi asimmetriche di alcheni1h 8. Gli esempi di applicazioni nella sintesi di prodotti naturali sono ancora pochi. Un esempio applicato alla sintesi “target-oriented” può dimostrare l’enorme potenzialità di questo processo 9. Il trattamento del diene 22 con il complesso di molibdeno chirale 23 in pentano a temperatura ambiente porta alla sua conversione nella struttura biciclica riarrangiata 24, ottenuta in resa quasi quantitativa (97%) e con una buona enantioselezione (87%). Questa reazione può essere condotta anche ad elevate concentrazioni usando la quantità di solvente strettamente necessaria alla dissoluzione dei reagenti senza ottenere omodimeri. In pochi stati si ottiene il sesquiterpenoide (+)-africanolo 25. Applicazioni nella sintesi di nuovi materiali ibridi formati da nanoparticelle metalliche e polimeri hanno visto la reazione di metatesi (ROMP) utilizzata per la preparazione di una nuova classe di materiali formati da nanoparticelle di oro protette da uno shell polimerico “costruito su misura” 10. A questo scopo sono state preparate nanoparticelle di oro di circa 3.0 nm di diametro protette da un monostrato misto formato da un rapporto 3:1 di 1dodecantiolo e di 1-mercapto-10-(exo-5-norbornen-2-oxy)decane rispettivamente, seguendo la procedura di Brust e Schiffrin 11. La reazione di metatesi del norbornene presente nel monostrato è stata condotta in presenza del catalizzatore commerciale di rutenio 2 (R = Ph) ed è stata monitorata per mezzo della spettroscopia 1H NMR in CDCl3 (Fig. 9). Dopo 10 minuti è stato aggiunto un eccesso (20 equiv. rispetto al catalizzatore) del complesso redox-attivo 26 che porta alla formazione di un primo shell polimerico. Dopo 30 minuti la polimerizzazione è completa (non ci sono più i segnali del monomero 26) e per la terminazione è stato aggiunto un eccesso di etil vinil etere. In alternativa, è possibile aggiungere un secondo monomero, prima della terminazione, per creare un secondo shell intorno al primo e questo è stato realizzato con il composto 27. La presenza dei gruppi elettro-attivi consente di quantificare, con misure di voltametria ciclica, i monomeri 26 e 27 presenti nel polimero che avvolge le nanoparticelle di oro. Questa strategia può essere estesa ad altre nanoparticelle metalliche o di materiali semiconduttori per applicazioni in chimica e biochimi- Figura 8: Reazioni di metatesi consecutive di chiusura e apertura di anello nella sintesi enantioselettiva del (+)-africanolo. 52 Figura 9. Sintesi di nanoparticelle di oro protette da due shells polimerici ancorati sulla superficie di oro. Martin SF. Synthesis of oxygen- and nitrogen-containing heterocycles by ring-closing methatesis. Chem Rev 2004;104:2199-238. (e) Piscopio AD, Robinson JE. Recent applications of olefin methatesis to combinatorial chemistry. Curr Opin Chem Biol 2004;8:245-54. (f) Connon SJ, Blechert S. Recent developments in olefin cross-methatesis. Angew Chem Int Ed 2003;42:1900-23. (g) Leeuwenburgh MA, van der Marel GA, Overkleeft HS. Olefin methatesis in glicobiology: new routes towards diverse neoglycoconjugates. Curr Opin Chem Biol 2003;7:757-65. (h) Schrock RR, Hoveyda AH. Molybdenum and Tungsten Imido Alkylidene complexes as efficient olefin-methatesis catalysts. Angew Chem Int Ed 2003;42:4592-633. (i) Trnka TM, Grubbs RH. The development of L2X2Ru=CHR olefin methatesis catalysts: an organometallic success story. Acc Chem Res 2001;34:18-29. (l) Fürstener A. Olefin methateis and beyond. Angew Chem Int Ed 2000;39:3012-43. (m) Grubbs RH, Chang S. Recent advances in olefin methatesis and its application in organic synthesis. Tetrahedron 1998;54:4413-50. (n) Schuster M, Blechert S. Olefin methatesis in organic chemistry. Angew Chem Int Ed Engl 1997;36:2036-56. ca e può essere sfruttato per incorporare nanoparticelle in altri materiali polimerici e formare superstrutture organizzate di nanoparticelle. CONCLUSIONI L’esplosione di conoscenze e applicazioni della reazione di metatesi negli ultimi 10 anni è senza precedenti. Nonostante gli incredibili progressi raggiunti ci sono ancora delle limitazioni da superare. Queste lacune comprendono la piuttosto scarsa possibilità di prevedere e di controllare il rapporto E/Z dei prodotti olefinici (ad eccezione dei più comuni e piccoli idrocarburi ciclici) e la quantità, in alcuni casi piuttosto grande, di catalizzatore necessario per portare a completamento la reazione. Inoltre, è necessario trovare nuovi catalizzatori chirali più efficienti e pratici per processi di catalisi asimmetrica. Sicuramente il successo raggiunto da questa classe di reazioni vedrà nei prossimi anni il raggiungimento di nuovi traguardi e la soluzione di alcuni dei problemi citati e consentiranno applicazioni ancora più spettacolari. 2 BIBLIOGRAFIA 1 Alcune reviews recenti: (a) Nicolau KC, Bulger PG, Sarlah D. Metathesis Reactions in Total Synthesis. Angew Chem Int Ed 2005;44:4490-527. (b) Amblard F, Nolan SP, Agrofoglio LA. Methatesis strategy in nucleoside chemistry. Tetrahedron 2005;61:7067-80. (c) Grubbs RH. Olefin methatesis. Tetrahedron 2004;60:7117-40. (d) Deiters A, 53 (a) Natta G, Dall’Asta G, Mazzanti G, Mortoni G. Stereospecific polymerization of cyclobutene. Makromol Chem 1963;69:163-79. (b) Natta G, Dall’Asta G, Mazzanti G. Stereospecific hompolymerzation of cyclopenene. Angew Chem (English) 1964;3:723-9. (c) Natta G, Dall’Asta G, Bassi IW, Carella G. Stereospecific ring cleavage homopolymerization of cycloolefins and structural examination of the resulting homologous series of linear crystalline trans-polyalkenamers. Makromol Chem 1966;91:87-106. 3 4 5 6 Enantioselective Synthesis of NK-1 Antagonists. Org Lett 2001;3:671-4. Herisson J-L, Chauvin Y. Catalysis of olefin transformations by tungsten complexes. II. Telomerization of cyclic olefins in the presence of acyclic olefins. Makromol Chem 1971;141:161-76. (a) Gestwicki JE, Strong LE, Cairo CW, Boehm FJ, Kiessling LL. Cell aggregation by scaffolded receptor clusters. Chem Biol 2002;9:163-9. (b) Cairo CW, Gestwicki JE, Kanai M, Kiessling LL. Control of multivalent interactions by binding epitope density. J Am Chem Soc 2002;124:1615-9. (c) Gestwicki JE, Kiessling LL. Inter-receptor communication through arrays of bacterial chemreceptors. Nature 2002;415:81-4. (d) Gestwicki JE, Cairo CW, Strong LE, Oetjen KA, Kiessling LL. Influencing Receptorligand binding mechanism with multivalent ligand architecture. J Am Chem Soc 2002;124:14922-33. Receptor 7 Fujimura O, Grubbs RH. Asymmetric Ring-Closing Metathesis: Kinetic Resolution Catalyzed by a Chiral Molybdenum Alkylidene Complex. J Am Chem Soc 1996;118:2499-500. 8 Alexander JB, La DS, Cefalo DR, Hoveyda AH, Schrock RR. Catalytic Enantioselective Ring-Closing Metathesis by a Chiral Biphen-Mo Complex. J Am Chem Soc 1998;120:4041-2. 9 Weatherhead GS, Cortez GA, Schrock RR, Hoveyda AH. Mo-catalyzed asymmetric olefin metathesis in target-oriented synthesis: Enantioselective synthesis of (+)-africanol. Proc Natl Acad Sci USA 2004;101:5805-9. Blackwell HE, Grubbs RH. Highly efficient synthesis of covalently cross-linked peptide helices by ringclosing methatesis. Angew Chem Int Ed 1998;37:3281-4. 10 Watson KJ, Zhu J, Nguyen SBT, Mirkin CA. Hybrid Wallace DJ, Goodman JM, Kennedy DJ, Davies AJ, Cowden CJ, Ashwood MS, et al. A Double Ring Closing Metathesis Reaction in the Rapid, Synthesis of thiol-derivatised gold nanoparticles in a twophase liquid-liquid system. J Chem Soc Chem Commun 1994:801-2. nanoparticles with block copolymer shell structures. J Am Chem Soc 1999;121:462-3. 11 Brust M, Walker M, Bethel D, Schiffrin DJ, Whyman R. 54 POLYMERS ABROAD L’ASSOCIAZIONE BRASILIANA DEI POLIMERI: UN’INASPETTATA E CONSOLIDATA REALTÀ di Roberto Filippini Fantoni Chi di noi sente parlare di Brasile pensa subito a foreste immense, spiagge incantevoli, degradanti favelas, samba, carnevale e mulatte mozzafiato e poco conosce della realtà di quell’immenso paese (il quinto al mondo per estensione). Sono gli stereotipi che ogni paese porta con sé. A noi italiani fa rabbia quando il nostro bel paese è ricordato per pizza, canzoni napoletane e mafia, ma questa è la realtà alla quale bisogna, volenti o nolenti, adeguarsi. Anche se in fondo le persone con un minimo di cultura sanno che l’Italia è ben altro che pizza, mafia e mandolino, di primo acchito sono queste le cose che saltano alla mente. Per uno come me che del Brasile ha fatto la sua seconda patria dovrebbe essere implicito il fatto che questo immenso paese sia una fucina di sorprese e che il suo sviluppo industriale sia qualcosa di assolutamente inimmaginabile. Eppure, anche dopo oltre vent’anni di frequentazioni gialloverdi, non ho ancora finito di meravigliarmi. Ultimamente è stato il Congresso dell’Associazione Brasiliana dei Polimeri, l’esatto equivalente della nostra AIM, a destare in me meraviglie e a farmi capire quanto grande sia la forza dell’industria brasiliana dei polimeri e quanto sviluppata sia la ricerca universitaria in questa disciplina. Ma andiamo con ordine. Per una fortuita serie di circostanze mi sono trovato Invited Guest all’8° Congresso della Associação Brasileira de Polímeros (in breve ABPol) che si svolgeva dal 6 al 10 novembre a Lindoia, un’amena località termale a 170 km da São Paulo, proprio al confine tra lo stato di São Paulo e quello di Minas Gerais. Di invitati italiani al momento del mio ingaggio c’era solo il prof. Luigi Costa dell’Università di Torino che doveva tenere una delle Main Lectures. Dopo di me si è aggiunto alla comitiva italiana anche il prof. Giuseppe Di Silvestro, dell’Università di Milano e che in AIM non ha certo bisogno di presentazioni. Decisi, tramite le conoscenze brasiliane, di contattare il Direttore della loro rivista, che, tra l’altro, si chiama “Polímeros – Ciência e tecnologia” e festeggiava nel 2005 il suo quindicesimo anno di vita. Il personaggio, Silvio Manrich, si dimostrò quello giusto per avere notizie sull’Associazione. Infatti oltre ad essere stato uno dei soci fondatori ne è stato presidente per più mandati e di quella realtà conosceva ogni minimo particolare. Che l’ABPol fosse qualcosa di realmente importante ce lo disse subito il numero di iscritti al Congresso (più di 700), il numero di articoli presentato e l’immensità della sezione posters. I lavori presentati sono stati parecchie centinaia di cui 456 nelle due sezioni posters che si sono alternate nel corso della settimana; poi 7 Main Lectures e ben 83 presentazioni orali, divise tra interventi da 20 minuti e altri da 40 minuti. Come potete vedere si tratta di “grandi numeri” che solo un paese industrialmente avanzato e con 180 milioni di abitanti, la maggior parte dei quali insediati in grandissime città e in zone industriali, può dare. E la qualità degli interventi era mediamente buona, con i soliti alti e bassi tipici anche dei nostri Congressi AIM. L’organizzazione è stata eccellente e lì noi italiani dovremmo proprio imparare. Innanzitutto c’era una sala di incontri con parecchi tavoli e che aveva disponibili tre computer collegati a internet. Per coloro che erano muniti di portatile c’era una saletta con due cavi ethernet a disposizione. Per i più avanzati, che possedevano anche il sistema 55 wireless, ci si poteva piazzare in qualsiasi posto della sala per essere collegati a Internet. Insomma qualcosa da imparare e copiare per il prossimo congresso, visto che a Napoli per connettermi a internet con il mio portatile ho dovuto “scocciare” una gentile signora che lavorava in uno degli uffici del primo piano. E a proposito di organizzazione dobbiamo dire che per tutti i partecipanti al congresso erano previste, a modica spesa, pranzi e cene con buffet assai ricchi. Per non parlare della serata ufficiale quando dopo la cena tutti indistintamente, professori, ricercatori, studenti, si sono lanciati in balli di ogni genere che andavano dal samba al forró, una danza originaria del nord-est del Brasile, tornata prepotentemente alla ribalta alcuni anni or sono e che da allora tiene banco. Al confronto le nostre serate ufficiali al Congresso AIM sono mesti incontri di pensionati! Ma il Brasile è questo e quando comincia la musica davvero … comincia la festa! Con Silvio Manrich organizzai un incontro per capire come tutta l’organizzazione dell’ABPol funzionava. Se prima di quell’incontro potevo avere solo sospetti sulla forza di questa associazione, dopo aver sentito la sua storia e la sua organizzazione i sospetti si sono tramutati in certezze e ho capito qual è il peso dell’intervento dell’industria brasiliana a questi livelli. Esattamente l’opposto di AIM che ormai da anni fatica ad avere l’appoggio della grande industria petrolchimica e dei polimeri, sempre che si possa trovare da noi una grande industria italiana degna di tale nome. L’ABPol ha solo 17 anni di vita e quindi poco più della metà di AIM. È costituita da un Consiglio Direttivo formato da 28 membri. Sei di questi sono eletti dai Soci Patrocinatori ognuno dei quali può proporre un solo nome. Gli altri 22 sono Soci Collettivi e Soci Individuali, che si candidano, restano in carica quattro anni, ma ogni due anni se ne sostituiscono 14, di cui 3 eletti dai Soci Patrocinatori e 11 dai Soci Collettivi e Soci Individuali. I 14 eletti nel 2005 provengono per metà dall’industria (Petrobras, Ciba, Polibrasil, Rhodia, Braskem, General Electric Plastic per segnalarvi le provenienze di quelli in carica) – e non sono industrie di poco conto – e per metà da università e centri di ricerca. Ma vediamo quanti tipi di soci sono previsti dallo statuto. I Soci Patrocinatori sono soci industriali o istituzionali che con quote per altro modeste entrano a far parte di questa categoria (5.000 R$/anno e cioè circa 1.800 €). Hanno diritto a cinque rappresentanti che ricevono la Rivista e altre pubblicazioni che l’Associazione edita. I Soci Collettivi entrano con una quota di 1.500 R$/anno (circa 500 €) e hanno diritto a tre rappresentanti. I Soci Individuali sono 450 e pagano circa 85 R$ (~ 30 €) e ricevono la Rivista e hanno sconti per gli eventi organizzati da ABPol (esattamente come per i nostri soci AIM). Poi ci sono i soci Junior che sono generalmente studenti per i quali il costo di associazione è quasi simbolico (25 R$ – meno di 10 €). Infine ci sono due Soci Onorari. Uno è lo stesso Silvio Manrich, socio fondatore, presidente per diversi mandati e ora direttore della Rivista. L’altro è la famosissima Eloísa Biasoto Mano, un’istituzione dei polimeri brasiliani e autrice di parecchi libri, in onore della quale nel 2004 l’ABPol ha fatto uscire un’edizione straordinaria della rivista. A proposito di questa famosa Professoressa, posso dire che ho avuto l’opportunità di conoscerla, grazie alla sua amicizia con il prof. Mario Farina. La contattai e nel 1994 mi invitò a fare un seminario all’Università Federale di Rio de Janeiro. Tornando al Consiglio Direttivo, dobbiamo dire che i suoi membri scelgono i nove membri che comporranno la Direzione vera e propria. È sempre il Consiglio che poi, su proposta della Direzione, sceglie il Presidente. Quest’anno per la prima volta è stata scelta una donna (in AIM capitò con Gianna Costa nel 2001) e cioè la professoressa Raquel S. Mauler dell’Università Federale del Rio Grande do Sul, una zona del Brasile dove l’etnia sassone e in particolare germanica è assai diffusa e il nome stesso della Professoressa lo sta chiaramente ad indicare. Per la scelta del Consiglio Direttivo, sei mesi prima della scadenza si invia a tutti i soci una lettera che ricorda di segnalare i nomi dei candidati. Si prepara una lista con due gruppi (3 + 11 come spiegato in precedenza). Si invia la lista via E-mail a tutti i soci i quali possono scegliere 3 nomi della prima lista e 11 nomi della seconda. Il Consiglio Direttivo al completo (28 persone) scrutina i voti. A scrutinio avvenuto si convocano i 14 nuovi eletti e i restanti 14 del precedente consiglio che avevano solo due anni di anzianità. In questo modo si garantiscono rappresentanze dei patrocinatori e si dà continuità al lavoro del Consiglio Direttivo che mantiene metà dei membri in servizio. Ai 28 consiglieri si aggiungono due Direttori Regionali (Est e Sud). Il Consiglio Direttivo nomina la Direzione e, su proposta di quest’ultima, il Presidente e il suo vice. Normalmente i nove membri della Direzione provengono 4 dall’industria e 5 dall’Università o Enti 56 Statali: anche se questa non è una regola statutaria, quasi mai è stata elusa. Come vedete un’organizzazione molto estesa nella quale l’industria gioca un ruolo importante e quindi ha interesse a parteciparvi e a contribuire economicamente come socio patrocinatore, vista tra l’altro l’abbordabilissima quota richiesta (5.000 R$/anno). Interessanti e da imitare sono le elezioni via internet su una rosa di candidati ampie. Infatti le elezioni del CD del AIM si fa sempre con troppo pochi partecipanti e la scelta è fatta dopo incontri da parrocchietta tra pochi intimi. Di questo in AIM se ne sono accorti da tempo tanto che si sta pensando a una modifica delle procedure e la votazione via internet sembra essere una di quelle più papabili. Per la Rivista “Polímeros – Ciência e Tecnologia” l’organizzazione è ancora più complessa. Il Consiglio Editoriale della stessa è composto da 30 membri più un Presidente. Qui l’apporto dell’università è decisamente maggiore e dei 30 al momento solo quattro provengono dall’industria. C’è poi un Comitato Editoriale composto da 9-10 membri con un proprio Presidente. Esistono poi tre comitati tecnico-scientifici: Reologia e processo, Riciclaggio, Caratterizzazione e sviluppo materiali. Tali comitati si riuniscono circa ogni 3 mesi e ne fanno parte esperti che non necessariamente devono essere soci di ABPol. Le commissioni organizzano un seminario collettivo rivolto in modo totale all’industria. Il seminario si sviluppa su due giornate. La Segreteria e la Direzione organizzano poi una decina di Corsi e ogni Direttore ha un compito specifico. La Rivista esce ogni 3 mesi (marzo, giugno, settembre e novembre), Nell’ultimo numero dell’anno si pubblica la lista di tutti gli articoli pubblicati durante l’annata. Quello che mi ha sorpreso è il buonissimo livello scientifico e tecnologico degli articoli ma dopo che mi hanno spiegato come vengono scelti ho capito anche il perché. Infatti ogni articolo viene sottoposto al Comitato Editoriale il quale, in base agli argomenti trattati sceglie 3 tra i 187 consulenti a disposizione della rivista per un’analisi del lavoro presentato; ovviamente sono tre persone esperte dell’argomento trattato. Il risultato di questo esame può tramutarsi in: a) accettazione del lavoro così come è presentato (cosa che avviene raramente); b) accettazione con poche correzioni; c) accettazione con molte correzioni; d) ricusazione. La decisione di ricusazione può non essere accettata dal Comitato Editoriale che in tal caso rimanda il lavoro agli esperti per una rivalutazione. I casi di ricusazione del lavoro non sono pochi (nel 2002, anno in cui sono stati presentati molti lavori, 33 su 92 sono stati ricusati) e per la maggior parte dei pubblicati è stato fatto un notevole lavoro di correzione e riadattamento. Ovviamente il taglio degli articoli è del tipo classico delle maggiori riviste scientifiche di polimeri e completamente diverso dal quello che il nostro Magazine dà soprattutto con Polymer&Life. Ne ho parlato con Manrich che ha preso visione di qualche numero del nostro Magazine ed è stato favorevolmente sorpreso dall’impostazione, tant’è che abbiamo deciso di proporre ai rispettivi Comitati Editoriali di scambiarci un articolo all’anno. Ho saputo poi che nel caso di libri in uscita che trattino l’argomento polimeri tutti gli Autori chiedono a ABPol di valutarli e se il libro viene giudicato interessante il Presidente della ABPol scrive un editoriale di presentazione dello stesso. I soci ABPol possono acquistare il volume con il 30% di sconto. Come potete chiaramente capire da quanto appena relazionato, questi tipi di incontri e di scambi di vedute servono a migliorarsi e a prospettare modifiche costruttive. Era proprio lo scopo per il quale ho voluto quell'incontro con l’Associazione Brasiliana dei Polimeri e mi pare che i risultati ottenuti possano considerarsi positivi. 57 INTELLECTUAL PROPERTY MONITOR IL RISCHIO DI UNA FAMA ECCESSIVA di Antonella Scotton* Finora in questa rubrica ci siamo dedicati esclusivamente al più tecnico dei diritti di proprietà intellettuale: il brevetto per invenzione industriale. Esistono peraltro altre forme di diritti esclusivi ed in questo numero ci occupiamo di quello che, insieme al brevetto per invenzione, può essere considerata a buona ragione uno dei due pilastri di questa disciplina: il marchio. Ringrazio Antonella Scotton per aver accettato di fornire quest’utile ed interessante contributo alla rubrica basato sulla sua esperienza di marchi nel settore delle materie plastiche, maturata tra l’altro all’interno del gruppo Basell Polyolefins. qualità stessa dei prodotti sui quali il marchio è apposto. Sono, dunque, dei potenti catalizzatori di clientela. Più il marchio si radica sul mercato e maggiore è il valore che acquisisce per il suo titolare. Esistono alcuni casi dove il valore economico dell’azienda si basa di fatto in modo esclusivo sul valore del marchio sul mercato. È il fenomeno delle c.d. “brand companies”, particolarmente diffuso nel settore della moda e dei beni di lusso, ma anche nel settore dell’abbigliamento e dello sport (una citazione per tutti è l’americana Nike, brand-company per eccellenza). Quando un marchio viene registrato, generalmente (esistono alcune sporadiche eccezioni dovute alle diverse normative nazionali) dura 10 anni e, previo pagamento delle relative tasse, può essere rinnovato indefinitamente per ulteriori periodi di dieci anni. Un esempio per tutti è il marchio “CocaCola” che fu per la prima volta registrato alla fine del 1800 ed è tuttora in vigore. Nella nostra vita di tutti i giorni il marchio ha assunto un ruolo sempre più importante e visibile. Ovunque siamo circondati da marchi, dal supermercato ai cartelloni stradali, dalle riviste alla televisione, tutti propongono e promuovono i propri marchi: ma – al di là degli addetti ai lavori – la funzione che svolge il marchio, da un punto di vista sia giuridico che economico è probabilmente poco conosciuta. Ma che cos’è un marchio? Giuridicamente, un marchio è un segno in grado di essere rappresentato graficamente (in particolare parole, disegni, ma anche lettere, numeri e pure suoni o colori possono essere registrati come marchio) che sia idoneo a distinguere i prodotti ed i servizi di un’impresa da quelli di altre imprese. Di regola, i diritti derivanti dal marchio si ottengono tramite la registrazione: in particolare, la registrazione conferisce al titolare il diritto esclusivo all’uso ed allo sfruttamento economico del proprio marchio e parallelamente di vietare usi non autorizzati da parte di terzi. I marchi sono formidabili strumenti di marketing ma anche e soprattutto un asset da proteggere. Non solo identificano i prodotti di una data azienda sul mercato ma incarnano e simbolizzano la * LUNGA VITA AL MARCHIO, SE NON SE NE ABUSA A differenza di altri diritti in proprietà industriale (quali brevetti e modelli di utilità o disegni orna- European Trademark Attorney, Zanoli & Giavarini, Intellectual Property, Milano www.ipeuro.com 58 mentali) il marchio ha quindi un’ulteriore caratteristica che lo rende particolarmente attraente: infatti, una volta registrato, un marchio può essere mantenuto in vita per un periodo illimitato di tempo, purché alcune semplici regole vengano rispettate. In particolare, l’uso o l’abuso dei marchi da parte di terzi non deve venir tollerato, ma anzi combattuto e il marchio deve essere effettivamente e correttamente usato da parte del titolare. Queste minime regole si impongono per evitare che il marchio possa perdere la propria capacità distintiva e diventare così un’indicazione generica del prodotto, appropriabile pertanto anche da altri. Molto importante, anche se a volte poco compresa, è la regola che riguarda l’uso “corretto” dei marchi e a questo riguardo vorremmo proporre una piccola case-history che riguarda da vicino il settore delle materie plastiche. IL distinguere uno specifico materiale prodotto da una specifica azienda, ma per indicare, indistintamente, tutti i prodotti di quel genere. Questo passaggio inverso da “species” a “genus” è il primo ben noto sintomo del processo di volgarizzazione. La disfatta si ebbe nel 1936, quando DuPont fece causa a Sylvania per aver commercializzato un plastic wrap utilizzando il nome cellophane. Sylvania si difese sostenendo che, poiché non esisteva alcun altro sinonimo per quel tipo di materiale, cellophane non poteva essere considerato come un marchio, ma doveva considerarsi come un termine generico e quindi di libero utilizzo. DuPont perse la causa poiché il tribunale ritenne che la società non avesse sufficientemente protetto il proprio marchio, tracciando una netta linea di confine tra il prodotto commercializzato come cellophane e l’equivalente prodotto generico. Nel 1935 la DuPont concepì un polimero dalle caratteristiche del tutto nuove, destinato a diventare una di quelle invenzioni che ora chiamiamo breakthrough. A questo nuovissimo prodotto, di cui non esistevano precedenti sul mercato, la DuPont impose il nome, pure esso innovativo, di nylon e ne iniziò la commercializzazione nel 1938, anche se il vero e proprio boom commerciale arrivò nel 1940, quando il nylon venne utilizzato per la produzione di calze da donna. Memore dell’insuccesso avuto con il cellophane, la DuPont decise di non proteggere il nome nylon come marchio e di lasciare che divenisse un nome generico, appropriabile da tutti. Una scelta assolutamente drastica e forse senza precedenti, ma che parla da sola di come la volgarizzazione del marchio cellophane avesse portato un duro colpo – di immagine ed economico – alla società americana. Nel settore delle materie plastiche la volgarizzazione – che spesso studiamo sui testi come un caso di scuola – è un evento che si è verificato con un’incidenza molto maggiore che in altri settori, proprio per l’alta propensione di questo settore a giungere sul mercato con prodotti assolutamente nuovi e senza precedenti nel loro genere. La volgarizzazione è di norma un evento geograficamente circoscritto anche perché si tratta di un fenomeno che attiene alla sfera della comunicazione e del linguaggio è che è quindi in larga parte imputabile al pubblico, cioè ai consumatori di quello specifico tipo di bene. Un caso emblematico è quello dell’Aspirina, marchio non volgarizzato in Europa ma volgarizzato negli USA, dove da decenni il termine viene utilizzato in modo assolutamente generico e non viene associato dal pubblico al prodotto originale della Bayer. TROPPO SUCCESSO PUÒ NUOCERE: IL CASO CEL- LOPHANE ED ALTRI ANCORA Il settore delle materie plastiche ha visto molti marchi colpiti dalla volgarizzazione: una delle prime vittime illustri di questo fenomeno fu il cellophane. Il Cellophane fu inventato in Svizzera nel 1912. DuPont ne acquistò i diritti brevettuali per gli USA nel 1923 e cominciò la produzione un anno dopo. Nel 1927 i laboratori di ricerca della DuPont riuscirono a risolvere il problema tecnico legato alla non-permeabilità del film e nel 1927 brevettarono un sistema “moisture-proofing”. Il cellophane costituì una vera e propria rivoluzione per i consumatori e la DuPont utilizzò una campagna pubblicitaria molto aggressiva per aumentare le vendite del prodotto, riuscendoci a tal punto che nel 1939 le vendite di cellophane costituivano il 25% del profitto annuo della società. Ma questo successo commerciale fu fatale al marchio. Cos’era accaduto? Per anni il pubblico era stato abituato a chiamare con il nome cellophane quel particolare prodotto, che non aveva altri termini di paragone sul mercato. Quando altri operatori cominciarono a introdurre sul mercato prodotti analoghi, il pubblico, semplicemente, continuò a designare con il medesimo nome anche i prodotti della concorrenza. Iniziò quindi quel processo che è tecnicamente definito come “volgarizzazione”, e che sta ad indicare la perdita di capacità distintiva, che è uno dei requisiti indispensabili per la validità di un marchio. Paradossalmente, proprio per il fatto di essere il primo prodotto di quel genere ad essere posto sul mercato e per l’assenza di prodotti analoghi, il termine cellophane venne utilizzato non più per 59 propilene inventato in Italia nel 1953, il Moplen (il primo deposito italiano risale al 1957) ebbe alla sua comparsa sul mercato un successo straordinario, grazie specialmente ad una allora famosa campagna pubblicitaria che per alcuni anni ebbe come testimonial Gino Bramieri nei panni dell’“avventuroso casalingo”: il successo immediato ed il fatto che il prodotto pubblicizzato fosse assolutamente nuovo costituivano due fattori pericolosi e la volgarizzazione del marchio era dietro la porta. Tuttavia, rispetto ai marchi nel campo delle materie plastiche, la volgarizzazione ha spesso assunto un connotato particolare, ovvero quello di verificarsi a livello mondiale, probabilmente a causa della natura “globale” del mercato di riferimento. LA RISCOSSA DI DUPONT Un’azienda che, dopo la debacle del cellophane, ha virato a 180° e, sin dagli anni ’70, ha attuato e continua ad attuare una politica di difesa attiva dei propri marchi è proprio DuPont: d’altro canto, parliamo di un gruppo che è da sempre un key player nel settore delle materie plastiche e i cui marchi sono stati frequentemente minacciati dalla volgarizzazione. Uno dei marchi di punta che DuPont per molti anni ha efficacemente protetto da tentativi di volgarizzazione è Lycra. Per Lycra sono state in particolare utilizzate campagne pubblicitarie mirate a sottolineare l’esclusività del prodotto contraddistinto da tale marchio (Lycra è solo di DuPont, si leggeva sulle etichette dei prodotti che hanno tale materiale nella propria composizione). Recentemente, il marchio Lycra è stato ceduto ad INVISTA, società che ha acquisito la Textile & Interior Division di DuPont e con essa una serie di marchi molto noti tra i quali Cordura, Teflon e Tactel, tutti potenzialmente ad alto rischio di volgarizzazione. INVISTA sembra aver adottato una politica diversa da DuPont nella lotta alla volgarizzazione e il tempo ci dirà se questo approccio, che non punta in modo deciso alla differenziazione del marchio, quasi dandone per scontata la notorietà e la capacità distintiva, si mostrerà o meno efficace. MA SIGNORA BADI BEN … CHE SIA FATTO DI Paradossalmente il Moplen riuscì a salvarsi dalla volgarizzazione proprio perché, spenta l’eco della pubblicità, il marchio perse “presa” presso il pubblico generale e continuò ad essere noto solo presso gli addetti ai lavori, dove peraltro continua ad essere un marchio di punta del polipropilene da ormai quasi 50 anni. PIÙ MOPLEN! DIVENTA DI SUCCESSO, PIÙ VA DIFESO La volgarizzazione, se da un lato testimonia l’innegabile successo del prodotto sul mercato, produce conseguenze indubbiamente negative sul piano economico. Infatti, la perdita di capacità distintiva e la progressiva genericizzazione, impediscono al titolare di continuare a fare uso esclusivo del marchio, il che significa non poter capitalizzare l’accreditamento del prodotto presso il pubblico in termini di riconoscibilità, qualità, eccellenza. Come salvarsi dalla volgarizzazione? Occorre sicuramente un comportamento di “difesa attiva” da parte del titolare che deve, come minimo: – diffidare i concorrenti dall’usare il marchio come denominazione generica; – esigere rettifiche sulle pubblicazioni che gli abbiano attribuito tale significato; – pretendere che, qualora il proprio marchio venga inserito come una voce in un dizionario, Finiamo questa breve carrellata con un ultimo esempio, tutto italiano, di marchio che sebbene inizialmente minacciato di volgarizzazione, è stato preservato: il Moplen. Nato come marchio per contraddistinguere il poli- 60 SUL WEB accanto alla stessa appaia chiaramente l’indicazione che si tratta di un marchio; – apporre il simbolo TM o ® accanto al marchio ovvero indicare il marchio con caratteri particolari, ad esempio il corsivo. LA http://www.ets-corp.com/tradenames/pa.htm (indice dei marchi di materiali plastici) http://www.wipo.int/freepublications/en/marks/4 83/ (introduzione ai marchi per non adepti) http://www.wipo.int/freepublications/en/marks/4 50 (idem come sopra) MORALE DELLA STORIA Infine, va detto che talora, nonostante gli sforzi compiuti dalla titolare per evitarlo, la volgarizzazione si verifica comunque, poiché, come detto, siamo di fronte ad un fenomeno dove l’atteggiamento del pubblico gioca un ruolo rilevante e non sempre controllabile. In questi casi il marchio volgarizzato troverà un posto di onore là dove finiscono i marchi prematuramente venuti meno per troppa gloria … nel cimitero dei marchi. 61 DAL MONDO DELLA SCIENZA GLI ITALIANI NEGLI EDITORIAL BOARDS DELLE RIVISTE MACROMOLECOLARI: UN AGGIORNAMENTO È giunta alla redazione una segnalazione di una omissione nell’elenco degli italiani presenti nei board delle riviste del settore macromolecolare: in quelli di Biopolymers e International Journal of Biological Macromolecules, infatti, compare Evaristo Peggion. Scusandoci con Evaristo per la dimenticanza, prendiamo atto di questa segnalazione e ripubblichiamo la tabella 1 dell’articolo di Riccardo Po’ su AIM Magazine, Vol. 60, n. 2-3/2005, pag. 53 opportunamente integrata ma dalla quale abbiamo tolto, elencandole a fine tabella, le riviste senza italiani nei board. Il Comitato Editoriale Riviste macromolecolari Membri Totali* Rivista Biopolymers Italiani E. Peggion Designed Monomers and Polymers 34 G. Galli European Polymer Journal 43 G. Camino International Journal of Biological Macromolecules E. Peggion Journal of Applied Polymer Science 70 G. Carpaccio, L. Nicolais Journal of Inorganic and Organometallic Polymers 34 C. Carlini, M. Gleria Journal of Macromolecular Science - Physics 34 G. Zerbi Journal of Polymers and the Environment 28 C. Bastioli, E. Chiellini Macromolecular Chemistry and Physics 53 V. Busico, G. Galli Macromolecular Rapid Communications 53 V. Busico, G. Galli Macromolecular Theory and Simulation 25 M. Vacatello Macromolecules 38 C. DeRosa Polymer 91 F. Ciardelli, C. De Rosa * Sono stati conteggiati tutti i componenti, a vario titolo, dei board 62 Polymers for Advanced Technologies 64 G. Allegra, F. Ciardelli Polymer Bulletin 27 F. Ciardelli Polymer Degradation and Stability 21 G. Camino, E. Chiellini, F.P. La Mantia, G. Montaudo Polymer International 48 L. Ambrosio, F. Ciardelli, G. Montaudo Polymer Journal 40 G. Allegra Polymer Technology 27 E. Martuscelli Non sono presenti italiani nei board delle seguenti riviste (tra parentesi i membri totali nei board): Cellular Polymers (14), Journal of Elastomers and Plastics (8), Journal of Macromolecular Science Polymer Reviews (20), Journal of Macromolecular Science - Pure and Applied Chemistry (49), Journal of Polymer Science - Polymer Chemistry (55), Journal of Polymer Science - Polymer Physics (57), Macromolecular Bioscience (25), Macromolecular Materials and Engineering (26), Polymer Engineering and Science (23), Polymer Testing (16), Progress in Polymer Science (30). 63 POLIMERI E … SOCIETÀ R & S IN ITALIA, DATI ISTAT 2003-2005: TRA SCILLA E CARIDDI di Mariano Pracella * Sul sito web dell’Istat (www.istat.it) sono recenteIn generale, secondo l’Istat, la diminuzione delle mente apparsi i risultati delle rilevazioni statistiche spese delle imprese per R&S contribuisce alla consu Ricerca e Sviluppo intra-muros in Italia per gli tinua contrazione della spesa totale in R&S già in anni 2003 (consuntivo) e 2004-2005 (preventiatto da alcuni anni nel nostro paese: il contributo vo), riferite alle imprese, amministrazioni pubblidelle imprese scende infatti dal 50% del 2000 al che e istituzioni private. Riportiamo qui in breve i 47,3% del 2003. Questo dato si pone in netto conrisultati principali di questa indagine, esaminando trasto con l’andamento rilevato per i principali sia i dati relativi alle spese per R&S che quelli relapaesi UE, dove la quota di spesa del settore privativi al personale addetto. to supera mediamente il 60% e, nel caso di paesi Per il 2003, la spesa totale nazionale (14.769 nordici, raggiunge anche valori del 70%! Ne conmilioni di euro), incluse le università e le istituziosegue che, secondo l’Istat, “la tenuta del sistema ni private no-profit, è aumentata dell’1,2% circa in nazionale della R&S è garantita dalle amministratermini monetari (-1,7% in termini reali), con un zioni pubbliche e, soprattutto, dalle università (per netto rallentamento rispetto alla crescita registrata le quali la spesa è cresciuta in media del 10% tra il nei tre anni precedenti. L’incidenza percentuale 2000 e il 2003)”. della spesa per R&S sul Prodotto Interno Lordo Ma, considerando il rallentamento osservato nel (PIL) risulta pari all’1,14% con una riduzione, se 2003 anche per tutto il settore pubblico, sorgono pur contenuta, rispetto all’1,16% del 2002. naturalmente seri dubbi circa la “tenuta” del sisteAnalizzando le spese per comparti, si nota che la ma ricerca complessivo nei prossimi anni senza spesa intra-muros, rispetto al 2002, cresce nelle un’inversione di tendenza negli investimenti privati. università (+ 4,3%) e nelle amministrazioni pubbliAnalizzando più in dettaglio i dati per le imprese, il che (+ 0,7%), mentre diminuisce nelle imprese (72,7% della spesa per R&S è sostenuto dalle gran1,1%) e rimane quasi costante per gli Enti Pubblici di imprese (con almeno 500 addetti), mentre le di Ricerca (EPR) (- 0,1%). piccole imprese (con meno di 50 addetti) contriLe imprese svolgono il 47,3% dell’attività nazionabuiscono solo per 5,1%. Nella distribuzione delle le di R&S, seguite dalle università (33,9%), dagli spese secondo il settore in cui le imprese svolgoEPR (14,3%) e dalle altre istituzioni pubbliche e no la loro attività economica “prevalente”, nel private non-profit (4,3%). 2003 i livelli di spesa maggiori sono stati raggiunConsiderando le imprese, le istituzioni pubbliche e ti nel settore della fabbricazione di apparecchiatuquelle non-profit, la spesa effettuata nel 2003 re radiotelevisive e per telecomunicazioni (913 riguarda prevalentemente la ricerca applicata Meuro), dei prodotti chimici e farmaceutici (819 (48,5%), seguita dalle ricerche per sviluppo speriMeuro), delle macchine e apparecchi meccanici mentale (35,4%) e dalla ricerca di base (16,1%). (802 Meuro), degli autoveicoli (723 Meuro) ed Per quest’ultima permane un andamento crescenaltri mezzi di trasporto (706 Meuro). Questi settote (+ 13,1% rispetto al 2002), in particolare nelle ri – “produttori” di R&S – rappresentano complesamministrazioni pubbliche, mentre verrebbe consivamente circa il 66% della spesa per R&S delle fermata la tendenza degli enti pubblici di ricerca a imprese italiane. D’altro lato se si considerano i limitare la ricerca applicata (-12,0%) e a incresettori “utilizzatori” di servizi R&S, forniti da altri, si mentare lo sviluppo sperimentale (+ 19,8%). trovano quelli della componentistica elettronica * Istituto per i Materiali Compositi e Biomedici, CNR, Pisa 64 (497 Meuro), delle gomme e plastiche (408 Meuro), l’agro-alimentare (224 Meuro), le costruzioni e il tessile. Per quanto riguarda il personale complessivamente impegnato in R&S (ricercatori, tecnici e personale di supporto, espressi in “equivalenti tempo pieno”) i dati 2003 indicano una situazione recessiva con una flessione generale dell’1,3% rispetto al 2002, anno che aveva invece mostrato un andamento di forte crescita. L’Istat attribuisce tale riduzione di personale prevalentemente al ridimensionamento dell’impegno delle imprese nella R&S (3,2% di personale, - 4,1% di ricercatori), mentre la riduzione è più contenuta per le università (- 1,5% di personale, - 1,9% di ricercatori). In tendenza opposta sia le amministrazioni pubbliche (+ 1,7% di personale, + 3% di ricercatori) che le istituzioni non-profit (+ 26,5% di ricercatori) registrano un aumento dell’occupazione. Comunque, anche per le imprese si registra una crescita del personale di ricerca in alcuni settori prevalenti, come il settore delle comunicazioni, dei mezzi di trasporto e dei servizi pubblici. Un altro importante aspetto del consuntivo 2003 è quello relativo all’analisi delle spese per R&S a livello regionale. La quasi totalità della spesa delle imprese (89,9%) resta concentrata nell’Italia settentrionale e centrale (di cui 30,9% in Lombardia, 19,3% in Piemonte, 11,7% in Emilia-Romagna), mentre il Mezzogiorno contribuisce per il 10,1% del totale nazionale. Diversamente, la quota di spesa del Mezzogiorno diventa significativa nel settore pubblico (15,3%) e nelle università (28,3%). Tre regioni – Lazio, Piemonte e Lombardia – si contendono il primato delle attività per R&S assorbendo complessivamente il 59,8% della spesa delle imprese e il 63,2% di quella delle amministrazioni pubbliche. Per quanto riguarda la distribuzione regionale del personale per R&S, si registra un netto aumento al sud con il 20,2% del totale (in particolare dovuto all’incremento di addetti nelle università e nelle istituzioni non-profit), a fronte del 18,8% di personale presente nel Lazio e del 18,2% in Lombardia. I dati di previsione 2004-2005 riguardanti le spese per R&S dei vari comparti (esclusa l’università) mostrano alcune significative inversioni di tendenza, con aspetti alquanto incoerenti: le spese per le imprese risultano in aumento rispettivamente del 7,5% nel 2004 e del 5,1% nel 2005, mentre quelle delle pubbliche amministrazioni sono in diminuzione del 9,5% nel 2004 e in aumento dell’1,6% nel 2005. In conclusione, pur nella complessità del quadro che emerge dalle rilevazioni statistiche si possono evidenziare alcuni aspetti fondamentali: – l’impegno decrescente di spesa totale per R&S, con valori di incidenza sul PIL che permangono ben al di sotto della media europea; – la diminuzione di investimenti e di personale per R&S da parte delle imprese con le gravi conseguenze che ne derivano allo sviluppo produttivo del paese; – la situazione di stallo che si registra nelle istituzioni pubbliche e nelle università soprattutto per quanto riguarda l’occupazione e i processi di formazione del personale di ricerca (le previsioni per il 2005 appaiono troppo ottimistiche); – la scarsa attenzione rivolta al ruolo della ricerca fondamentale (anche in campo industriale) e all’innovazione tecnologica in settori strategici; – il divario ancora ampio esistente tra Nord e Sud in merito allo sviluppo imprenditoriale e alla situazione occupazionale nel campo della ricerca e settori collegati. QUO VADIMUS? NOTE INFORMATIVE L’attività di Ricerca e Sviluppo viene definita dal Manuale di Frascati (1964) dell’Ocse come quel complesso di lavori creativi intrapresi in modo sistematico sia per accrescere l’insieme delle conoscenze (inclusa la conoscenza dell’uomo, della cultura e della società), sia per utilizzare tali conoscenze in nuove applicazioni. Essa viene distinta in tre tipologie: Ricerca di base: lavoro sperimentale o teorico intrapreso principalmente per acquisire nuove conoscenze sui fondamenti dei fenomeni e dei fatti osservabili, non finalizzato ad una specifica applicazione. Ricerca applicata: lavoro originale intrapreso al fine di acquisire nuove conoscenze e finalizzato anche e principalmente ad una pratica e specifica applicazione. Sviluppo sperimentale: lavoro sistematico basato sulle conoscenze esistenti acquisite attraverso la ricerca e l’esperienza pratica, condotta al fine di completare, sviluppare o migliorare materiali, prodotti e processi produttivi, sistemi e servizi. Relativamente alle imprese, la rilevazione viene svolta su un campione effettivo di 24.000 imprese. Il campione è composto da tutte le imprese italiane con almeno 100 addetti e da tutte le imprese che, a prescindere dalla loro dimensione, risultino nelle condizioni di poter avere svolto attività di R&S nel corso dell’anno di riferimento (circa 3.400 imprese nel 2003). Analogamente, vengono individuati gli Enti pubblici, circa 800, e le istituzioni private no-profit, circa 1.350, che potrebbero avere svolto R&S nell’anno di riferimento (240 enti pubblici e 240 istituzioni private nel 2003). Nel settore delle imprese sono considerati gli addetti con mansioni di R&S ed i consulenti, qualora operino all’interno dell’impresa. Nel settore pubblico sono considerati i dipendenti con contratto a tempo determinato o a tempo indeterminato che svolgono attività di R&S. Nelle università sono considerati i docenti, i ricercatori e l’altro personale di ruolo che collabora ad attività di R&S. 65 I GIOVANI Uno degli obiettivi primari di AIM è sempre stato quello di rivolgere particolare attenzione al mondo dei giovani che lavorano in ambito macromolecolare. In tal senso AIM ha programmato di impegnarsi in questa direzione facendosi promotrice di diverse iniziative che possano favorire gli incontri tra giovani ricercatori (neolaureati, borsisti, dottorandi, assegnisti, giovani ricercatori dell’industria e dei Centri di Ricerca) e i ricercatori “più maturi” (professori universitari, ricercatori del CNR e dell’industria). Lo scopo primario è quello di favorire gli scambi culturali fra giovani provenienti da contesti lavorativi e geografici molto diversi fra loro, spesso troppo ermetici, e fra le varie componenti degli Enti presso cui si svolge la loro ricerca. La “Commissione Giovani” dell’AIM, appositamente nata alcuni anni fa e che ha ora due nuove coordinatrici, Sabrina Carroccio e Silvia Vicini, sta organizzando il prossimo evento AIM rivolto proprio ai giovani: “Macrogiovani 2006”. “Macrogiovani”, che rimane una delle esperienze cardine di AIM, quest’anno sarà inserito all’interno del XXVII Convegno-Scuola AIM “Mario Farina” che si terrà a Gargnano dal 2 al 5 Maggio. Per facilitare i giovani studenti e laureandi che parteciperanno solo a Macrogiovani 2006 l’AIM ha previsto una quota associativa speciale ridotta a soli 20 euro. Prima di passare ai dettagli dell’evento, invito i docenti/tutori dei partecipanti al Convegno-Scuola, a coinvolgere i loro giovani ed a darne la massima divulgazione perché simili eventi hanno portato in passato e porteranno in futuro inevitabili ricadute positive, tra le quali: dare modo ai giovani di conoscersi a vicenda, creando la possibilità di collaborazioni scientifiche e favorendo il trasferimento tecnologico tra mondo della ricerca pubblica e privata. La finalità ambiziosa è tesa a creare un network di persone di cultura macromolecolare che potrebbe portare nuova linfa vitale nel sistema indivisibile “Industria-Ricerca-Università” italiano. Loris Giorgini MACROGIOVANI 2006 GIORNATE DI DISCUSSIONE SU PROGETTI DI RICERCA MACROMOLECOLARE Palazzo Feltrinelli, Gargnano (Brescia), 4 maggio 2006 di Sabrina Carroccio e Silvia Vicini Facendo seguito all’iniziativa realizzata con successo negli ultimi anni, per il 2006 l’AIM propone “Macrogiovani 2006”, un incontro tra i “giovani” impegnati nella ricerca in campo macromolecolare che si terrà a Gargnano il 4 maggio 2006, all’interno del XXVII Convegno Scuola AIM “Mario Farina” dal titolo: Leghe e formulati polimerici: miscelazione fisica e reattiva. Obiettivo dell’evento è quello di promuovere un dibattito e favorire gli scambi “culturali” fra giova- ni, provenienti da contesti lavorativi e geografici molto diversi, operanti nel settore delle macromolecole, avendo come base le ricerche che, a diverso titolo, essi conducono nelle università, nel CNR o nell’industria: dunque l’incontro è aperto a giovani tecnici, a dottorandi, a specializzandi, ad assegnisti di ricerca, a borsisti, a laureandi e a studenti che avranno modo di scambiarsi le proprie esperienze e di discutere i temi scientifici dei propri studi. 66 A tal fine è prevista una sessione poster allestita per tutta la settimana dal 2 al 5 maggio. In questo modo i partecipanti alla Scuola ed a “Macrogiovani 2006” potranno presentare i propri lavori con tempi e modi flessibili, dando anche modo a chi parteciperà al Convegno Scuola a diverso titolo di poter visionare e discutere con gli Autori questi contributi scientifici. Nel pomeriggio di Giovedì 4 maggio sono previsti brevi interventi orali della durata di circa 10 minuti, in cui ciascun relatore potrà illustrare il tema su cui lavora ed i risultati più importanti della propria ricerca. Alla fine di ogni relazione sarà aperta la discussione. Le relazioni dei giovani saranno precedute da una relazione introduttiva dei Coordinatori della Commissione Giovani dell’AIM sulle prospettive occupazionali nel settore della scienza e tecnologia delle macromolecole. PREPARAZIONE E INVIO DEGLI ABSTRACTS Gli abstracts (max una pagina formato A4, tutti i margini 2,5 cm, redatti in times new roman, corpo 12) devono evidenziare il titolo del lavoro in grassetto e successivamente, in corsivo, il nome dell’Autore con relativa chiara indicazione dei recapiti dell’Ente o Azienda di provenienza e indirizzo e-mail. Nel testo non devono essere inserite tabelle e figure di nessun tipo. Questi contributi saranno pubblicati on-line sul sito Web dell’AIM: http://www.aim.it Il mancato invio degli abstracts non compromette la possibilità di presentare il proprio lavoro sia come poster durante tutta la durata dei lavori che oralmente il 4 maggio. Infatti, per evitare di essere vincolati a rapporti strettamente scientifici, sarà dato spazio anche a chi non vorrà, per diversi motivi, presentare contributi scritti. SESSIONE POSTER COMITATO ORGANIZZATIVO L’evento consisterà in una sessione poster allestita per tutta la durata del XXVII Convegno Scuola AIM. I poster, possono essere preparati su argomenti specifici delle proprie ricerche in corso o su tematiche macromolecolari di aspetto generale (per facilitare la partecipazione di soggetti legati all’industria ed impegnati in ricerche riservate). È prevista la premiazione dei migliori poster presentati. Dimensioni max: 90 cm (larghezza) x 120 cm (altezza). Giovedì 4 maggio pomeriggio: – relazione introduttiva dei Coordinatori della Commissione Giovani dell’AIM. – brevi presentazioni delle proprie ricerche da parte dei Giovani partecipanti. – saluti del Presidente dell’AIM, conclusione e premiazione dei poster. Consiglio Direttivo dell’AIM: Beniamino Pirozzi, Università, Napoli; Riccardo Po’, Polimeri Europa, Ist. Donegani, Novara; Maurizio Galimberti, Consulente Industriale, Milano; Daniele Caretti, Università, Bologna; Silvia Destri, ISMAC-CNR, Sez. di Milano; Concetto Puglisi, ICTP-CNR, Sez. di Catania; Piero Sozzani, Università, Milano Commissione Giovani: Sabrina Carroccio, CNR, Catania; Silvia Vicini, Università, Genova; Loris Giorgini, Università, Bologna; Giuliana Gorrasi, Università, Salerno; Elisabetta Princi, Università, Genova; Luciano Falqui, Sicarb, Siracusa; Laura Mazzocchetti, Università, Bologna; Laura Boggioni, CNR, Milano; Simona Losio, CNR, Milano; Gianluca Melillo, Pirelli, Milano; Eleonora Ciaccia, Basell, Ferrara ISCRIZIONE Prof. Mauro Aglietto dell’Università di Pisa, segretario amministrativo e responsabile editoriale dell’AIM Prof. Enrico Pedemonte dell’Università di Genova, responsabile del Convegno-Scuola “Mario Farina” La partecipazione a Macrogiovani 2006 è gratuita per i soci AIM 2006 e per tutti i partecipanti al XXVII Convegno Scuola AIM “Mario Farina” che si terrà a Gargnano (BS) il 2-5 Maggio 2006. Per facilitare giovani studenti e laureandi che parteciperanno solo a Macrogiovani è prevista una quota speciale ridotta a 20 euro. I partecipanti al Convegno Scuola e Macrogiovani 2006 potranno beneficiare di un numero limitato di borse di studio e contributi spese di viaggio per coloro che risiedono al di là dei 600 km da Gargnano. L’iscrizione all’evento dovrà essere effettuata unitamente all’invio degli eventuali abstracts (vedi punto successivo) mediante e-mail a Sabrina Carroccio ([email protected]) e Simona Losio ([email protected]) “Iscrizione a Macrogiovani 2006 Paolo Rossi”. Per informazioni contattare i Coordinatori della Commissione Giovani dell’AIM: Silvia Vicini E-mail: [email protected] Sabrina Carroccio E-mail: [email protected] ... e visitare il Sito Web dell’AIM: http://www.aim.it/ 67 RECENSIONI CERVELLI IN GABBIA a cura del Comitato editoriale dell’ADI Da dicembre è in tutte le librerie “Cervelli in gabbia”, l’ultima fatica dell’ADI (Associazione dottorandi e Dottori di ricerca Italiani) edito da Avverbi. Una miniera di conoscenze, competenze e capacità, in molti casi poco sfruttate, poco considerate e inspiegabilmente limitate; sono i “Cervelli in gabbia” italiani i protagonisti del libro che ho il piacere di ospitare nella Rubrica i Giovani del nostro Magazine. Alla base del progetto, la volontà di mettere in luce, attraverso racconti autobiografici, e contestualizzare, con un’analisi approfondita, la situazione di chi lavora per il progresso all’interno del sistema italiano: in poche parole, l’altra faccia della fuga dei cervelli. Davanti a questo fenomeno, affrontato nel precedente “Cervelli in fuga”, la risposta del sistema politico non è stata una naturale riflessione su come cambiare le regole del gioco per attirare talenti verso il nostro Paese, scrivono Marco Bianchetti e Augusto Palombini nel prologo del libro. Piuttosto, un palliativo programma di “rientro dei cervelli” e discutibili riforme che fingono di affrontare i problemi reali. Per questo i curatori di “Cervelli in gabbia” hanno concentrato l’attenzione sulle battaglie quotidiane di chi, in campi diversi, contribuisce allo sviluppo della conoscenza. In un contesto che spesso non dimostra una reale volontà di gestire in modo efficiente il patrimonio di intelligenze di cui dispone e che, come scrive Piero Angela nella prefazione, “compie un vero e proprio suicidio se tiene i suoi giovani in gabbia”. Il libro, che consiglio a tutti di leggere, non solo racconta, ma analizza e delinea, con dati, approfondimenti tecnici e valutazioni politiche, le possibili direzioni che si potrebbero seguire per migliorare la situazione attuale. Passi necessari perché, come scrive il premio Nobel Samuel C.C. Ting nell’introduzione, “Gli studiosi italiani sono noti a livello internazionale per l’eccellenza nella loro formazione, l’originalità e l’impegno nella ricerca, l’abilità nell’ispirare l’interesse ed il supporto pubblico … Con un forte supporto, la ricerca e la formazione scientifica in Italia continueranno la tradizione di eccellenza impersonificata da Galileo, Marconi e Fermi”. Loris Giorgini IMPOSTAZIONE Cervelli in Fuga … il primo libro dell’ADI. Abbiamo raccontato nel 2001 le storie di “Cervelli in Fuga”. Vicende personali, dalle quali però emerge con chiarezza, grazie anche al contesto inquadrato dagli interventi e dai dati dell’ADI, una critica profonda e argomentata al sistema Università e Ricerca italiano, sostenuta con discrezione dalla generazione più giovane dei ricercatori. Il tema, già ampiamente sfruttato, è stato riproposto e reinterpretato in maniera originale, gradevole e godibile, che attira e coinvolge il pubblico, sia degli addetti ai lavori che dei comuni frequentatori delle librerie, e lo avvicina a un problema importante in maniera piacevole, efficace, diretta, non lamentosa, tramite le testimonianze dei protagonisti. In “Cervelli in Fuga” la gravità della situazione in cui versa il sistema Università-Ricerca Italiano 68 Le storie vere raccontate sono contenute nella Parte I: i protagonisti sono persone che si occupano di ricerca a qualsiasi livello e in qualsiasi ambito: dottorandi e dottori di ricerca, ricercatori e docenti, junior e senior. Lo stile è simile a quello dei cervelli in fuga: no a toni forti, polemiche, rancori, denuncie, analisi, bensì ampio spazio a fatti e considerazioni personali, anche introspettive, sincere ed ingenue. I vari contributi sono raccolti in sezioni corrispondenti a diversi ambiti: • Sezione 1: L’università; • Sezione 2: Gli enti di ricerca; • Sezione 3: La Pubblica Amministrazione; • Sezione 4: L’impresa; • Vita da Dottorando, a fumetti, di Giovanni di Gregorio. Nella Parte II si contestualizza e si analizza la situazione che emerge dai contributi autobiografici. Sulla base di questi, si innestano considerazioni e proposte per il miglioramento del sistema Università&Ricerca del nostro Paese: • La gabbia, di Flaminia Saccà L’Università, di Marta Rapallini Gli Enti Pubblici di Ricerca, di Fabio Monforti e Sabina de Innocentiis La Pubblica Amministrazione, di Franca Moroni e Giuseppe Noce L’Impresa, di Marco Bianchetti e Gabriele Orlandi • La strategia di Lisbona e la politica europea per l’alta formazione e la ricerca, di Renzo Rubele • Cervelli che vanno, cervelli che non vengono, di Augusto Palombini • Cervelli in ... cinti, di Rosa Gini Nell’Appendice infine, Renzo Rubele Presidente di EURODOC (associazione dei Dottori di Ricerca Europei) presenta “La legislazione in materia di università e ricerca: istruzioni per l’uso”. emerge indirettamente, in filigrana, come causa sottostante e trasversale, ma non esplicitata, analizzata, della fuga di tanti giovani ricercatori Italiani verso paesi esteri in grado di offrire migliori condizioni e prospettive di lavoro, dove l’efficienza e il merito sono valori acquisiti e riconosciuti. La questione va affrontata in modo diretto. … e Cervelli in Gabbia … Vogliamo ora raccontare le storie dei tanti, tantissimi cervelli italiani che, dopo una formazione di altissimo livello, dopo anni di lavoro e di risultati di ricerca, si trovano “in stallo”, “a bagnomaria”, “in stasi”, “insabbiati”, appunto “in gabbia”, cioè in condizioni di lavoro tali da impedire la piena realizzazione della loro creatività e potenzialità scientifica. Persone che lavorano in ambiti diversi, con problemi diversi, a diversi livelli di carriera, ma tutti ugualmente portatori del desiderio di generare nuova cultura, scienza, tecnologia, prodotti, servizi, benessere, in una sola parola, progresso. Ma che quotidianamente si scontrano con l’inefficienza, la burocrazia, le logiche clientelari e non meritocratiche, con il lavoro malpagato, la mancanza di autonomia nell’entourage di un docente, la cronica indifferenza del sistema economico-produttivo. Con meccanismi che frenano i loro progetti, comprimono le loro personalità, impediscono le loro ambizioni. È un grande patrimonio di intelligenze e conoscenze che si trova congelato, in stasi, ingabbiato in un sistema che non gli consente di manifestare appieno le proprie potenzialità e di competere ad armi pari con altri paesi più avanzati. … ma senza piagnistei. Non crediamo sia utile dare spazio a toni forti, polemiche, rancori, denuncie, certamente più adatte ad altre sedi. Cerchiamo invece testimonianze di tono semplicemente e genuinamente autobiografico, personale, anche introspettivo, nella convinzione che raccontare delle proprie condizioni di lavoro, della gabbia che si vive ogni giorno, quale che sia, costituisca già di per sé una denuncia, molto più solida e costruttiva. Il contesto, l’analisi della “gabbia”, le possibili direzioni di miglioramento vengono invece affrontati nella parte analitica, dedicata ai dati, agli approfondimenti tecnici e alle valutazioni politiche, in cui trovano spazio gli interventi di esperti del settore e di autorità istituzionali. PIANO COME COMPRARLO • Al prezzo scontato per i soci ADI (9 € anziché 12 €): di persona, agli eventi organizzati dall’ADI, oppure presso la sede locale ADI della tua città. • In libreria: se non c’è, potete sempre ordinarlo, generalmente senza sovrapprezzo. • Online: ad esempio su Kelkoo, Ebay, Bol.it, etc. • Direttamente dall’editore Avverbi: info su www.avverbi.it DELL’OPERA Nell’introduzione viene inquadrato il tema e presentato il libro, il suo significato e la sua struttura. • Prefazione, di Piero Angela; • Introduzione, di Samuel C.C. Ting; • Prologo, di Marco Bianchetti e Augusto Palombini. Il Comitato Editoriale dell’ADI www.dottorato.it 69 COMMENTI E CONSIDERAZIONI SUL RENDICONTO FINANZIARIO AIM di Mauro Aglietto ne del biennio precedente, avanzo che ha sempre permesso di pianificare con cauto ottimismo l’attività futura. Nel rendiconto riportato in Tabella 1 compaiono poche voci fondamentali, 3 per le entrate e 4 per le uscite che andremo separatamente ad esaminare. Notate comunque che malgrado le notevoli uscite legate all’attivazione del nuovo sito AIM, l’avanzo gestione si mantiene quasi integro al 30.06.2005. I miei commenti alle voci fondamentali del Rendiconto finanziario, presentato il 14 settembre 2005 all’Assemblea generale dei soci AIM a Napoli, sono stati solo leggermente ampliati e resi leggibili. In più i lettori troveranno puntuali aggiornamenti sui numeri sociali e sullo stato attuale delle finanze AIM. Siamo infatti ormai a quasi un anno dalla chiusura del Rendiconto finanziario AIM 01.07.200330.06.2005 approvato a Napoli e le finanze AIM hanno ricevuto benaccette integrazioni dalla chiusura del bilancio del XVII Convegno biennale AIM. A consuntivo dell’attività svolta nel biennio che va dal 1 luglio 2003 al 30 giugno 2005 vi presento qui a Napoli il Rendiconto finanziario dell’AIM che parte quindi dall’avanzo gestione al 30 giugno 2003. Su indicazione del commercialista, proseguiamo, nella tradizione AIM, a presentare all’assemblea dei soci non un vero e proprio bilancio aziendale (non essendo proprietari di nulla e non avendo nemmeno la partita IVA) ma un rendiconto finanziario a partire appunto dall’avanzo gestio- Partiamo dalle quote associative, che riportiamo in dettaglio nella Tabella 2. Come potete notare il numero di quote pagate non è elevato. Ci sono sempre stati picchi negli anni dispari, gli anni del Convegno biennale, e un numero molto più ridotto di adesioni AIM negli anni pari. Va sottolineato infatti che il 2004 si riferisce all’intero anno solare mentre il 2003 copre i sei mesi da luglio a dicembre e quasi tutte le quote sono state riscosse in occasione del Convegno di Pisa. Tabella 1: Rendiconto finanziario dal 01.07.2003 al 30.06.2005 Entrate Avanzo gestione al 30 giugno 2003 Uscite 19.266,24 Entrate Quote associative 33.569,28 Giornate e Convegni AIM 25.368,44 Contributi a chiusura attività sponsorizzate dall’AIM 3.460,08 Uscite Spese di segreteria 11.650,20 Contratti di collaborazione 17.880,75 AIM Magazine e Sito Web 35.427,72 Rapporti internazionali, EPF 983,30 Totale 81.664,04 Avanzo gestione al 30 giugno 2005 15.722,07 65.941,97 Tabella 2: Soci AIM nel biennio 2003-2005 Anno 2003 2004 2005 2006 Totale Quote 317 192 201 135 846 Totale 9.916,54 7.375,34 9.879,11 8.048,29 33.569,28 70 Se però sommiamo a questo numero le quote riscosse nei sei mesi precedenti (110 che sono rientrate nel rendiconto 2001-2003), arriviamo ad un numero di quote doppie rispetto al 2004. Il 2005 è ancora “orfano” delle quote relative alla partecipazione al Convegno di Napoli e non ci sono dubbi che al 31 dicembre 2005 le quote sociali saranno equivalenti se non superiori a quelle raggiunte nel 2003. Il controllo eseguito per stabilire gli aventi diritto a votare per il rinnovo del Comitato direttivo ci porta già ad una quota mai raggiunta prima, oltre 500 soci in regola al 12 settembre 2005 *. avuto 1 o al massimo due contatti con l’AIM (sono oltre il 75%) **. Per quanto riguarda la voce giornate e convegni AIM la cifra che compare a saldo è un consuntivo di diversificate attività che si sono svolte nel biennio 2003-05. Le ho suddivise in 4 Tabelle, la Tabella 3 dedicata al Convegno di Pisa, la Tabella 4 alle scuole di Gargnano, la Tabella 5 alle giornate della Commissione Tecnologia e infine la Tabella 6 a manifestazioni organizzate in collaborazione con altri enti. Per ognuna delle attività compare un saldo a consuntivo nonché, a parte, le quote AIM riscosse in occasione della manifestazione. Partiamo dunque dal Convegno di Pisa (Tab. 3) che, come potete notare, ha dato un saldo nettamente positivo e non ha bisogno di commenti particolari. Il polmone vero dell’AIM per le future attività si basa sul saldo attivo del Convegno biennale e sulle quote riscosse nell’occasione. I consuntivi delle Scuole di Gargnano del 2004 e del 2005 vengono riportati in Tabella 4. Commento: sono pochissimi i soci che rinnovano la quota sociale regolarmente, quasi sempre l’adesione è legata alla partecipazione ad una attività AIM. Adesione che nella stragrande maggioranza dei casi non viene rinnovata l’anno successivo. Vi rimando, per informazioni più dettagliate, ai dati della ricerca sul movimento soci negli ultimi 11-12 anni a partire dal 1995. Ebbene è preponderante il numero di persone che in questo periodo hanno Tabella 3: XVI Convegno biennale AIM – Pisa 2003 Titolo & data n° partecipanti Entrate Uscite Saldo Quote sociali 364 60.311,86 55.713,79 4.598,07 8.645,00 Entrate Uscite Saldo Quote sociali 34.718,74 28.626,88 6.156,86 3.450,00 27.310,00 29.800,92 - 2.490,92 5.950,00 XVI Convegno Italiano di Scienza e Tecnologia delle Macromolecole Pisa, 21-25.09.2003 Tabella 4: Convegni-Scuola “Mario Farina” e Macrogiovani Titolo & data n° partecipanti Tecniche avanzate e nuovi sviluppi nella caratterizzazione di materiali polimerici 159 Gargnano, 24-28.05.2004 Macrogiovani 2004 42 Gargnano, 26.05.2004 Caratterizzazione termica di materiali polimerici 119 Gargnano, 23-24.05.2005 Macrogiovani 2005 42 Gargnano, 25.05.2005 Caratterizzazione meccanico-dinamica di materiali polimerici 105 Gargnano, 26-27.05.2005 * ** Al 31.12.2005 i soci AIM 2005-2006 ammontano a 527; al momento di andare in stampa 403 soci sono in regola con la quota sociale AIM 2006. Vedi l’articolo di M. Aglietto e Riccardo Po’ “Quanto sono fedeli i nostri soci? Una storia dell’AIM (1995-2005) attraverso la sua Mailing List” a pag. 75 di questo numero di AIM Magazine. 71 Il saldo negativo del 2005 è in parte dovuto alla struttura diversa, due moduli separati con partecipanti anche ad un solo modulo. La struttura è stata senz’altro più dispendiosa (non abbiamo aumentato le quote ridotte per i borsisti, due volumi, un numero più elevato di docenti). Maggiori spese ma quasi il doppio di quote sociali riscosse e grazie a questo il bilancio complessivo è risultato positivo. Ottimi possiamo dire i risultati delle giornate organizzate dalla Commissione Tecnologia che vengono riportati in Tabella 5. Le cinque manifestazioni hanno tutte dato un saldo positivo e hanno permesso di avvicinare all’AIM un numero elevato di persone. È importante sottolineare infine che l’AIM ha con- tribuito all’organizzazione di tre giornate promosse da altri enti o nell’ambito di manifestazioni importanti come le giornate della Scienza di Genova (Tab. 6). Commento: è doveroso informarvi che nelle Tabelle sulle attività AIM sono riportati i saldi finali di queste manifestazioni e la somma dei saldi non coincide con il saldo riportato nel rendiconto finanziario chiuso al 30.06.2005. Molte nostre attività infatti si svolgono in maggio-giugno e i versamenti relativi a queste manifestazioni sono arrivati all’AIM dopo il 30 giugno e non sono rientrate nel rendiconto finanziario. Avremmo avuto un saldo attivo ancora maggiore. Tabella 5: Commissione Tecnologia AIM Titolo & data n° partecipanti La miscelazione nell’industria dei polimeri Entrate Uscite Saldo Quote sociali 76 6.460,00 1.873,54 4.586,46 1.450,00 65 5.398,46 3.776,10 1.622,36 1.215,00 27 1.260,00 1.254,00 6,00 480,00 28 1.980,00 1.757,82 222,18 350,00 45 2.475,00 453,85 2.021,15 245,00 Quote sociali Milano, 11.06.2004 Polimeri da fonti rinnovabili nell’imballaggio Bologna, 14.01.2005 Plasticoltura, innovazione e sostenibilità Bari, 12.02.2005 Reologia e stampaggio a iniezione di polimeri Alessandria, 14.03.2005 Il colore nelle fibre sintetiche e naturali Como, 10.06.2005 Tabella 6: Manifestazione organizzate in comune con altri enti Titolo & data n° partecipanti Entrate Uscite Saldo 70 – 459,93 -459,93 50 – 500.00 -500.00 40 – – Polimeri e Beni Culturali Firenze, 4-5.06.2005 Macromolecole e Futuro Genova, 05.11.2005 Iniziativa AIM-Istituto Italiano Imballaggio Milano, 09.02.2005 Tabella 7. Contributi a chiusura attività sponsorizzate dall’AIM Attività Totale Restituzione anticipo per spese iniziali della 2nd EPF Summer School 2003 882,00 Contributo all’AIM a chiusura del ccB della 2nd EPF Summer School 2003 79,69 Contributo all’AIM a chiusura del ccB di EUPOC 2004 500,14 Contributo iniziale all’AIM a chiusura del bilancio di EUPOC 2005 1.998,25 Totale 3.460,08 72 In Tabella 7 sono riportati i contributi trasferiti all’AIM a chiusura di manifestazioni sponsorizzate dall’associazione e organizzate da soci AIM delegati dal Direttivo a tale compito con l’accordo appunto di restituire il prestito iniziale e di trasferire eventuali utili all’AIM. derate a parte le spese per le riunioni del Direttivo AIM (fondamentalmente rimborsi spese dei partecipanti alle riunioni) e le spese bancarie, sempre più esose. Nelle spese bancarie sono inserite anche tutte le percentuali che vengono trattenute per pagamenti effettuati tramite Carta Sì e American Express. Avere alle spalle un serio commercialista, dal costo contenuto, ci permette di utilizzare e ricom- Commento: devo spendere due parole in più su EUPOC 2005 per la parte che mi compete ed espriTabella 8: Spese di segreteria 01.07-31.12.2003 Gestione corrente 1.441,09 01.01-31.12.2004 01.01-30.06.2005 Gestione corrente 2.794,05 Gestione corrente Totale 3.913,18 8.148,32 Direttivo AIM 537,37 Direttivo AIM 760,49 Direttivo AIM 224,85 1.522,71 Spese bancarie 662,54 Spese bancarie 958,40 Spese bancarie 358,23 1.979,17 Totale 2.641,00 Totale 4.512,94 Totale 4.496,26 11.650,20 Tabella 9: Contratti – Prestazioni occasionali Collaboratori Versamento INPS Ritenute d’acconto Compenso lavoro Totale 200,00 1.000,00 1.200,00 Settore editoriale (1) Pisa 2003 (3) § 807,00 2.497,91 807,00 418,48 9.462,22 11.290,07 Sito Web (1) 120,00 600,00 720,00 Napoli 2005 (1) 400,00 2.000,00 2.400,00 1.463,68 1.463,68 14.525,90 17.880,75 Segreteria a Pisa (1) 1.409,37 Studio Commerciale Totale § 1.409,37 1.945,48 questa cifra è rientrata nel bilancio del Convegno di Pisa e viene qui riportata per avere un consuntivo globale sui contratti di mere i più vivi ringraziamenti al prof. Galli che ha chiuso definitivamente il ccB aperto per EUPOC 2005 col trasferimento di un congruo residuo utile all’AIM che ci permette di stilare un ottimistico bilancio preventivo per il prossimo anno. Per una valutazione sul successo scientifico di questa conferenza europea vi consiglio di leggere l’articolo a firma di Giancarlo Galli su AIM Magazine*** Tabella 10: Spese per AIM Magazine e Sito Web Attività AIM Magazine, 56, n. 2 (2002) 5.504,04 AIM Magazine, 56, n. 3 (2002) 5.984,46 AIM Magazine, 57, n. 1-2 (2003) 5.920,92 AIM Magazine, 58, n. 3 (2003) 5.064,30 Educom srl Passiamo ora ad analizzare le 4 voci che comWEP srl paiono in uscita e che sono riportate rispettivaTotale mente nelle Tabelle 8, 9, 10 e 11. Nelle spese di segreteria (Tab. 8), oltre alle spese Tabella 11: Spese per attività internazionali correnti che riguardano la Attività classica attività di un lavoro di segreteria (spese Partecipazione al Meeting EPF, Stoccolma, 28.02-02.03.2003 postali, cancelleria, rinno- Partecipazione al Convegno YES 2005, Cracovia, 13-18.09.2005 vo computer, stampante, fax, etc.), sono state consi*** Vol. 60, n. 2-3, luglio-dicembre 2005, pag. 70 73 Totale 954,00 12.000,00 35.427,72 Totale 679,80 303,50 pensare in modo corretto competenze utili alla nostra associazione. Tutti i contratti a progetto, come CO.CO.CO. prima, nonché le prestazioni occasionali relative al biennio 2003-2005 sono gestiti secondo le leggi vigenti e sono riportati nella Tabella 9. Ritengo di poter sottolineare che sono soldi ben spesi e che ci hanno permesso di organizzare al meglio l’attività di segreteria AIM. La voce successiva riguarda le spese per la pubblicazione di AIM Magazine e per l’apertura e la gestione del sito Web (Tab. 10). Siamo passati a due numeri l’anno ma mi auguro che la rivista continui a essere gradita a tutti voi lettori di AIM Magazine. Come membro del Comitato editoriale vi posso assicurare che l’impegno è notevole ma dà anche molte soddisfazioni. Commento: gli introiti delle quote sociali servono a malapena a coprire le spese per la stampa della rivista e per la gestione del sito Web. Mi auguro che il passaggio alla quota biennale migliori in parte la situazione. Infine nella Tabella 11 sono riportate le spese relative all’attività internazionale dell’AIM; sono rimborsi spese e contributi a giovani ricercatori. È questa una voce che ci sarà sempre visto la forte presenza AIM all’interno di EPF. Termino riportando in Tabella 12 il bilancio preventivo 2005-2006. Aggiungo due parole al momento di andare in stampa (fine marzo 2006). I numeri del bilancio preventivo si stanno rivelando una previsione corretta e quindi AIM può continuare a navigare tranquilla. Tabella 12: Bilancio preventivo 2005-2006 (01.07.2005-30.06.2006). Entrate Avanzo gestione Uscite 15.000,00 Entrate Quote associative 20.000,00 Giornate e Convegni AIM 5.000,00 Contributi a chiusura attività sponsorizzate dall’AIM 10.000,00 Uscite Anticipi per attività organizzate dall’AIM 3.500,00 Attività internazionali 1.500,00 Spese di segreteria 5.000,00 AIM Magazine e Sito Web 16.000,00 Contratti di collaborazione 8.000,00 Totale 50.000,00 Avanzo gestione 16.000,00 74 34.000,00 QUANTO SONO FEDELI I NOSTRI SOCI? UNA STORIA DELL’AIM (1995-2005) ATTRAVERSO LA SUA MAILING LIST di Mauro Aglietto e Riccardo Po’ Il numero complessivo di persone entrate in contatto con AIM nel corso del periodo esaminato, e quindi socie per almeno un anno, è pari a 2.190. Contando anche coloro che hanno ricevuto una copia omaggio di AIM Magazine, il totale sale a 2.380. Lascia un po’ l’amaro in bocca il fatto che alcune figure storiche del panorama nazionale dei polimeri facciano parte di questi ultimi 190, cioè, in altre parole, non si siano mai iscritti dal 1995 a questa parte. Fa molto piacere sapere che c’è un forte senso di appartenenza all’associazione ma ribadirlo con il pagamento regolare della quota sociale sarebbe molto auspicabile. Senza il solido gruzzoletto delle quote è difficile programmare attività future. La Tabella 1 dà un’idea della “fedeltà” dei soci, ovvero quanti anni ciascuno di loro sia stato iscritto ad AIM. Come si nota la larghissima maggioranza (quasi il 74%) è stata iscritta solo per uno o due anni; meno del 13% (284) è stata socia almeno 5 anni I decani (o dovremmo dire gli “undecani”?), che sono stati sempre iscritti ad AIM nel periodo considerato di 11 anni, sono solo 10. Nel trentennale della nostra associazione ci è sembrato giusto tracciare un profilo statistico attraverso l’analisi della cronistoria delle quote associative sottoscritte dai singoli soci. L’analisi svolta è riferita al lasso di tempo di undici anni che va dal 1995 al 2005 (ma per effetto delle quote biennali è possibile proiettarsi già in parte nel 2006) ed è stata resa possibile dalla disponibilità della quantità di dati memorizzati nella mailing list archiviata presso la segreteria amministrativa di Pisa. Un doveroso ringraziamento a Mariarita Gambini che ci ha permesso, con i suoi accurati controlli, di disporre dei dati per questa analisi approfondita. Un database di tali dimensioni non è di facile gestione, e già in via preliminare l’estrazione ed organizzazione delle informazioni da cui è partita l’analisi ha richiesto uno sforzo (e una pazienza) non trascurabili. Nel tempo, infatti, non sono stati eliminati i dati a disposizione dell’AIM. Ogni anno si salvava, al 31 dicembre, una copia della Mailing List che veniva archiviata. La copia base poteva di conseguenza essere modificata ed integrata per l’anno solare successivo. Tabella 1: Numero di soci AIM distribuiti secondo il numero di anni di appartenenza all’associazione n. Persone che sono state socie “n” Incluso 2006 volte nel periodo 1995-2005 1 1227 1093 2 387 479 3 182 191 4 110 118 5 85 78 6 53 67 7 50 47 8 48 40 9 27 40 10 11 20 11 10 9 12 – 8 75 Figura 1: Distribuzione del numero di soci AIM (A) e del numero di quote (B) secondo il numero di anni di appartenenza all’associazione. Il motivo di ciò non è molto sorprendente: molte persone dell’industria che non svolgono attività strettamente inerenti alla scienza e tecnologia dei polimeri, ma operano in settori contigui (per esempio in certe attività manifatturiere) si iscrivono ad AIM in occasione di specifiche Giornate, Scuole, etc. di loro interesse, e successivamente non hanno più modo di rientrare in contatto con AIM. Nel caso dei giovani, poi, può succedere che l’iscrizione avvenga nel breve periodo in cui si occupano di macromolecole all’Università e che successivamente i loro interessi professionali (accademici o aziendali) prendano altre strade. La Figura 1A mostra i dati della Tabella 1 in forma grafica. Nella Figura 1B, derivata dalla 1A, viene riportato invece il contributo percentuale alle quote di chi è stato socio “n” volte: in altre parole ogni iscrizione viene moltiplicata per un fattore pari alla sua durata per determinare il totale delle quote versate dai 2.190 soci negli 11 anni (che è pari a 4.927) e le percentuali corrispondenti. In questo caso ovviamente cala il peso complessivo dei soci che tali sono stati solo per pochi anni. Nella Figura 2 viene riportata la distribuzione dei Figura 2: Numero di soci negli anni solari; le prime due tonalità indicano le frazioni di soci con anzianità almeno triennale e almeno quinquennale, quella terminale si riferisce ai soci totali. 76 soci negli anni solari (naturalmente per il 2006 il dato è parziale, aggiornato con le quote pagate fino al 30.9.05). La media è di 448 soci/anno. La diversa tonalità delle barre indica i soci totali e coloro che sono stati iscritti almeno 3 (576) o 5 anni (284) dal 1995 al 2005, comunque distribuiti. La percentuale di questi ultimi, è riportata in formato numerico anche in Tabella 2. In ogni organizzazione è fisiologico che nuovi appartenenti vengano acquistati o persi definitivamente nel corso degli anni. La Tabella 3 si riferisce a questo aspetto, limitatamente a coloro che contano almeno tre anni di associazione (anche non consecutivi); nell’ultima colonna è riportato il saldo. A partire dal 2000 tale saldo è negativo (è questo è più o meno in linea con il massimo di Figura 2), segno che molti soci non occasionali hanno cessato di far parte di AIM, in misura preoccupantemente superiore rispetto a quanti ne siano entrati (il grafico corrispondente è in Figura 3). La speranza è che i giovani che attualmente hanno 12 anni di anzianità continuino ad appartenere ad AIM per riportare il saldo in positivo. Nella Figura 4 viene illustrato un altro parametro, che indica quante volte nel periodo 95-05 il socio ha mutato il proprio stato associativo da un anno a quello successivo. Per chiarire il significato con un esempio, se con “X” si indica lo status di socio e con “O” di non socio, nel caso di un socio con la seguente “storia”: OOXXXXXOXXX, cioè iscritto ad AIM dal ’97 al 2001 e dal 2003 al 2005, le variazioni sarebbero 3. In pratica, le variazioni di status associativo, riportate in ascissa, hanno il seguente significato: 0 = si è sempre iscritto; Tabella 2: Percentuale di soci con anzianità almeno triennale e quinquennale rispetto al totale dei soci in ogni dato anno solare. anno % soci con % soci con almeno 3 quote almeno 5 quote 1995 49 35 1996 45 29 1997 54 36 1998 54 35 1999 75 48 2000 81 50 2001 58 37 2002 61 44 2003 59 39 2004 64 44 2005 51 35 2006 51 36 Tabella 3 e Figura 3: Numero di soci con anzianità almeno triennale iscritti per la prima o ultima volta in un dato anno. anno 2003 2002 2001 2000 1999 1998 1997 prima (soci acquisiti) 19 19 38 25 75 47 79 ultima (soci persi) 76 49 53 60 7 13 7 Balza all’occhio l’andamento altalenante delle barre, con massimi relativi negli anni dispari e minimi relativi negli anni pari: il motivo di ciò è molto semplice, e dipende dal fatto che in occasione dei Convegni Biennali AIM (che si svolgono in anni dispari) molti “ricordano” di rinnovare l’iscrizione ad AIM. Questo andamento è destinato probabilmente a modificarsi (livellandosi?) con la recente soppressione della quota di iscrizione annuale a favore di quella biennale. Altro elemento degno di nota è il massimo della “campana” verificatosi nel 2001, con 579 iscritti; il picco è molto più piatto e si colloca invece nel triennio 1999-2001 se si considerano gli iscritti “fedeli” (3 anni di anzianità AIM). Figura 3 77 saldo (= acquisti - persi anno precedente) - 30 - 34 - 22 + 18 + 62 + 40 n.a. Figura 4: Numero di soci (con anzianità almeno triennale) che hanno variato il proprio status associativo da un anno al successivo. 1 = ha iniziato (o cessato) ad iscriversi da un certo anno in poi; 2 = ha omesso di pagare la quota per un anno; oppure è stato iscritto solo per un certo periodo (continuativo) di anni; ........ 9 = si iscrive ad anni alterni. Una associazione solidamente radicata dovrebbe avere un picco in corrispondenza dei valori 0-2; valori superiori e crescenti sono indicativi di avvicinamenti random, e tutto sommato incidentali, all’associazione stessa, pur da parte di persone comunque vicine al mondo delle macromolecole (si tenga infatti presente che anche questa analisi è riferita alle 576 persone con almeno 3 anni di Figura 5: Numero di soci (con anzianità almeno quinquennale) che hanno variato il proprio status associativo da un anno al successivo. 78 appartenenza all’associazione nel periodo contemplato). Ricordando che la partecipazione ad una attività AIM – Convegno Biennale, Giornate Tecnologiche, Scuole … – comporta l’iscrizione automatica all’associazione per un anno (per due dal 2006), vedendo questi numeri viene il forte sospetto che in un numero non trascurabile di casi essere soci AIM sia il frutto di questo automatismo, e non una scelta cosciente. Non a caso, i soci con il maggior numero di variazioni tendenzialmente risultano essere stati iscritti negli anni dei convegni biennali. Se l’analisi viene effettuata per i 284 soci con 5 anni di anzianità (Fig. 5) il profilo della distribuzione non cambia di molto, anche se ovviamente in valore assoluto tutte le barre sono più basse, e la media si sposta appena da 3,41 a 3,62. La Figura 6 rappresenta la distribuzione dei soci secondo il numero di anni di anzianità e il numero di variazioni dello status associativo (in pratica combina le Figure 1A e 4) e mette ancora in evidenza quanto sia tutto sommato non esaltante il numero di coloro che sono realmente “vicini” ad AIM. Fare considerazioni finali su questa puntuale e direi graffiante analisi pensiamo non abbia senso. I numeri parlano da soli. Aspettiamo invece dai nostri lettori considerazioni (o anche critiche) e proposte atte a responsabilizzare maggiormente i soci. Figura 6: Distribuzione dei soci secondo il numero di anni di anzianità e il numero di variazioni dello status associativo. 79 LIBRI E ATTI AIM Materiali polimerici strutturali Atti dell’XI Convegno-Scuola AIM, Gargnano 1989, volume di 425 pagine, € 18,07 Copolimeri Atti del XII Convegno-Scuola AIM, Gargnano 1990, volume di 440 pagine, € 18,07 Processi industriali di polimerizzazione: aspetti fondamentali e tecnologici Atti del XIII Convegno-Scuola AIM, Gargnano 1991, volume di 433 pagine, € 23,24 Metodi spettroscopici di caratterizzazione dei polimeri Atti del XIV Convegno-Scuola AIM, Gargnano 1992, volume di 477 pagine, € 25,82 Massa e dimensioni di macromolecole Atti del XV Convegno-Scuola AIM, Gargnano 1993, volume di 347 pagine, € 25,82 Materiali polimerici: struttura e processabilità Atti del XVII Convegno-Scuola AIM, Gargnano 1995, volume di 386 pagine, € 23,24 Degradazione e stabilizzazione dei materiali polimerici Atti del XVIII Convegno-Scuola AIM, Gargnano 1996, volume di 408 pagine, € 23,24 Polimeri in medicina Atti del XIX Convegno-Scuola AIM, Gargnano 1997, volume di 355 pagine, € 20,66 I polimeri espansi Atti del XX Convegno-Scuola AIM, Gargnano 1998, volume di 363 pagine, € 20,66 Materiali polimerici cristallini e liquido cristallini Atti del XXI Convegno-Scuola AIM, Gargnano 1999, volume di 438 pagine, € 20,66 SCHEDA PER ACQUISTO VOLUMI AIM disponibili presso Pacini Editore Per dettagli sui contenuti consultare www.aim.it 1 2 3 Materiali polimerici strutturali Copolimeri Processi industriali di polimerizzazione: Aspetti fondamentali e tecnologici 4 Metodi spettroscopici di caratterizzazione dei polimeri 5 Massa e dimensioni di macromolecole 6 Materiali polimerici: struttura e processabilità 7 Degradazione e stabilizzazione dei materiali polimerici 8 Polimeri in medicina 9 I polimeri espansi 10 Materiali polimerici cristallini e liquido cristallini 11 Atti del XIV Convegno Italiano di Scienza e Tecnologia delle Macromolecole 12 13 14 15 16 17 18 19 Fondamenti di Scienza dei polimeri Physical Properties of Polyelectrolite Solutions Produzione industriale di polimeri Additivi per materiali polimerici Tecniche avanzate e nuovi sviluppi nella caratterizzazione dei materiali polimerici Caratterizzazione termica di materiali polimerici Caratterizzazione meccanico-dinamica di materiali polimerici Leghe e formulati polimerici Vi preghiamo di inviarci n. … copie dei volumi (siglare i volumi prescelti): 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19 Sig. ................................................................................................................................................................................ Ente ................................................................................................................................................................................ Indirizzo ..............................................Città ................................Cap ................Prov. .................... E-mail ..................................................Tel. ..........................................................Fax ...................... Data ....................................Pagamento: a ricevimento fattura contrassegno Il pagamento, maggiorato di € 4,00 per le spese di spedizione, dovrà essere effettuato direttamente alla Pacini Editore, richiedendo invio di fattura o di contrassegno Pacini Editore SpA, Via Gherardesca, Zona Industriale Ospedaletto, 56121 Pisa, Tel. 050/313011 - Fax 050/3130300 Su richiesta, al prezzo di € 25,00 cadauno, spese di spedizione incluse, sono disponibili i CD delle seguenti giornate tecnologiche AIM: 1. Materiali Polimerici per l'Imballaggio Alimentare, Fiera del Levante, MacPlast Sud, Bari, 15 febbraio 2002 2. Polimerizzazione in emulsione, Auditorium Mapei, Milano, 6 marzo 2002 3. Poliammidi: produzione, proprietà e applicazioni, Centro Cultura Ingegneria Materie Plastiche, Alessandria, 10 aprile 2002 4. Il colore in materiali polimerici termo- e foto-indurenti, Fiera di Milano – MacPlas03, Milano, 6 maggio 2003 5. La miscelazione nell’industria dei polimeri, Università Milano-Bicocca, Milano, 11 giugno 2004 6. Polimeri da fonti rinnovabili nell'imballaggio, Università di Bologna, Bologna, 14 gennaio 2005 7. Plasticoltura, innovazione e sostenibilità, Fiera del Levante, Bari, 12 febbraio 2005 8. Reologia e stampaggio a iniezione di polimeri, Centro di cultura per l’ingegneria delle materie plastiche, Alessandria, 14 marzo 2005 Inviare la richiesta tramite fax (050-2219260) o tramite e-mail ([email protected]) alla segreteria amministrativa AIM 80
Documenti analoghi
AIM Magazine AIM Magazine
l’adesione e come agiscono gli adesivi.
Kasji Mittal, un simpatico ricercatore di origine
indiana, ora editor di Journal of Adhesion Science
and Technology, sostiene di avere inventato la più
preci...
AIM Magazine AIM Magazine
M. Savino, A. Scipioni) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
AIM Magazine
Piazza Bovio, Palazzo Borsa, 80138 Napoli (IBAN IT14 G010 1003 4011 0000 0005 184), intestato a: Associazione Italiana di Scienza e Tecnologia delle Macromolecole
• sul c/c postale n. 10267565 del...