AIM Magazine AIM Magazine
Transcript
AIM Magazine AIM Magazine
ASSOCIAZIONE ITALIANA DI SCIENZA E TECNOLOGIA DELLE MACROMOLECOLE AIM Magazine B O L L E PERIODICO QUADRIMESTRALE SPED. IN A.P. 45% ART. 2 COMMA 20/B LEGGE 662/96 - FILIALE DI PISA - AUT. TRIB. DI PISA N. 13/96 DEL 04/09/1996 STAMPE A TARIFFA RIDOTTA - TASSA PAGATA - AUT. E.P.I. DIR. FILIALE DI PISA - N. A.S.P./32424/GB DEL 30/12/1997 - TAXE PERCUE - ITALIA Anno XXVII • vol. 56 • n° 1 T T I N O A I M Gennaio-Aprile 2002 MACROMOLECOLE NELLO SPAZIO ADESIONE E ADESIVI MATERIALI NANOSTRUTTURATI IL SISTEMA RICERCA IN ITALIA ED IL FABBISOGNO DI INNOVAZIONE DELLE IMPRESE Sommario TUTTO È POLIMERO Adesione e adesivi: un approccio scientifico (C. Della Volpe, S. Siboni) . . . . . . . . . . . . . . . . . . . . . . pag. 3 Macromolecole nello spazio (C. Guaita) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . » 15 Le prestazioni dei polimeri conduttori nel settore dei “nasi elettronici” (M. Suman) . . . . . . . . . . . . . . » 23 » 27 » 30 » 34 » 37 » 39 » 41 » 46 Journées Transalpines des Polymères 2002 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . » 54 “Stereospecific Polymerization and Stereoregular Polymers” (EUPOC 2003) . . . . . . . . . . . . . . . . . . » 55 CALENDARIO ............................................................ » 56 Presentazione del volume “Mass Spectrometry of Polymers” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . » 59 L’ATTUALITÀ Template polimerici per lo sviluppo di materiali nanostrutturati (M. Lazzari) . . . . . . . . . . . . . . . . . . . L’AMBIENTE La valutazione del ciclo di vita del pneumatico (C. Regazzoni) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I BIOPOLIMERI Darbepoietina ed Olimpiadi invernali: il nuovo caso doping (R. Rizzo) . . . . . . . . . . . . . . . . . . . . . . . I GIOVANI Chimica, ambiente, giovani: parole chiave per “accedere” ad un futuro più pulito (G. Gorrasi) . . . . . DIDATTICA MACROMOLECOLARE La comunità delle mani legate (R. Filippini Fantoni) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I MUSEI A Napoli il primo Science Centre Italiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . POLIMERI E SOCIETÀ Il sistema ricerca in Italia ed il fabbisogno di innovazione delle imprese: un rapporto possibile (e necessario) (A. Casale) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I CONGRESSI FUTURI CONGRESSI LA BIBLIOTECA 1 DAL MONDO DELLA TECNOLOGIA Overview (R. Po’) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . » 61 Libri e Atti AIM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . » 63 L’Evoluzione Normativa nel Packaging Alimentare (Ciba Speciality Chemicals SpA) . . . . . . . . . . . . » 64 IL MONDO DI AIM XVI Convegno Italiano di Scienza e Tecnologia delle Macromolecole Pisa, Area della Ricerca CNR, 22-25 settembre 2003 L’organizzazione del Convegno è ancora in una fase iniziale, troverete le informazioni preliminari quanto prima sul nostro sito web: www.aim.it. Rivolgersi per informazioni a Mariano Pracella ([email protected]) e a Piero Cerrai ([email protected]). 2 Tutto è polimero ADESIONE E ADESIVI: UN APPROCCIO SCIENTIFICO di Claudio Della Volpe e Stefano Siboni* il piano che delimita un corpo, una struttura, una massa, o la parte esterna di un corpo materiale, o il confine superiore di un liquido o qualunque dei confini di un corpo solido. Potremmo dire che, nelle scienze naturali, le superfici costituiscono la “zona di separazione fra fasi diverse”, laddove una fase è una porzione di materia di costituzione omogenea. Tale zona possiede uno spessore? Leonardo aveva risposto negativamente alla domanda: “Tutti i termini delle cose non sono parte alcuna d’ esse cose, perché il termine d’ una cosa si fa principio d’ un altra. Adunque poi ch’ e termini delle cose non so’ parte d’ esse cose né di quelle che co’ lor si toccano, essi termini niente occupano” (2). Secondo Leonardo quindi le superfici sono di spessore infinitesimo. Oggi noi sappiamo che questa è una approssimazione. Una definizione più precisa, e per certi aspetti sorprendente, è quella di G. Lanzavecchia: “Le sostanze allo stato condensato, liquide o solide, presentano, in regioni sufficientemente lontane dalle superfici, delle proprietà che dipendono dalla natura degli atomi e delle molecole che le costituiscono e dalla loro struttura. Esse vengono considerate come indefinite e in pratica la superficie rappresenta una discontinuità da trattarsi come un difetto” (3). La superficie è quindi, secondo Lanzavecchia, un “difetto” delle fasi condensate le cui proprietà non sono esattamente quelle della fase stessa ed il cui spessore è indefinito. Sembrerà strano, ma l’idea di superficie di Leonardo non è poi tanto lontana dal modello di Gibbs, un modello che costituisce ancora la base del più comune trattamento termodinamico delle superfici; nel suo famoso articolo (4) in cui fonda L ’uso di potenti adesivi istantanei, come quelli a base di cianoacrilato, rende visibili a chiunque i notevoli risultati ottenuti anche in questo settore dalla chimica contemporanea; tuttavia non tutti conoscono i meccanismi che sono alla base di queste capacità apparentemente miracolose. In questo breve articolo cercheremo di spiegare in modo semplice, ma con precisione, da dove nasce l’adesione e come agiscono gli adesivi. Kasji Mittal, un simpatico ricercatore di origine indiana, ora editor di Journal of Adhesion Science and Technology, sostiene di avere inventato la più precisa e compatta definizione di adesione: “Adhesion is the quantity and the quality of intimacy”, che si potrebbe tradurre come “L’adesione corrisponde alla qualità e alla quantità del contatto intimo (fra due fasi)”. Un qualunque dizionario ci informa che l’adesione è: “il fenomeno di mutua attrazione tra le superfici a contatto di due corpi diversi” (1), mentre per adesivo si intende “una sostanza di varia origine che consente l’unione di due superfici”(1). Per meglio comprendere questi concetti occorre partire da una più precisa definizione di superficie ed analizzare in dettaglio quali sono le forze di attrazione fra i corpi e i loro costituenti, atomi e molecole; dovremo introdurre alcuni semplici concetti di termodinamica, come il lavoro di adesione, e servirà inoltre, per rendere più concreto tutto il discorso, una illustrazione seppure elementare della chimica degli adesivi e delle tendenze principali in atto nel loro uso e nella loro produzione. Cosa è una superficie? Superficie viene dal latino super facies, faccia superiore, e può essere variamente definita come * Dipartimento di Ingegneria dei Materiali, Università di Trento, Via Mesiano 77, 38050 Trento E-mail: [email protected] 3 la termodinamica delle superfici, pur conscio che una superficie è una zona di separazione fra fasi diverse, il cui spessore non è affatto infinitesimo, Gibbs propone di trattare tale zona come una superficie geometrica, una interfaccia, priva di spessore; a tale scopo egli ipotizza che la composizione delle due fasi rimanga omogenea fino alla superficie di separazione ed introduce il concetto di concentrazione superficiale in eccesso per conservare le quantità dei vari componenti in ciascuna fase, rispettando il principio di Lavoisier (Fig. 1). L’articolo di Gibbs è della fine del XIX secolo; tuttavia già pochi decenni dopo Guggenheim ha proposto un modello più articolato (5), rappresentato nella Figura 2, in cui la superficie è una vera e propria fase, sebbene di spessore piccolo, ma non infinitesimo. Tale modello ha avuto successo soprattutto nel campo della scienza dei materiali, in cui le tecniche di analisi mostrano con evidenza che la superficie non è in realtà una interfaccia, ma una vera e propria fase, una interfase; l’approssimazione di Guggenheim è quella di considerare tale interfase a composizione costante. Un modello ancora più realistico, fondato su un insieme di strati a composizione diversa (multilayer) è stato poi proposto quasi 50 anni fa da Prigogine (6). Mai la superficie può essere considerata una semplice sezione della fase di cui fa parte: la sua composizione, l’energia delle sue particelle, il loro ordinamento, tutto insomma la rende diversa, specifica, W. Pauli diceva addirittura “diabolica”! Le particelle atomiche o molecolari presenti alla superficie si trovano in una situazione peculiare, che viene di solito schematizzata come in Figura 3. Figura 2: Secondo il modello di Guggenheim fra le due fasi a e b esiste una interfase di caratteristiche costanti, s; tale interfase ha tutte le caratteristiche di una fase vera e propria. Dal punto di vista termodinamico questa scelta non conduce a equazioni diverse da quelle di Gibbs; tuttavia, nell’ambito della scienza dei materiali questa impostazione ha avuto un notevole successo concettuale, ed è preferita in parecchi testi. Il modello più completo delle superfici è, comunque, quello del multilayer, proposto da Prigogine e che rappresenta un completamento dell’impostazione di Guggenheim. Esse non risentono delle stesse interazioni cui sono sottoposte le altre particelle della fase, in quanto la funzione di distribuzione delle particelle alla superficie risente dell’esistenza del “difetto” costituito dalla “altra” fase o dal vuoto. Il loro stato energetico è quindi diverso, come lo è il loro ordinamento e dunque, se la superficie è estesa, dovremo tener conto di tale asimmetria con uno specifico contributo allo stato termodinamico della fase stessa. Ciò è stato variamente interpretato: “come se” esistesse una vera e propria pellicola superficiale, “come se” una pressione “interna” si esercitasse sulla fase stessa, e così via e tutti questi modelli hanno la loro ragion d’essere, perché contribuiscono alla comprensione dei fenomeni superficiali; l’esistenza di una sorta di membrana superficiale contribuisce a spiegare il fenomeno per cui un oggetto più denso dell’acqua se di dimensioni opportune e dotato di una superficie di scarsa bagnabilità (o in altri termini di opportuna energia superficiale) può galleggiare anche in assenza di una efficace spinta di Archimede. Fra l’altro questo fenomeno consente ad uno dei pochi insetti che hanno colonizzato l’ambiente marino, l’Halobates, di passare la sua vita in pieno oceano. Figura 1: La quantità Ci, varia fra le due fasi a e b secondo la linea continua; Gibbs ipotizza che il suo valore rimanga costante all’interno di ciascuna fase fino alle sezioni x o x’ che rappresentano la superficie di separazione o interfaccia; questo comporta delle quantità eccesso qui rappresentate dalle zone tratteggiate, che possono essere positive o negative; la scelta della sezione è arbitraria. 4 Figura 3: Le particelle all’interfaccia o nell’interfase, risentono di un campo di forze notevolmente diverso; è quindi giustificato riconoscere loro uno stato termodinamico e microscopico diverso da quello delle particelle che si trovano nella fase vera e propria; la risultante totale delle forze è sbilanciata verso l’interno; tale “pressione interna” vale nell’acqua liquida 0.528 GPa! Figura 4. Quello che si può ragionevolmente concludere è che la superficie di una fase è una zona di spessore piccolo, ma non trascurabile, la cui profondità varia con la tecnica che usiamo per analizzarla. Per un esperto di usura la superficie del materiale è spessa anche millimetri; per un utente di microanalisi a raggi X (EDXS) o di spettroscopia infrarossa la superficie è spessa qualche micron; per un utente di microscopia a forza atomica (AFM), di angolo di contatto o di spettroscopia elettronica per analisi chimica (ESCA) a basso angolo (o anche per una cellula vivente) la superficie è spessa solo qualche nanometro o qualche angström. Tutte queste diverse “immagini” della superficie devono essere considerate insieme per avere un modello veritiero dei fenomeni superficiali. Se le due fasi sono identiche l’energia libera interfacciale del materiale puro lungo una superficie omogenea sarà nullo e allora il lavoro di adesione (o meglio di coesione, in questo caso) sarà uguale a due volte la energia libera superficiale del materiale che stiamo considerando. Il segno negativo del risultato corrisponderà al fatto che l’energia del sistema è diminuita e che dobbiamo fornire energia per staccare le due fasi e creare nuova superficie, lottando contro le forze di coesione del materiale stesso: Se l’energia libera dello stato finale viene indicata con γ12 e con γ1 e γ2, rispettivamente quelle delle due fasi separate, il lavoro di adesione sarà: Wad = γ12 – γ1 – γ2 Wad = γ11 – γ1 – γ1 = –2γ1 (1) 2) Questo equivale ad affermare che in un processo ideale come quello descritto l’energia necessaria a creare una “frattura” nel materiale prima omogeneo è pari a due volte l’energia libera superficiale. Un processo reale che possa simulare il fenomeno ideale sopra illustrato è la frattura “fragile” di un materiale come il vetro, un processo di frattura che non preveda cioè fenomeni di deformazione “viscoelastica” in grado di dissipare energia con meccanismi non previsti nel nostro semplice esempio; quando questi fenomeni ricorrono, come in un metallo o in un polimero, simili meccanismi possono moltiplicare l’energia di frattura anche di 1000 volte. Se le due fasi sono diverse non potremo introdurre alcuna semplificazione; tuttavia ci soccorre l’equazione di Young (7); supponiamo di considera- Il punto di vista macroscopico: l’adesione termodinamica Consideriamo due superfici di estensione unitaria appartenenti ad una fase condensata, lisce e perfettamente omogenee, prima separate e poi ad intimo contatto, come nella figura 4; supponiamo che il processo avvenga in modo reversibile e che nel nostro sistema non si produca alcuna altra variazione, immaginiamo di operare a P e T costanti e definiamo la differenza di energia libera fra lo stato finale e quello iniziale “lavoro di adesione termodinamica”. 5 re liquida una delle due fasi e con un volume piccolo. Cosa succederà se realizzeremo lo stesso processo sopra descritto? La fase liquida darà luogo ad una goccia di forma definita e lungo la linea trifase che appartiene al solido, al liquido e al vuoto (o al gas) potremo definire un angolo con il vertice su questa linea e giacente sul piano ad essa perpendicolare nella zona di spazio occupata dal liquido (Fig. 5a): l’angolo di contatto. Se il solido è sufficientemente rigido esso non sarà deformato dalla presenza della goccia, altrimenti la deformazione sarà vistosa(Fig. 5b). Per scrivere l’equazione di Young si usa di solito una sorta di “trucco contabile”; invece di ragionare in termini di energie superficiali ovvero Energia/Lunghezza2, ci si ricorda che una energia è una forza per una lunghezza e si dividono numeratore e denominatore per L ottenendo Forza/Lunghezza, ovvero una forza per unità di lunghezza. Vi possiamo assicurare che questo non è a rigore necessario, ma solo un poco più facile e comune. Secondo questa descrizione, le energie superficiali appaiono come forze per unità di lunghezza applicate al confine delle superfici considerate e si possono più facilmente scrivere i corrispondenti bilanci; nella figura 5a abbiamo allora per le componenti orizzontali e verticali: γ1 = γ12 + γ2 cosθ e R = γ2 sinθ (3) dove gli indici 1 e 2 specificano le fasi solida e liquida, θ è l’angolo di contatto e R la reazione vincolare del solido; l’equazione di Young è la prima delle due. Se la sostituiamo nella (1) otteniamo Wad = –γ2 (1+cosθ), conosciuta come equazione di YoungDupré, che correla l’angolo di contatto con il lavoro termodinamico di adesione: più l’angolo di contatto è basso, maggiore è il lavoro di adesione, il cui segno negativo corrisponde ad una riduzione dell’energia libera del sistema. Se consideriamo una goccia d’acqua sul vetro pulito e sul teflon con angoli di contatto, rispettivamente di 0° e 120° il lavoro di adesione sarà più alto per la coppia vetro-acqua di un fattore 4 rispetto a quello teflon-acqua. Lo stesso rapporto vale approssimativamente anche fra gli sforzi necessari a separare (sempre in modo reversibile) due lastre di materiale fra cui sia posta una goccia di liquido; il calcolo corretto è un poco complesso e consiste nel determinare l’energia libera superficiale del sistema (ossia delle tre interfacce coinvolte, liquido-solido, liquido-vapore, solido-vapore) per una distanza assegnata fra le lastre ed un volume assegnato di liquido e nel calcolare quindi la variazione di tale energia libera al variare della distanza fra le superfici solide. Il tasso, cambiato di segno, di questa variazione fornisce la stima della forza agente fra le lastre. Il risultato del calcolo è simile, almeno nell’ordine di grandezza, a quello che si potrebbe ottenere dividendo brutalmente il lavoro di adesione per la distanza fra le superfici, sebbene questa metodologia sia fondamentalmente scorretta. Se le due fasi considerate sono entrambe solide non si può misurare il loro angolo di contatto, ma si può calcolare comunque la loro energia interfacciale ed il lavoro di adesione da una stima della energia libera superficiale dei due solidi, a sua volta ottenibile dagli angoli di contatto di uno o più liquidi sui solidi in questione; esistono almeno due approcci semi-empirici a questo scopo (la cosiddetta teoria acido-base e quella dell’equazione di stato) (8-9). Pur alquanto diversi dal punto di vista teorico, sono molto simili nei risultati numerici, sebbene occorra una notevole attenzione nella loro applicazione ed esistano interminabili discussioni congressuali e sulle riviste fra i loro sostenitori (10-11). Figura 5a: Una goccia di liquido su un supporto solido; le forze agenti comprendono non solo le tensioni interfacciali, ma anche la reazione vincolare che serve ad equilibrare la componente verticale della tensione superficiale del liquido; trascurare di considerarla corrisponde ad un errore concettuale comune a molti testi. Figura 5b: La forma del menisco se la fase inferiore ha una modulo meccanico basso o è un liquido, evidenzia l’importanza della reazione vincolare. In questo caso l’equilibrio delle forze sulla linea trifase prende il nome di triangolo di Neumann. 6 le. Tutte le altre molecole dipolari interagiranno con questo campo e la interazione effettiva dipenderà dalla mutua interazione delle molecole. L’equazione di Keesom fornisce una stima dell’energia di interazione fra molecole dipolari, mediando nel tempo ed assumendo che le molecole si distribuiscano sui vari livelli di energia disponibili secondo la distribuzione statistica di Maxwell-Boltzmann, nell’ipotesi che il sistema sia all’equilibrio termodinamico. Ciasuna molecola, che possegga o meno un dipolo costante, ha comunque una nuvola elettronica che può essere polarizzata dal campo elettrico; essa può essere polarizzata in modi diversi dalle oscillazioni esterne casuali. London usò l’approssimazione che la frequenza naturale di oscillazione può essere calcolata dall’energia di ionizzazione della molecola. Le nuvole elettroniche delle molecole interagenti oscilleranno in modo sincrono. L’analogo effetto dovuto all’interazione fra dipoli permanenti e dipoli indotti può essere calcolato dall’equazione di Debye, ma generando comunque un contributo inferiore ai precedenti. Nel 1937 Hamaker (14a) applicò il concetto delle forze interagenti fra coppie indipendenti di molecole per studiare i sistemi macroscopici in fase condensata. Egli usò i potenziali descritti prima e perfino lo stesso metodo generale di calcolo delle interazioni, sommando le forze interagenti fra molecole, considerate come coppie indipendenti. Questo metodo, che potremmo chiamare l’approssimazione bimolecolare, può essere usato se i materiali interagenti sono “gas diluiti”, ma la situazione è ovviamente differente in fase condensata. Sfortunatamente queste limitazioni non furono riconosciute fino almeno al 1955. In quell’anno Lifshitz (14b) sviluppò un nuovo trattamento, correlato a quello di London, ma applicabile alle fasi condensate. Nella sua teoria i corpi macroscopici erano considerati come un mezzo continuo e le loro interazioni erano calcolate da proprietà macroscopiche. Il metodo matematico di Lifshitz era ampiamente basato sulla meccanica quantistica e questo rese più difficile la sua comprensione fino a che altri ricercatori non mostrarono che approcci più semplici, introdotti come una sorta di “metodi di additività modificati” potevano raggiungere gli stessi risultati e superare i problemi dell’“approssimazione bimolecolare”. Se infatti si considera che in fase condensata i dipoli non sono liberi di ruotare, le loro disposizioni corrispondenti a minimi di energia presenteranno una struttura complessa. Se i momenti dipolari sono apprezzabilmente più forti, l’agitazione termica non sarà in grado di rendere effettivamente casuali le orientazioni dei dipoli. Inoltre occorrerà Tenete infine presente che la componente verticale delle forze in gioco esiste, anche se la reazione vincolare la annulla senza effetti visibili sui solidi comuni; nondimeno su un gel o su un altro liquido l’effetto sarebbe enorme e, comunque, trascurarla nell’analisi teorica porta a vistosi errori concettuali. Il punto di vista microscopico: le forze di interazione Quali forze si possono stabilire fra due fasi a contatto? In linea di principio le stesse interazioni che si possono esercitare anche all’interno di una fase, e cioè tutte le interazioni interatomiche ed intermolecolari che conosciamo. Legami di tipo ionico o covalente, per esempio, se le condizioni del contatto favoriscono la loro formazione. Tuttavia le interazioni di questo tipo necessitano di una vera e propria reazione e quindi non costituiscono la circostanza più comune. Nei casi più usuali dobbiamo mettere in conto quelle interazioni che si possano realizzare senza che si verifichi una vera e propria reazione fra i costituenti delle due fasi. Tali forze sono comunemente classificate basandosi sul concetto delle interazioni fra dipoli permanenti o indotti. Tale classificazione, tuttavia, risulta alquanto datata. Nel 1872 van der Waals (12), studiando i gas reali, propose la sua famosa equazione e per spiegare il termine correttivo sulla pressione di un gas reale (+a/V2) egli ipotizzò l’esistenza di forze attrattive fra le molecole (c.d. forze di van der Waals), per le quali fu assunto un generico potenziale del tipo: w(r) = A r-n - B r-m (4) essendo r la distanza intermolecolare e A, B, n, m dei parametri costanti. Negli anni seguenti, fino al 1930, un set di equazioni che definivano le interazioni fra dipoli indotti o permanenti fu sviluppato da Debye (13a), Keesom (13b) e London (13c). Nel 1928 LennardJones e Dent (13d) introdussero la componente repulsiva del potenziale ottenendo il famoso potenziale <6-12>. In tutti questi casi la teoria considerava esplicitamente la situazione delle forze agenti fra coppie di singole molecole indipendenti. Le forze di London possono esistere fra tutti i tipi di molecole, polari o meno, mentre l’insorgere delle forze di Debye e Keesom dipende dall’esistenza di dipoli permanenti. Nelle vicinanze di una qualunque molecola esisterà un campo elettrico, dovuto alla distribuzione non uniforme della carica elettrica. Questo campo varierà con il tempo in direzione ed intensità a causa delle rotazioni ed oscillazioni delle moleco- 7 tenere in considerazione altri elementi, quali la struttura geometrica delle molecole e le distanze di minimo avvicinamento dei dipoli. Tutti questi fatti hanno una conseguenza significativa: l’energia di interazione dipolo-dipolo attraverso l’interfaccia è ben al di sotto di quella calcolata dall’approssimazione bimolecolare. Un esempio qualitativo per comprendere questa differenza è mostrato in Figura 6; lo stato di minima energia di due dipoli interagenti è mostrato in a) in fase gassosa e in b) si mostra il minimo energetico di tre dipoli, in fase condensata. Nel caso a) entrambi i dipoli sono nello stato di energia più basso se considerati come una coppia; nel caso b) nessuna coppia di dipoli è nel proprio stato di minima energia. Il minimo energetico è associato alla struttura “globale” e nessun approccio che consideri solo coppie di dipoli sarà capace di calcolare in modo corretto il minimo energetico del sistema; di conseguenza, l’importanza delle interazioni dipolari è stata grandemente e scorrettamente amplificata dall’uso dell“approssimazione bimolecolare”. ottenne un valore di soli 1.4 mN/m rispetto ad un totale di 72,8 mN/m della tensione superficiale ed a 22 mN/m delle interazioni di van der Waals. Solo tre anni dopo, Fowkes propose di fattorizzare l’energia libera superficiale delle fasi condensate. I residui 51 mN/m della tensione superficiale dell’acqua furono così attribuiti alle cosiddette forze acido-base di Lewis, di cui i legami idrogeno sono l’esempio più conosciuto. Queste interazioni nascono dal fatto che in meccanica quantistica anche gli orbitali vuoti delle molecole possono interagire con quelli pieni; in particolare gli orbitali di frontiera, cioè l’orbitale pieno ad energia più alta (Higest Occupied Molecular Orbital, HOMO) e l’orbitale vuoto ad energia più bassa (Lowest Unoccupied Molecular Orbital, LUMO) sono il sito delle interazioni di Lewis, in cui “densità elettronica” ovvero coppie elettroniche di non legame possono essere condivise, anche in modo parziale, fra molecole diverse. Il donatore di densità e l’accettore di densità saranno rispettivamente una base ed un acido di Lewis “in senso generalizzato”. Queste forze saranno complesse e specifiche e non si potranno descrivere con potenziali relativamente semplici come quelli proposti per le interazioni dipolari. Solo un calcolo quantomeccanico può renderne conto in modo soddisfacente. Questa relativa complessità può parzialmente spiegare le difficoltà che le interazioni acido-base incontrano nell’essere riconosciute ed accettate come rilevanti nei fenomeni di adesione. Nondimeno, in settori scientifici non direttamente connessi allo studio dei fenomeni adesivi, come la chimica fisica organica, questo tipo di interazioni costituisce la base dell’interpretazione moderna dei processi chimici. Si veda a questo proposito un testo classico come “Frontier Orbitals and Organic Chemical Reactions” di Fleming (15). D’altronde in chimica fisica organica l’uso di questi concetti ha una lunga tradizione e l’uso di approssimazioni basate su di essi come le famose relazioni di Hammet, l’equazione di Drago, le Relazioni Lineari di Energia Libera (Linear Free Energy Relationships, LFER) (16-18), proposte da Abraham e altri, fa parte della struttura concettuale della chimica organica. Il legame idrogeno è null’altro che un esempio di questo tipo di interazioni e quindi sono forze acido-base di Lewis, non la semplice “polarità” della molecola che conferiscono all’acqua le sue straordinarie proprietà; i polimeri comuni possono essere suddivisi sulla base della loro capacità di interagire tramite queste stesse forze; i polimeri come il polietilene, il polipropilene, il politetrafluoroetilene hanno una struttura molecolare in cui Figura 6: Due dipoli che interagiscono in fase gassosa (a) si dispongono nella effettiva configurazione di minimo energetico; in fase condensata (b) tale minimo globale corrisponde ad una posizione in cui ciascuna coppia NON si trova nel proprio minimo locale; tuttavia nel calcolo si usa la cosiddetta “approssimazione bimolecolare” sommando le forze che agiscono fra le molecole, considerate come coppie indipendenti, cioè continuando a supporre una situazione del tipo (a). Questo errore di impostazione è alla base della eccessiva importanza data alle interazioni “polari” ed all’uso improprio di tale termine in fase condensata. Fu solo nel 1966 che Good (14c) usando l’approccio di Lifshitz concluse che in molecole “polari” come l’acqua la rilevanza delle interazioni puramente dipolari era molto piccola. Per l’acqua egli 8 l’accettazione o la cessione di densità elettronica in orbitali di frontiera corrisponderebbe ad una elevata variazione strutturale con un conseguente innalzamento della loro energia; il processo appare sfavorito e quindi non rimane loro che interagire tramite deboli interazioni di tipo “dipolare” appartenenti alle tre categorie prima indicate. Questi polimeri sono chiamati di volta in volta, dispersivi, idrofobici, ecc. Viceversa polimeri quali il polietilenossido e il polimetilmetacrilato, posseggono un elevato numero di atomi di ossigeno i cui doppietti di non legame sono in grado di donare densità elettronica e quindi sono in grado di interagire fortemente comportandosi da basi di Lewis; altri polimeri come il polivinilcloruro o il polivinilfuoruro, eventualmente post-alogenati, sono in condizione di accettare densità elettronica sui siti adiacenti agli atomi di alogeno e si comportano quindi da acidi di Lewis (badate che la semplice molecola di cloroformio è già un acido di Lewis capace di favorire l’ossidazione del ferro). Altri ancora, come le poliammidi o le proteine, possono comportarsi in entrambi i modi; si intende che questi stessi polimeri hanno anche una certa capacità di interagire secondo le interazioni “dipolari” tipiche dei polimeri idrofobici. Gli anelli benzenici si comportano da deboli elettrondonatori e quindi da deboli basi, per cui il polistirene appare dispersivo con una debole componente basica. Tenete presente che parliamo qui di polimeri puri; gli additivi hanno la maledetta abitudine, supportata dalla generale tendenza a minimizzare l’energia libera interfacciale, di segregarsi all’interfaccia! C’è un semplice ma esemplare esperimento realizzato da Fowkes e pubblicato nel 1987 (19). Due polimeri, PMMA e PVC-postclorurato si formano per “casting” su due vetri, uno il comune vetro sodio-silicato, di natura basica, l’altro lo stesso vetro immerso in una soluzione debolmente acida per una notte, allo scopo di conferirgli una natura acida grazie allo scambio protone-ione sodio. Un semplice esperimento di misura dell’adesione meccanica fra film e substrato (peeling) mostra che le interfacce PMMA-vetro basico e PVC-vetro acido si rompono, mentre nel caso di PMMA-vetro acido e PVC-vetro basico sono gli stessi film a rompersi! (Fig. 7) In pratica le forze acido-base, se attive, sono dominanti rispetto alle altre e nel caso che film e supporto siano l’uno acido e l’altro basico o viceversa le interazioni adesive all’interfaccia sono dunque più forti di quelle coesive del film stesso. Figura 7: Films di polimero basico o acido aderiscono preferenzialmente a supporti rispettivamente acidi o basici, come dimostrato dall’esperimento citato di Fowkes. Il punto di vista operativo: l’adesione “pratica” Dopo tante pagine di discorsi i nostri lettori avranno già moltissime obiezioni e questioni, spesso tratte dalla loro esperienza; affrontiamo allora in questo paragrafo le questioni che nascono dalla esperienza concreta dell’adesione. L’interpretazione dell’esperienza concreta di quanti operano in un certo settore richiede spesso anni di lavoro scientifico e molte teorie. Lungi da noi sostenere che è semplice giustificare le regole pratiche; tuttavia in molti casi si possono avanzare ragionevoli interpretazioni. Una questione non banale è la seguente: visto che ci sono tante forze che si possono sviluppare fra le fasi, perché abbiamo bisogno di un adesivo per incollarle? La risposta più banale è che tali forze si esercitano in modo efficace a distanze molto piccole dell’ordine dei nanometri, per cui la normale rugosità superficiale di una fase la rende “inavvicinabile” da una fase diversa a distanze veramente piccole ed efficaci. Un adesivo è quindi un modo di gettare un ponte fra le due fasi, comunicando attraverso le proprie forze di interazione con l’una e l’altra, una sorta di ambasciatore o se volete di mezzo di comunicazione, capace di stabilire un contatto con entrambe. Questo è facilitato dal fatto che un adesivo di norma è liquido e deve “bagnare” entrambe le fasi, cioè arrivare ad intimo contatto con entrambe. Detto questo può sembrare addirittura strano che sia pratica comune l’irrugosimento delle superfici da incollare ottenuto attraverso l’abrasione o, ciò che è equivalente, che sia comune in campo ingegneristico l’idea del cosiddetto “mechanical interlocking”, una espressione che si potrebbe tradurre, “blocco o adesione meccanica”, una componente delle forze adesive dovuta a meccanismi di contatto; l’argomento è fortemente controverso; l’irrugosimento di una superficie corrisponde all’attivazione di un meccanismo indipendente di adesione o piuttosto non è esso un modo di esaltare i meccanismi di adesione già presenti? 9 L’irrugosimento da un lato aumenta la superficie specifica, cioè la superficie effettiva disponibile su una certa area geometrica e contemporaneamente da importanza alla componente della forza adesiva non perpendicolare all’interfaccia, ma ad essa parallela. In questo modo l’irrugosimento da una parte incrementa quantitativamente le forze già esistenti, d’altra parte esso consente l’ingresso in campo alle forze “repulsive”. Spostare lateralmente due fasi di forma irregolare comporta l’ingresso in gioco delle formidabili forze repulsive dovute alla repulsione elettronica fra le nubi elettroniche di atomi e molecole, teorizzata già da LennardJones e Dent nel 1928. Effetti di questo tipo sono decisivi nei meccanismi di attrito. Vorremmo notare che tali forze sono maggiori di quelle attrattive: il potenziale 6-12, è molto più ripido dal lato repulsivo e quindi le forze repulsive, che sono date dalla derivata dell’energia di interazione contro la distanza, sono maggiori di quelle attrattive. Esse rendono conto della impenetrabilità dei corpi. Esistono poi degli aspetti pratici dell’irrugosimento che non hanno a che fare direttamente con la variazione di rugosità: abradere la superficie vuol dire eliminare sporco, porzioni ossidate, specie per i metalli, o ancora, nel caso dei polimeri, la cosiddetta “weak boundary layer” (WBE), uno strato esterno che può contenere molecole più corte, degradate o additivi. In tal modo, indirettamente, la superficie migliora dal punto di vista meccanico. È comune osservazione che il lavoro di adesione meccanico sia molto diverso, nella maggioranza dei casi ben superiore, rispetto a quello calcolato per via termodinamica. Ciò è dovuto in primo luogo alle ben diverse condizioni sperimentali di misura. Nella figura 8a sono mostrati alcuni dei più comuni tipi di giunto; e nella 8b le principali modalità di sollecitazione di un giunto; in ciascuna modalità la distribuzione degli sforzi è completamente diversa. Tuttavia si vede abbastanza facilmente che forze non perpendicolari alla superficie possono avere una importanza notevole. Le superfici reali non sono lisce ed omogenee ed infine il processo di distacco non è reversibile; esso si svolge ad una certa velocità e quindi il fenomeno è funzione del tempo ed interessa una porzione di materiale il cui spessore non è affatto infinitesimo, ma può essere molto grande, di migliaia di strati atomici o molecolari. Per tutti questi motivi ci sono componenti “irreversibili” della adesione che entrano in gioco, meccanismi legati anzitutto alla dissipazione di energia all’interno di ciascuna fase a contatto, (ed in questo senso l’adesivo è una fase o una interfase), piuttosto che all’interfaccia, attraverso meccanismi viscosi che amplificano centinaia o migliaia di volte il lavoro termodinami- Figura 8a: I principali tipi di giunto adesivo: A) Lap, B) Butt-Lap, C) Butt, D) Scarf, E) Strap. L’adesivo è in colore. Figura 8b: Le sollecitazioni su un incollaggio possono essere varie: A) dilatazione o tensione, B) compressione, C) Shear, D) Cleavage, E) Peeling; a ciascuna corrisponde una ben definita distribuzione di sforzi, che può anche essere fortemente asimmetrica. L’adesivo è in colore, mentre le forze indicano le sollecitazioni. co vero e proprio, trasformando in calore il lavoro impiegato. In altri casi, come per l’adesione fibramatrice che è molto importante nel caso di materiali compositi, sull’interfaccia si può anche esercitare una pressione notevole che incrementa l’attrito all’interfaccia, e quindi agisce attraverso i tipici meccanismi di attrito: incremento dell’area di contatto, ruolo delle componenti parallele dovute a forze repulsive, mechanical interlocking, ecc. Il problema generale è stato affrontato in modo esemplare da Maugis (20); la sua conclusione è che il lavoro di adesione meccanica è pari a Wad-mecc = Wad-ter + f(v), dove v è la velocità della sollecitazione ed f una opportuna funzione. Alcune delle grandezze teoriche che abbiamo introdotto nei paragrafi precedenti subiscono nelle nuove condizioni “pratiche” cambiamenti inattesi. L’angolo di contatto, per esempio, che secondo l’e- 10 quazione di Young dovrebbe essere una funzione di stato, diventa un parametro dipendente dal processo; non è possibile individuare un singolo angolo di contatto, ma addirittura una serie di valori, compresi fra un massimo ed un minimo, chiamati di solito, angolo di avanzamento e di recessione. La spiegazione di tale fatto viene schematizzata in Figura 9. La energia libera di un sistema interfacciale non possiede in condizioni “pratiche” un solo minimo assoluto corrispondente allo stato di equilibrio del sistema, ma una serie di minimi “locali” nei quali il sistema interfacciale può rimanere intrappolato, stati “metastabili” di equilibrio nei quali il sistema può permanere per tempi indefiniti, dipendenti dalle condizioni dell’esperimento. Questi minimi sono legati all’esistenza di eterogeneità chimica o rugosità sulla superficie. Consideriamo ancora il caso banale di una goccia di liquido su una superficie solida; in uno dei paragrafi precedenti abbiamo introdotto per questo caso semplice l’equazione di Young ed il lavoro di adesione, che esprimono le condizioni di equilibrio e il lavoro necessario al distacco del liquido dalla superficie. Nelle nuove condizioni “pratiche” consideriamo cosa avviene se incliniamo la superficie; quali saranno le condizioni per le quali la goccia “scivolerà” sulla superficie? È un fenomeno che ha una diretta importanza in molte applicazioni di interesse tecnologico, che manipolano gocce; in pratica, mentre nel primo caso avevamo considerato la resistenza a forze di distacco perpendicolari, adesso consideriamo quella a forze di tipo parallelo, rispetto alla superficie. Il calcolo è stato svolto per esempio da Furnidge nel 1962 (21); il risultato è la seguente equazione, dove m è la massa della goccia, g l’accelerazione di gravità, a l’inclinazione del piano, w il diametro trasversale della sezione di goccia all’interfaccia, γLV la tensione superficiale del liquido e θA e θR i due angoli di avanzamento e di recessione. mg(sinα ) = γ LV (cos υ R − cos υ A ) w (5) Le forze di interazione fra le fasi sono comprese nel parametro w; se una goccia interagisce bene col substrato essa vi si spanderà (w grande), mentre una scarsa interazione corrisponderà ad una goccia che ridurrà la sua superficie di contatto (w piccolo). D’altronde sarà la differenza fra avanzamento e recessione (a volte detta isteresi) a rendere conto dell’“attrito” fra goccia e superficie. A parità di isteresi una goccia che bagna la superficie avrà bisogno di un angolo di inclinazione maggiore per scivolare via di una che bagna male; ma d’altra parte su una superficie dotata di ampia isteresi una goccia che non bagna potrà essere bloccata, mentre su una a bassa isteresi una goccia che bagna potrà scivolare via, in barba a considerazioni puramente “energetiche”. Perché un adesivo si comporti come tale, legando due fasi, esso dovrà dunque: • avere un contatto intimo con entrambe le fasi, ovvero bagnarle o ancora avere rispetto ad esse un angolo di contatto basso; • possedere una propria significativa energia di coesione, dell’ordine di quella dell’interfaccia adesiva; Le superfici da unire a loro volta dovranno essere bagnabili ovvero avere una elevata energia superficiale, eventualmente indotta da adeguati metodi di trattamento delle superfici; fra tali trattamenti l’irrugosimento, pur non aumentando l’energia superficiale, consente di aumentare l’area specifica e sfruttare le componenti repulsive delle interazioni, soprattutto per sollecitazioni con una componente parallela alla superficie. Il pretrattamento delle superfici serve essenzialmente ad innalzare la loro energia superficiale e quindi a renderle meglio bagnabili dall’adesivo; eliminare lo sporco è il primo passo, introdurre funzioni chimiche capaci di interagire secondo le modalità acidobase il secondo. L’ossidazione chimica delle Figura 9: L’energia libera interfacciale possiede, nei sistemi reali, un gran numero di minimi locali nei quali il sistema rimane catturato; tali minimi locali corrispondono a stati metastabili del sistema e danno origine al fenomeno dell’isteresi dell’angolo di contatto. 11 superfici con potenti agenti ossidanti quali l’ozono, prodotto nelle vicinanze della superficie (effetto corona), è molto comune e diffuso; a questo si è aggiunto nel tempo il bombardamento della superficie con particelle ionizzate o radicaliche, come quelle contenute in una fiamma (fiammatura) o in una scarica elettrica a bassa pressione (plasma a radio-frequenza). Molti sostituti dell’acqua sono stati sviluppati negli ultimi 5000 anni. Soluzioni acquose di sostanze naturali come la “colla di pesce” o di riso ottenute bollendo materiali biologici ed estraendo quindi proteine e polisaccaridi, che diventano solidi dopo l’asciugatura, hanno rappresentato delle ottime colle usate per secoli. La ceralacca o il bitume sono stati a loro volta i capostipiti delle colle a caldo, le moderne hot-melt e dei moderni sigillanti. Un liquido caldo a bassa tensione superficiale si adatta e bagna molti materiali e la fusione all’aria lo ossida leggermente; dopo il raffreddamento e la solidificazione esso rimane adeso al supporto. Rimangono fuori dalla nostra analisi sostanze prodigiose di origine naturale, come i liquidi adesivi lungo i fili non-radiali delle tele di ragno, come i materiali presenti sulle punte delle dita del geco o quelli che favoriscono l’adesione dei molluschi in un’ambiente così difficile come la zona intertidale (come il bisso, che è ricco di amminoacidi capaci di realizzare legami idrogeno e quindi interazioni acido-base) (24); tuttavia qui parliamo di prodotti tecnologici, non naturali. Dagli antenati tecnologici citati prima, sono venuti fuori nel tempo le varie classi di adesivi; dal punto di vista dei costituenti potremmo dividerli in tre gruppi principali: • soluzioni di polimeri, in genere lineari, termoplastici, in solventi organici o acquosi, la cui fase di indurimento corrisponde all’eliminazione del solvente; • soluzioni o miscele di monomeri o di molecole comunque piccole che si trasformano in un polimero termoplastico o termoindurente o comunque vanno incontro ad una reazione chimica vera e propria, dopo un opportuno trattamento (“curing”) legato all’uso di agenti chimici o fisici specifici che fungano da catalizzatore od iniziatore; • una sostanza (polimero termoplastico) allo stato fuso la cui fase di indurimento corrisponde alla presa dell’adesivo. Esistono adesivi che mescolano in qualche modo le tre modalità precedenti. Notate che la formazione di legami covalenti avviene qui all’interno dell’adesivo, non all’interfaccia di adesione fra adesivo e substrato, sebbene ciò possa avvenire in certi casi e con certi additivi. Una suddivisione diversa, più legata all’uso pratico ed al mercato degli adesivi e quindi non “mutuamente esclusiva” potrebbe essere la seguente: • strutturali; possono sopportare carichi elevati; di solito sono termoindurenti ad uno o due componenti; hanno bisogno di curing effettuato tramite calore, presenza o assenza di determinate Una considerazione finale è necessaria per i meccanismi adesivi di tipo “diffusivo”; la interdiffusione di molecole è efficace quando la fase da incollare ha una relativa mobilità molecolare, come per esempio nel caso dei polimeri al di sopra della loro temperatura di transizione vetrosa, Tg, che è la situazione comune di molti materiali polimerici. Si tenga presente che dallo studio delle proprietà dell’acqua si è tratto un modello, cosiddetto del “surface melting” (22) per il quale anche un cristallo, a temperature ben al di sotto di quella di fusione, possiede una parte più esterna, il cui spessore si incrementa con la temperatura, che è parzialmente disordinata; dall’analisi dei polimeri si sa che la superficie, anche al di sotto della Tg, possiede una mobilità notevole (23) che consente al materiale di “adattarsi” all’ambiente esterno, esponendo i gruppi funzionali che meglio interagiscono e quindi minimizzando l’energia del sistema. Tutto ciò spiega bene quindi come meccanismi diffusivi possano essere chiamati in causa per spiegare, ad esempio, l’azione di molti “primers”, sostanze che facilitano i successivi trattamenti di verniciatura o di adesione. Quale adesivo mi serve? Esistono migliaia di adesivi e sigillanti diversi e va da se che la loro classificazione non è unica; nel seguito daremo alcune indicazioni sui principali tipi di adesivi disponibili, senza alcuna pretesa di completezza rimandando per questo a qualche aggiornato handbook (vedi fine paragrafo). Capostipite di tutti gli adesivi è stata la semplice acqua, un film sottile della quale riesce a funzionare da adesivo capillare fra due materiali ad alta energia superficiale, sui quali abbia angolo di contatto zero, come due lastre di vetro ben pulito, con una forza esprimibile come f = 2γLVA/d, dove A è l’area di contatto fra liquido e solido e d la distanza delle lastre; due lastre di 1 cm2, bagnate da un microlitro di acqua saranno a distanza di 10 micron e la forza di adesione sarà quindi circa 1,5 N, ovvero uno sforzo equivalente di 0,015 MPa. Tuttavia, essendo un liquido e per di più poco viscoso, essa non presenterà praticamente alcuna resistenza “coesiva”. 12 - ovviamente sulla rete; per esempio: http://www.pprc.org/pprc/p2tech/Common98/bib lio.html; - un paio di handbooks: - A. Pizzi, K.L. Mittal(eds), Handbook of adhesive technology, Marcel Dekker Inc. 1994 (non fatevi ingannare Antonio Pizzi lavora in Francia) - Engineered Materials Handbook, vol. 3, ASM international, H.F. Brinson ed. 1990 - Adhesives and adhesive tapes, G. Gierenz e W. Karmann, ed. Wiley-VCH, 2001 sostanze; di questo gruppo fanno parte gli adesivi più famosi: resine epossidiche, troppo famose per parlarne, poliuretani usati come schiume soprattutto nell’industria dei frigoriferi, acrilici modificati di tipo termoindurente, cianoacrilati a curing molto veloce che necessitano di acqua come iniziatore e hanno problemi sulle superfici acide, anaerobici che induriscono in assenza di ossigeno, siliconi, resine fenoliche; • hot-melt; tutti termoplastici che fondono in un preciso intervallo di temperatura trasformandosi in liquidi poco viscosi che induriscono rapidamente e senza alcun curing; in principio qualunque termoplastico potrebbe essere usato; in pratica EVA, PVA, PE, PP amorfo; • sensibili alla pressione (pressure sensitive); la loro presa necessita di una pressione a temperatura ambiente; possono appartenere ad una delle altre categorie e sono usati principalmente su un supporto, come un nastro; i loro costituenti principali sono gomme naturali, poliacrilati, siliconi e elastomeri termoplastici con struttura di copolimero a blocchi, come SBS; • a base acquosa; sono sciolti o dispersi in acqua e la presa necessita della evaporazione dell’acqua; troviamo qui gli adesivi di origine naturale: caseina, amido, destrina, ecc.; abbiamo poi polivinilalcool e polivinilacetato, resine formaldeidiche, policloroprene; nuovi derivati acrilici sono stati sintetizzati negli ultimi anni; • a base solvente; sono sciolti in solvente organico e la presa necessita della sua evaporazione; sono usati sempre meno per problemi di inquinamento, ma rimangono utili per superfici a bassa energia; • “curing” effettuato da radiazioni UV e fasci di elettroni (UV-EB cured); si tratta di liquidi reattivi che abbisognano di curing per divenire solidi. Sono in genere monomeri che polimerizzano per addizione; esteri degli acidi acrilici e resine epossidiche aromatiche od alifatiche, poliuretani, poliesteri. Bibliografia (1) (2) (3) (4) (5) (6) (7) (8) (9) (10) (11) (12) (13a) Nel corso degli anni si è assistito ad una gara verso l’uso di nuovi prodotti di sintesi, in grado di resistere a temperature sempre più alte e a condizioni sempre più estreme; inoltre si vanno affermando i prodotti “ semplici”, gli hot-melts, piuttosto che quelli sciolti in solventi organici. Nuovi settori, completamente nuovi, come adesivi conduttori o adatti per tessuti biologici diventano sempre più importanti. Il settore è così vulcanicamente rinnovato che è forse più utile dire… …dove trovare informazioni specifiche sugli adesivi: (13b) (13c) (13d) (14a) (14b) (14c) 13 Enciclopedia Zanichelli. Bologna: Zanichelli 1995. Leonardo da Vinci. Opere (RL 19151r). G. Lanzavecchia, Voce Fenomeni superficiali. In: Enciclopedia di Scienza e Tecnica. EST, Mondadori 1968. J.W. Gibbs. On the equilibrium of heterogeneous substances. In: The collected works of J.W. Gibbs. New Haven: Yale Univ. Press 1957:54-355. E.A. Guggenheim. The thermodynamics of interfaces in systems of several components. Trans. Faraday Soc. 1940;36:398. R. Defay, I. Prigoggine, A. Belleman, Everett D.M. Surface Tension and Adsorption. Longmans: Green & Company, Ltd. 1966. T. Young. Phil. Trans. 95, 65, 84 (1805), ma era stata già pubblicata nel dicembre 1804 su Proc. Roy. Soc. (Lond.). A.W. Neumann, J.K. Spelt, eds. Applied Surface Thermodynamics. NY: Marcel Dekker 1996. R.J. Good, C.J. van Oss. In: M.E. Schrader, G. Loeb, eds. Modern Approach to Wettability, Theory and Application, chap. 1. New York: Plenum Press 1991. C. Della Volpe, S. Siboni. Troubleshooting of acidbase theory applied to solid surfaces. In: K.L. Mittal, ed. Acid-base reactions: relevance to adhesion science and technology. NY: VSP 2000;2:5590. I.D. Morrison. Langmuir 1991;7:1833-6. J. van der Waals. Thesis. Leide University 1872. P.J.W. Debye. Die Van der Waalsschen Kohäsionkräfte. Phys. Z. 1920;21:178-87, 1921;22:302. W.H. Keesom. Die Van der Waalsschen Kohäsionkräfte. Phys. Z. 1921;22:129-41, 1922;23:225. F. London. Phys. Z. 1930;60:491. J.E. Lennard-Jones, B.M. Dent. Trans. Faraday Soc. 1928;24:92-108. H.C. Hamaker. Physica 1937;4:1058. E.M. Lifschitz. Zh. Eksp. Teor. Fiz. 1955;29:94, Sov. Phys. JETP 1956;2:73. J.R. Good, MC Phillips. In: Proc. Conf. on Wetting, Bristol, England, Soc. Chem. Ind. (15) (16) (17) (18) (London) Monograph n. 25, 1966:44-8. I. Fleming. Frontier Orbitals and Organic Chemical Reactions. London: John Wiley & Sons 1976. L.P. Hammett. Physical Organic Chemistry. New York: Mc Graw-Hill 1970. R.S. Drago. Struct. Bond. 1973;15:73-139; M.K. Kroeger, R.S. Drago. J. Am. Chem. Soc. 1981;103:3250. M.J. Kamlet, J.M. Abboud, M.H. Abraham, R.W. Taft. Linear Solvation Energy Relationships. 23. A Comprehensive Collection of the Solvatochromic Parameters, p, a, and, ß, and Some Methods for Semplifying the Generalized Solvatochromic Equation. J. Org. Chem. 1983;48:2877-91; M.H. Abraham. Scales of solute hydrogen-bonding: their construction and application to physicoche- (19) (20) (21) (22) (23) (24) 14 mical and biochemical processes. Chem. Soc. Rev. 1993:73-83. F.M. Fowkes. Role of acid-base interfacial bonding in adhesion. J. Adhesion Sci. Technol. 1987;1:7-27. D. Maugis. J. Material Sci. 1985;20:3041-73. G.C.L. Furnidge. Studies at phase interface. I. The sliding of liquid drops on solid surfaces and a theory for spray retention. J. Colloid Interf. Sci 1962;17:309. J.S. Wettlaufer. Ice surfaces: macroscopic effects of microscopic structure. Phil. Trans. R. Soc. Lond 1999;A357:3403-25. J.D. Andrade, R.N. King, D.E. Gregonis, D.L. Coleman. J. Polym. Sci. Polym. Symp. 1979;66:313-36. R. Rizzo. AIM Magazine 2000;54(1):6-8. MACROMOLECOLE NELLO SPAZIO di Cesare Guaita Perché un articolo di astronomia e perché proprio da Guaita? Due domande a cui è facile rispondere. Innanzitutto si parla di polimeri sintetizzati nello spazio e l’argomento è pertinente: poi non si tratta di macromolecole strane ma di polimeri di importanza tecnologica che l’uomo è riuscito a sintetizzare solo nell’immediato dopo guerra, come nel caso del POM. Che il discorso dovesse essere fatto da uno che conosceva l’astronomia era fuor di discussione ma se lo avessimo affidato a un astronomo-macromolecolare allora il risultato sarebbe stato garantito. Le mie relazioni con Guaita sono cominciate all’Università di Milano alla facoltà di chimica quando – io iscritto a pura e lui a industriale – ci riunivamo per le lezioni di Chimica Macromolecolare del prof. Farina, lezioni sicuramente memorabili. Già allora avevo capito che la grande passione di Guaita erano le stelle e ne fui definitivamente convinto quando poco tempo dopo me lo ritrovai collega al Centro Sperimentale della SNIA Viscosa. Lui sintetizzava e analizzava prodotti di riferimento per la sintesi dell’acido w-amminododecanoico (gruppo di ricerca sulla produzione industriale del monomero della poliammide 12) mentre io avevo cominciato ad occuparmi di polimerizzazione di 6 per il settore tecnopolimeri. Nel suo laboratorio i muri erano tappezzati di foto di pianeti, stelle e galassie. Quando si chiuse la ricerca sulla PA12 Guaita fu trasferito armi e bagagli (e le armi erano i sofisticati strumenti di analisi strumentale che lui utilizzava) al Centro Tecnologico Poliammidi della SNIA Tecnopolimeri e venne a lavorare nel laboratorio del quale ero responsabile. Furono quattro anni di lavoro in comune molto fruttiferi. Io, misero appassionato di cosmologia, aprivo spesso discorsi sull’argomento e per lui, esperto di planetologia ma “sapiente” in quasi tutte le discipline astronomiche e astrofisiche, era un invito a nozze. Lo definii – e continuo a farlo con più convinzione dopo che ho letto la sua breve presentazione – un astronomo che per mantenersi e coltivare la sua primaria passione era costretto a fare il chimico delle poliammidi, lavoro che gli dava da campare e che, nonostante i pochi riconoscimenti aziendali, faceva bene e con grande competenza. Detto ciò e conoscendo la sua grande capacità didattica e di coinvolgimento – semplicemente entusiasmante quando lo sentite nelle conferenze di astronomia – il prevedere che un suo articolo sulle macromolecole nello spazio avrebbe potuto, nonostante l’assenza dell’enfasi oratoria, essere stimolante era sin troppo facile e il risultato lo potete giudicare voi stessi leggendo questo pezzo. Roberto Filippini Fantoni Durante la formazione di ogni nuovo sistema planetario, le oltre 100 molecole organiche finora scoperte negli spazi interstellari si ritrovano inevitabilmente negli oggetti più primitivi come asteroidi e meteoriti e nei corpi di ghiaccio come le comete. Anzi, i gelidi nuclei cometari sono anche un ottimo supporto catalitico per la trasformazione di molecole organiche semplici in sostanze sempre più complesse a basso e ad alto peso molecolare. Da qui l’idea che proprio le comete contribuirono ad arricchire la Terra primordiale di molecole fondamentali per lo sviluppo della vita. Siccome una reazione organica ben difficilmente avviene ‘spontaneamente’ ed in presenza di una bassa concentrazione di molecole reagenti, si riteneva, fino a 50 anni fa, estremamente improbabile rinvenire composti organici fuori dalla Terra, in ambiente non biologico. Invece l’esplorazione ravvicinata dei pianeti e gli studi sullo spazio interplanetario hanno completamente sconfessato questa opinione. F ino alla metà del XX secolo la ricerca planetaria (come del resto tutte le altre branchie dell’Astronomia) era stata un campo esclusivo di fisici e matematici. Ma con l’avvento dell’esplorazione ravvicinata dei pianeti, anche geologi e chimici sono diventati, a pieno diritto, ‘colleghi’ degli astronomi tradizionali. In più, negli ultimi 15 anni, si è aperto un settore nuovissimo ed appassionante: quello della chimica organica e macromolecolare applicata allo studio dei nuclei cometari. 15 8% (si parla allora di condriti di classe C1, come la famosa meteorite di Orgueil): buona parte di questo materiale carbonioso è insolubile quindi, verosimilmente, ad alto peso molecolare. Certo, in questo caso una domanda è d’obbligo: da dove vengono il Carbonio e i suoi composti più semplici con Ossigeno, Idrogeno, Azoto presenti nelle condriti carboniose? Negli ultimi 25 anni la risposta è divenuta sempre più evidente con la scoperta, mediante indagini in infrarosso e in radio-onde, che sono almeno un centinaio le molecole organiche che disseminano le nubi interstellari della nostra e delle altre galassie; qui i granuli di polvere silicatica riescono ad assorbire singoli atomi di C, H, N, O (fanno cioè da autentici siti ‘catalitici’) che poi, sotto l’influsso della radiazione ultravioletta, possono legarsi a formare molecole contenenti anche decine di atomi diversi. È evidente che queste molecole interstellari entrerebbero a far parte di un eventuale sistema planetario che nascesse nelle vicinanze. Così il materiale planetario che ha subito meno processi evolutivi o perché non si è mai conglomerato in corpi maggiori (è il caso delle condriti carboniose) o perché si è condensato nei gelidi spazi lontano dalla stella centrale (è il caso dei nuclei cometari) conserverà la maggior parte delle molecole interstellari originarie e queste saranno un’ottima base di partenza per la produzione (stimolata, per esempio, dalla sovrabbondante energia della stella centrale) di sostanze sempre più complesse. Dopo queste premesse, non è difficile capire l’importanza da attribuire allo studio della natura chimica delle comete: esse sono degli agglomerati di materiale presolare originario, quindi ricco delle semplici molecole carboniose dello spazio interstellare (come le condriti carboniose) ma, in più, la loro massa è costituita fondamentalmente da ghiaccio d’acqua a bassissima temperatura. Abbiamo però già accennato come il ghiaccio sia un ottimo substrato catalitico per la formazione di molecole organiche complesse, anche partendo da composti del C estremamente semplici come CO2 e CH4: va da sé che se le molecole di partenza hanno già una certa complessità (e tali sono le sostanze che ogni cometa assorbe quando si forma nello spazio interstellare) la sintesi chimica cometaria possa essere estremamente più efficace e ricca di risultati. Sono ormai una cinquantina le molecole organiche semplici o i loro frammenti (3) rintracciate per via spettroscopica nelle chiome cometarie. Questo grazie soprattutto, a tre comete (Fig. 1): la Halley, che tornò per l’ultima volta nel 1986, la Hyakutake, ‘facile’ da osservare perché passò a soli 20 milioni di km dalla Terra nel 1996 e la CONDRITI CARBONIOSE Costituiscono circa il 6% delle meteoriti rocciose attualmente note. Il temine condrite deriva dalla presenza delle cosiddette condrule (piccole sferette di 110 mm di diametro formatesi in seguito ad un repentino ed ancora poco compreso trauma termico subito dal materiale solare primordiale). Da questo punto di vista la morfologia interna è simile a quella delle condriti ordinarie (circa l’80% delle meteoriti note). Quello che però rende assolutamente peculiari le condriti carboniose e che ne giustifica la denominazione è la presenza di una elevata quantità (fino al 10%) di composti a base di carbonio. Il 30% di questo materiale è di natura monomerica ed è stato ben studiato (vi predominano amminoacidi e zuccheri); per contro sul restante 70%, che appare di natura polimerica, le indagini chimiche sono ancora molto incerte. Notevole è anche la presenza di acqua e/o di composti inorganici alterati dall’acqua. Per la loro natura chimica così particolare, le condriti carboniose potrebbero essere frammenti di nuclei cometari o di corpi della fascia asteroidica più esterna (i cosiddetti asteroidi di classe C). Numerosi idrocarburi sono stati rinvenuti nelle atmosfere riducenti (ossia ricche di idrogeno, metano ed ammoniaca) dei pianeti esterni e di alcuni loro satelliti. Da questo punto di vista il caso di Titano, il maggiore satellite di Saturno, è davvero emblematico. Si tratta infatti di un corpo grande come la nostra Luna ma avvolto da una densa atmosfera di azoto resa opaca da una sospensione di idrocarburi ad alto peso molecolare simili a quelli che si formarono sulla Terra prima della nascita della vita: sarà entusiasmante, nel gennaio del 2005, l’esplorazione ravvicinata di questa specie di ‘Terra primordiale’ da parte della capsula Huygens, sganciata dalla sonda Cassini dopo che, nel luglio 2004, essa sarà diventata il primo satellite artificiale di Saturno. Un altro chiaro indizio della presenza di composti carboniosi ad alto peso molecolare è la colorazione scura della maggior parte dei corpi dotati di superficie ghiacciata: tra questi si collocano tutti i satelliti principali di Saturno, Urano e Nettuno ma, soprattutto, i nuclei delle comete. Molti esperimenti di laboratorio confermano questa interpretazione: miscele ghiacciate di acqua, metano, ammoniaca e anche anidride carbonica, sottoposte ad irraggiamento cosmico simulato, producono pellicole superficiali organiche tanto più scure quanto più è stato prolungato l’esperimento (1). Non bisogna inoltre dimenticare che del materiale organico è presente anche nei campioni più primitivi, e quindi meno evoluti, del Sistema Solare, come le meteoriti (2). Così nelle condriti carboniose, il contenuto organico può raggiungere il 6- 16 Figura 2: Alcune delle storiche immagini del nucleo della cometa 19P/Borrelly ottenute nella notte tra il 22-23 Settembre 2001 dalla sonda DS-1 da circa 2000 km di distanza. Si tratta di uno dei documenti più importanti di ogni tempo perché, per la prima volta, si sono potuti osservare dettagli geologici e morfologici sul nucleo di una cometa. Figura 1: Le tre comete più importanti della storia, prima della Borrelly: • a sinistra la Halley (1986), la prima cometa della quale si sia visto il nucleo (foto ESO e GIOTTO) • al centro la Hyakutake (1996) la prima cometa per la quale si sono studiati in dettaglio fenomeni di fissione e getti ‘a fontana’ emessi inizialmente in direzione solare (foto dell’autore) • a destra la Hale-Bopp (1997) la prima cometa per la quale si è trovato un netto collegamento tra attività nucleare e inclinazione dell’asse di rotazione verso l’osservatore (shells) e/o effetti stagionali) (foto dell’autore) anche analisi episodiche, in quanto sono dovuti passare ben 15 anni perché questa esperienza venisse ripetuta: il merito, in questo secondo caso, va tutto alla piccola sonda DEEP SPACE 1, che lo scorso 22 settembre è riuscita nell’impresa ‘impossibile’ di scrutare da vicino ed analizzare il nucleo della 19P/Borrelly, una cometa completamente diversa dalla Halley: il suo corto periodo (circa 7 anni contro gli 86 della Halley) ne fanno infatti un oggetto molto più degasato e, verosimilmente, ancor più ricco di materiali organici (Fig. 2). Il ‘mistero’ dell’assorbimento IR a 3,4 µm Hale-Bopp del 1997, che fu la più studiata della storia grazie alle gigantesche dimensioni del suo nucleo (le foto in basso sono relative alla zona del nucleo). Per i nostri scopi, comunque, vale la pena di menzionare almeno un paio di molecole cometarie classiche: una è il radicale CN (nitrile), tipico di quasi tutte le comete (4) e particolarmente importante perché è il segnale principale dell’inizio di qualunque attività cometaria (la sua rivelazione a 3883 Å al Multi Mirror Telescope, permise ad una équipe dell’Università dell’Arizona di annunciare, il 17 febbraio ’85, che la Halley iniziava in quel momento la sua attività); l’altra è la formaldeide, scoperta la prima volta in una cometa (la IRAS del 1983) dai due italiani S. Ortolani e C. Cosmovici (5). A parte le indicazioni spettroscopiche da Terra (quindi da lontano), la natura organica di una cometa è stata indagata per la prima volta ‘sul posto’ solo nella notte tra il 13 e14 marzo 1986: le analisi, effettuate sul nucleo della cometa di Halley dalle sonde VEGA e GIOTTO, sono state esaurienti e veramente appassionanti per un chimico. Purtroppo sono state Le sonde VEGA e GIOTTO recavano a bordo una decina di strumenti analitici. Due, però, sono risultate le tecniche più utili: la spettrometria di massa e la spettroscopia infrarossa. Mediante spettrometria di massa, fu possibile analizzare sia la polvere, sia il gas neutro, sia il gas ionizzato. Del gas già ionizzato si occupavano gli strumenti IMS su GIOTTO e PLASMAG su VEGA; del gas neutro si occupavano invece gli strumenti NMS su GIOTTO e ING su VEGA, dopo preventiva ionizzazione positiva. Più complicata (ma anche la più interessante dal nostro punto di vista) fu l’analisi delle polveri. Gli strumenti PIA su GIOTTO e PUMA su VEGA erano praticamente ‘gemelli’: le singole particelle di polvere incidevano inizialmente su una placca di Platino, si vaporizzavano e si trasformavano in ioni positivi prima di essere analizzate. Alla Spettroscopia infrarossa si dedicarono soprattutto le sonde VEGA con due strumenti: il TKS (Tree Channel Spectrometer) che, in realtà, lavorava, da 0,12 a 1,9 m e l’IKS (Infrared Spectrometer) che operava esclusivamente nell’infrarosso medio da 2,5 a 12 m (6). 17 La regione infrarossa più interessante si rivelò immediatamente quella compresa tra 3,4 e 3,7 m. Intanto, attorno a 3,6 m, apparve inconfondibile il picco della formaldeide. Ma l’impronta veramente peculiare era costituita da un doppio assorbimento attorno a 3,4 m, accompagnato da un altro assorbimento allargato tra 6 m ed 8 m. Un andamento analogo è stato riscontrato nei 45 spettri IR che la camera MICAS a bordo della sonda DS-1 ha realizzato il 22 settembre 2001 sul nucleo della cometa Borrelly (7). A distanza di molti anni l’individuazione della vera natura chimica della sostanza (o meglio, delle sostanze) coinvolta rimane molto discussa (in fondo qualunque sostanza organica costituita da lunghe catene di atomi di C presenta picchi analoghi). Un indizio importante, anche se indiretto, proviene dall’esame della porzione organica delle condriti carboniose di tipo C1: per circa il 70% si tratta di una complicata miscela di polimeri insolubili che, guarda caso, presenta anch’essa un inconfutabile assorbimento a 3,4 m; viene così spontaneo pensare che pure il materiale organico cometario sia di natura polimerica (un singolo polimero o, più probabilmente, una miscela di polimeri). Ma, ancora una volta, si rimane nell’incertezza: il numero di polimeri noti, infatti è troppo grande per un’individuazione univoca (in effetti, come vedremo, un polimero ben definito è stato davvero scoperto nella cometa di Halley, ma per via completamente differente). Forse proprio per questo, nei mesi successivi, questa storia si è tinta di nuovi aspetti, alcuni di estremo interesse altri, a dir poco, paradossali. Ad ‘attizzare le polveri’ furono F. Hoyle e C. Wickramasinghe che si lanciarono in un’interpretazione a dir poco sconcertante: l’impronta a 3,4 m fittava molto bene con quella prodotta da batteri disidratati a 60°C, quindi, questa era la dimostrazione che materiali organici di origine biologica esistevano nella cometa di Halley! Inutile dire che le polemiche che ne sono derivate sono state molto violente. La prima risposta è venuta da W. Chyba e C. Sagan: secondo i due studiosi della Cornell University l’assorbimento a 3,4 m si spiegava brillantemente considerando che una miscela di ghiaccio e metano (o, meglio, idrocarburi superiori, data la scarsità di metano riscontrata nella cometa di Halley) irraggiata da protoni o raggi cosmici, produceva automaticamente un evidente residuo organico polimerico; e se negli esperimenti di laboratorio il residuo era scarso, così non doveva essere nell’ambiente cometario: un flusso di particelle solari che dura da 4,5 miliardi di anni, l’energia legata al decadimento radioattivo dell’alluminio 26 per i primi 10 milioni di anni, il riscaldamento superficiale fino a 70-80°C durante i passaggi al perielio (queste sono le temperature misurate da VEGA 1 per la Halley e da DS-1 per la Borrelly) sono ragioni più che valide per postulare un’efficientissima sintesi organica. Per tutta risposta F. Hoyle e C. Wickramasinghe formularono una seconda ipotesi, questa volta basata su concrete osservazioni sperimentali. Secondo i due astrofisici (conosciuti in tutto il mondo come i principali fautori della ‘panspermia’, ossia dell’idea che la vita sulla Terra sia piovuta dallo spazio) il materiale organico ad alto peso molecolare responsabile dell’assorbimento a 3,4 m non è di origine cometaria ma venne prodotto fuori dalla cometa, prima che essa si agglomerasse. Ci sono infatti indizi che questo materiale si trovi disperso, in abbondanza, già negli spazi interstellari. E la dimostrazione si basa su un’altra osservazione clamorosa, effettuata spettroscopicamente dagli autori sulla sorgente IRS 7, in direzione del centro galattico: in questa zona, ricca di polvere, venne infatti misurato un netto assorbimento a 3,4 m, a dimostrazione che buona parte di quella polvere interstellare non era di natura silicatica ma organica. Che la composizione della polvere della Halley possedesse una consistente componente organica (diciamo attorno al 10%) non era indicato solo dall’assorbimento a 3,4 m ma anche dall’esame degli spettri di massa che le sonde GIOTTO e VEGA riuscirono ad effettuare su centinaia di singoli granuli di polvere (granuli nella maggioranza tanto piccoli – massa media = 10-16 g – da garantirne una composizione omogenea). Fu notevole costatare come esistessero tre categorie principali di particelle: alcuni granuli avevano una composizione da condrite carboniosa in quanto presentavano sia elementi silicatici (Na, Mg, Si, Fe) sia una buona quantità di Carbonio; altri granuli avevano una composizione esclusivamente silicatica; infine un’alta percentuale di granuli era composta totalmente da C, N, H e O, quindi si trattava integralmente di materiale organico (8). Occupiamoci allora dei cosiddetti granuli CHNO, perché sono quelli che più ci interessano in questa sede. Neppure questi granuli erano tutti uguali ed omogenei. Circa il 30% conteneva effettivamente sia C, che H, che N, che O: un esame molto sofisticato dei frammenti molecolari indicava, tra le molecole presenti, alcuni amminoacidi o precursori di amminoacidi (e questo certo non stupisce se si considera la reattività delle aldeidi cometarie con una un’altra molecola cometaria tipica come l’HCN). Un altro 30% di granuli cometari conteneva solamente C ed H: non c’è dubbio che si tratti 18 di miscele di idrocarburi insaturi ed aromatici. Un altro 20% di granuli conteneva C, H ed N: è la classe dell’HCN (acido cianidrico) e dei suoi derivati ma, negli spettri di massa, risulterebbe anche la presenza di basi puriniche e pirimidiniche (!). Infine il restante 20% di particelle conteneva C, H ed O e il responso dei frammenti molecolari indicava chiaramente i segnali dell’acido formico, dell’acido acetico, dell’acetaldeide e della (già nota) formaldeide. Ma, oltre a queste molecole semplici, la vera base dei granuli CHO potrebbe essere un’altra. La scoperta, una delle più notevoli dell’intera esplorazione cometaria, è quella della prima sostanza polimerica sicuramente rinvenuta fuori dalla Terra (9). Alla base, questa volta, ci sono misure dello strumento PICCA (Positive Ions Cluster Composition Analyzer) a bordo di Giotto. Tale strumento era in grado di determinare masse molecolari anche piuttosto alte dalla misura delle energie delle varie specie ioniche presenti. In Figura 3 viene riportata una media tra vari spettri di massa ottenuti nella chioma interna della Halley, tra 8200 e 12600 km dal nucleo (gli ioni pesanti sono molto meno ‘mobili’ dei leggeri e non si trovavano oltre i 15.000 km dal nucleo). Come si può notare, l’andamento dei picchi non è casuale: i vari massimi sono infatti distanziati alternativamente ora di 16, ora di 14 unità di massa. In più i frammenti molecolari più pesanti (a destra) sono proporzionatamente meno abbondanti dei più leggeri (a sinistra). Ebbene, queste due caratteristiche sono esattamente quelle che ci si deve aspettare dalla frammentazione di una molecola molto lunga, formata da tante unità uguali regolarmente ripetentesi, un polimero insomma. L’individuazione di que- sto polimero non è poi così difficile: si tratta del poliossimetilene, un polimero che venne prodotto industrialmente per la prima volta negli USA nel 1942 ma che evidentemente le comete, ricche come sono di formaldeide, impararono a sintetizzate qualche miliardo di anni prima… Gascromatografia ‘naturale’ di materiale organico cometario Un chimico sa benissimo che l’analisi gascromatografica è una delle tecniche più efficaci per la determinazione qualitativa e quantitativa di molecole organiche anche molto complesse. Questa tecnica, che comporta la preventiva vaporizzazione termica del materiale carbonioso in esame, sembrerebbe inapplicabile a corpi lontani e gelidi come i nuclei cometari. Invece, nel luglio 1994, un incredibile evento naturale ha provveduto a farci superare tutte le difficoltà ‘tecniche’ cui abbiamo fatto cenno. Parliamo del famoso impatto con Giove della cometa Shoemaker-Levy 9 (SL9), un oggetto delle dimensioni della Halley che essendo passato – l’8 luglio ’92 – a soli 40.000 km da Giove, venne inizialmente catturato in orbita gioviana, quindi disgregato dalla gravità del grande pianeta in 21 frammenti: due anni più tardi, nella settimana tra il 16 e il 22 luglio ’94 tutti questi frammenti precipitarono contro Giove in quello che è stato, forse, l’evento più seguito di tutta la storia dell’Astronomia. Ogni impatto ha prodotto su Giove impressionanti cicatrici scure, grandi come la Terra intera e talmente roventi da vaporizzare completamente tutto il materiale cometario. Su ciascuno dei questi pennacchi da impatto sono state condotte, da Terra, accurate indagini spettroscopiche che hanno fornito inestimabili informazioni sia sulla cometa come tale sia, più in generale, sulle proprietà dell’atmosfera di Giove (Fig. 4). Anche una semplice sintesi dei principali risultati raggiunti sarebbe improponibile in questa sede. Ci sembra però molto interessante fare un cenno al contributo che chi scrive ha personalmente offerto alla comprensione di certi fenomeni chimici completamente nuovi ed inaspettati. Diciamo innanzitutto che, tra le varie decine di molecole rivelate in corrispondenza dei punti d’impatto della cometa SL-9 con Giove, molto interessante è stata la presenza massiccia di Ossido di Carbonio, una molecola di sicura provenienza cometaria in quanto instabile in una atmosfera riducente come quella di Giove. Il CO è stato rivelato sia nel radio che in infrarosso in corrispondenza della caduta di frammenti di grosse e di piccole dimensioni. In particolare il gruppo di E. Lellouch ha lavorato nel radio a 230 GHz con il radiotelescopio IRAM da 30 m di Figura 3: Lo spettro di massa che dimostra come nelle polveri della chioma interna della cometa di Halley sia presente del poliossimetilene. L’analisi venne condotta il 14 marzo 1986 dallo strumento PICCA a bordo della sonda GIOTTO. 19 Il CO è stato ricercato senza successo nel radio in vari periodi fino a poco prima dell’impatto (12). Nel giugno-luglio ’94 all’NTT non si è mai trovata traccia evidente di CN (13) che pure è considerata una molecola talmente caratteristica da costituire quasi l’impronta digitale tipica dell’inizio di qualunque attività cometaria. Soprattutto la SL-9 non ha mai mostrato traccia, prima dell’impatto, dell’emissione più tipica di una cometa, vale a dire quella del radicale OH dovuto alla dissociazione dell’H20. Eppure questa ricerca è stata condotta in maniera intensiva dallo Space Telescope nell’UV a 309 nm (14) fino a poche settimane prima degli impatti. Ma se la mancata rivelazione di CN ed H2O può giustificarsi con la bassa temperatura dei frammenti dovuta all’estrema lontananza della cometa, questa spiegazione, come si accennava poco fa, non regge per il CO e rende poco probabile il fatto che il CO fosse presente come tale in forma gassosa prima dell’impatto. Una possibile spiegazione della rivelazione di CO solo durante gli impatti si deve a questo punto rifare alla presenza, nella SL-9, di qualche specie capace di decomporsi liberando questo gas in conseguenza del riscaldamento per attrito durante la penetrazione nell’atmosfera di Giove. Una molecola che sembra ideale per produrre questo effetto è il poliossimetilene (POM) un polimero della formaldeide che si può ritenere tipico di ogni nucleo cometario, dopo la già ricordata scoperta nel nucleo della Halley nel 1986 (15). Se si fa la ragionevole ipotesi che la SL-9 sia, nonostante tutto, un oggetto di natura cometaria, è giocoforza ammettere che anche nel suo nucleo doveva essere presente (sul modello della Halley) un 1-2% di POM. Ma il POM è poco stabile alla temperatura e, sotto riscaldamento, si decompone completamente liberando HCHO. La velocità di decomposizione aumenta con l’aumentare della temperatura ed è facile dimostrare sperimentalmente (Fig. 5) che al di sopra dei 500°C la decomposizione è quasi istantanea. È ben noto che questa temperatura non solo si è raggiunta, ma si è abbondantemente superata su quasi tutti i punti d’impatto della SL9 (16). Questo è stato certamente un fatto straordinario perché mai, in precedenza, nessuna cometa aveva sperimentato questo shock termico (per esempio la temperatura, misurata in infrarosso da VEGA 1 sul nucleo della Halley al perielio non superava i 100°C). Tutto questo spinse chi scrive a fare nel novembre 1993 (17) una prima previsione: quella secondo cui gli impatti maggiori dovessero essere accompagnati da un autentico flash di HCHO, rivelabile spettroscopicamente anche da Terra sia Figura 4: Le cicatrici degli impatti G ed H della cometa SL9 contro Giove in un’immagine ottica ripresa dall’autore al riflettore Ruth da 1,4 metri di Merate (a sinistra) e in un’immagine infrarossa ripresa al telescopio IRTF della NASA in cima alle Hawaii (a destra). Pico Velata rivelando ampie quantità di CO sugli impatti maggiori (G ed H) e quantità minori su altri impatti (10). Il gruppo di R. Knacke ha invece lavorato al telescopio UKIRT delle Hawaii ritrovando l’emissione a 2,34 m del CO altamente eccitato termicamente (leggi: T>10.000°C !) in corrispondenza dell’impatto R (11). Il CO è anche l’unica molecola che, in una cometa, può essere presente in forma gassosa anche alle grandi distanze dal Sole tipiche della SL9 che, trovandosi in orbita attorno a Giove, non si avvicinò mai a più di 5 U.A., dal Sole (1 U.A. = 150.000.000 di km, ossia la distanza media TerraSole). Di fatto il CO rimane gassoso fino a –190°C, una temperatura che un nucleo cometario normale (quindi tanto scuro da mostrare un albedo prossimo a 0,04) raggiunge solo attorno alle 10 U.A. Quando la SL-9 si è frantumata il CO era quindi anche l’unica specie che poteva e doveva essere rivelabile spettroscopicamente. In realtà prima che la SL-9 cascasse su Giove nessun tipo di emissione gassosa era stata rivelata. ALBEDO Si tratta della capacità di un corpo di riflettere la luce solare incidente. Più di preciso si tratta del rapporto tra luce solare riflessa e luce solare incidente: questo significa che quanto più un corpo è scuro, tanto più il suo albedo è basso. Per esempio i nuclei cometari, le condriti carboniose, gli asteroidi di classe C sono tra gli oggetti più scuri che si conoscono, dal momento che raramente il loro albedo supera il 4%: a produrre questa colorazione così scura sono proprio i materiali a base di carbonio di cui sono ricchi. 20 Certo, non si può escludere in assoluto che il CO possa derivare da altre fonti. È il caso della reazione tra CH4 (di cui è ricca l’atmosfera di Giove) con H2O (tipico componente cometario). Contro questa possibilità c’era però il fatto che la SL9 è sempre apparsa una cometa anormalmente ‘asciutta’: non venne infatti mai rintracciata acqua per via spettroscopica prima degli impatti, e solo piccole quantità (1-10% della massa totale) sono emerse su un limitato numero di impatti (20). Tutto quanto finora descritto è legato, come detto, all’ipotesi che le temperature in gioco durante gli impatti abbiano sempre superato i 1000°C. Questo è vero in generale, ma non si possono certamente escludere situazioni termiche meno estreme: è il caso, per esempio degli impatti minori oppure delle regioni limitrofe agli impatti maggiori. In queste regioni l’HCHO non poteva decomporsi totalmente in CO: il fatto, però che, comunque, se ne sia trovata una quantità molto scarsa ci costringe ad ammettere che si possa essere consumata nella produzione di altre molecole organiche più complesse. Per capire questo punto, bisogna considerare che i frammenti della SL9 sono penetrati solo per poche decine di km nelle nuvole di Giove, laddove la composizione è ben nota e molto particolare. A darcene accurate informazioni è stata, il 5 dicembre 1995 una straordinaria indagine spaziale: quella di una piccola sonda automatica (PROBE) lanciata nelle nuvole di Giove dalla sonda orbitale Galileo (21). Secondo le analisi del PROBE della Galileo, l’atmosfera più esterna di Giove (spessore di 50-100 km) è composta da tre strati ben distinti: uno superiore di NH3, uno centrale di H2S (o, meglio di NH4SH) ed uno molto più profondo, di H2O. In altre parole, il guscio più esterno dell’atmosfera gioviana, quello contemporaneamente molto ‘secco’ e ricco di NH3, deve essere stato quello più direttamente coinvolto dal punto di vista chimico con i frammenti della SL9. In un ambiente così ‘secco’ è logico ammettere che la HCHO rilasciata dalla SL9 debba aver reagito direttamente con l’NH3. Col risultato della probabile formazione di composti imminici, poi facilmente ridotti ad ammine dall’idrogeno di cui è ricca l’atmosfera di Giove: Figura 5: Velocità di decomposizione termica del POM in funzione della temperatura (TGA isotermo): come si vede a T>500°C il POM si decompone quasi istantaneamente in HCHO. nel visibile che nel radio. In effetti, ci sono indizi che la HCHO sia stata effettivamente rivelata sia in infrarosso che nel radio (a Medicina si è lavorato a 4,83 GHz). Di per se stesso questo sarebbe già un grande risultato ma rimane il fatto che la quantità assoluta è risultata estremamente piccola, incompatibile con un flash vero e proprio. O meglio, incompatibile con un flash di lunga durata ma non certamente priva di spiegazioni. Le nostre previsioni sulla durata del possibile flash di HCHO andavano da pochi minuti a poche ore in conseguenza delle temperature che si sarebbero sviluppate sui punti d’impatto. Di fatto, gli spettri infrarossi ottenuti sopra le varie cicatrici per metano, ammoniaca e vari idrocarburi hanno rivelato per questi gas un tale stato di eccitazione da far supporre temperature in gioco non di qualche centinaia ma di qualche migliaio di °C. Questo, unito alla rilevazione di CO solo dopo gli impatti, ha fatto sì che la nostra ipotesi originale subisse una naturale e più completa revisione. Vediamola (18). Intanto è noto (19) che la stessa HCHO si decompone velocemente, a temperatura > 1000°C in CO e H2. È dunque sensato pensare che proprio la HCHO, a sua volta derivante dalla decomposizione del POM, sia stata la fonte primaria del CO rivelato sui punti d’impatto: -CH2O-CH2O-CH2O-CH2OHCHO → HCHO + NH3 → H-CH = NH + H2 H-CH2-NH2 -H2O → n HCHO CO + H → T>1000°C L’azione catalitica di certi metalli pesanti presenti nel materiale cometario deve aver certamente favorito questa reazione. Reazione che, in presenza di eccesso di HCHO e grazie al violento calore In questo modo, sarebbe spiegata, contemporaneamente, anche la scarsissima quantità di HCHO come tale. 21 che gli impatti hanno sviluppato per attrito, dovette produrre composti imminici sempre più complessi, dotati di naturale tendenza ad una veloce polimerizzazione in materiali resinosi fortemente colorati e dotati di alto assorbimento in ultravioletto. Questo spiega benissimo perché le cicatrici degli impatti ci apparvero così intensamente scure in immagini riprese il 27 luglio 1994 al riflettore Ruth da 1,3 metri dell’Osservatorio di Merate, cui avevamo collegato una camera CCD ed un filtro (il Wratten 80A) trasparente solo tra 300 e 500 nm (22). Questo spiega altresì perché le immagini più dettagliate vennero ottenute in ultravioletto dal Telescopio Spaziale Hubble nei giorni immediatamente seguenti. Ma se le comete cascano su Giove possono cascare su qualunque pianeta, ivi trasportandovi il materiale organico di cui sono ricche. Più di 20 anni fa, nel 1980, Pollack e Yung, dall’esame della frequenza dei crateri lunari, stimarono che sulla Terra primordiale caddero almeno 1023 grammi di materiale cometario. Se tutte le comete contengono, come la Halley, mediamente un 10% di materiale organico, ecco che le comete avrebbero dovuto portare sulla Terra una quantità di composti carboniosi paragonabile a quella che si stima (23) sia sepolta nei sedimenti terrestri più antichi (1,2 x 1022 g). In base a queste stime la conclusione è evidente: le comete devono aver contribuito sensibilmente ai processi di evoluzione chimica che hanno portato alla nascita della vita sulla Terra. Non fosse altro per questo, diventa non solo interessante, ma addirittura indispensabile raccogliere campioni diretti di materiale cometario. Lo farà la sonda europea ROSETTA che verrà lanciata nel Gennaio 2003 per atterrare sulla cometa Wirtanen nel 2011: sarà per chi scrive e per migliaia di scienziati di tutto il mondo il sogno di una intera vita. Bibliografia (1) R.E. Jonson. 1987;187:889. Astronomy (2) F. Robert, S. 2001;115:271. (3) A. Levasseur, 2001;115:261. (4) S. Wykoff. Nature 1985;316:241. (5) C. Cosmovici, S. Ortolani. Nature 1984;310:122. D. & Derenne. Despois. astrophysics L’astronomie L’astronomie (6) V. Krasnopolsky, et al. Nature 1986;321:269. (7) L. Soderblom, et al. DPS33 Proceedings (MICAS Observations of 19P/Borrelly), New Orleans Nov. 2001. (8) J. Kissel, et al. Nature 1986;321:336. (9) F. Huebner. Science 1987;237:628. (10) E. Lellouch, et al. Nature 1995;373:592. (11) Circolari I.A.U. n. 6028 e 6030. (12) J. Crovisier. Eureopean Garching, marzo 1995:42. (13) J.A. Siuwe, et al. Eureopean SL9\J Workshop, Garching, marzo 1995:17. (14) A. Weaver. Science 1994;263:787. (15) C. Guaita, et al. Giornale di Astronomia 1995;22:65. SL9\J Workshop, (16) P. Weissman. Nature 1994;372:407. (17) C. Guaita, et al. HST Comet Impact Campaign Proposals, Nov. 1993. (18) C. Guaita, et al. Bioastronomy 96 Proceedings, Capri, luglio 1996:189-95. (19) R. Fusco. Chimica oganica industriale, 1970;3:325 (Aldeidi) (Università di Milano). (20) C. Cosmovici, 1996;44:735. (21) H. Niemann. Science 1996;272:846. (22) C. Guaita, et al. Giornale di Astronomia 1996;22:44. (23) J. Hunt. Am. Assoc. Pet. Geol. Bull. 1977;61: 100. at al. Planet Space Sci. Cesare Guaita si è laureato in Chimica Industriale nel 1973 conservando inalterata una grande passione per l’Astronomia coltivata fin dalla prima infanzia. Raro esempio di fedeltà aziendale, lavora da ben 29 anni come ricercatore presso i laboratori della Rhodia Engineering Plastics di Ceriano Laghetto (ex Gruppo SNIA) dove si è sempre occupato di poliammidi. Dopo una lunga esperienza in campo analitico, durante gli anni 90 ha iniziato ad occuparsi anche della sintesi e della caratterizzazione di alcuni nuovi tipi di Nylon a struttura non lineare. In questo ambito la grande affezione e dedizione alle cosiddette poliammidi “a stella”, recentemente immesse da Rhodia sul mercato, sembrano un po’ il segno del destino… L’innata passione per le stelle VERE non è comunque mai venuta meno: non a caso Guaita è socio di molte Società Astronomiche italiane e straniere, è autore di centinaia di pubblicazioni astronomiche, ha fondato a Tradate una delle più importanti associazioni di astrofili in Italia, è un attivissimo conferenziere del Planetario di Milano e dovunque altrove (oltre 1000 conferenze pubbliche in 25 anni). Sarà astronomo a tempo pieno tra qualche anno, quando sarà costretto a lasciare le stelle polimeriche… 22 LE PRESTAZIONI DEI POLIMERI CONDUTTORI NEL SETTORE DEI “NASI ELETTRONICI” di Michele Suman* La conducibilità elettrica nei materiali solidi e proprietà elettriche dei materiali solidi dipendono dal numero di elettroni che occupano livelli energetici cosiddetti di conducibilità, cioè condizioni energetiche nelle quali gli elettroni sono in grado di abbandonare l’atomo o la molecola di cui fanno parte per muoversi sotto l’applicazione di una differenza di potenziale opportuna. Il parametro fisico che fornisce un’indicazione sulle proprietà dei materiali di condurre corrente elettrica prende il nome conducibilità ed è indicato con la lettera χ: nell’ambito dei materiali solidi essa varia di molti ordini di grandezza (Fig. 1) e consente una generale suddivisione in quattro categorie: 1) Superconduttori ( praticamente infinita (a temperature inferiori ad un particolare valore caratteristico per ciascun materiale) 2) Metalli χ~106-104 (Ω.cm)-1 (T ambiente) 3) Semiconduttori χ~103-10-6 (Ω.cm)-1 (T ambiente) 4) Isolanti χ~10-10-10-20 (Ω.cm)-1 (T ambiente) L Nel caso dei semiconduttori, a differenza di quanto accade nei metalli, la conducibilità decresce rapidamente al diminuire della temperatura. Infatti, osservando il limitato salto energetico necessario (Fig. 2) a portare almeno una frazione dei loro elettroni dalla banda di valenza ai primi livelli energetici vuoti, rispetto ai quali l’azione di un campo elettrico esterno possa generare poi un flusso ordinato di cariche, si comprende come sia vincolante il ruolo giocato dai moti termici. Figura 1: Classificazione del comportamento elettrico dei principali materiali solidi Figura 2: Struttura a bande energetiche di un materiale semiconduttore. * Dipartimento di Chimica Organica ed Industriale, Università di Parma, Parco area delle Scienze 17/a. 43100 Parma. E-mail: [email protected] 23 Il principio di funzionamento dei polimeri conduttori Le classi di polimeri maggiormente utilizzate per l’applicazione nei sensori CP sono: politiofeni, polipirroli e polianiline (2) - Figura 4. La struttura chimica comune a tutti i principali polimeri conduttori è costituita da una catena lineare in cui vi sia l’alternanza di doppi o tripli legami coniugati tra le unità di carbonio (l’esempio tipico è quello del poliacetilene - Fig. 3). In condizioni normali tali polimeri si comportano come isolanti, ma possono viceversa raggiungere livelli di conducibilità paragonabili a quelli dei metalli qualora siano opportunamente drogati con molecole organiche o inorganiche. In contrasto con quanto accade nei semiconduttori, gli agenti droganti non occupano il posto di altri atomi nella struttura cristallina, ma semplicemente “pompano o sottraggono” elettroni al sistema, che è capace di farli fluire proprio attraverso la sua struttura a legami coniugati (1). Un tipico processo di drogaggio è quello con sali inorganici (ad esempio perclorato rameico, cloruro rameico, perclorato ferrico, cloruro ferrico, iodio e oro cloruro idrato) che fungono anche da catalizzatori nella fase stessa di polimerizzazione. Figura 4: Strutture dei polimeri più utilizzati per l’applicazione nei sensori. I “nasi elettronici” o SOA Un termine tecnico più corretto per definirli sarebbe quello di Sistemi Olfattivi Artificiali - SOA (3). I SOA si propongono di riprodurre artificialmente lo stesso processo di classificazione di odori che si verifica all’interno di un organismo vivente, pur basandosi su di un meccanismo di riconoscimento molecolare sostanzialmente diverso. In particolare la cavità nasale umana contiene oltre un milione di recettori biologici (che vengono continuamente rigenerati), suddivisi in circa 1000 tipologie di cellule nervose capaci di generare un segnale elettrico a seguito dell’interazione dei loro siti proteici specifici con le molecole volatili contenute nell’aria respirata. I segnali elettrici di questi recettori vengono convogliati al cervello, il quale esegue un confronto con combinazioni di segnali già precedentemente ricevuti ed emette il responso. Parallelamente, la cavità nasale viene riprodotta nei SOA mediante una camera a tenuta termostatata, contenente un insieme di sensori chimici che, lambiti da un flusso laminare di una miscela aeriforme, interagiscono con essa, generando un segnale (ad esempio proprio una variazione di conducibilità elettrica) a causa della temporanea presenza delle molecole volatili sulla loro superficie. Il naso elettronico necessita di una prima fase di apprendimento in cui associa i risultati ottenuti Figura 3: Catena elettroconduttrice del poliacetilene. Lo sviluppo industriale dei polimeri conduttori Il maggiore ostacolo allo sviluppo industriale dei polimeri conduttori è finora rappresentato dalla loro scarsa stabilità chimica (dovuta ai legami multipli, molto reattivi), tuttavia stanno emergendo molte interessanti applicazioni tra le quali spicca proprio l’impiego come sensori chimici vista la dimostrata proprietà di assorbire o desorbire specie chimiche differenti a seconda del potenziale applicato. Le prestazioni dei polimeri conduttori sono oggi di importanza fondamentale in tutto il settore delle nanotecnologie e della microelettronica; un esempio concreto in tal senso è rappresentato dallo sviluppo di sempre più sofisticati e miniaturizzati “nasi elettronici”. Infatti, tra i sensori maggiormente impiegati nei “nasi elettronici” quelli a polimeri conduttori, i cosiddetti sensori CP, rivestono un ruolo di primario ordine. 24 alle categorie di riferimento, proprio come avviene per l’uomo nell’infanzia (Fig. 5). Un computer, dotato di un opportuno software di elaborazione dati, svolgerà poi la funzione (analoga a quella cerebrale) di riconoscimento e classificazione ti, fornisce una valutazione complessiva dell’intera frazione volatile e ciò si configura come un enorme vantaggio, soprattutto nell’analisi di odori complessi spesso costituiti da una molteplicità di molecole interagenti in modo sinergico tra loro. Vantaggi e svantaggi dei sensori CP impiegati nei “nasi elettronici” I sensori CP si ottengono generalmente per elettropolimerizazione o deposizione spray di un sottile strato di polimero su un substrato ceramico o di silicio posto tra due elettrodi rivestiti in oro. Il principio di funzionamento dei sensori CP si basa sulla variazione della loro conducibilità elettrica dovuta sia all’adsorbimento delle sostanze volatili negli spazi interstiziali del film (fenomeno di swelling), sia all’interazione delle stesse con le cariche presenti sul polimero (radicali, radical-cationi, radical-anioni) (6). Il fenomeno di swelling determina distorsioni locali sulla catena conduttrice; la conducibilità del polimero va perciò aumentando o diminuendo in funzione della polarità dei gruppi funzionali delle sostanze adsorbite. Il carattere elettron-donatore o elettron-accettore degli agenti droganti impiegati, la presenza di sostituenti e le caratteristiche morfologiche del polimero possono poi determinare una differente risposta del sensore a contatto con le sostanze analizzate, aumentandone notevolmente le caratteristiche di selettività (7). Un lato negativo di questi sensori è la durata che di solito non supera i 6-8 mesi, dato che si ha una progressiva riduzione nel tempo delle cariche libere sul polimero dovuta sia a piccole molecole polari (principalmente acqua connessa all’umidità ambientale) che si associano ai siti cationici, sia ad eventuali fenomeni ossidativi o di interazione irreversibile tra il polimero e le molecole oggetto di analisi. D’altronde sono numerosi anche i vantaggi caratteristici che possiamo citare: • una sensibilità differenziata che permette di riconoscere molecole polari volatili di interesse (alcoli, aldeidi …) senza subire interferenza dalla contemporanea presenza di molecole apolari (quali idrocarburi ad esempio); • una sensibilità discreta (nell’ordine degli 0,1-10 ppm); • la resistenza all’avvelenamento da parte di sostanze come composti solforati o acidi deboli volatili che invece bloccano altre categorie di sensori (ad esempio quelli ad ossidi semiconduttori); • cinetiche molto veloci di adsorbimento e desorbimento che consentono una rapida esecuzione di analisi. Figura 5: Confronto fra lo schema di funzionamento del sistema olfattivo umano e quello di un naso elettronico. degli odori. I segnali emessi dai sensori vengono memorizzati e sottoposti ad un’elaborazione statistica che in genere consiste in un’analisi delle componenti principali (PCA) oppure nell’analisi della funzione discriminante (DFA) [4); queste procedure permettono anche un’efficace ed immediata rappresentazione grafica a 2 o 3 dimensioni delle zone relative alle diverse categorie (ad esempio nella Figura 6 è riportato il caso di una classificazione di oli (5) provenienti da differenti regioni). Il naso elettronico si differenzia profondamente dalle strumentazioni analitiche convenzionali impiegate nell’analisi ed identificazione di singoli composti volatili (ad esempio GC, GC-MS, ecc.); esso, infat- Figura 6: Elaborazione DFA di dati relativi all’analisi di oli d’oliva mediante un naso elettronico che li ha posizionati in 3 diverse categorie di riferimento. 25 Queste prestazioni consentiranno così, in un futuro molto vicino, ai nasi elettronici basati su sensori CP di affiancare in modo vincente ad esempio le metodiche di analisi sensoriale del controllo qualità di svariati prodotti alimentari oppure le tecniche analitiche di monitoraggio ambientale. Infatti, la possibilità di operare a temperature vicine a quella ambiente e il basso consumo energetico consentiranno anche di rendere questi dispositivi sempre più miniaturizzati e portatili, per renderli operativi nel controllo dei materiali in un magazzino o dell’aria che respiriamo lungo un’autostrada. (2) J. Janata. Principles of Chemical Sensors. New York: Plenum Press 1989. (3) M. Suman, C. Ricci, E. Dalcanale, U. Bersellini. Applicazione dei sistemi olfattivi artificiali a base di polimeri compositi nel controllo qualità Imballaggio di imballaggi stampati. 2001;540:70-6. (4) Analitica de Mori, Analizzatori Sensoriali. In: Atti Convegno LabFood, Cernobbio (CO) 2000. (5) C. Ricci, M. Allai, L. Ribechini, E. Dalcanale. Rivista Italiana Sostanze Grasse 2001;78:85. (6) E. Schaller, J.O. Bosset, F. Escher. Food Science and Technology 1988;31:305-16. (7) N. Bouzouane. Riconoscimento selettivo di acetati mediante sensori di massa a base di cavitandi. Tesi di laurea in Chimica, A.A. 19992000, Università di Parma. Bibliografia (1) EDUMAT - from stone to microchip. Multimedia Course. INFM, Physics Department of the University of Parma 1997. 26 L’Attualità Attualmente i materiali nanostrutturati sono al centro dell’attenzione della comunità scientifica in quanto le proprietà specifiche che sono in grado di offrire risultano praticamente irraggiungibili sia con i tradizionali materiali sintetici che con la tecnologia dei compositi. I polimeri hanno un ruolo fondamentale nello sviluppo di questa nuova classe di materiali, non soltanto per la possibilità di utilizzarli come supporti in microlitografia o per inglobare cluster metallici prevenendone l ossidazione e la sinterizzazione (nanocompositi), ma anche per la possibilità di sfruttarne la caratteristica che quando sottoposti ad opportune condizioni sperimentali possono dare luogo a fenomeni di riorganizzazione molecolare. In particolare, questo approccio e basato sull’utilizzo di una matrice costituita da un copolimero a blocchi che può essere trasformata in una maschera (template), all interno del quale effettuare ulteriori reazioni chimiche per la sintesi di nanostrutture. Come ben evidenziato nell’articolo che segue le potenzialità offerte dai polimeri sono tali da renderli praticamente insostituibili per lo sviluppo di questa nuova classe di materiali sintetici. Gianfranco Carotenuto TEMPLATE POLIMERICI PER LO SVILUPPO DI MATERIALI NANOSTRUTTURATI di Massimo Lazzari I polimeri possono essere utilizzati nella preparazione di nanostrutture (per una loro esauriente introduzione vedi (1)) non solo attraverso l’utilizzo di metodi microlitografici su film polimerici oppure nella sintesi di nanocompositi polimerici, ma anche mediante lo sfruttamento delle loro caratteristiche di materiali che sottoposti ad opportune condizioni possono dare luogo ad una riorganizzazione a livello molecolare (3). Secondo quest’ultimo approccio, il metodo più semplice ed intuitivo consiste nell’uso di una matrice costituita da un copolimero a blocchi che possa essere trasformata in una maschera (template), all’interno del quale effettuare ulteriori reazioni chimiche. Il procedimento generale può essere ridotto ad una serie di fasi successive, schematizzabili come segue: i. sintesi del copolimero a blocchi di opportuna composizione; ii. ottenimento del film polimerico a morfologia adeguata; iii. rimozione selettiva di uno dei blocchi, con creazione del template; D opo la presentazione di un nuovo approccio sintetico per la preparazione di nanocompositi polimerici (1), viene qui esemplificata una diversa metodologia, nelle sue linee principali di ampia applicabilità, per l’utilizzo di strutture polimeriche nella realizzazione di materiali nanostrutturati di vario tipo. Un tema “per così dire” alla moda che apre però orizzonti inimmaginabili sino a pochi anni fa. Pensare di poter immagazzinare decine di film in formato DVD su di un supporto delle dimensioni di un normale floppy vorrebbe dire essere in grado di raggiungere densità di alcuni terabit per centimetro quadrato, ossia almeno 2 ordini di grandezza superiori rispetto a quanto oggi commercialmente disponibile. Fra le diverse vie possibili per il conseguimento di un avanzamento tecnologico di tale portata, una delle più praticabili è collegata alla possibilità di produrre elementi ordinati facilmente magnetizzabili ad altissima densità, con dimensioni che si situano a livello nanometrico ... ed è proprio qui che i polimeri vengono in aiuto (2). Dipartimento di Chimica IFM, Università di Torino, Via Giuria 7, 10125 Torino - [email protected] 27 Figura 1: Schema semplificato della morfologia dei copolimeri a blocchi. materiale conduttore, in modo tale da poter sfruttare le due superfici come elettrodi per l’applicazione di un campo elettrico (con la precauzione di lavorare a temperature superiori a quelle di transizione vetrosa dei componenti polimerici). (iii) La successiva fase della rimozione selettiva di uno dei blocchi è una conseguenza diretta della scelta stessa del copolimero, che a sua volta dipende dalla possibilità di poter allontanare uno dei componenti senza modificare la morfologia complessiva. Fra i diversi metodi sperimentati per l’ottenimento di film nanoporosi si possono citare: la fotodegradazione di PMMA in un copolimero con PS (Fig. 2) (6), la ozonolisi di poliisoprene in un copolimero sempre con PS (7), oppure la idrolisi di poliacrilati (8). (iv) Come ultima fase, nel caso si vogliano produrre elementi magnetizzabili ad altissima densità è sufficiente effettuare l’elettrodeposizione control- iv. sintesi di nuovi materiali all’interno della matrice. (i) Come ben noto, i copolimeri a blocchi possono dare luogo a fenomeni di segregazione molecolare che portano all’ottenimento di un sistema a due fasi; in prima approssimazione, nel caso più semplice di un copolimero a due soli blocchi si possono ottenere i seguenti tipi di domini (a partire da un copolimero A-b-B ad elevato contenuto in B, fino ad arrivare ad un copolimero di composizione 50/50), visibili in figura 1 (4): sfere del componente A nella matrice B, cilindri, tipo giroide (bicontinua, con simmetria Ia3d), a strati perforati e a lamelle. Nel caso specifico citato come introduzione, per la sintesi di un supporto di memoria ad elementi ordinati è necessaria la creazione di un template nanoporoso, per il quale non si può che passare attraverso l’utilizzo di copolimeri passibili di una segregazione a cilindri ordinati. Più in generale, la composizione del polimero è un fattore fondamentale, da cui dipende il tipo di template ottenibile, e proprio per questo va accuratamente modulata attraverso opportune tecniche di sintesi; in particolare, un preciso controllo sia in termini strutturali che molecolari è possibile via polimerizzazione anionica vivente. (ii) Il conseguimento della segregazione molecolare del film copolimerico (ottenibile per spin-coating oppure per evaporazione controllata da soluzione diluita) può avvenire mediante semplici trattamenti termici o meccanici, mentre per quanto riguarda l’orientamento dei domini è necessario l’utilizzo di tecniche più complesse. Ad esempio, il passaggio da una segregazione anisotropa ad una struttura in cui i cilindri siano orientati perpendicolarmente alla superficie del film può essere ottenuta sfruttando interazioni interfacciali indotte con il supporto (nel caso di film estremamente sottili) (5), oppure attraverso l’applicazione di un campo elettrico esterno (6). Nel secondo caso, il film già supportato su di un substrato conduttore deve essere rivestito, eventualmente mediante evaporazione, di un secondo Figura 2: Micrografia TEM di un film nanoporoso ottenuto da un copolimero a blocchi PS/PMMA per degradazione selettiva del PMMA (diametro dei pori 14 nm). 28 lata dell’opportuno elemento (ad esempio cobalto o rame, Fig. 3) all’interno della struttura nanoporosa ad elevato ordine; mentre più in generale il template polimerico può essere usato per la produzione di nanostrutture passibili di applicazioni tecnologiche di vario genere, quali ad esempio l’utilizzo dei nanopori come reattori. È inoltre importante sottolineare la possibilità di ottenere template di diverso tipo, sempre per rimozione selettiva di uno dei componenti a partire da una qualsiasi delle segregazioni molecolari riportate in Figura 1 per i copolimeri a due blocchi (vedi ad esempio il riferimento (9) per l’otteni- mento di una struttura tipo giroide, visibile in Figura 4). Per dare una ulteriore possibilità di “sfogo” alla fantasia, si ricorda anche come nel caso di copolimeri a tre blocchi la separazione delle fasi dia luogo a domini a maggiore complessità, aprendo quindi orizzonti ancora più ampi per la preparazione di nanostrutture. In conclusione, nonostante non siano ancora state citate le tecniche di monitoraggio delle singoli fasi di questo particolare processing, è intuitivo rendersi conto di come l’applicabilità di una procedura concettualmente così semplice non possa prescindere dalla disponibilità di metodi di analisi appropriati che indaghino la struttura della materia a livello nanoscopico, quali le microscopie elettroniche a scansione e a trasmissione, e la microscopia di forza atomica. Bibliografia Figura 3: Micrografia SEM di elementi magnetizzabili di cobalto (diametro 14 nm, lunghezza 500 nm, periodo 24 nm), ottenuti per elettrodeposizione nel template poroso di Figura 2. Figura 4: Micrografia SEM di una struttura tipo giroide ottenuta da un copolimero a blocchi PS/PI per ozonolisi della parte poliisoprenica. 29 (1) G. Carotenuto. Nanocompositi polimerici: un nuovo approccio sintetico basato sull’utilizzo di macromolecole funzionalizzate. AIM Magazine 2000;3:26. (2) M.T. Tuominen, T.P. Russel, T. Thurn-Albrecht, J. Schotter. Ultra-high density magnetic arrays: fabrication by electrochemical deposition in a nanoporous diblock-copolymer template. US Patent (pending). (3) M. Muthukumar, C.K. Ober, E.L. Thomas. Science 1997;277:1225. (4) A.K. Khandpur, 1995;28:8796. (5) P. Mansky, et al. Science 1997;275:1458. (6) Thurn-Albrecht, et al. Science 2000;290:2126. (7) M. Lazzari. Self-assembled polystyrene-polyisoprene copolymer template for nanowire fabrication. Final report: Xunta de Galicia (Spain) PGIDT 2001 visiting researcher fellowship. (8) G. Liu, et al. Chem. Mater. 1999;11:2233. (9) T. Hashimoto, K. Tsutsumi, Y. Funaki. Langmuir 1997;13;6869. et al. Macromolecules L’Ambiente LA VALUTAZIONE DEL CICLO DI VITA DEL PNEUMATICO di Claudia Regazzoni* tomba. Si articola essenzialmente in quattro fasi principali: • la definizione dell’obiettivo e del campo di applicazione, ovvero del sistema in studio; • la compilazione di un inventario di flussi in entrata (consumi di energia, materie prime, risorse naturali) e in uscita (emissioni, rifiuti ecc.) rispetto al sistema; • la valutazione dei potenziali impatti ambientali associati agli elementi di input ed output dell’inventario; • infine l’analisi e l’interpretazione dei risultati. Per poter realizzare un inventario, che è l’elemento chiave di un LCA occorre avere una “misura di riferimento” cui riferire i flussi in ingresso e in uscita. Questo riferimento si chiama Unità funzionale e normalmente è l’unita di prodotto o una quantità in peso o in lunghezza o temporale di prodotto. Ad esempio per il case study proposto, l’unità funzionale è un pneumatico, con una durata di 40.000 km di percorrenza. Il passaggio dall’inventario alla valutazione degli impatti sull’ambiente avviene utilizzando specifici indicatori; ne esistono diversi, ma in linea di principio associano a ciascun elemento di input e di output un valore numerico di effetto sull’ambiente. Questa associazione avviene in tre passaggi consecutivi: 1. la classificazione e la caratterizzazione dell’inventario in categorie di impatto. In questa fase viene associato ad ogni consumo o emissione dell’inventario un effetto sull’ambiente ed un peso all’interno della categoria di impatto: ad esempio si associa l’emissione di metano e di anidride carbonica all’effetto serra e poiché il Introduzione A ncora una volta ad AIM Magazine si parla di Life Cycle Assessment (LCA), ovvero di valutazione di ciclo di vita. Ma questa volta il campo d’applicazione non è propriamente il mondo dei polimeri o delle macromolecole: il case study in questione è infatti un prodotto finito composto prevalentemente di polimeri, uniti a cariche rinforzanti, oli plastificanti, elementi di rinforzo metallici e tessili e una svariata quantità di chemicals. Il tutto opportunamente dosato, mescolato, confezionato ed infine “cotto” (o più propriamente vulcanizzato) sino a dare un pneumatico, che vogliamo considerare in termini d’impatto ambientale durante ogni fase del suo ciclo di vita, nell’ottica di un LCA completo dalla culla alla tomba. Cos’è il LCA? L’argomento è stato già trattato in precedenza nell’articolo di AIM Magazine “L’analisi del ciclo di vita come metodologia d’analisi ambientale: il caso del PET” del Dott. M. Marino e Dott. D. Vassallo, ma ricordiamo brevemente che cosa s’intenda per LCA (repetita iuvant!). Per valutare l’impatto ambientale di un prodotto esiste un’apposita metodologia denominata appunto LCA, che permette di valutare tutto il ciclo di vita del sistema in studio, comprendendo l’estrazione e la lavorazione delle materie prime, la fabbricazione, il trasporto, la distribuzione e l’utilizzo del prodotto, la raccolta dell’usato e lo smaltimento finale. In questo caso si parla di LCA completo, dalla culla alla * Ecologia & Salute, Pirelli Pneumatici Spa; E-mail: [email protected] 30 metano è considerato 20 più impattante della CO2 come effetto serra a parità di volume, i metri cubi di CH4 sono moltiplicati per 20 (ovvero un mc di metano è pari a 20 mc di CO2 equivalenti); 2. la normalizzazione degli effetti rispetto all’inquinamento esistente. Questo passaggio ha lo scopo di dare un’importanza relativa ad un effetto in funzione dell’inquinamento esistente. Tornando all’esempio dell’effetto serra, la quantità’ di CO2 equivalente che è stata calcolata che “gravità” ha? Occorre normalizzare rispetto ad un riferimento; ad esempio utilizzando l’inquinamento di CO2 equivalente dell’abitante medio europeo; 3. La valutazione relativa dei diversi effetti sull’ambiente. Questa fase ha l’obiettivo di permettere di comparare i diversi effetti sull’ambiente tra loro e poter dare allo stesso tempo un unico riassuntivo indicatore, un unico valore numerico, ma anche mettere in evidenza le priorità tra gli effetti sull’ambiente. Un criterio fra i più usati è il “distance to target” ovvero si considerano i target prefissati a livello politico (a scala nazionale, continentali o mondiale) e si associa un’importanza maggiore, ossia coefficienti moltiplicativi più alti, ad effetti il cui target è più distante dal raggiungimento. Ad esempio se l’obiettivo di ozone depletion è più lontano di quello per l’acidificazione dell’atmosfera, al primo sarà associato un peso maggiore. Il metodo qui esemplificato è quello utilizzato nel case study del pneumatico ed è denominato Ecoindicator (v. Box). Perché occuparsi di pneumatici? Perché sono un prodotto di larghissimo consumo! Solo in Italia ogni anno si smaltiscono circa 400 mila tonnellate di pneumatici a fine vita e in Europa la cifra sale a due milioni e mezzo di tonnellate l’anno. Ma qual è l’impatto sull’ambiente di queste tonnellate di pneumatici che trafficano per le nostre strade ed autostrade? Il ciclo di vita del pneumatico Consideriamo un pneumatico per vettura rappresentativo per il mercato europeo, in tutte le fasi del suo ciclo di vita: • produzione delle materie prime; • produzione del pneumatico; • distribuzione del prodotto finito; • uso su strada (40.000 km di percorrenza); • raccolta del pneumatico a fine vita; • smaltimento finale. Diversi studi di LCA presenti in letteratura mostrano che la fase di maggiore impatto ambientale è quella di uso, dove il contributo più consistente proviene dal consumo di carburante necessario per mantenere in rotazione il pneumatico, ovvero per vincere la cosiddetta resistenza al rotolamento. Nel grafico portato ad esempio, quest’impatto è rappresentato principalmente dalla categoria per il consumo delle risorse fossili (R Fossil) e da quella per l’impatto a livello respiratorio, dovuto alla combustione (HH Resp). Un ulteriore anche se marginale contributo all’impatto della fase di uso è causato dal rilascio di particelle di battistrada (tyre debris), dovuto all’attrito nell’area di impronta. In questo caso le categorie di effetto negativo sull’ambiente sono quelle legate all’impatto del particolato sospeso (che incide su HH Resp) e del particolato al suolo (il cui effetto è rappresentato dalla categoria EQ Ecotox). Queste valutazioni hanno spinto i produttori di pneumatici ad orientarsi da tempo verso una gamma di prodotti a bassa resistenza al rotolamento, che consumano quindi meno carburante durante l’utilizzo su strada, noti come pneumatici “verdi”. Il minor consumo è ottenuto grazie all’uso Il LCA come strumento adeguato allo scopo Ormai da diversi anni il LCA si è affermato come metodologia principe nella valutazione dell’ecocompatibilità dei prodotti e processi. Fanno riferimento alla valutazione del ciclo di vita tutti i principali strumenti di certificazione ambientale di prodotto ed è riconosciuto a livello europeo come fondamento del Regolamento Ecolabel per l’etichettatura dei prodotti e più in generale del Libro Verde sulle politiche integrate di prodotto (IPPIntegrated Product Policy). Il LCA è uno strumento versatile: può essere utile per identificare le opportunità di miglioramento dell’impatto ambientale di un prodotto, evidenziando gli elementi di maggiore influenza sull’ambiente; può essere un supporto alle decisioni di design, progettazione e pianificazione o ancora essere utilizzato dal marketing per dichiarazioni ambientali di prodotto od etichettature. 31 nel battistrada della silice al posto del carbon black come carica rinforzante. Un’altra fase ad impatto significativo è quella relativa alla produzione del pneumatico, dovuta però essenzialmente ai consumi energetici per la produzione delle materie prime necessarie (categoria R Fossil del grafico) più che alla produzione del pneumatico in sé. Di particolare interesse è la fase di fine vita. Lo scenario di smaltimento attuale del pneumatico in Europa presenta la seguente ripartizione tra i possibili destini finali: • 27% in discarica; • 25% come combustibile alternativo nei cementifici; • 20% come materiale di riciclo; • 20% riuso dei pneumatici usurati (di seconda mano); • 5% ricostruito (alle carcasse ancora integre, viene riapplicato il battistrada); • 3% come combustibile alternativo nelle centrali di energia. giore inquinamento ambientale) è compensato dal mancato impatto dovuto al recupero di energia e di materia che permette di risparmiare il consumo di risorse non rinnovabili. Il risultato globale è un effetto praticamente neutro sull’ambiente. Nota di commento sul fine vita La conclusione del bilancio sul fine vita ha implicazioni interessanti. Infatti se con lo scenario di smaltimento del pneumatico attuale si ottiene un effetto a impatto circa zero sull’ambiente, questo significa che implementando i destini di recupero sia energetico che di materiale (includendo tutte le forme di energy recovery e material recycling) a discapito della discarica, si avrebbe un beneficio ambientale in termini di mancato impatto, associato alla produzione dell’equivalente energia e materiale recuperato. Allargando il discorso al mondo dei rifiuti, un recente studio realizzato dall’Istituto Per l’Ambiente (IPA), e da Corepla, Consorzio per gli imballaggi in plastica, ha mostrato che massimizzando l’incenerimento con recupero energetico dei rifiuti domestici si riuscirebbe potenzialmente a soddisfare il 5% del fabbisogno energetico nazionale! (Fonte: Environment Daily del 28/2/2002). Il LCA mostra che il bilancio cumulativo della fase di fine vita è praticamente nullo. Questo significa che l’impatto derivante dai pneumatici smaltiti in discarica (lo smaltimento che comporta il mag- L’indicatore utilizzato per il LCA del pneumatico Fermo restando che le conclusioni espresse per il LCA del Pneumatico rimangono valide a prescindere dall’indicatore selezionato per valutarne gli impatti, l’indicatore utilizzato nel grafico riportato è l’Ecoindicator 99, un metodo di valutazione damage oriented. Sostanzialmente le differenti categorie di impatto ambientale sono raggruppate in tre macro-categorie di danno: • Human Health (HH) • Ecosystem Quality (EQ) • Resources (R) I danni sulla salute umana, Human Health (HH) sono espressi in DALY (Disability Adjusted Life Years). Il modello è stato sviluppato per modellare tutte le sostanze che abbiano un impatto sulla respirazione (composti organici ed inorganici), sulla carcinogenesi, sui cambiamenti climatici e sullo strato di ozono; sono comprese in questa categoria anche le radiazioni ionizzanti. I danni alla qualità degli ecosistemi, Ecosystem Quality (EQ) sono espressi come la percentuale di specie che si stima siano scomparse da una certa area a causa delle mutate condizioni ambientali. L’ecotossicità è espressa come la percentuale di specie che vivono in una certa area in condizioni di stress (PAF). L’acidificazione e l’eutrofizzazione sono trattate come singole categorie di impatto e vengono modellate utilizzando delle specie target (piante vascolari). Infine si tiene conto anche dell’utilizzo del suolo e delle sue trasformazioni. I danni sulle Risorse, Resources (R) comprendono l’estrazione e l’utilizzo di risorse primarie e di combustibili. L’impatto su questa categoria viene quantificato come maggior costo energetico delle estrazioni future. Sono possibili diversi modelli d’attribuzione di peso delle categorie di danno, secondo l’importanza attribuita al danno sull’uomo, sull’ecosistema e sulle risorse. In particolare nello studio riportato si è applicato un modello cosiddetto “gerarchico”, che assegna un peso paritario alle categorie di danno che valutano gli impatti sull’uomo e sull’ecosistema, corrispondente al 40%, mentre il danno sulle risorse ha un peso inferiore, del 20%. 32 Figura 2: Life Cycle Assessment di un pneumatico per vettura. Fonte: “LCA of an average European car tyre”, commissionato a Prè Consultants B.V. dai produttori europei di pneumatici per vettura - Maggio 2001. Il grafico rappresenta l’impatto ambientale di un pneumatico per vettura con un battistrada rinforzato con carbonblack. L’indicatore d’impatto usato è l’Ecoindicator 99. Di seguito sono spiegate le categorie d’impatto che comprende. HUMAN HEALTH (HH) = Salute umana, suddivisa nelle seguenti categorie: HH Carcinogenesis: danno causato da sostanze cancerogene HH Respiratory effects (org): danno dovuto ad emissioni di sostanze organiche HH Respiratory effects (inorg): danno associato a polvere, e ossidi di zolfo e azoto HH Climate change: danno legato all’aumento di morti e malattie per le variazioni climatiche HH Ozone layer: danno provocato dall’aumento di radiazioni UV, legato alla diminuzione dello strato di ozono HH Ionising radiation: danno causato da radiazioni radioattive ECOSYSTEM QUALITY (EQ) = Qualità degli ecosistemi, le cui categorie di impatto sono: EQ Ecotoxicity: danno causato da sostanze ecotossiche EQ Acidification/Eutrophisation: acidificazione ed eutrofizzazione EQ Land-use: danno provocato dall’uso del suolo come impatto sulla biodiversità RESOURCES (R): Uso delle risorse naturali, di cui fanno parte le categorie: R Minerals: uso dei minerali R Fossil fuels: uso dei combustibili fossili 33 I BIOPOLIMERI L’autore del contributo di questo numero è il coordinatore di questa rubrica. Ho accettato volentieri l’invito della redazione di scrivere un altro capitolo sulla storia dell’eritropoietina (EPO) e dei suoi derivati. Lo spunto è stato dato dai recenti fatti accaduti durante le scorse Olimpiadi invernali tenutesi negli USA. Come è abitudine della rubrica, l’articolo è soprattutto un’occasione per chiarire alcuni aspetti scientifici legati all’argomento in discussione. DARBEPOIETINA ED OLIMPIADI INVERNALI: IL NUOVO CASO DI DOPING di Roberto Rizzo nella letteratura scientifica che parlano di polisaccaridi solfati naturali e/o semisintetici che possano sostituire l’eparina. Questo è un polisaccaride della classe dei glicosoamminoglicani presente negli animali superiori e che, in natura, svolge una potente azione anticoagulante prevenendo la formazione di trombi. È facilmente comprensibile che questa sostanza venga utilizzata in tutti i casi in cui si suppone ci sia un serio pericolo di formazione di trombi per diverse cause. Fra queste non va trascurata quella dovuta a traumi provenienti da interventi chirurgici specialmente nelle operazioni che coinvolgono il cuore. Tornando al nostro argomento, la darbepoietina è una variante sintetica dell’eritropoietina prodotta da una ditta farmaceutica specializzata. Essa ha avuto un notevole successo come stimolante della produzione di globuli rossi in particolari patologie ed, in particolare, è approvata, e somministrata, per abbassare l’anemia associata alla chemioterapia utilizzata nel trattamento del cancro e nelle sindromi da insufficienza renale, anche connesse all’infezione da HIV in pazienti trattati con zidovudina (AZT). Attualmente il farmaco è nella fase III della sperimentazione clinica. Il nome esatto è darbepoietina-alfa e fa parte della classe delle nuove proteine che stimolano il processo di eritropoiesi (NESP). È ottenuta dalla eritropoietina ricombinante umana mediante un processo di iperglicosilazione. L’inserimento di due nuove catene oligosaccaridiche ancorate alla matrice peptidica ha permesso di ottenere una molecola di dimensioni maggiori, metabolicamente molto stabile e che presenta un tempo di vita medio nell’organismo tre volte mag- I n precedenti numeri di questa rivista (AIM Magazine n. 3 del 1998, n. 2 del 1999 e n.1 del 2000) la redazione ha promosso la discussione di problematiche connesse con l’uso, proibito, dell’eritropoietina (EPO) nello sport. Alla luce di quanto è successo nelle recenti Olimpiadi Invernali, che si sono svolte negli USA, è sembrato interessante, e per certi versi doveroso, completare l’informazione data ai nostri lettori con alcune notizie circa il farmaco coinvolto nelle squalifiche di alcuni atleti dello sci. Il fatto è noto: alcuni atleti già vincitori di medaglie d’oro sono risultati positivi al test per la determinazione della Darbepoietina, una sostanza simile all’EPO che stimola la produzione di globuli rossi. Lasciando da parte il dibattito su quali sostanze stimolanti possano essere utilizzate da sportivi e quali non, c’è da pensare che, poiché la darbepoietina è un farmaco nuovo, alcuni atleti abbiano pensato che esso non fosse facilmente individuabile dai laboratori di analisi addetti. Al contrario, le tecniche analitiche sono tutte accessibili e si tratta solo di standardizzarle sui nuovi prodotti. Il fatto è che la darbepoietina non è propriamente un nuovo prodotto, ma una modifica dell’eritropoietina (1) e quindi si può supporre che la determinazione di questa sostanza non sia particolarmente difficile, o per lo meno non più difficile dell’altra. Le ditte farmaceutiche sono sempre alla ricerca non solo di prodotti nuovi, ma anche di prodotti che mimino sostanze già utilizzate oppure di modifiche chimiche di sostanze naturali che abbiano maggior efficacia o che possano essere vendute come farmaci diversi da quelli esistenti. Per fare un esempio, sono numerosissimi i lavori 34 tra saccaride e proteina, e la scelta fra una via e l’altra dipende molto dalla risposta immunitaria che si ottiene da parte del nuovo prodotto. Per capire quali sono i passi che hanno portato alla sintesi della darbepoietina si deve parlare di eritropoietina. Questa glicoproteina è un ormone prodotto primariamente a livello di endotelio peritubulare del rene ed è responsabile della regolazione della produzione dei globuli rossi. Una parte minore dell’ormone è sintetizzata negli epatociti del fegato. È interessante sapere che nei neonati il sito primario della produzione di EPO è proprio il fegato e che solo dopo la nascita la sintesi passa sotto il controllo del rene. La produzione di EPO è stimolata da una ridotta presenza di ossigeno nella circolazione dell’arteria renale. Il gene che codifica per l’erotropoietina umana è stato identificato negli anni ’80 e clonato nel 1985 per la produzione di eritropoietina ricombinante umana (rhu-EPO). Questa è stata utilizzata efficacemente in una serie di situazioni cliniche dove era necessario aumentare la produzione di globuli rossi. La chemioterapia associata al trattamento di tumori, ad esempio, ha l’effetto di ridurre la produzione di cellule sanguigne da parte del midollo osseo. Questo organo vitale è la sorgente di tutti i differenti tipi di cellule sanguigne (globuli bianchi, globuli rossi e piastrine) ed è densamente popolato di cellule a diversi stadi di divisione e maturazione. Le cellule sanguigne sono ovviamente essenziali per il trasporto di ossigeno nell’organismo, per combattere malattie ed infezioni e nel processo di coagulazione sanguigna. Non è quindi sorprendente che esse sono continuamente rimpiazzate durante la vita dell’individuo. Alla fine di questa rassegna vorrei introdurre alcuni paragrafi dedicati alla procedura di determinazione di queste proteine. Nei giornali è stato riportato che l’analisi è stata effettuata mediante un nuovo e modernissimo tipo di elettroforesi. Negli articoli non si capisce di che tipo di elettroforesi si tratti anche perché, come è stato anche riportato nei precedenti contributi apparsi su AIM Magazine, la determinazione dell’eritropoietina viene fatta sulla base della determinazione dell’ematocrito. Infatti essa è una molecola naturalmente presente nell’organismo ed il rischio per la salute non viene direttamente dall’EPO, ma dal numero di globuli rossi presenti nel sangue che ne aumentano in modo pericoloso la viscosità. Tuttavia per la darbepoietina potrebbero essere raccomandate altre procedure. Mi sembra quindi interessante descrivere brevemente la tecnica di elettroforesi bidimensionale con la quale si ottengono ottimi risultati nella separazione di proteine da miscele complesse (2). giore della stessa eritropoietina. Queste caratteristiche costituiscono la novità interessante di questa molecola semisintetica. Ma forse dimostrano anche l’ingenuità degli atleti che la hanno utilizzata: è troppo simile all’eritropoietina! La grande stabilità della molecola permette di abbassare il dosaggio fino ad una sola somministrazione settimanale rispetto alle tre necessarie con i farmaci esistenti (soprattutto EPO ricombinante). Lo sviluppo clinico del farmaco è stato portato avanti soprattutto nel Regno Unito. Per i lettori che sono più lontani dal mondo delle proteine vale la pena ricordare che molti di questi polipeptidi naturali sono presenti nell’organismo come molecole glicosilate. La glicosilazione avviene solo dopo che le proteine siano state sintetizzate a livello di ribosoma sfruttando le informazioni geniche che sono trasportate dal nucleo al sito di sintesi mediante gli RNA messaggero. Modifiche del tipo della glicosilazione vengono infatti chiamate modificazioni post-traduzionali. In particolare, esistono degli enzimi che sono capaci di agganciare oligosaccaridi più o meno corti e più o meno ramificati a catene laterali di residui di amminoacidi presenti nella catena peptidica della proteina. Il legame di aggancio di questi oligosaccaridi può essere di tipo N- o O-glicosidico a seconda che l’atomo che fa da ponte tra amminoacido e saccaride sia un azoto o un ossigeno. I legami N-glicosidici collegano gli oligosaccaridi a residui di asparagina mentre quelli O-glicosidici a residui di serina o treonina. Nel collagene sono presenti legami O-glicosidici con ossidrili della catena laterale dell’amminoacido 5-idrossilisina. Forse la più nota fra le glicoproteine è la glicoforina (il nome è chiaro!) che è una proteina altamente glicosilata presente nella membrana dei globuli rossi ed i cui oligosaccaridi sono diversi per ogni tipo di gruppo sanguigno. Questo esempio dimostra bene anche l’importanza delle porzioni saccaridiche presenti in glicoproteine: infatti esse costituiscono parte dei determinanti immunologici presenti nell’organismo animale. Il graffaggio di corte catene saccaridiche a matrici proteiche non è una novità in campo farmaceutico. Infatti frammenti di polisaccaridi batterici, prodotti naturalmente da microorganismi patogeni (p. es. Neisseria meningitidis e Streptococcus pneumoniae), sono stati coniugati a proteine carrier per formulare nuovi vaccini. L’utilizzo di proteine carrier è reso necessario dal fatto che i polisaccaridi per loro natura producono una bassa risposta immunitaria che viene innalzata quanto questi sono legati ad antigeni proteici. Le vie sintetiche per produrre tali coniugati sono molteplici, spesso utilizzano corte molecole “spacer” da interporre 35 Ogni proteina contiene delle cariche positive e negative il cui numero dipende dal pH della soluzione in quanto sono prodotte essenzialmente dalla ionizzazione di gruppi carbossilici e amminici presenti nelle catene laterali del polipeptide. Il valore di pH per il quale il numero di cariche positive è uguale a quello delle cariche negative si chiama punto isoelettrico (pI) ed in questo stato la proteina è ovviamente, incapace di migrare sotto l’azione di un campo elettrico. Nell’elettroforesi detta “isoelettrofocalizzazione” viene creato in un gel di poliacrilammide un gradiente di pH mediante la migrazione, in un campo elettrico, di una opportuna miscela di acidi e basi organici a basso peso molecolare. Se poi una miscela di proteine viene fatta migrare in tale gel sotto l’azione di un opportuno campo elettrico allora ogni componente della miscela si posizionerà nel punto in cui il valore di pH nel gel corrisponde al proprio pI. Poiché più proteine possono avere lo stesso pI, o valori di pI talmente simili da non portare ad una efficiente separazione, la tecnica viene potenziata utilizzando un’elettroforesi bidimensionale (Fig. 1) In questi esperimenti ad una prima isoelettrofocalizzazione viene fatta seguire sullo stesso gel una seconda elettroforesi, in condizioni denaturanti, utilizzando un campo elettrico perpendicolare al primo. In queste condizioni proteine che hanno identico pI possono essere separate sulla base delle loro differenze di peso molecolare. Poiché nei due esperimenti la miscela di proteine prima migra in una direzione e poi nella direzione perpendicolare alla prima, si ottiene una mappa bidimensionale che ha un potere risolutivo molto alto. Tornando alla darbepoietina, e considerando che Figura 1: Analisi bidimensionale di estratti nucleari da cellule tiroidee di ratto (cortesia del Dr. Gianluca Tell, Univ. di Trieste). nell’esercizio della furbizia (negativa) umana il fondo non si tocca mai, non mi resta che darvi appuntamento alla prossima puntata. Bibliografia 36 (1) I.A. Tabbara. Erythropoietin, Biology and Clinical Applications. Arch. Intern. Med. 1993;153:298304. (2) B.D. Hames, D. Rickwood, eds. Gel electrophoresis of proteins a pratical approach. Oxford: IRL Press Limited 1981. I Giovani CHIMICA, AMBIENTE, GIOVANI: PAROLE CHIAVE PER “ACCEDERE” AD UN FUTURO PIÙ PULITO In un “momento” in cui i problemi ambientali si fanno sempre più “ingombranti”, la nascita di gruppi interamente gestiti da giovani chimici con l’obiettivo di promuovere la ricerca giovane e di valorizzare figure professionali esperte in problematiche ambientali, credo meriti spazio e attenzione in questa rubrica che vuole essere una finestra aperta sul mondo dei giovani chimici. Riporto in sintesi cosa è il gruppo “Matraccio pulito” e le sue attività, da quello che appare sul sito internet, e rimando i lettori interessati alla consultazione di detto sito per soddisfare eventuali esigenze e/o curiosità Giuliana Gorrasi zione e redazione dei progetti di ricerca, alle procedure di reperimento dei fondi per effettuarla ed alle opportunità fornite a riguardo da MURST e dalla UE attraverso i programmi di TMR ed i programmi di ricerca sviluppo tecnologico ed innovazione. In particolare, sono state, e saranno organizzate convention dei giovani laureati della divisione di chimica ambientale in cui viene offerta l’opportunità di presentare i risultati delle ricerche da loro condotte ed occasioni di formazione su argomenti di comune interesse come quelli succitati. Iniziative come queste costituiscono senz’altro un utile sussidio per i giovani laureati, che, utilizzando le credenziali di istituzioni affermate, come la Società Chimica Italiana, potranno trovare una opportuna collocazione nel mercato del lavoro o reperire più facilmente fondi pubblici o privati per il finanziamento delle loro ricerche. I n occasione del V Congresso Nazionale della Divisione di Chimica Ambientale tenutosi a Lerici nei giorni 8-11 giugno 1999, si è costituito il gruppo, Ambiente - Giovani - Ricerca - ‘Il matraccio pulito’ - Sandro Maria Guarino. Tale gruppo, costituito interamente da giovani laureati in discipline attinenti la chimica dell’ambiente si pone l’obiettivo di promuovere la ricerca giovane e di valorizzare sul mercato del lavoro una figura professionale esperta e competente in problematiche ambientali. Per perseguire opportunamente tali propositi si è pensato di creare una rete informativa, per il momento costituita da una pagina web per la discussione (http://disc.server.com/Indices/68302.html) al fine di costruire un database delle unità operative, delle competenze, delle disponibilità, e delle opportunità. Questo strumento potrà risultare inoltre utile per facilitare il confronto scientifico fra i giovani sulle problematiche inerenti le specifiche linee di ricerca e per portare la loro voce, le loro esigenze al Direttivo della Divisione e della SCI. Il gruppo del “Matraccio pulito”, per favorire un approccio alla Chimica dell’Ambiente moderno ed avanzato, si occupa di organizzare eventi di confronto e formazione a livello nazionale su quegli argomenti spesso trascurati nei protocolli formativi delle istituzioni accademiche. Fra questi un interesse particolare è dedicato alle modalità di organizza- I GRUPPI DI LAVORO Gruppo Interfaccia Aderenti Referenti: Alessandra Genga: [email protected] Ivano Vassura: [email protected] Compiti: Il ruolo che finora ha avuto è stato quello di raccogliere i Curricula degli aderenti al fine di creare un database. La struttura dei Curricula fino- 37 ra adottata è molto semplice e sarà molto probabilmente da rivedere in modo da aumentare il contenuto informativo, pensando anche a report e job card. Referenti: Piera Ielpo: [email protected] Mariella Bruzzoniti: [email protected] Compiti: Il ruolo di questa unità operativa è quello di far conoscere il gruppo ai consorzi risolutori dei loro problemi, visto l’elevato numero di competenze disponibili e reperibili tramite i curricula (rete di consulenza). Gianluigi de Gennaro: [email protected] Walter Vastarella: [email protected] Compiti: Costruire un network efficiente. Per adesso l’indirizzo del sito dell’A.R.G. è http://discserver.snap.com/Indices/68302.html, che offre possibilità limitate. Con l’apertura del sito della Divisione di Chimica Ambientale si avrà a disposizione una pagina migliore in cui ci sarà più spazio per le informazioni di ciascun gruppo di lavoro. Si cercherà di inserire il sito del’A.R.G. nei motori di ricerca e come link, in modo che sia più visibile, creando così opinione e interesse. Gruppo Formazione-Informazione Gruppo Attività Coordinate Referenti: Referenti: Gruppo Interfaccia Aziende e Consorzi Referenti: Antonella Iacondini: [email protected] Barbara Brusori: [email protected] Matilde Cecchini: [email protected] Lucia Ramponi: [email protected] Leandro Capponi: [email protected] Compiti: Dare notizie su come e dove formarsi (scuole, corsi…), sui progetti, sui concorsi e su quanto sia ritenuto utile che il Gruppo e gli aderenti conoscano. Davide Vione : [email protected] Paola Calza: [email protected] Alessandra Irico: [email protected] Compiti: realizzare progetti comuni. Compito del gruppo “attività coordinate” è quello di sondare le effettive possibilità offerte in questo settore agendo su base territoriale attraverso esperienze pilota. Gruppo Rete 38 Didattica macromolecolare Nel numero passato avevamo invitato i lettori macromolecolaristi a raccontarci come si ingegnino a parlare di polimeri ad un pubblico non esperto (fuori dal Macro-giro). Ecco che cosa ha escogitato R. Filippini Fantoni per dare alcune nozioni basilari sulla polimerizzazione: sfruttando il più possibile una descrizione grafica e intuitiva al posto di formule chimiche ha creato una favoletta accattivante che si apre con il “C’era una volta”, ha la sua morale ed è ovviamente ... scientificamente corretta! LA COMUNITÀ DELLE MANI LEGATE di Roberto Filippini Fantoni taggi che avrebbe potuto portare la cooperazione se ne fregavano grandemente e viaggiavano nel loro mondo di giovani con ampia libertà di movimento e quando si mescolavano con il mondo dei grandi, che della cooperazione facevano il loro modus vivendi, li prendevano in giro e ballonzolavano intorno alle catene di adulti che si muovevano lentamente nell’ambito della comunità. Era l’eterna storia della vita che si ripeteva puntualmente e con le stesse immutabili modalità. Raggiunta la maggior età, visto che loro da quell’orecchio non ci sentivano, era la regola sovrana della comunità a portare i giovani in un luogo spaziosissimo per farli sottostare alla cerimonia dell’iniziazione alla vita adulta, cerimonia che era chiamata polimerizzazione ed era la funzione base per la sopravvivenza della comunità, trasformando i giovani monomeri in catene di adulti che venivano chiamati polimeri. Originariamente, risalendo alla storia di questo popolo, i giovani monomeri vivevano suddivisi in etnie e nelle singole etnie si suddividevano sottogruppi di origine sociale differente: come ad esempio nell’etnia degli idrocarburi insaturi il nobile norbornene guardava con aria distaccata il pur diffusissimo propilene che a sua volta si sentiva un essere superiore rispetto al paria etilene. Le diverse classi sociali inizialmente non si trovavano mescolate e così separatamente avveniva l’iniziazione per esempio dei propileni, in altra quella degli isobutileni e in altra ancora quella degli etileni e così via. In questi casi il risultato della iniziazione era sempre un polimero che chiameremo omopolimero (polietilene, polipropilene, ecc.) per l’uguaglianza dei giovani monomeri che lo componevano e perciò per la sua completa omogeneità strutturale. C ’era una volta, molti e molti anni fa, una strana comunità di esseri umani che viveva una vita lunghissima solo se riusciva a trovare il modo di attuare un programma cooperativo comune che trasformava ogni individuo, di per sé labile e indifeso, in un insieme di individui molto più forte, più resistente agli attacchi che gli agenti avversi di madre natura tentavano continuamente di portare. La cooperazione di ogni individuo di questo strano gruppo di persone, che venivano chiamati in gioventù monomeri in senso generale e con un nome ben individuato e specifico per ogni gruppo etnico (gli idrocarburi insaturi, i sali tra diacidi e le diammine, gli amminoacidi, i lattami e così via), era regolata da regole ben precise che facevano riferimento proprio al nome della Comunità stessa: “la comunità delle mani legate”. Infatti, in tale comunità la regola base era che le mani non potessero rimanere libere se non per tempi brevissimi mentre normalmente dovevano essere legate tra di loro. I giovani e sbarazzini monomeri per avere il massimo di libertà di movimento possibile, come tutti i giovani che, non badando alle conseguenze, cercano nella libertà lo sfogo dei propri desideri e la molla per farsi nuove esperienze senza necessità di dipendere dai “vecchi”, tenevano le proprie mani unite tra di loro così da avere il massimo grado di libertà negli spostamenti nell’ambito della comunità. Dei van- 39 Ci si accorse casualmente che alcuni polimeri nati con l’unione promiscua di elementi delle diverse classi sociali poteva dare catene di polimero con proprietà interessanti e specifiche, a volte superiori a quelle di certi omopolimeri: chiameremo questi ibridi con il nome di copolimeri per distinguerli dagli omopolimeri. Scienziati delle singole etnie si diedero allora un gran daffare per programmare, in funzione delle regole ben precise per la formazione di omopolimeri o copolimeri in funzione delle esigenze della singola etnia nei differenti luoghi e per dare ad ogni nuovo gruppo compiti differenti e specifici nell’ambito della etnia che li ospitava. In questi casi erano i capi politici della comunità del luogo a stabilire le composizioni dei nuovi adulti raggruppando giovani monomeri di etnie diverse con certe percentuali oppure mantenendoli omogenei nel corso dell’iniziazione. Tutto ciò ovviamente in funzione delle esigenze delle diverse comunità e in generale per il miglioramento della razza. Uno dei problemi da superare in questo mescolamento di gruppi etnici disomogenei stava nel fatto che non tutte le etnie si univano con la stessa modalità per cui c’erano gruppi etnici che per la fusione dei monomeri in catene “adulte” utilizzava la policondensazione e altri invece lo facevano attraverso la poliaddizione, per non parlare di altri ancora che potevano farlo in entrambi i modi. Parleremo nella prossima puntata della cerimonia dell’iniziazione, la polimerizzazione appunto, e analizzeremo in dettaglio questi due metodi di raggruppamento in catene. esigenze del loro gruppo, tutta una serie di unioni promiscue studiate in modo da ottenere una notevole gamma di proprietà dai nuovi individui copolimerici. E passando i secoli si ottennero risultati interessantissimi e un continuo rinforzo delle capacità di sopravvivenza della singola etnia. Con il passare di decenni, con le maggiori possibi- lità di spostamento che la modernità dei mezzi consentiva loro le notevoli distanze che separavano le diverse etnie si ridussero drasticamente e i giovani monomeri nei loro viaggi si vennero a trovare mescolati ad altre etnie. Anche in questo caso fu sperimentato che l’unione casuale di questi monomeri di diversa etnia in qualche caso creava polimeri con caratteristiche peculiari che potevano accrescere notevolmente le qualità dell’insieme comunitario che con questa ibridizzazione acquistava un carattere evolutivamente differente: i polimeri generati da questa iniziazione ibrida, ovviamente e a maggior ragione, li chiameremo copolimeri. Ampi studi “genetici” furono portati avanti da una serie via via crescente di scienziati e si studiarono numerose nuove “razze” di copolimeri aventi caratteristiche peculiari. Si rischiava il caos e così la comunità fissò delle 40 I Musei A NAPOLI IL PRIMO SCIENCE CENTRE ITALIANO Una grande novità per educare, emozionare, divertire, sorprendere! Venerdì 23 novembre 2001 alla presenza del Capo dello Stato si è inaugurato, a Napoli, lo Science Centre di Città della Scienza, il primo in Italia e uno tra i più significativi in Europa. Articolazione fondante di Città della Scienza (il progetto ideato e attuato dalla Fondazione IDIS e promosso dal Ministero dell’Università e della Ricerca Scientifica e Tecnologica, dalla Regione Campania, dal Comune e dalla Provincia di Napoli, che coniuga strettamente la diffusione della cultura scientifica alla promozione dello sviluppo socio-economico e, grazie all’intreccio tra attività educative e produttive, costituisce un modello finora unico in Europa) lo Science Centre si colloca nella tradizione dei musei scientifici di nuova generazione (tradizione inaugurata dall’Exploratorium di San Francisco nel 1969) ed ha come principale obiettivo quello di fornire al pubblico, specialmente ai giovani e ai “non addetti ai lavori”, occasioni di incontro con la scienza e la tecnologia attraverso un approccio che – trasformando la materia scientifica da nozione apparentemente sterile e di non facile comprensione in un messaggio accattivante e coinvolgente – privilegi l’appropriazione del metodo scientifico; favorisca la partecipazione sociale alle scelte di civiltà (che implicano sempre più l’introduzione massiccia della tecnologia); superi le distinzioni, spesso artificiali, esistenti tra i campi del sapere. Qualità, rigore scientifico e culturale, alto valore educativo, comunicazione chiara divertente ed emozionante, ne fanno un luogo adatto, per i suoi contenuti, ad un pubblico di ogni età e livello in cui la scienza, l’arte, l’architettura e la tecnologia si fondono in un’offerta innovativa che certamente stimola la curiosità anche del visitatore più esigente e più attento ai linguaggi della comunicazione. Un primo piccolo prototipo fu inaugurato nel 1996 e da allora visitato da circa 1.000.000 di persone. Con l’inaugurazione di novembre lo Science Centre di Città della Scienza raggiunge – per qualità delle mostre, per quantità delle aree espositive, per il contesto ambientale mozzafiato – standard inediti nel nostro Paese. Città della Scienza è situata infatti nell’area ovest della città, a Bagnoli, tra l’isolotto di Nisida e il versante Nord della collina di Posillipo e si affaccia direttamente sul mare. Lo Science Centre occupa un suggestivo edificio industriale della prima metà dell’Ottocento, caratterizzato da 5 navate coperte da grandi capriate in legno che poggiano su pilastri quadrati in mattoni, per una superficie complessiva di 12.000 mq. Testimone prezioso del periodo arcaico dell’architettura industriale, probabilmente è stato il primo opificio chimico del Napoletano, certamente il primo caposaldo di un più ampio insediamento industriale nell’area di Bagnoli, uno dei due poli industriali della città di Napoli. L’allestimento, formalmente indipendente e non in contrasto con l’impianto architettonico, è caratterizzato dall’uso di materiali totalmente diversi da quelli dell’edificio: acciaio spazzolato ed elementi translucidi. Lo spazio, diviso in varie sezioni, presenta un’omogeneità formale d’insieme che consente al visitatore di muoversi attivamente e criticamente, anche grazie ad una segnaletica interattiva che suggerisce percorsi tematici, approfondimenti, news, informazioni in tempo reale e garantisce una fruizione non necessariamente assistita. Il percorso espositivo si snoda come un vero e proprio “racconto” – il racconto della conoscenza umana e del modo in cui essa concretamente si confronta con i fenomeni della natura, presentando una “scienza molto più critica” di quanto non sia avvenuto finora nei tradizionali musei scientifici – e, diviso in varie sezioni, propone: • lo Spettacolo del Cielo: il più grande Planetario del centro-sud d’Italia; 41 • la Palestra della Scienza: in 3 grandi esposizioni i segreti della fisica classica, della scienza contemporanea, della biologia; • Segni Simboli e Segnali: la prima mostra permanente sulla Comunicazione in un Museo italiano; • l’Officina dei Piccoli: progettata dai bambini per i bambini e anche per i piccolissimi (0-3 anni); • le mani e la mente: un atelier attrezzato per lo svolgimento di attività creative; • Gnam - La Vetrina dell’Educazione Alimentare: le relazioni tra alimentazione, salute, industria, cultura e società in una mostra interattiva realizzata con l’Assessorato all’Agricoltura della Regione Campania; • la grande Stella di cristallo: un’aula per assistere a spettacolari dimostrazioni di chimica; • le 19 Porte della Conoscenza: un’opera di land art di Dani Karavan; • il Buco del Mondo: l’antica ciminiera trasformata in gigantesco periscopio da un’idea di Fred Forest; • circa 2.000 mq di Mostre Temporanee la prima delle quali sarà PackAge: una grande mostra del Conai e dell’Istituto Italiano dell’Imballaggio (da novembre a febbraio), che mette in scena tutto quello che non si vede dell’imballaggio durante il suo uso quotidiano. BIT, la guida virtuale, che diverte, stupisce e consiglia; Installazioni d’Arte in tutte le sezioni espositive; Aree all’aperto di straordinaria bellezza; Punti di Ristoro e di sosta; uno Shop ricco di gadget curiosi per tutte le età e, naturalmente, nessuna barriera architettonica. La Palestra della Scienza In uno spazio vastissimo 3 grandi mostre per vivere da protagonisti l’avventura dell’indagine scientifica: • Dai fenomeni alle certezze, dedicata a quella parte della conoscenza scientifica che dal 600 a.C. a tutto il XIX secolo ha concentrato la sua attenzione sui fenomeni naturali rilevabili attraverso i sensi e gli strumenti di osservazione e che ha sviluppato uno straordinario complesso di teorie in grado di descriverli. Qui il visitatore – immerso nello spettacolo della fisica classica – scopre la forza del vuoto arrampicandosi con le ventose su un piano inclinato, gioca con i pesi, “scatena” fulmini osserva lo spettacolo della luce e dei colori; studia il movimento e lo ricostruisce grazie a un sonar; tra prodigi e meraviglie può capire ciò che sta alla base di tante esperienze della vita quotidiana e apprendere, senza sforzo, le teorie formulate a riguardo, mettendo in pratica il metodo empirico-sperimentale, che a partire da Galileo e Newton, ha consentito di: individuare ed isolare un insieme di elementi dalla realtà; analizzare le relazioni tra di essi; tradurle in un linguaggio logico-matematico; formulare le leggi che governano i fenomeni per prevederli e riprodurli sperimentalmente. • La Natura tra ordine e caos, illustra i concetti fondamentali e le tematiche di ricerca della scienza contemporanea. L’obiettivo di questa sezione è presentare i problemi ancora aperti di una scienza che sembra oggi procedere con minori certezze pur utilizzando strumenti di analisi sempre più capaci di cogliere la complessità di molti fenomeni e delle loro cause, complessità presente talvolta anche nei fenomeni apparentemente più semplici. Un percorso di specchi, illusioni simmetriche e prospettiche, orologi artificiali e naturali, labirinti – oltre 50 gli exhibit interattivi – aprono nuove prospettive sulle nozioni di spazio e tempo anticipando quel concetto di complessità che si potrà poi cogliere più nettamente con le rappresentazioni dei sistemi governati dal caso e dalla probabilità, o nel gioco di ordine e disordine in natura. Lo Spettacolo del Cielo ovvero il Grande Planetario Il più grande del centro-sud d’Italia costituisce un’esperienza notevolmente attraente. L’osservazione del Cielo è una delle più antiche forme di indagine scientifica. Dapprima a occhio nudo e poi, via via con strumenti sempre più raffinati, potenti e complessi, lo studio dei moti planetari e l’elaborazione di teorie sui corpi celesti hanno accompagnato la storia e l’evoluzione della conoscenza umana. Il Planetario dello Science Centre di Città della Scienza con un sistema di proiettori ottici combinati a effetti multimediali riproduce, su una cupola di circa 10 metri di diametro, settemila stelle evidenziando le principali costellazioni, simulando il moto della sfera celeste e riproducendo l’aspetto del cielo – diurno e notturno – nelle diverse stagioni ed a differenti latitudini terrestri. Dallo studio dei sistemi macroscopici complessi, all’indagine dell’infinitamente piccolo, all’analisi dei fenomeni reali con l’aiuto della statistica e dal calcolo delle probabilità, vengono individuati nuovi ambiti della ricerca scientifica, lungo un percorso ancora incerto e per questo tanto più affascinante. 42 • L’Avventura dell’Evoluzione, presenta la biologia come un avvincente racconto. La formazione della Terra, la generazione spontanea della vita, la sua evoluzione e diversificazione crescente, la comparsa dell’uomo…, sono eventi eccezionali e nient’affatto scontati; il mistero della transizione dal relativamente semplice della materia non vivente allo straordinariamente complesso del vivente è tuttora in attesa di una spiegazione definitiva ed ancora sollecita la nostra fantasia; l’unicità dei caratteri evolutivi della specie umana, in cui gli aspetti sociali, culturali e biologici sono talmente interdipendenti da rendere imprevedibile la linea di percorso che essa seguirà … I “meccanismi automatici” di ricombinazione incessante e veloce del patrimonio genetico; l’interruzione o la modifica dei processi evolutivi legate al caso, alle catastrofi, alle contingenze storiche; i meccanismi della selezione naturale adattiva sono soltanto alcuni dei capitoli del racconto dell’avventura della vita, immaginato dall’ingegno fervido e potente di J.B. Lamarck, C. Darwin e J.G. Mendel e narrato in questa sezione divisa in 3 isole – le origini della vita; l’evoluzione; l’origine dell’uomo – costellate da decine di postazioni interattive. Segni Simboli e Segnali: Comunicare oggi la prima mostra interattiva permanente sul tema della Comunicazione allestita in un Museo italiano. Immaginata come un viaggio nel tempo, presenta un excursus sull’incidenza degli strumenti e dei processi della comunicazione nelle attività umane. Con un tipo di presentazione di carattere evolutivo sia per quanto riguarda gli aspetti scientifici-tecnologici che per quelli storico-sociali, i principali media, presentati in 9 unità tematiche (scrittura, stampa, telegrafo, telefono, radio, televisione, fax, computer, rete telematica) utilizzando la propria specifica modalità comunicativa, si raccontano, parlano della loro storia e ci descrivono, i passaggi epocali di un mondo in cui la linea di confine tra vicino e lontano, tra prima e poi, tra mio e tuo si fa sempre più sottile. In riferimento a tre diverse modalità comunicative – quella interpersonale (uno/uno), quella di massa (uno/molti) e quella a rete (molti/molti) – si delineano tre differenti atteggiamenti culturali, tre differenti contesti storici e sociali. La mostra tenta di esplorare i livelli di libertà, di interazione, di partecipazione che ciascuna forma di relazione comunicativa esprime in grado più o meno elevato; il potenziale di trasformazione che i media della comunicazione sociale esercitano nei processi della conoscenza, nell’organizzazione sociale, nel sistema di valori e di orientamenti culturali, nelle attività economiche; infine, come le tecnologie innovative rendano l’informazione e la comunicazione sempre più veloci e leggere. Le Mani e la Mente: i laboratori della creatività Inseriti organicamente nel percorso della conoscenza scientifica, i Laboratori della creatività propongono al pubblico una esposizione di carattere storico delle principali tecniche e tecnologie della manifattura artigiana e offrono la possibilità di studio empirico delle proprietà dei materiali e di realizzazione guidata di oggetti di tipo artigianale. Nei Laboratori trovano posto spazi dedicati a: Ceramica; Bricolage del rifiuto e del riciclaggio; Stampa col torchio; Batik; Lavorazione dei metalli; Atelier con artisti. Inoltre, manufatti di epoche e materiali diversi, nonché modelli, simulazioni e curiosità (come calchi, mosaici, tarsìe) arricchiscono l’informazione sulla storia delle tecniche artistiche, stimolando un approccio trasversale al tema di notevole efficacia didattica. 43 L’Officina dei Piccoli: “Mondi da esplorare, comportamenti da inventare” La scoperta continua con la matassa degli odori, i mobili a sorpresa, i periscopi in cui sbirciare …, la cupola celeste per “viaggiare tra le galassie” e scoprire i segreti dello spazio. Ma l’esplorazione più avvincente si fa nel tunnel dei sogni: i piccoli visitatori sono immersi in un universo magico di specchi deformanti, lenti, luci colorate, pareti morbide, oggetti che suonano e immagini oniriche … E all’uscita un relitto di barca arenato per imbarcarsi in viaggi fantastici. È il settore rivolto ai bambini e realizzato con il loro contributo, il primo Science Centre nel mondo che ha coinvolto i bambini come progettisti del loro spazio. In un contesto architettonico a “misura di bambino” una vasta area, (700 mq) attrezzata per un pubblico che va da 0 a 12 anni, è il “contenitore” in cui il bambino sarà protagonista, ideatore dei momenti di esperienza del suo mondo, degli altri, dell’artificiale, del fantastico, del vivente umano e non umano. L’Officina dei Piccoli è anche la prima struttura in Italia che si rivolge alla primissima infanzia (0-3 anni), uno spazio sconosciuto dove “i piccolissimi” possono affermare la propria autonomia e giocare con oggetti adatti alla loro età: il pavimento sonoro, le immagini colorate in movimento, gli oggetti che emettono odori, le piccole gallerie da percorrere, le vasche d’acqua, i grandi materassoni… I contenuti dell’Officina trovano il principale riferimento nella necessità di stimolare l’istinto della conoscenza, della curiosità, della volontà di fare, un ambiente in cui l’apprendimento va affidato alla libera elaborazione di ciascun bambino e che nasce solo “giocando a …”. Gnam: La Vetrina dell’Educazione Alimentare a cura dell’Assessorato all’Agricoltura della Regione Campania ERSAC (Ente Regionale di Sviluppo Agricolo in Campania) SeSIRCA (Settore Sperimentazione, Informazione, Ricerca e Consulenza in Agricoltura) La storia dell’alimentazione è ricca di sorprese. Le civiltà alimentari si trasformano e si incontrano in un intreccio di cibi, gusti, sapori e profumi usi, costumi e tradizioni diversi. I cibi caratterizzano ancora etnie, regioni, culture e religioni nonostante la progressiva omologazione su scala mondiale delle abitudini alimentari. 44 diverse sezioni ricca di esperimenti e dimostrazioni interattive, GNAM è diviso in 4 sezioni: Mangia bene per stare meglio, Alimentazione è identità, È l’agricoltura che vogliamo, Cultura che nutre ed ha come principali finalità: Informare sui contesti locali di produzione e socioculturali, valorizzando le produzioni regionali tipiche e di qualità; Lo Science Centre di Città della Scienza offre inoltre: Una grande area per mostre temporanee (circa 2000 mq), uno spazio flessibile e polivalente in grado di garantire l’allestimento contemporaneo di più mostre, anche di contenuto e stile diverso che, in occasione dell’inaugurazione di novembre, ospiterà PAKCAGE una grande mostra organizzata dall’Istituto Italiano dell’Imballaggio e dal CONAI Consorzio Nazionale Imballaggi per lo Science Centre di Città della Scienza. PakcAge è la prima mostra in Italia sul ruolo, la storia, i processi produttivi e la fruizione dell’imballaggio; si rivolge al largo pubblico, al mondo della scuola e, in generale, al grande universo degli utilizzatori di imballaggi per presentare le valenze, le funzioni, la tecnologia, le modalità di consumo legate al mondo del packaging. Insomma, non resta che iniziare la visita: a novembre, quindi, tutti a Napoli! Da cosa deriva la specificità della dieta mediterranea? Perché in Cina si consuma tanto riso? Il caffè è originario del Sud America? Quando si afferma il fast food negli Stati Uniti? Le relazioni tra alimentazione, salute, industria, cultura e società sono un tema di grande attualità, soprattutto alla luce dei risultati della ricerca scientifica e tecnologica che sempre più valorizzano il ritorno ad un modello alimentare mediterraneo ed ai prodotti tipici locali. Strutturata con una consequenzialità che non diventa mai obbligata per la comprensione delle NOTIZIE UTILI Città della Scienza - Science Centre Napoli - via Coroglio, 104 info: 081.7352.202 www.cittadellascienza.it prenotazioni tel. 081. 3723728 fax. 081.5586937 APERTURA • dal Martedì alla Domenica • chiuso tutti Lunedì, il 25 dicembre, il 1° gennaio • il 24 dicembre e il 31 dicembre chiusura alle 14.00 • aperto il Lunedì in albis ORARI fino al 15 giugno dal Martedì al Sabato ore 9.00/17.00; la Domenica 10.00-19.00 INGRESSO Biglietti Ordinari Intero € 7 (Lit.13.554) Ridotto € 6 (Lit. 11.617) (fino a 18 anni; dai 60 ai 65 anni; studenti universitari e militari) Planetario € 1,5 (Lit. 2.904), su prenotazione 45 Polimeri e società IL SISTEMA RICERCA IN ITALIA ED IL FABBISOGNO DI INNOVAZIONE DELLE IMPRESE: UN RAPPORTO POSSIBILE (E NECESSARIO) di Antonio Casale Nota In questi ultimi mesi si sta svolgendo un vivace, a volte aspro, dibattito sul ruolo della ricerca pubblica in Italia, con in primo piano il destino del più grande organo di ricerca “generalista” dopo l’Università, e cioè il CNR. Questo dibattito viene alimentato dalle notizie concernenti i disegni legislativi in corso di valutazione nelle commissioni parlamentari. Ritengo che, per l’importanza dell’argomento, per il tipo di platea a cui si rivolge il nostro Magazine, per il peso che le decisioni in fase di maturazione potranno avere sul futuro dello stesso settore delle macromolecole, sia utile ospitare sulla nostra rivista un dibattito sul tema. Esso mira a fare esprimere opinioni da parte del mondo dell’impresa e dell’accademia sul ruolo della ricerca in Italia, sulle possibili opzioni per la risoluzione di atavici problemi, anche alla luce dei modelli organizzativi esistenti in paesi a tecnologia paragonabile alla nostra. Il presente contributo in parte riprende un intervento che il Dr. Casale ha tenuto ad un Forum di recente svoltosi a Sesto. Verranno successivamente sollecitati interventi da parte di altri amici in grado di presentare altre sfaccettature del problema, con la speranza di aiutare i nostri lettori a comporre un quadro di riferimento con cui leggere gli sviluppi del dibattito legislativo in corso. Mario Malinconico "research is to turn money into knowledge, innovation is to turn knowledge into money" • da una scarsa presenza in settori ad alta tecnologia, con l’eccezione di alcune aree specifiche. L’equazione, da me sentita in un recente convegno, mi sembra calzi perfettamente con il tema in questione. Per discutere di ricerca ed innovazione è necessario partire da alcune premesse, peraltro, largamente note e condivise: Dal punto di vista della frammentazione il settore chimico italiano non solo è allineato con questa realtà, ma sta sempre più trasformandosi in questa direzione. Da una recente indagine conoscitiva sull’industria chimica in Italia (19 marzo 2002) condotta dalla Commissione attività produttive della Camera, risulta che il peso delle PMI è aumentato negli ultimi 20 anni in termine di imprese, passando dal 50% nel 1980 all’84% del 2000. Secondo dati dell’osservatorio per il settore chimico costituito presso il Ministero delle attività produttive, oggi in Italia solo il 16% della produzione nazionale è realizzato da grandi industrie. Questo trend continuerà in maniera accelerata: dopo il già annunciato (ed in parte realizzato) 1. Nel nostro paese la prevalenza delle PMI è schiacciante e l’85% delle imprese si trova nella fascia 1 – 50 dipendenti, il 66% della forza lavoro è situata in aziende della fascia 0 –100 dipendenti. In sintesi, dunque, il sistema industriale italiano è caratterizzato: • da un numero elevato di PMI, • dalla prevalenza di attività in settori tradizionali o di nicchia e * ASSOTEC, Via Pantano 9, 20122 Milano; E-mail: [email protected] 46 disimpegno di Snia e Montedison dalla chimica, anche ENI ha deciso (come risulta confermato dalle interviste riportate a Presidente e AD dell’ENI nel sopra citato documento) un radicale intervento sul portafoglio della chimica. In particolare è prevista la cessione del pacchetto di maggioranza della Polimeri Europa, in cui sono confluiti i businesses degli stirenici, degli elastomeri e di molti altri prodotti di base, in parte ad essi collegati, agli arabi della Sabic. più che attraverso la disponibilità di risorse naturali economicamente competitive. Questa nuova impostazione ben si addice alla struttura dell’industria italiana, sia per quanto riguarda la tipologia delle società, sia per quanto riguarda i settori applicativi in cui le società operano. Lasciatemi chiudere questa parte presentando un tipico esempio di innovazione. Riguarda la produzione condotti per il convogliamento di aria calda nel circuito turbo-intercooler, dove debbono essere utilizzati materiali rinforzati per le sezioni rigide, alternati a flessibili. Si tratta, quindi, di manufatti di geometria complessa con presenza di gomiti, convoluzioni e problemi di fissaggio con parti sia fisse che sottoposte a vibrazione. Come tecnologia è stato scelto il soffiaggio con estrusione sequenziale del parison. Date le sollecitazioni meccaniche e termiche richieste dall’applicazione era stato scelto come materiale la poliammide, tal quale per le parti flessibili, rinforzata vetro per quelle rigide. Tradizionalmente le poliammidi non sono considerate come materiali adatti al blow molding a causa della difficoltà di ottenere tipi ad altissima viscosità allo stato fuso in un ampio intervallo di condizioni di temperatura e di shear rate. D’altra parte il soffiaggio era stato prevalentemente utilizzato nel settore dei contenitori di varie dimensioni che non richiedevano prestazioni tecniche, particolarmente elevate. È stato quindi necessario: 2. Il concetto di innovazione sta cambiando. Come giustamente ha sostenuto il Prof. Guerci, l’orientamento sempre più spinto al mercato sta spingendo apparentemente la ricerca • verso obbiettivi a medio/breve termine e • verso lo sviluppo di applicazioni, piuttosto che verso l’introduzione di innovazioni radicali. In realtà in questi anni si sono sviluppati “prodotti” o “prodotti/servizi” fortemente innovativi in quanto svolgono funzioni nuove e svolgono in maniera più soddisfacente funzioni tradizionali. Esse non compaiono tra le innovazioni radicali solo perché i nostri modi di classificare l’innovazione sono stati superati dalle nuove modalità con cui si presenta. In questo nuovo approccio, vi possono essere innovazioni sostanziali con successi non inferiori a quelli ottenibili con l’innovazione di tipo tradizionale. Un altro aspetto importante è che lo spostamento dell’ottica sulla ricerca comporta il coinvolgimento non solo, come un tempo, dei grossi gruppi industriali che potevano contare su elevate risorse di R&D, ma anche di tutta l’industria di trasformazione e costruzione macchine. • mettere a punto il soffiaggio sequenziale, progettando le apparecchiature e mettendo a punto condizioni operative idonee al materiale prescelto; • studiare delle poliammidi idonee. Nel caso specifico delle PA è necessario disporre sia di materiali flessibili e resistenti all’urto a bassa temperatura che di materiali rigidi con caratteristiche meccaniche costanti anche ad alte temperature di esercizio ed in ambienti chimicamente aggressivi. Lo sviluppo e l’innovazione diventano una attività integrata che deve tener conto: • dei prodotti; • delle tecnologie di trasformazione; • delle applicazioni. La messa a punto di prodotti con questa somma di requisiti è stata particolarmente complessa e ha richiesto un lavoro in stretta collaborazione tra il produttore delle poliammidi, trasformatore e costruttore delle macchine. Il risultato è stato la riduzione di peso da 2,5 kg a 1 kg, la riduzione del numero dei pezzi da 20 a 3, una grande semplificazione nelle operazioni di montaggio. Dal punto di vista dell’economia nazionale, lo spostamento dell’interesse dalle materie prime/prodotti allo sviluppo di un ciclo integrale per la realizzazione di manufatti nuovi o riprogettati nella nuova ottica, non può che creare valore aggiunto attraverso: • conoscenze tecniche diversificate e • capacità di innovazione anche nei settori tradizionali, La vera sfida oggi è imparare a gestire con efficacia lo sviluppo tecnologico, generando: 47 • una cultura diffusa di adattamento al cambiamento; • un approccio consapevole alle nuove tecnologie da parte delle aziende; • un buon collegamento tra ricerca pubblica ed imprese. Nell’utilizzo di queste risorse non va, tuttavia, sottovalutato l’ostacolo di natura culturale, malgrado gli sforzi compiuti in questi ultimi anni. Da un lato le imprese sono ancora diffidenti verso un mondo percepito come dedito alla sola ricerca di base ed orientato da meri interessi accademici e scientifici. Dall’altro, la capacità della ricerca pubblica ed universitaria di tradurre in concrete iniziative di business i risultati della ricerca è ancora debole. Le Università e gli Enti di ricerca pubblica (con alcune eccezioni) faticano a comprendere le esigenze delle imprese ed ad accettarne l’impostazione di problem solving con i requisiti di obiettivi e di tempi che questo comporta. In questo contesto, i rapporti tra università ed enti di ricerca pubblica sono un fattore della crescita e della qualificazione della base imprenditoriale del territorio e del Paese. Questo concetto viene ripreso dalla sopra citata indagine conoscitiva sull’industria chimica. Una delle linee di politica industriale prospettate dal Ministro ha lo scopo di sostenere l’interazione tra ricerca, sviluppata da Enti (pubblici e privati) e l’Università, da un lato, e l’attività innovativa delle PMI dall’altro. Per quanto riguarda il tema dell’innovazione, viene riportato che sia Federchimica che le rappresentanze sindacali ritengono fondamentale sostenere l’impegno nella ricerca e nello sviluppo. Entrambi vedono con favore il coordinamento sinergico tra ricerca universitaria e ricerca degli Enti pubblici e privati. Per favorire l’innovazione, bisogna quindi superare gli ostacoli culturali ed incentivare in tutti i modi un avvicinamento tra il mondo della ricerca pubblica, che genera cultura innovativa, e quello produttivo, che deve inglobare quella cultura nei propri prodotti e servizi o tradurla in nuove iniziative. È importante sottolineare che ripensare la politica della ricerca pubblica in chiave di competitività non vuol dire: • asservire la ricerca pubblica agli interessi industriali, • ledere la libertà di sviluppo scientifico e • privilegiare la ricerca applicata, Come si colloca il sistema imprenditoriale italiano rispetto a questi punti? Per fare un esempio a me più familiare, prendiamo il caso del territorio della Lombardia. Il contesto produttivo lombardo coagula oltre 1/3 degli investimenti in innovazione del paese, sostenuti da privati per il 90% e concentrati soprattutto nella chimica, nelle telecomunicazioni, nell’elettronica e nelle macchine per ufficio. ma deve essere di stimolo per: • evitare che una domanda industriale mal definita o inesistente generi programmi inutili o di mediocre qualità; • privilegiare la qualità dell’output; • trasferire su scala industriale i risultati della ricerca di base, approfondendo anche in maniera scientificamente corretta gli aspetti legati alla realizzazione dei manufatti (trasformazione, valutazione delle caratteristiche connesse all’impiego, ecc). A Milano si deposita il 28% dei brevetti italiani (pari al 2,5% di quelli europei) ed è forte la correlazione tra brevettazione e i settori di eccellenza del territorio. Nel quadro dell’integrazione europea, la struttura produttiva dell’ area lombarda è portata al confronto con zone a crescita elevata e quindi al benchmarking continuo sui fattori di crescita e sul meccanismo di sviluppo. Con numerosi prestigiosi atenei, l’area milanese è una realtà avanzata per qualità e quantità delle interazioni tra mondo universitario e sistema delle imprese. Operano, inoltre, sul territorio centri di eccellenza rappresentati da Istituti del CNR quali l’ISM (polimeri), l’ICITE (edilizia), l’ITIA (meccanica), ITBA (Biotecnologie), l’ITIM (tecnologie informatiche multimediali) il CESQSE (Centro di elettronica quantistica e strumentazione elettronica). È necessario, in sintesi, trovare il giusto equilibrio tra: • la ricerca di base per il continuo progredire delle conoscenze e garantire il futuro dell’industria e • la ricerca applicata per garantire il sopravvivere dell’industria e creare le risorse per la ricerca di base. Come riportato in un documento redatto dal Gruppo di Lavoro sulla Ricerca di Confindustria, è importante sottolineare che anche i settori maturi hanno bisogno di scienza e conoscenza ed i ricer- 48 catori non debbono giudicarli poco stimolanti. Anzi rappresentano una sfida maggiore perché vi si svolge ricerca da più tempo e da parte di un maggior numero di ricercatori. • nel coinvolgimento operativo di competenze di ricerca; • nel rendere leggibile e misurabile l’offerta scientifica in risposta a specifiche esigenze; • nell’istruzione e presentazione di progetti di innovazione e sviluppo tecnologico. La scienza da sola non è sufficiente a garantire l’innovazione, solo integrando le conoscenze scientifiche con competenze di mercato e di organizzazione produttiva si può fare reale innovazione (è difficile pretendere che i ricercatori (siano dell'Università, degli enti o dell'industria) siano contemporaneamente Dr Jackyll (menti speculative e geniali) e Mr. Hyde (pragmatici e capaci di trasformare le idee in fatti). Esistono, ovviamente, delle eccezioni. Voglio qui ricordare Mario Farina, grande figura di scienziato e di uomo, che ho avuto il piacere di avere prima come collega, ai tempi del Prof. Natta al Politecnico di Milano e poi come consulente per la Snia Tecnopolimeri. Con Mario, in quest’ultima veste, abbiamo sviluppato tecniche di caratterizzazione di poliammidi fondamentali per la loro conoscenza e, in seguito, una famiglia di nylon a larga distribuzione di pesi molecolari, molto innovativi ed interessanti dal punto di vista scientifico e che poi sono stati trasferiti su scala industriale. È necessario, tuttavia, che anche nella ricerca pubblica si organizzino le risorse disponibili concentrandosi realmente sulle tematiche su cui si possa fare massa critica, in logica di bench marking e competizione per le risorse. I risultati di questa esperienza sotto il profilo metodologico sono meritevoli di attenzione in quanto effettivamente capaci di accelerare il cammino dell’innovazione delle imprese. In particolare, attraverso uno specifico strumento, lo Stato dell’Arte tecnologico, Assotec è riuscita a portare le imprese (ad oggi una trentina) ad utilizzare l’informazione tecnica e le competenze specialistiche disponibili nelle università e negli enti di ricerca, come partner operativi per analizzare e determinare i loro percorsi di investimenti in high tech. L’utilità dello strumento, difficilmente gestibile in proprio dalle PMI che non hanno i mezzi e la cultura necessaria per affrontarla, è stata confermata dalla valutazione delle imprese, operanti in settori diversi, che hanno ritenuto le proposte scaturite dallo Stato dell’Arte pienamente applicabili e coerenti con la loro attività di innovazione, e straordinariamente utili al miglioramento della loro competitività tecnologica. Per aiutare le imprese a fare di più, ad investire nell’innovazione e a diventare protagoniste dell’high tech occorre anche una maggiore attenzione sotto il profilo delle risorse disponibili per agevolare la ricerca delle imprese. Il rinnovato quadro di sostegno alla ricerca che deriva dalla legge 297/99 presenta opportunità interessanti che agevolano la crescita delle imprese. Oggi il 70% delle domande per ricorrere a questo strumento arriva dalle PMI, a cui va attribuito anche il 50% dell’utilizzo delle risorse, con una crescita del 300% rispetto a poco meno di tre anni fa. In questo contesto è importante il ruolo che possono svolgere le associazioni industriali per: • aiutare le imprese a far emergere i processi di innovazione, che pure spesso realizzano senza averne piena consapevolezza; • nel rendere strutturale la partnership con il mondo del sapere; • nell’orientare la formazione e la ricerca alle nuove esigenze dello sviluppo industriale; • nel reperire competenze capaci di trasferire know-how soprattutto al sistema delle PMI. Questo non significa che non esistano problemi. Almeno due elementi non sono coerenti con le esigenze del sistema produttivo: L’approccio attivo nel promuovere la propensione all’attivazione del sistema ha portato Assolombarda a creare con il CNR e la Camera di Commercio una struttura specializzata con il compito di qualificare i processi di innovazione delle imprese, di avvicinarle nel concreto al know-how delle Università e degli Enti di ricerca (Assotec) • il livello della copertura finanziaria della misura assicurata per il 2002 per le imprese che operano in un’area “non obiettivo” come in generale quella lombarda; • i tempi di attraversamento delle domande fino alla fase di erogazione dei benefici, che vanno ridotti consistentemente, coinvolgendo di più nella valutazione dei progetti esperti di matrice ed esperienza industriale. Assotec aiuta le imprese: • nell’analisi dei bisogni di innovazione; 49 Anche questo punto viene toccato dall’indagine conoscitiva della Commissione Ministeriale, dove si riporta che la FULC ha sottolineato l’opportunità di un intervento pubblico maggiore nel sostegno all’attività di ricerca e di innovazione delle industrie del settore, ed il Ministro ha messo in rilievo l’opportunità di una politica specifica attraverso un miglior utilizzo dei programmi europei e degli strumenti di supporto per le PMI. in contrasto tra loro e, sopratutto, di non aver avanzato alcuna idea. Ritengo, perciò, utile tentare alcune proposte che possono stimolare un dibattito (sicuramente) ed aiutare (forse) a trovare una soluzione. 1. È stato appena pubblicato sul Corriere della Sera (7/3/2002) una lettera aperta del mondo accademico ai Ministri Moratti e Tremonti. Sicuramente, il cercare di trarre delle conclusioni da stralci di un documento, riportati e selezionati da un giornalista, può portare a considerazioni sbagliate. Inoltre, in un settore delicato come quello della ricerca non è possibile arrivare ad una generalizzazione dei concetti. Le diverse aree di ricerca, per il diverso grado di maturazione, per le modalità di applicazione dei risultati sono completamente diverse tra loro. Ciò che è valido per la medicina o le biotecnologie, può non essere valido per i materiali o l’elettronica. Più recentemente il sostegno all’innovazione passa anche attraverso leggi attribuite alla competenza regionale. Si tratta di leggi efficaci ed apprezzate dalle imprese, anche perché intervengono a sostenere proprio quell’innovazione realizzata dagli uffici tecnici in azienda, come nel caso della L. 140/97. Anche in questo caso il problema è l’inadeguatezza delle risorse: per la Lombardia vi sono 60 miliardi di disponibilità a fronte di 130 miliardi di richieste. In conclusione, mi preme richiamare alcune direttrici attorno alle quali far convergere gli sforzi comuni: Un primo punto dibattuto riguarda l’istituzione di un censimento dei soggetti capaci di svolgere buona ricerca, quale prerequisito per invogliare l’investimento di privati. La posizione degli accademici, riportata tra virgolette, è “… dopo anni di discussione non c’è bisogno di un censimento dei capaci. Nelle nostre Università si continuano a formare bravi ricercatori e la dimostrazione sta nel fatto che ci vengono rubati dai Centri stranieri” e poi a dimostrazione del buon livello dei nostri scienziati si citano statistiche dalle quali risulta come il numero dei loro articoli pubblicati su diversi periodici di prestigio sia considerevole e per nulla inferiore a quello di altri paesi. • valorizzare università ed enti di ricerca, portatrici di un potenziale enorme di creatività ed innovazione, con misure a sostegno della produttività scientifica del personale che valorizzino le eccellenze e facilitino l’impiego produttivo delle conoscenze acquisite (è giusto ed essenziale che lo Stato spenda più in ricerca, ma ritengo che questi fondi non debbano finanziare solo l'ambizione di gloria di qualcuno (notorietà attraverso articoli e pubblicazioni), ma debbano ricadere anche sul sistema Italia); • moltiplicare le occasioni di rapporto e scambio tra università ed Enti di Ricerca ed imprese, perché giovani ricercatori “respirino dal vivo” l’ambiente delle imprese acquisendo on the job le necessarie competenze manageriali; • sostenere la realizzazione di reti di trasferimento tecnologico in grado di coinvolgere i soggetti locali e territoriali e di qualificare la domanda di innovazione; • infine, creare occasioni di sostegno allo sviluppo di nuove idee e nuove imprese high tech con l’accesso a capitali di rischio. Personalmente non condivido che il livello di eccellenza (con alcune eccezioni di riviste di livello eccezionale e con contenuti trasversali alle diverse discipline) si possa rilevare dall’impact factor delle riviste su cui vengono pubblicati gli articoli. Ciascun buon professionista della ricerca è in grado di pubblicare articoli su ottime riviste a supporto delle (poche) scoperte fondamentali. Sono risultati molto utili per raccogliere casisticamente dati che possono servire a confermare o perfezionare scoperte importanti, ma che non rappresentano certamente un break through nel settore. Ho acconsentito a far pubblicare queste considerazioni per l’insistenza dell’amico Mario Malinconico e perché ritengo l’argomento fondamentale per lo sviluppo del nostro paese. Nel rileggerlo mi sono reso conto che ho raccolto una serie di considerazioni, valida ciascuna per se, ma Per quanto riguarda la “fuga dei cervelli”, gli unici dati che ho trovato (di fonte National Science Foundation, citati dal Sole 24 ore dell’1/11/01) riguardano statistiche di emigrazione dei cervelli in USA. Nell’anno in considerazione (1993) i cer- 50 velli italiani emigrati sono solo il 2,5% del totale Europa (64 su 2540). L’Italia viene dopo anche a Grecia, Irlanda, Olando, Svezia, paesi ben più piccoli del nostro ed è solo sopra a Austria, Belgio, 3. Un altro concetto riportato nella lettera aperta dice “… E tutto non può essere ridotto alla sola indagine di interesse industriale perché le grandi scoperte utili sono frutto di una ricerca libera.” Da un punto di vista di principio questo concetto è del tutto condivisibile. Forse può avere diverse sfumature in funzione del settore in cui si opera. Negli stralci della lettera riportati dal Corriere non si fa alcun accenno al ruolo che può svolgere la ricerca pubblica nei problemi di interesse industriale o su come trovare un risvolto industriale alle scoperte utili. Poiché questi erano semplici appunti per la partecipazione ad un Forum che prevedeva un dibattito, ma non un testo scritto, non ho citato la fonte di alcuni concetti o dati che, visto lo scopo originario di queste note, ho ripreso senza modifiche. Me ne scuso con gli autori. Danimarca, Norvegia, Spagna, Svizzera. Visto così il fenomeno non sembra rilevante. Sarebbe molto interessante poter disporre di dati più recenti e, soprattutto, più strutturati (ad esempio divisione tra stages brevi e trasferimenti permanenti). 4. Quale può essere allora un modello possibile? Alla fine degli anni ’50 era stato sviluppato il modello “Natta”, dove una scoperta fondamentale era stata industrializzata attraverso il rapporto preferenziale con una grande industria privata (Montecatini) che aveva messo a disposizione ricercatori e mezzi. In conclusione, come in tutti i settori professionali ritengo che anche scienziati e ricercatori universitari si suddividano in diverse categorie “geni” (pochi), Ricercatori, e onesti lavoratori della ricerca. Nel nostro settore conosco senz’altro molti ottimi ricercatori, ma ritengo anche che molti dei professori siano dei buoni professionisti della ricerca. Ovviamente, si possono avere elevate capacità didattiche e profonda conoscenza del proprio settore (caratteristiche fondamentali per un professore) senza rientrare nella categoria dei “geni” della ricerca. Per quanto riguarda la mia esperienza professionale, questo stesso modello (su scala ridotta) era stato poi applicato con successo nel già citato rapporto Farina/Snia, ma senz’altro è stato utile per altri grossi gruppi (Eni, Pirelli, ecc.). Il punto fondamentale è che in questi casi la cinghia di trasmissione tra “ricerca” ed “innovazione” era rappresentato dai Centri di Ricerca dei grossi gruppi industriali. Questo modello è ancora valido? Per quanto riguarda il nostro settore ne dubito fortemente per i motivi citati al punto successivo. In un recente dibattito sull’argomento a cui ero stato invitato, uno dei partecipanti di prestigio ha affermato “i professori sono più appagati dai risultati scientifici …”. 5. L’evoluzione nel settore delle materie plastiche a livello mondiale (maturazione dei polimeri anche a maggior contenuto tecnico, arresto dello sviluppo di nuovi polimeri ad altissime prestazioni, fondamentalmente per il loro costo elevato, spostamento dell’interesse dalle materie prime/prodotti allo sviluppo di un ciclo integrale per la realizzazione di nuovi manufatti) ha avuto effetti particolarmente rilevanti in Italia. Tutte le maggiori aziende italiane del settore hanno ricercato alleanze con altri produttori con la costituzione di j.v. che consentissero di disporre di volumi maggiori e dei vantaggi della integrazione, ad esempio l’EVC (PVC), la Montell (PP), Nylstar e Nyltech (PA), la Polimeri Europa (PE). Contemporaneamente erano state cedute le attività in cui non si era riusciti a raggiungere una massa critica sufficiente, o attraverso accordi o autonomamente (PC, PBT, PMMA). Questo approccio ha portato alla creazione di società di singolo prodotto con conseguente riduzione delle spese di ricerca, particolarmente Se questa è la situazione è inutile che si continui ad organizzare dibattiti e convegni sul tema della collaborazione tra pubblico e privato per spingere l’innovazione. 2. Anche nel CNR ci ritroviamo l’impact factor come fattore determinante di selezione. Ho fatto parte, recentemente di due commissioni in due differenti Istituti per la nomina, rispettivamente, di primi ricercatori e di ricercatori. Uno dei fattori prevalenti per la selezione era di nuovo l’impact factor, mentre non era presa in considerazione l’attività di trasferimento tecnologico dei risultati e di supporto ad aziende di qualsiasi dimensione. È quindi comprensibile ed umano che i ricercatori prediligano il primo punto rispetto al secondo. Anche qui vale il commento finale del punto precedente. 51 quelle proiettate verso una diversificazione o rinnovamento del portafoglio prodotti (il gestore di un singolo prodotto sa di essere valutato sulle sue performances e non ha alcun interesse a spese non direttamente connesse con il suo business). Nell’arco dell’ultimo decennio si è, quindi, assistito al ridimensionamento o chiusura di centri di ricerca che rappresentavano punti di competenza di notevole valore. responsabile. Ricercatori di base incaricati di sviluppare ricerche fondamentali e ricercatori incaricati di perfezionare i risultati della ricerca in azioni innovative (mantenendo la distinzione iniziale). I ricercatori dei due gruppi dovrebbero avere diverse vie valutative, ma avere le stesse opportunità economiche o di ruolo. È ovvio che se il capo del dipartimento dovrà sempre provenire dai ricercatori di base la parità tra i due gruppi sarà sempre fittizia. Una ulteriore evoluzione di questa situazione sembra essere quella che in realtà, essendo le Società chimiche italiane di dimensioni modeste e non integrate a monte rispetto a quelle straniere, le j.v. sembrano destinate a sciogliersi passando ai partners stranieri (Montell, Nyltech, Novalis EVC, in cui la quota ENI è diventata largamente minoritaria, i poliuretani, con conseguente spostamento del baricentro della ricerca all’estero). Sono note le ultime notizie riguardanti la cessione dei polimeri fluorurati e le trattative in corso tra ENI ed un gruppo arabo per la cessione dei pochi polimeri rimasti e degli elastomeri. Non va dimenticata la necessità di estendere la ricerca scientifica anche alle problematiche del processing e delle applicazioni, sul modello dell’IKV o del Fraunhofer. 7. Una via, forse, più funzionale potrebbe essere quella di delegare al CNR (opportunamente motivato e finanziato) il ruolo di “cinghia di trasmissione” tra ricerca universitaria di base ed innovazione. Avendo fatto per tutta la mia vita professionale il ricercatore, prevalentemente industriale ma anche per periodi significativi presso il Politecnico e l’Università del Massachusetts, sono convinto che le soddisfazioni professionali non mancherebbero. Il vedere i risultati della propria ricerca trasformati in impianti ed in prodotti industriali da le stesse motivazioni di un buon articolo pubblicato su di una rivista ad alto impact factor. È interessante notare che altre Società ritenute “di secondo piano” si stanno affermando in questo periodo con successo in business considerati non più redditizi dal gruppo delle Società storiche. Si possono citare il gruppo Radici, il gruppo MG, l’Aquafil, ecc. per la loro maggior flessibilità e capacità di operare in un settore maturo. Voglio chiudere citando delle mie recenti esperienze maturate collaborando con Assotec. Nell’ambito di questa collaborazione ho contribuito ad organizzare incontri tecnici tra ricercatori pubblici ed industrie su diversi temi, tutti con una forte carica di innovazione.. In Italia è sempre esistita una grossa anomalia. Da un punto di vista commerciale, come detto, lo sviluppo del settore è prevalentemente legato ai settori a valle (trasformazione, costruzione di macchine, utilizzo), contemporaneamente non esiste in Italia una ricerca ed una cultura tecnico-scientifica di alto livello in queste aree (con alcune rare eccezioni). Nella ricerca macromolecolare scientifica ed universitaria, l’importanza maggiore è sempre stata data alla sintesi, alla valutazione delle caratteristiche chimico-fisiche dei polimeri, alla loro struttura, ecc. In queste aree la scuola italiana è di altissimo livello anche su scala mondiale. Per quanto riguarda il nostro settore, in alcuni casi vi sono stati titolari o responsabili di PMI che hanno colto immediatamente l’importanza industriale di alcuni dei risultati presentati e ci hanno chiesto di essere messi in contatto con i relatori per approfondire l’argomento. Quegli stessi ricercatori, che avevano accolto con entusiasmo l’opportunità e collaborato a varare l’iniziativa, al momento opportuno di concretizzare i risultati della loro ricerca, non hanno ritenuto (perché?) di dare seguito ai contatti e di collaborare allo sviluppo industriale della loro ricerca. 6. Se si condivide che il quadro industriale è quello sopra descritto, quali possono essere le vie da suggerire, se si ritiene essenziale incrementare l’innovazione attraverso il travaso di scienza nelle PMI, che ormai rappresentano la stragrande maggioranza delle industrie del settore? Così come in molti casi le PMI si sono rapidamente ritirate a fronte di richieste economiche non particolarmente rilevanti in assoluto ed eque per raggiungere l’obiettivo concordato. Una via, da valutare quanto percorribile, potrebbe essere quella di prevedere nell’ambito di dipartimenti, Istituti ecc. di due tipi di figure al di sotto del 52 Sono sicuro che del rapporto tra enti pubblici e PMI continueremo a sentirne parlare come di una grande opportunità. Per chi e per cosa? Dopo la laurea in Chimica Industriale Antonio Casale è stato assunto dalla Soc. MONTECATINI ed inviato all'Istituto di Chimica Industriale del Politecnico di Milano, diretto dal Prof. Natta. Dal 1960 al 1977 ha lavorato per la stessa Società, inizialmente come responsabile della ricerca applicata, sviluppo ed assistenza tecnica delle resine termoplastiche del Centro Ricerche Resine (ABS, PMMA, POM) e quindi come Vice Direttore. Nel 1976 è stato nominato Direttore dell'Unità di Linate (R&D e produzione dei polimeri fluorurati e dei relativi monomeri). Nel 1977 è stato assunto dalla SNIA-BPD come Direttore della Ricerca e Sviluppo di tecnopolimeri, film speciali per l'imballaggio flessibile e compositi. Dopo alcune esperienze manageriali nel 1987 é stato nominato Amministratore Delegato della SNIA Tecnopolimeri e nel 1990 Responsabile del Settore Materiali del Gruppo. Nel 1992, dopo il suo ritiro, ha continuato la sua cooperazione con la SNIA come responsabile del coordinamento dello sviluppo materiali del gruppo e come Direttore della Scienza e Tecnologia della Ricerca Centrale. Nel 1997 ha iniziato la collaborazione con il “Centro di cultura delle materie plastiche”, di cui è attualmente Vice Presidente, una associazione costituita tra un consorzio di aziende private (Proplast) ed il Politecnico di Torino per promuovere lo sviluppo e la ricerca delle materie plastiche e per organizzare la prima laurea in Italia in ingegneria delle materie plastiche presso la sede di Alessandria dello stesso Politecnico. Dal 2001 è inoltre consulente di Assotec, una Società partecipata da Assolombarda, la Camera di Commercio di Milano ed il CNR (Consiglio Nazionale delle Ricerche), specializzata nel trasferimento di tecnologie alle PMI. Nel 2001 è stato anche nominato Presidente della Sniaricerche, Società di ricerca facente capo al Gruppo Ergom, Società leader nella produzione di componentistica nel settore trasporti. Nel 1969-1970 è stato, come visiting scientist, presso il Polymer Engineering and Science Department dell’Università del Massachusetts, svolgendo ricerche sulla reologia e degradazione meccanica dei polimeri. È stato assistente del corso di "Tecnologia delle Materie Plastiche" presso l'Istituto di Chimica Industriale del Politecnico di Milano. È stato membro del Consiglio Scientifico dei principali Istituti del CNR del settore macromolecolare (Genova, Napoli, Milano). È autore di circa 60 articoli e brevetti e del libro in due volumi "Polymer Stress Reactions" pubblicato dall’Academic Press (New York) e dalla Chimia (Mosca"). Ha svolto una intensa attività associativa: è tra i soci fondatori della Società Italiana di Reologia, della sezione italiana dello SPE, dell'Associazione tra Tecnici delle Materie Plastiche. È stato Presidente dell'AIM, Associazione Italiana di Scienza e Tecnologia delle Macromolecole, nel biennio 1993-1995. Nel 1997 l’Associazione tra Tecnici delle Materie Plastiche gli ha conferito il “Premio alla carriera” per avere contribuito alla crescita del settore. 53 I Congressi futuri Nei due ultimi numeri di AIM Magazine abbiamo dedicato ampio spazio a quattro importanti manifestazioni organizzate o sponsorizzate da AIM che ormai sono alle porte. La prima è il Convegno-Scuola AIM, le altre tre sono tre Convegni internazionali. Ricordiamo ai potenziali interessati che è ancora possibile iscriversi. Ecco i titoli delle manifestazioni: 1) XXIV Convegno-Scuola AIM “Mario Farina” su Additivi per Materiali polimerici, Palazzo Feltrinelli, Gargnano (Brescia), 26-31 maggio 2002. 2) Europolymer Conference 2002 (EUPOC 2002), Polymeric Gels: Interestin Synthetic and Natural Soft Materials, Palazzo feltrinelli, Gargnano (Brescia), June 2-7, 2002. 3) 2nd International Conference on Polymer Modification, Degradation and Stabilization (MoDeSt 2002), Budapest, Hungary, 30 June-4 July 2002. 4) 1st Blue Sky Conference on Catalytic Olefin Polimerization, Sorrento (Italy), 17-20 June, 2002. Prendere contatto con gli organizzatori od iscriversi è molto semplice, basta andare sul sito dell’AIM http://www.aim.it e troverete i link specifici di tutte e 4 le manifestazioni. JOURNÉES TRANSALPINES POLYMÈRES 2002 DES Torino, 26-27 Settembre 2002 INNOVATION IN POLYMERIC MATERIALS: PROPERTIES, FORMULATION AND PROCESSING I l Politecnico di Torino, insieme con AIM, organizza per il prossimo autunno la sesta edizione delle Journées Transalpines des Polymères. Questo convegno si è tenuto la prima volta a Biviers nel 1997 a cura del Groupe Francais Polymères ed è divenuto un appuntamento consueto per i ricercatori delle regioni transalpine di Italia, Francia e Svizzera. Il suo scopo primario è di favorire la cooperazione tra le Università, gli enti di ricerca e le industrie che operano nel campo delle macromolecole. Le discussioni, attraverso comunicazioni orali e comunicazioni poster, riguarderanno la sintesi, la caratterizzazione, la formulazione e la trasformazione dei materiali polimerici. Inoltre le giornate costituiscono tradizionalmente un momento di confronto delle attività formative di I, II e III livello nelle scienze e nell’ingegneria dei polimeri e di presentazione delle iniziative transfrontaliere avviate. Co-organizzatore delle Journees è l’Innovation Relay Centre di Torino, insieme con le analoghe organizzazioni svizzere e francesi, che curerà lo spazio dedicato alle imprese e alle attività di trasferimento tecnologico. Tutti ricercatori e gli studenti interessati possono contattare: Roberta Bongiovanni, Dip. di Scienza dei Materiali e Ingegneria Chimica Politecnico di Torino Corso Duca degli Abruzzi 24 - 10129 Torino - Tel. +39 011 5644619 - Fax. +39 011-5644699 E-mail: [email protected] - Sito web: http://fenice.polito.it/jtp2002 54 International Symposium on “STEREOSPECIFIC POLYMERIZATION AND STEREOREGULAR POLYMERS” (EUPOC 2003) in honor of Giulio Natta on the occasion of the centenary of his birth Milano, Italy, June 8-12, 2003 Organizers The Conference is organized by: • Politecnico di Milano • Istituto per lo Studio delle Macromolecole, CNR di Milano, ISMAC • European Polymer Federation, EPF • Associazione Italiana di Scienza e Tecnologia delle Macromolecole, AIM • Società Chimica Italiana, SCI TOPICS • Traditional Catalysts • Metallocene Catalysts • More Recent Catalysts • Molecular Modeling and Polymerization Mechanism • Structural Aspects and Properties of Stereoregular Polymers • New Products and Processes All papers presented at the EUPOC 2003 will be published in a volume. A Book of Abstracts will be presented to anyone attending the Conference. International Advisory Board L. Porri (chairman), C. Albertsson, E. Albizzati, G. Allegra, H.H. Brintzinger, G. Cecchin, F. Ciardelli, P. Corradini, J.J. Eisch, T. Keii, P.J. Lemstra, M. Möller, S. Slomkowski, R. Spitz, V. Zakharov, A. Zambelli • Location EUPOC 2003 will be held at the Centro Congressi Cariplo, Via Romagnosi 16, which is located in the center of Milan, close to the Duomo, Castello Sforzesco and other ancient monuments. The Centro Congressi can be easily reached by public transport. Milan is ideally located for pre- or post-Conference tours to the Alps, the Lake District, Venice, Florence and other Italian tourist attractions. Scientific and Organizing Committee G. Costa, G. Di Silvestro, F. Forlini, M.C. Gallazzi A. Giarrusso, P. Locatelli, S.V. Meille, R. Passera, B. Pistoresi, G. Ricci, M.C. Sacchi, P. Sozzani, E. Taburoni, I. Tritto Objective and Scope EUPOC 2003 is organized in honor of Giulio Natta, on the occasion of the centenary of his birth (26 February 1903). Almost fifty years have elapsed since the first revolutionary syntheses of isotactic and syndiotactic polymers, carried out by Giulio Natta at the Polytechnic of Milan, using the new organometallic catalysts discovered by Karl Ziegler. The work of Ziegler and Natta opened up the era of Metal Catalyzed Stereospecific Polymerization, which produced such a dramatic impact on science and technology. The vitality of this field is witnessed by the current worldwide intense research activity, which produces new unexpected developments year after year. The Conference is intended as a forum for discussing new results and perspectives in the field of catalysts, synthesis, characterization and applications of polyolefins. • Language English will be the official language of the Conference. • Call for Papers The Organizing Committee will select 80-100 contributed papers to be presented either as 15 min. Short Communications or Posters (including 5 min. presentations). Those who wish to present Contributed Papers at the Conference are kindly requested to make this clear in the Preregistration Form. Instructions for the preparation of abstracts of scientific contributions will be reported in the 2nd circular, which will be available from the website by September 2002 along with Registration and Hotel Accommodation forms. The deadline for sending the Abstracts of the Communications and for Registration is February 8, 2003. Scientific Programme EUPOC 2003 will include approximately 20 Invited Lectures (30 min.), 30 Short Communications (15 min.), and Poster Sessions (5 min. oral presentations). Scientific Secretariat Giovanni Ricci, ISMAC - CNR, Via E. Bassini 15, 20133 Milano - ITALY Tel. +39.02.23699376-378 - Fax +39.02.2362946 E-mail: [email protected] 55 CALENDARIO CONGRESSI 2002 16-21 giugno Orlando, FL USA Nanostructurated Materials (NANO 2002) Lawrence Kabacoff, Materials Division, Office of Naval Research, 800 North Quincy St., Arlington, VA 22217-5660, USA; Fax +1 703 696 0934; E-mail: [email protected]; http://www.nano2002.com 16-21 giugno South Hadley, MA USA Zeolitic and Layered Materials, Gordon Research Conference Gordon Research Conference, c/o University of Rhode Island Fax +1 401 783 7644; E-mail: [email protected]; http://www.grc.uri.edu 17-21 giugno Sorrento Italia 1st Blue Sky Conference on Catalytic Olefin Polymerization, Hilton Sorrento Palace Hotel and Conference Centre in Sorrento, Italy 1st COP-Attn. Dott.ssa Roberta Cipullo, c/o Dipartimento di Chimica, Università di Napoli “Federico II”, via Cintia, 80126 Napoli (Italy) Fax +39-081-674090; E-mail: [email protected]; http://chemistry.unina.it/jlpo/bluesky 17-19 giugno Novi Michigan, USA TPOs In Automotive 2002, 8th International Conference Amos Golovoy; Tel. 313-323-1419; Fax 313-323-1129; E-mail: [email protected] http://www.executive-conference.com 30 giugno-4 luglio Budapest Ungheria 2nd International Conference on “Polymer Modification, degradation and Stabilisation” (MoDeSt2002) Conference Secretary: Mr. Gábor Toth, Budapest University of Technology and Economics, Professors Guest House, H-1111 Budapest, Stoczek u. 5-7, Hungary Tel. +36 1 463 3939; Fax +36 1-463-3936; E-mail: [email protected]; http://www.bme.hu/modest 1-5 luglio Athens Grecia Coatings Science and Technology Institute of Materials Science, Division of Program Organisation, PO Box 369, New Paltz, New York 12561, USA; Tel. +1 914 255 0757; Fax +1 914 255 0978 E-mail: [email protected]; http://www.ims-np.org/ 1-6 luglio San Diego California 9th International Conference on Composities Engineering (ICCE/9) Dr. David Hui, University of New Orleans, Dept. of Mechanical Engineering, New Orleans, LA 70148 Tel. 504 280-6652; Fax/Tel. 504 280-6192 E-mail: [email protected]; http://www.uno.edu/engr/composite 7-12 luglio Tolosa Francia INCOM 2002-International Congress on Membranes and Membrane Processes Marie-Hélène Gulli, Laboratoire de Génie Chimique, Université Paul Sabatier, F-31062 Tolulouse Cedev, France; E-mail: [email protected]; http://www.ems.cict.fr 7-12 luglio Beijing Cina 39th International Sumposium on Macromolecules Secretariat, MACRO 2002, P.O. Box 2709, Beijing 100080, China Fax +86-10-62562417; E-mail: [email protected] 9-11 luglio London Gran Bretagna The Effect of Polymer on Dispersion Stability Prof. P. Luckham, Imperial College of Science, Technology and Med., Exhibition Road, London SW7 2 AZ, UK Tel. +44 0 20 7594 5583; E-mail: [email protected] 10-14 luglio Acquafredda di Maratea, Italia ELASTIN2002 - Second European Symposium Antonio M. Tamburro (Elastin2002-Chairman), Dept. of Chemistry, Via N. Sauro 85, 85100 Potenza, Italy Tel. (Office) + 39 0971 202242 - (Laboratory) +39 0971 202247; Fax +39 0971 202223 E-mail: [email protected]; http://www2.unibas.it/utenti/biotechnology/index.htm 10-12 luglio Manchester Gran Bretagna Polymer Fibres 2002 John Herriot, Polymer Fibres 2002, Meetings Management, The Barn, Rake Meadow, Station Lane, Milford, Surrey, GU8 5AD, UK; Tel. +44 0 1483 427770; Fax +44 0 1483 428516 E-mail: [email protected]; htto://www.meetingsmanagemet.com 56 14-18 luglio San Diego California USA Polymers and Organic Chemistry Prof. Spiro Alexandratos, Office of Academic Affairs, City University of New York, 535 East 80th Street, New York 10021, USA; Tel. +1 212 794 5470; Fax +1 212 794 5796; E-mail: [email protected] Prof. Warren T. Ford, Dept. of Chemistry, Oklahoma State University, Stillwater, Oklahoma 74078, USA; Tel. +1 405 744 5946; Fax +1 405 744 6007 14-19 luglio Irsee Germania Polymer Colloids: Preaparation& Properties of Acqueous Polymer Dispersion United Engineering Foundation, 3 Park Avenue, 27th Floor, New York, NY, USA 10016-5902 Tel. +1 212 591 7836; Fax +1 212 591 7441; E-mail: [email protected]; http://www.engfnd.org 15-18 luglio Praga Cecoslovacchia 21st Discussion Conference and 9th International ERPOS Conference on “Electrical and Related Properties of Polymers and Other Organic Solids” Prof. Dr. Drahomir Vyprachticky, Institute of Macromolecular Chemistry, Academy of Sciences of the Czech Republic, Heyrovského nam. 2, 162 06 Praha 6, Czech Republic Tel. +420 2 20403251 or +420 2 20403332; Fax +420 2 35357981 E-mail: [email protected] [email protected] 21-25 luglio Sydney Australia ACUN-4 International Composites Conference "COMPOSITE SYSTEMS-Macrocomposites, Microcomposites, Nanocomposites", UNSW Dr. Sri Bandyopadhyay, School of Materials Science and Engineering, UNSW, Sydney 2052, Australia Tel. +61 2 9385 4509; Fax. +61 2 9385 5956 E-mail: [email protected]; http://www.materials.unsw.edu.au 22-25 luglio Praga Repubblica Ceca 4th International Conference on Polymer-Solvent Complexes and Intercalates P.M.M. Secretariat, Institute of Macromolecular Chemistry, Academy of Sciences of the Czech Republic, Heyrovsk No 2, 162 06 Praha 6, Czech Republic Tel. +420 2 20403111; Fax +420 2 35357 981; E-mail: [email protected] 27 luglio-1 agosto Warwick UK MACRO International Conference on Polymer Synthesis, "Warwick 2002" Prof. D.M. Haddleton, Warwick 2002, Dept. Of Warwick, Coventry, CV4 7AL, UK E-mail: [email protected]; http://www.warwick.ac.uk/polymers; http://www.warwickpolymer.com/conference.htm 5 8 agosto Langzhou Cina 12th Internatinal Symposium on Fine Chemistry and Functional Polymer (FCFP-XII) Prof. Alvise Benedetti, Dip. di Chimica Fisica, Università Ca' Foscari, Calle Larga S. Marta D.D. 2137, 30123 Venezia - Italy; Fax +39 041 234-8594; E-mail: [email protected] Prof. Rong-Min Wang, Institute of Polymer, Northwest Normal University, Langzhou, 730070, Cina Tel. +86 931 797 1999; Fax +86 931 766 3356; E-mail: [email protected] 25-29 agosto Venezia Italia XII Conference on Small Angle Scattering Prof. Alvise Benedetti, Dip. di Chimica Fisica, Università Ca' Foscari, Calle Larga S.Marta D.D. 2137, 30123 Venezia - Italy; Fax + 39 041 234-8594; E-mail: [email protected] http://www.unive.it/sas2002 2-6 settembre Autrans Francia 16th Polymer Networks Group Meeting, Polymer Networks 2002 Functional Networks and Gels Polymer Networks 2002, Lab. de Spectrometrie Physique, Università J. Fourier de Grenoble, BP 87, 38402 Saint Martin d'Heres cedex, Francia; Tel. +33 476 63 58 23; Fax +33 476 51 45 44 E-mail: [email protected]; http://www.lsp.ujf-grenoble.fr/netw2002 8-11 settembre Ostend Belgio 2nd International Symposium on “Feedstock Recycling of Plastics & other Innovative Plastics Recycling Techniques (ISFR’2002) Mrs. Kristel Praet, M.Sc., Research and Development Belgium (RDB), Leo de Bethunelaan 80, 9300 Aalst, Belgium, Tel./Fax 0032-53786355; E-mail: [email protected] Prof. Dr. Ir. A. Buekens, Free University of Brussels, Dept. Chemical Engineering CHIS-2, Pleinlaan 2, 1050 Brussels, Belgium; Tel. 0032-26293247; E-mail: [email protected] Web Site: http://wwwtw.vub.ac.be/chis2/ 12-13 settembre Pisa International Workshop on “Advanced Frontiers in Polymer Science”, also celebrating the 65th birthday anniversaries of Emo Chiellini and Francesco Ciardelli For further information, contact: G. Galli, e-mail: [email protected] R. Solaro, E-mail: [email protected] 15-18 settembre Les Diablerets Svizzera Fves-3rd ESIS TC4 Conference on Polymers and Composites AFPS 2002, Attn: Ms. Maria G. Viola, Dept.of Chemistry, via Risorgimento 35, 56126 Pisa (Italy) Tel. +39 050 918299; Fax +39 050 28438; E-mail: E-mail: [email protected] 19 settembre Salerno, Italia Giornata su “I processi di trasformazione di materiali polimerici” Organizzata dal Dip. di Ingegneria Chimica e Alimentare dell’Università di Salerno Informazioni possono essere richieste direttamente all’indirizzo e-mail [email protected] Il programma sarà pubblicato appena possibile sul sito web del Dipartimento di Ingegneria Chimica dell’Università di Salerno all’indirizzo www.dica.unisa.it/events.htm Comitato org.: G. Titomanlio, R.Nobile, L. Incarnato, V. Brucato, L . Di Maio, R. Pantani 57 19-20 settembre Gent Belgio International Symposium “Polymer Chemistry for the Design of New Materials” Ghent University “Het Pand”; http://www.rug.ac.be/new_materials/ 21-26 settembre Sainte-Adéle Québec Canada 5th International Symposium on “Ionizing Radiation and Polymers” (IRaP2002) Contact information: IRaP2002, Conference secretariat, Curly Dog Communications Inc. Tel. +1-514-481-8086; Fax +1-514-481-9143; E-mail: [email protected] http://irap2002.phys.polymtl.ca 25-27 settembre Halle/Saale Germania Polymeric Materials Dr. Lotar Fiedler, Martin-Luther-Universitaet Halle-Wittemberg, FB Ingenierurwissenschaften, D-06099 Halle/Saale, Germany; E-mail: [email protected] 26-27 settembre Torino Journèes Transalpines des Polyméres 2002: Innovation in Polymeric Materials: properties, formulation and processing Roberta Bongiovanni, Dipartimento di Scienza dei Materiali e Ingegneria Chimica, Politecnico di Torino, c. Duca degli Abruzzi 24 10129 Torino Tel. + 39 011 5644619; Fax + 39 011-5644699 ; E-mail: [email protected] 25 settembre London UK Slow Dynamics in Soft Matter: Common Structures in Diverse Systems Royal Society Discussion Meeting; Tom McLeish, IRC in Polymer Science & Technilogy, University of Leeds, Woodhouse Lane, Leeds LS2 9JT, UK Tel. +44 0 113 233 3845; Fax +44 0 113 233 3846; E-mail: [email protected] 7-9 ottobre Vienna Austria Macromolecules in the 21st Century Dr. Lotar iedler, Martin-Luther-Universitaet Halle-Wittemberg, FB Ingenierurwissenschaften, D-06099 Halle/Saale, Germany Dr. Helga Roder, Managing Director, Gesellschaft fuer Chemiewirtschaft, Rudolf Sallingerplatz 1/523, A-1030 Wien, Austria; E-mail: [email protected] or [email protected]; http://www.macrovienna.org 2-5 dicembre Kyoto Giappone IUPAC Polymer Conference on “The Mission and Challenges of Polymer Science and Technology (IUPAC-PC2002) IUPAC-PC2002 Secretariat, The Society of Polymer Science, Japan, Shintomicho-Tokyu Building, 3-10-9 Irifune, Chuo-ku; Tokyo 104-0042 Japan Tel. +81-3-5540-3775; Fax +81-3-5540-3737; E-mail: [email protected] 2003 25-30 maggio Palazzo Feltrinelli Gargnano (BS) Italia 2nd EPF School and XXV Mario Farina School “Nanostructured Polymer Materials” In collaborazione con il Group Français des Polymeres (GFP) Prof. Giovanni Camino, C.Cult.Ing.Mat.Plast - Polit.Torino, sede Alessandria, Viale T. Michel 5, 15100 Alessandria; Tel. 0131-229318; Fax 0131-229331; E-mail: [email protected] 8-12 giugno Milano International Symposium on “Stereospecific Polymerization and Stereoregular Polymers” (EUPOC 2003) Corresponding address: Giovanni Ricci, ICM-CNR, Via Bassini 15, 20133 Milano Tel. 02-23699373; Fax 02-2362946; E-mail: [email protected] 13-17 luglio Parma Italia X International Conference on the Physics of Non-Crystalline Solids Organizing Secretariat: Antonella Azzali, Dept. General and Inorganic Chemistry, University of Parma, Parco Area delle Scienze 17/A, 43100 Parma - Italy Tel. +39 0521 905553, Fax +39 0521 905556, E-mail: [email protected] http://www.chim.unipr.it/xpncs/home.htm 10-15 agosto Ottawa Canada The 39th IUPAC Congress and 86th Conference of The Canadian Society for Chemistry on “Chemistry at the Interfaces” Secretariat: 39th IUPAC Congress and 86th Conference of The Canadian Society for Chemistry, National Research Council Canada, Conference Service Office, Building M-19, Montreal Road, Ottawa, Ontario, Canada K1A 0R6 Tel. (613) 993-0414; Fax (613) 993-7250; E-mail: [email protected] 22-25 settembre Pisa Italia XVI Convegno Italiano di Scienza e Tecnologia delle Macromolecole Presso l’Area della Ricerca del CNR di Pisa L’organizzazione del Convegno è ancora in fase iniziale, troverete le informazioni preliminari quanto prima sul nistro sito Web: www.aim.it. Rivolgersi per informazioni a Mariano Pracella ([email protected]) e a Piero Cerrai ([email protected]) 58 La Biblioteca Riportiamo con piacere i contenuti e stralci della prefazione del volume “Mass Spectrometry of Polymers” del quale è co-editor e co-autore il Prof. Giorgio Montaudo dell’Università di Catania. Il Comitato di Redazione MASS SPECTROMETRY Montaudo, Giorgio University of Catania, Catania, Italy Lattimer, Robert P. Noveon, Inc., Brecksville, Ohio, USA OF POLYMERS Features • Bridges the gap between traditional polymer analysis methods and the emerging field of polymer mass spectrometry • Outlines desorption/ionization methods to determine exact oligomer masses • Describes the use of mass spectrometry to determine absolute molecular weight distributions • Describes methods to determine the chemical structure of polymers, including monomer types, end groups, and microstructure • Discusses the characterization of additives, impurities, and degradation products in polymeric materials • Includes the most recent advances in matrixassisted laser desorption/ionization mass spectrometry, already a standard tool for polymer analysis • Discusses time-of-flight secondary ion mass spectrometry, which is revolutionizing bulk polymer as well as surface characterization ISBN/ISSN: 0849331277 Publication date: 10/29/2001 No. of Pages: 600 Description Mass Spectrometry (MS) has rapidly become an indispensable tool in polymer analysis, and modern MS today complements in many ways the structural data provided by Nuclear Magnetic Resonance (NMR) and Infrared (IR) methods. Recent advances have sparked a growing interest in this field and established a need for a summary of progress made and results achieved. Mass Spectrometry of Polymers effectively fills this need. The discussion begins by introducing MS in detail, providing a historical perspective and a review of modern instrumentation and methods. The text then focuses on mathematical concepts and practical algorithms used in some of the major quantitative polymer applications of MS, providing a skillful prologue to polymer characterization techniques. Detailed chapters follow, describing the most relevant applications of MS to the analysis of polymers and the techniques currently employed. Authored by internationally recognized experts from academia and industry, Mass Spectrometry of Polymers is the only state-of-the-art work available that deals systematically with this rapidly emerging discipline, and will be useful to both novices and experienced practitioners in polymer MS. Contents • Preface, G. Montaudo and R.P. Lattimer • Introduction to Mass Spectrometry of Polymers, M.J. Polce and C. Wesdemiotis • Polymer Characterization Methods, G. Montaudo and M.S. Montaudo Gas Chromatography/Mass • Pyrolysis Spectrometry (Py-GC/MS), S. Tsuge and H. Ohtani • Electrospray Ionization (ESI-MS) and On-Line Liquid Chromatography/Mass Spectrometry (LC/MS), L. Prokai • Direct Pyrolysis into the Ion Source (DPMS), G. Montaudo and C. Puglisi 59 • Field Ionization (FI-MS) and Field Desorption (FD-MS), R.P. Lattimer • Fast Atom bombardment (FAB-MS), G. Montaudo and F. Samperi • Time-of-Flight Secondary Ion Mass Spectrometry (FT-MS), S.J. Pastor and C.L. Wilkins • Laser Fourier Transform Mass spectrometry (FT-MS), S.J. Pastor and C.L. Wilkins • Matrix-Assisted Laser Desorption/Ionizationi Mass Spectrometry (MALDI-MS), G. Montaudo, M.S. Montaudo, and F. Samperi • Two-Step Laser Desorption Mass Spectrometry, M.S. deVries and H.E. Hunziker Some of the most significant applications of modern MS to synthetic polymers are (a) chemical structure and end group analysis, (b) direct measurement of molar mass and molar mass distribution, (c) copolymer composition and sequence distribution, and (d) detection and identification of impurities and additives in polymeric materials. In view of the recent developments in this area, a book on Mass Spectrometry of Polymers appears opportune. Even more, in our opinion there is an acute need for a state-of-the-art book that summarizes the progress recently made. No books currently exist that deal systematically with the whole subject. Therefore we present here an effort to summarize the current status of the use of mass spectrometry in polymer characterization. Preface Mass spectrometry involves the study of ions in the vapor phase. This analytical method has a number of features and advantages that make it an extremely valuable tool for the identification and structural elucidation of organic molecules – including synthetic polymers: (i) The amount of sample needed is small; for direct analysis, a microgram or less of material is normally sufficient. (ii) The molar mass of the material can be obtained directly by measuring the mass of the molecular ion or a “quasimolecular ion” containing the intact molecule. (iii) Molecular structures can be elucidated by examining molar masses, ion fragmentation patterns, and atomic compositions determined by mass spectrometry. (iv) Mixtures can be analyzed by using “soft” desorption/ionization methods and hyphenated techniques (such as GC/MS, LC/MS, and MS/MS). Mass spectrometric (MS) methods are routinely used to characterize a wide variety of biopolymers, such as proteins, polysaccharides, and nucleic acids. Nevertheless, despite its advantages, mass spectrometry has been underutilized in the past for studying synthetic polymer systems. It is fair to say that, until recently, polymer scientists have been rather unfamiliar with the advances made in the field of mass spectrometry. However, mass spectrometry in recent years has rapidly become an indispensable tool in polymer analysis, and modern MS today complements in many ways the structural data provided by NMR and IR methods. Contemporary MS of polymers is emerging as a revolutionary discipline. It is capable of changing the analytical protocols established for years for the molecular and structural analysis of macromolecules. ………… The book consists of two introductory chapters followed by nine chapters on applications. Since it is relatively new to polymer science, mass spectrometry needs to be introduced in some detail, and this is done in Chapter 1. On the other hand, many analytical chemists will need an introduction to polymer characterization methods, and this is done in Chapter 2. The rest of the chapters cover in detail the most relevant applications of mass spectrometry to the analysis of polymers. Because of the low volatility of polymeric materials, many mass spectral methods for polymers have involved pyrolysis (or thermal degradation), and this topic is covered in Chapter 3 (pyrolysis-GC/MS), Chapter 5 (direct pyrolysis-MS), and Chapter 6 (pyrolysis-FI/FD-MS). Chemical degradation methods are discussed in connection with fast atom bombardment analysis (Chapter 7). For synthetic polymers, the most popular desorption/ionization method has been matrix-assisted laser desorption/ionization (MALDI-MS, Chapter 10). Several other techniques have important applications in polymer analysis. The more widely used methods are covered in this book: electrospray (Chapter 4), field ionization/desorption (Chapter 6), fast atom bombardment (Chapter 7), secondary ion mass spectrometry (Chapter 8), and laser desorption (Chapters 9 and 11). The present book is designed to be practical in nature. That is, the individual chapters are not intended to be exhaustive reviews in a particular field. Instead, they introduce the subject and describe typical applications in a tutorial manner, with pertinent references from the literature. We trust that the book will be useful to both novices and experienced practitioners in polymer MS. 60 Dal mondo della tecnologia OVERVIEW a cura di Riccardo Po’ di blend PP/PPE per il settore automobilistico, denominata Noryl PPX, che garantisce una maggiore rigidità a parità di tenacità. Infine, i materiali nanocompositi, dopo avere fatto la loro comparsa ed essersi consolidati nel mondo delle poliammidi, stanno per interessare anche le poliolefine. I nanocompositi a base di PP (e di TPO) sembrano offrire proprietà tipiche della fascia dei tecnopolimeri ad un costo inferiore del 50% ed una densità inferiore del 20%. La società di consulenza STA Research (Snohomish, Washington) stima che nel giro di due anni il 30% dei nanocompositi polipropilenici troverà sbocco nel settore auto, in sostituzione del PP tradizionale e, poco a poco, dei metalli e dei tecnopolimeri. Intanto, la Nanocor (Arlington Heights, Illinois) ha sviluppato un materiale a base di PP con una rigidità quasi doppia rispetto al PP tal quale e una HDT maggiore di 30°C, mentre General Motors ha annunciato la produzione di parti di auto in compositi TPO/nanoargilla. Nel prossimo futuro la lista delle aziende coinvolte nello sviluppo di questi materiali è senz’altro destinata a diventare via via più lunga, con applicazioni che riguarderanno anche altri settori di mercato. Premi Nobel … Nel 2003 saranno trascorsi 100 anni dalla nascita di Giulio Natta e 40 anni dal riconoscimento con il premio Nobel dei risultati da lui raggiunti. Nonostante il polipropilene sia un polimero ormai arcinoto e arcistudiato, le aziende chimiche (ormai non più in mani italiane, purtroppo …) continuano a sfornare su di esso innovazioni tecnologiche a ritmo serrato. Il K-2001 di Düsseldorf, consueta vetrina internazionale del mondo delle materie plastiche, ha confermato questo quadro. Basell Polyolefins (Wilmington, Delaware) ha presentato i nuovi gradi per film Adflex e Adsyl, prodotti attraverso la tecnologia Catalloy. I due nuovi gradi Adflex offrono una migliore flessibilità e una minore durezza; Adflex W è un grado per imballaggio, mentre l’altro prodotto è stato sviluppato per sostituire il PVC nel settore medicale. I gradi Adsyl possiedono migliori proprietà di sigillabilità (la “seal-initiation temperature” è significativamente più bassa del punto di fusione); un altro miglioramento consiste nel fatto che questi film possono essere metallizzati secondo metodi classici. I polimeri Clyrell, anch’essi Basell, offrono elevata lucentezza e tenacità a bassa temperatura, abbinate ad una bassa opacità e alla ottima resistenza alle microonde. Per essi è previsto l’impiego nella fabbricazione di vaschette per gelato e di recipienti per alimenti “freezer-to-microwave”. Ancora Basell ha sviluppato la tecnologia denominata MZCR (MultiZone Circulating Reactor) capace di produrre copolimeri ad alta cristallinità e rigidità che mantengono però una ottima tenacità e lavorabilità. La tecnologia opera in fase gas e fornisce PP bimodali in un unico reattore; ciascun granulo viene fatto circolare ripetutamente nel reattore, fino a generare su di sé una sequenza di strati di materiali diversi per composizione e/o peso molecolare. In questo modo si possono ottenere blend omogenei, non ottenibili mediante le normali tecniche di miscelazione in estrusore. La A. Schulmann Inc. (Akron, Ohio) ha sviluppato dei copolimeri a base polipropilenica, soffici al tatto, destinati a sostituire il PVC nell’interno dell’automobile. Già nella scorsa primavera GE Plastics (Pittsfield, Massachussets) aveva messo sul mercato una famiglia * * Riferimenti Plastics Technology, Sep. 2001, p. 65 Plastics Technology, Jan. 2002, p. 51 Plastics Technology, May 2001, p. 47 Plastics Technology, Oct. 2001, p. 65 … e Premi Oscar (ossia, i polimeri al cinema) L’industria cinematografica non costituisce certamente, come volumi, uno dei maggiori clienti dell’industria delle materie plastiche, ma è sicuramente una di quelle in cui i polimeri forniscono i risultati più spettacolari. Il Signore degli Anelli - La Compagnia dell’Anello, tratto dall’omonimo romanzo di J.R.R. Tolkien e uscito nelle sale italiane all’inizio dell’anno, ne è un esempio eclatante. Il regista neozelandese Peter Jackson e la Weta Ltd., azienda produttrice di effetti speciali, hanno dovuto affrontare l’ardua impresa di ricostruire nei minimi dettagli il mondo fantastico inventato da Tolkien per rendere l’azione del film quanto più possibile reali- Ist. Donegani-Polimeri Europa srl, Via G. Fauser 4, 28100 Novara; E-mail: [email protected] 61 I risultati di tutti questi sforzi si sono tradotti in un film che rimarrà negli annali del cinema (e candidato ai Premi Oscar 2002 con ben 13 nominations). Chi avesse perso il film (il primo di quella che sarà una trilogia) può rimediare andando al cinema il prossimo Natale, quando verrà proiettato il secondo episodio, Le Due Torri. stica. Una squadra di oltre 140 tecnici ha realizzato decine di migliaia tra miniature e modellini, edifici, armi e armature, maschere e protesi, e i più disparati oggetti di uso comune rispettando minuziosamente le indicazioni e le descrizioni contenute nel libro. Utilizzare acciaio per costruire tutte le armature e le armi, ad esempio, era impossibile per ovvi motivi di sicurezza e di costi, e così la scelta di impiegare la plastica come sostitutivo è stata obbligata (ciò non ha comunque impedito a Viggo Mortensen, l’attore che ha interpretato il ruolo di Aragorn, di rompersi realmente due incisivi durante una “battaglia”). A parte alcuni esemplari “veri” per i personaggi principali, realizzati da mastri armaioli, armi (oltre 2000) e armature (più di 1000, per un totale di 48000 singoli componenti) sono state fabbricate in poliuretano rigido, materiale versatile, leggero e facilmente decorabile fino a fargli assumere l’aspetto metallico. Vari set sono stati ricavati scavandoli nel polistirene espanso e “trasformati” in legno (come nella Locanda del Puledro Impennato di Brea) o in pietra (vedi ad esempio le statue di Colle Vento o i giganteschi – solo in apparenza – Argonath del fiume Anduin). I piedi degli Hobbit (ben 2200 paia), le orecchie degli Elfi, i nasi di Gandalf e di Gimli, mani e teste (e anche interi corpi) degli Orchi sono stati realizzati in lattice poliisoprenico; un forno per la cottura (o meglio, in linguaggio polimerista, per il “curing”) dei pezzi in lattice è stato mantenuto in funzione per intere settimane, 24 ore su 24. Per la prima volta per certe scenografie è stata impiegata una macchina concepita in origine per spruzzare rivestimenti in elastomero poliuretanico sulle piattaforme petrolifere del Mare del Nord. Insomma, gli anni di Ettore Fieramosca e La Corona di Ferro di Alessandro Blasetti sono molto lontani … Bibliografia J.R.R. Tolkien, Il Signore degli Anelli, Rusconi 1977; Bompiani 1999. B. Sibley, Il Signore degli Anelli. La guida ufficiale al film, Bompiani 2001. Elastomeri a base di PBT da oligomeri ciclici direttamente in estrusore La Cyclics Corporation (Rensselaer, New York) ha preparato un elastomero termoplastico a base di PBT direttamente in estrusore a partire da oligomeri ciclici di PBT e altri ingredienti polimerici non precisati (probabilmente politetraidrofurano). Il risultato è di estremo interesse perché apre la via alla preparazione di una vasta gamma di gradi di copolimeri etere-estere a blocchi in modo semplice, veloce e flessibile, senza ricorrere a complessi impianti di polimerizzazione (con notevoli vantaggi economici e di gestione). La sintesi di poliesteri o policarbonati a partire da oligomeri ciclici è una via nota da molti anni (ad esempio, la General Electric ha pubblicato numerosi brevetti ed articoli sulla sintesi del policarbonato), ma la notizia riportata da Plastics Technology è di spicco perché fa riferimento ad una azienda nata appositamente per sviluppare questo business. Bilbiografia Plastics Technology, Feb. 2002, p. 29. 62 LIBRI E ATTI AIM Disponibili presso Pacini Editore Materiali polimerici strutturali Atti dell’XI Convegno-Scuola AIM, Gargnano 1989, volume di 425 pagine, Euro 18.07 Copolimeri Atti del XII Convegno-Scuola AIM, Gargnano 1990, volume di 440 pagine, Euro 18.07 Processi industriali di polimerizzazione: aspetti fondamentali e tecnologici Atti del XIII Convegno-Scuola AIM, Gargnano 1991, volume di 433 pagine, Euro 23.24 Metodi spettroscopici di caratterizzazione dei polimeri Atti del XIV Convegno-Scuola AIM, Gargnano 1992, volume di 477 pagine, Euro 25.82 Massa e dimensioni di macromolecole Atti del XV Convegno-Scuola AIM, Gargnano 1993, volume di 347 pagine, Euro 25.82 Materiali polimerici: struttura e processabilità Atti del XVII Convegno-Scuola AIM, Gargnano 1995, volume di 386 pagine, Euro 23.24 Degradazione e stabilizzazione dei materiali polimerici Atti del XVIII Convegno-Scuola AIM, Gargnano 1996, volume di 408 pagine, Euro 23.24 Polimeri in medicina Atti del XIX Convegno-Scuola AIM, Gargnano 1997, volume di 355 pagine, Euro 20.66 I polimeri espansi Atti del XX Convegno-Scuola AIM, Gargnano 1998, volume di 363 pagine, Euro 20.66 Materiali polimerici cristallini e liquido cristallini Atti del XXI Convegno-Scuola AIM, Gargnano 1999, volume di 438 pagine, Euro 20.66 Atti del XIV Convegno Italiano di Scienza e Tecnologia delle Macromolecole Salerno, 13-16 settembre 1999, volume I+II, Euro 20.66 Fondamenti di Scienza dei Polimeri Volume di 944 pagine edito da Pacini Editore SpA, 1998. Costo di copertina Euro 49 (compresa IVA) maggiorato di Euro 3 a rimborso delle spese di spedizione Physical Properties of Polyelectrolite Solutions (prof. Michel Mandel) Volume di 190 pagine edito da Pacini Editore SpA, 1999, costo di copertina Euro 18.07 (compresa IVA) maggiorato di Euro 5 a rimborso delle spese di spedizione Produzione industriale di polimeri Atti del XXII Convegno-Scuola AIM, Gargnano 2000, volume di 498 pagine, Euro 25.82 Addittivi per materiali polimerici Atti del XXIV Convegno-Scuola AIM, Gargnano 2002, volume di 544 pagine, Euro 30.00 Per informazioni dettagliate sui contenuti dei volumi consultare il Sito Internet dell’AIM: http:/www.aim.it # SCHEDA PER ACQUISTO VOLUMI AIM disponibili presso Pacini Editore 1 Materiali polimerici 2 3 Copolimeri Processi industriali di polimerizzazione: aspetti fondamentali e tecnologici Metodi spettroscopici di caratterizzazione dei polimeri Massa e dimensioni di macromolecole Materiali polimerici: struttura e processabilità 4 5 6 7 8 9 10 11 12 13 14 15 Degradazione e stabilizzazione dei materiali polimerici Polimeri in medicina I polimeri espansi Materiali polimerici cristallini e liquido cristallini Atti del XIV Convegno Italiano di Scienza e Tecnologia delle Macromolecole Fondamenti di Scienza dei Polimeri Physical Properties of Polyelectrolite Solutions Produzione industriale di polimeri Addittivi per materiali polimerici Vi preghiamo di inviarci n. ..... copie dei volumi (siglare i volumi prescelti): 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15 Sig. ................................................................................................................................................................................ Ente ................................................................................................................................................................................ Indirizzo ..........................................................................................Città ..............................................Prov ................ Cap .............................. Tel. ............................................................Fax ........................................................................ Data ....................................Pagamento: a ricevimento fattura o contrassegno o Codice Fiscale.................................................................................. Partita IVA ............................................................ Il pagamento dovrà essere effettuato direttamente alla Pacini Editore, richiedendo invio di fattura o di contrassegno. Pacini Edotore SpA, Via Gherardesca, Zona Industriale Ospedaletto, 56121 Pisa, Tel. 050/313011 - Fax 050/3130300 63 AIM Magazine DIRETTORE RESPONSABILE Roberto Filippini Fantoni Via Corridoni, 68 - 24124 Bergamo Tel. 035 360437 - Fax 035 360437 E-mail: [email protected] CAPOREDATTORE Maurizio Galimberti (Caporedattore) Pirelli Pneumatici Viale Sarca 222 - 20126 Milano Tel. 02 64423160 - Fax 02 64425399 E-mail: [email protected] COMITATO DI REDAZIONE Mauro Aglietto Dip. Chimica e Chimica Industriale Via Risorgimento 35 - 56126 Pisa Tel. 050 918269 - Fax 050 918260 E-mail: [email protected] Eugenio Amendola ITMC-CNR P.le Tecchio 85 - 80125 Napoli Tel. 081 7682511 - Fax 081 7682404 E-mail: [email protected] Roberto Rizzo Dipartimento BBCM, Università di Trieste Via L. Giorgeri 1 - 34127 Trieste Tel. 040 6763695 - Fax 040 6763691 E-mail: [email protected] Giovanna Costa, Presidente: ISMAC - CNR, Via De Marini 6, 16149 Genova, Tel. 010 6475876 - Fax 010 6475880 - E-mail: [email protected] INTELLECTUAL PROPERTY MONITOR Giuseppe Colucci Basell Poliolefine Italia SpA E-mail: [email protected] Antonino Valenza, Segretario: Dip. Chim. Ind. Ing. Mat., Salita Sperone 31, 98166 S. Agata di Messina, Tel. 090 393134 - Fax 090 391518 - E-mail: [email protected] I BIOPOLIMERI Roberto Rizzo Mauro Aglietto, Segretario Amministrativo: Dip. di Chimica e Chimica Industriale, Via Risorgimento 35, 56126 Pisa, Tel. 050 918269 - Fax 050 918260 - E-mail: [email protected] I GIOVANI Simona Bronco Dipartimento di Chimica e Chimica Industriale E-mail: [email protected] Membri del Consiglio - Direttivo Giancarlo Galli, Dip. di Chimica e Chimica Industriale, Via Risorgimento 35, 56126 Pisa, Tel. 050 918272 - Fax 050 918260 - E-mail: [email protected] Maurizio Galimberti, Pirelli Pneumatici, Viale Sarca 222, 20126 Milano, Tel. 02 64423160 - Fax 02 64425399 - Email: [email protected] Giuliana Gorrasi Dipartimento di Ingegneria Chimica e Alimetare E-mail: [email protected] Gaetano Guerra, Dip. Chimica, Univ. Salerno, Via S. Allende, 84081 Baronissi (SA), Tel. 089 965362 - Fax 089 965296 - E-mail: [email protected] I GRUPPI DI RICERCA MACROMOLECOLARI Alberto Bolognesi ICM-CNR E-mail: [email protected] Riccardo Po’, Ist. Donegani-Polimeri Europa srl, Via G. Fauser, 4, 28100 Novara, Tel. 0321 447541 - Fax 0321 447274 - E-mail: [email protected] Maria Carmela Sacchi, ISMAC-CNR, Via Bassini 15, 20133 Milano, Tel. 02 23699369 - Fax 02 2362946 - E-mail: [email protected] TECNOLOGIA Cristiano Puppi Pirelli Coord. Pneumatici Palazzo 307 E-mail: cristiano.puppi@pirelli .com L’AMBIENTE Eugenio Amendola Alessandro Susa Basell Poliolefine Italia SpA E-mail: [email protected] POLYMERS AND LIFE Roberto Cavaton Marbo Italia SpA E-mail: [email protected] SITO INTERNET Luigi Cavallo - [email protected] Michele Mader - [email protected] Gilberto Moscardi - [email protected] Michele Suman Dip. Chimica Organica e Industriale E-mail: [email protected] COLLABORATORI Diego Arcelli, Giuseppe Colucci, Guglielmo Paganetto, Eleonora Polo, Marzia Salvadori, Pietro Speziale PMI Mario Malinconico IRTEMP-CNR E-mail: [email protected] IN COPERTINA POLIMERI E … SOCIETÀ Mariano Pracella CMMB-CNR E-mail: [email protected] Organigramma dell’Associazione Italiana di Scienza e Tecnologia delle Macromolecole (AIM) per il biennio 2001-2003 POLYMERS ABROAD Michele Potenza Ciba Specialty Chemicals SpA E-mail: [email protected] Coordinatori delle Commissioni 2001-2003: Francesco Paolo La Mantia, Problemi Ambientali: Dip. Ing. Chim. Proc. Mat., Viale delle Scienze, 90128 Palermo, Tel. 091 6567203 - Fax 091 6567280 - E-mail: [email protected] Marco Scoponi, Tecnologia: C.S.Fotoreattività Catalisi-CNR-Dip. di Chimica, Via Borsari 46, 44100 Ferrara, Tel. 0532 291159 - Fax 0532 240709 - E-mail: [email protected] Responsabili dei Convegni-Scuola: AIM, Enrico Pedemonte, Dip. di Chimica e Chimica Industriale, Via Dodecaneso 31, 16146 Genova, Tel. 010 3538713 - Fax 010 3536199 - E-mail: [email protected] EPF-Summer School, Giovanni Camino: C. Cult. Ing. Mat. Plast., Politecnico di Torino, Viale T. Michel 5, 15100 Alessandria, Tel. 0131 229318 - Fax 0131 229331 - E-mail: [email protected] Responsabile dei Seminari Internazionali: Francesco Ciardelli, Dipartimento di Chimica e Chimica Industriale, Via Risorgimento 35, 56126 Pisa, Tel. 050 918229 - Fax 050 918260 - E-mail: [email protected] Lo sapevate che nello spazio sono state identificate macromolecole? Vi rimandiamo alla lettura, affascinante, dell’articolo di Cesare Guaita, chimico e astronomo, a pag. 15. La foto in copertina è della Cometa di Hale e Bopp che molti dei nostri lettori sicuramente hanno visto nel 1997. AIM Magazine è un periodico quadrimestrale e i 3 numeri vanno in edicola ad aprile, agosto e dicembre. Chiediamo a tutti i lettori che intendano inviare contributi di farli pervenire alla redazione improrogabilmente entro il 20 febbraio, il 20 agosto o il 20 ottobre. Il materiale che arriverà dopo queste date potrà essere preso in considerazione solo per il numero successivo. Il XVI Convegno Italiano di Scienza e Tecnologia delle Macromolecole si terrà a Pisa presso l’Area della Ricerca CNR dal 22 al 25 settembre 2003. L’organizzazione del Convegno è ancora in una fase iniziale, troverete le informazioni preliminari quanto prima sul nostro sito web: www.aim.it. Rivolgersi per informazioni a Mariano Pracella ([email protected]) e a Piero Cerrai ([email protected]). Join AIM! Adesione all’aim per il 2002 e per il 2003 Il Consiglio Direttivo dell’AIM ha fissato in € 31 la quota di iscrizione annuale all’AIM e in € 52 la quota di iscrizione biennale. Il pagamento può essere effettuato tramite versamento sui c/c bancario o postale dell’AIM oppure tramite invio di assegno bancario come indicato qui di seguito: o o o sul c/c bancario n. 11/01/01129 della Cassa di Risparmio di Pisa (Cod. ABI 06255, CAB Sportello 14011), Piazza Dante, 56126 PISA, intestato a: AIM sul c/c postale n. 10267565 del Centro Compartimentale di Firenze intestato a: Associazione Italiana di Scienza e Tecnologia delle Macromolecole, Via Risorgimento 35, 56126 PISA a mezzo assegno bancario o circolare intestato: AIM da inviare a: Segreteria Amministrativa AIM: c/o prof. Mauro Aglietto, Dipartimento di Chimica e Chimica Industriale, Via Risorgimento 35, 56126 PISA AIM è su Internet! La trovate a questo indirizzo: http://www.aim.it Cliccate sulle icone per raggiungere il mondo di AIM. In Get in Touch trovate gli indirizzi per contattare: • Segreteria AIM: [email protected] • Segretario amministrativo: [email protected] E soprattutto: • Posta dei lettori: [email protected] Edizione Pacini Editore S.p.A. Via A. Gherardesca • 56121 Ospedaletto • Pisa Telefono 050 313011 • Telefax 050 3130300 www.pacinionline.it Finito di stampare nel mese di Maggio 2002 presso le Industrie Grafiche della Pacini Editore S.p.A. Via A. Gherardesca • 56121 Ospedaletto • Pisa Telefono 050 313011 • Telefax 050 3130300 www.pacinionline.it
Documenti analoghi
AIM Magazine AIM Magazine
Dipartimento di Ingegneria Chimica e Scienza dei Materiali, Università di Pisa
Dipartimento di Chimica e Chimica Industriale, Università di Pisa
Con il patrocinio di
Università di Pisa, Comune di P...
un`analisi del xvii convegno biennale aim 2005 a napoli
della sua grande vitalità e della mole di iniziative
che riesce a portare a termine: Convegni, Scuole,
Seminari sia Nazionali che Internazionali, Giornate
Tecnologiche, Libri di Testo, Rapporti con...