1 ottobre 2016 - Scienze e Ricerche

Transcript

1 ottobre 2016 - Scienze e Ricerche
ISSN 2283-5873
Scienze e Ricerche
SR
N. 38, 1° OTTOBRE 2016
38.
Scienze SRe Ricerche
RIVISTA BIMENSILE · ISSN 2283-5873
GLI ANNALI 2015
1 numero in formato elettronico: 7,00 euro
( UN NUMERO A SCELTA IN OMAGGIO AGLI ABBONATI )
Abbonamento annuale a Scienze e Ricerche in formato elettronico
(24 numeri + fascicoli e numeri monografici): 42,00 euro *
* 29,00 euro per gli autori e i componenti del comitato scientifico e del collegio dei referees
www.scienze-ricerche.it
38. Sommario
DOMENICO RIDENTE
Conoscenza geologica e consapevolezza del rischio sismico
all’indomani del terremoto del Centro Italia
pag.
5
pag.
9
pag.
16
pag.
19
pag.
23
pag.
29
pag.
34
pag.
40
pag.
45
pag.
65
pag.
71
pag.
75
pag.
79
pag.
85
ALESSANDRO MARGHERITA
Quanto Vale la Mia Ricerca? [A]QR - Un modello di
Auto-Valutazione della Qualità della Ricerca Universitaria
16
SILVIA AROSSA
Il ruolo degli zoo nella conservazione delle specie a rischio di
estinzione
ANTONIO TRINCONE
Dal vino di Noè alla chimica verde
FRANCO BAGNOLI
Moebius in love. Una favola origamico-freudiana
FILIPPO MARIA SPOSINI
The Uncertainty Principle. Arguments and Implications for
Philosophy of Science
CLAUDIO CASSARDO, NAIMA VELA E VALENTINA ANDREOLI
Un’introduzione ai modelli meteorologici e climatici
GAETANO OLIVA
L’Educazione alla Teatralità: le nuove indicazioni ministeriali
PATRIZIA CIARDIELLO
Diritti umani in carcere e politiche pubbliche. Verso un nuovo
paradigma della responsabilità
40
FRANCESCO GIULIANO
La metodologia costruttivista e l’unificazione culturale a livello di
formazione sono fattori indispensabili per la conoscenza
GIUSEPPE DELLA VECCHIA, CLAUDIO CIVITILLO, TIZIANA FORTINO
Trattamento Manipolativo Osteopatico in pazienti affetti da disordini
dello sviluppo psicomotorio: studio pilota
ENRICO ACQUARO
Anecdota Punica
RICERCHE
ANTONELLA DELLA CIOPPA
Costruire con il legno in area mediterranea
GIOVANNI STELITANO
45
Un enzima potrebbe essere la chiave di volta per la cura
dell’Alzheimer
RECENSIONI
n. 38 (1° ottobre 2016)
3
N. 38, 1° OTTOBRE 2016
ISSN 2283-5873
Scienze e Ricerche
Rivista bimensile (esce il 1° e il 15 di ogni mese)
n. 38, 1° ottobre 2016
Coordinamento
• Scienze matematiche, fisiche, chimiche e della terra:
Vincenzo Brandolini, Claudio Cassardo, Alberto Facchini, Savino Longo,
Paola Magnaghi-Delfino, Giuseppe Morello, Annamaria Muoio, Andrea
Natali, Marcello Pelillo, Marco Rigoli, Carmela Saturnino, Roberto Scandone, Franco Taggi, Benedetto Tirozzi, Pietro Ursino
• Scienze biologiche e della salute:
Riccardo N. Barbagallo, Cesario Bellantuono, Antonio Brunetti, Davide
Festi, Maurizio Giuliani, Caterina La Porta, Alessandra Mazzeo, Antonio
Miceli, Letizia Polito, Marco Zaffanello, Nicola Zambrano
• Scienze dell’ingegneria e dell’architettura:
Orazio Carpenzano, Federico Cheli, Massimo Guarnieri, Giuliana Guazzaroni, Giovanna La Fianza, Angela Giovanna Leuzzi, Luciano Mescia,
Maria Ines Pascariello, Vincenzo Sapienza, Maria Grazia Turco, Silvano
Vergura
• Scienze dell’uomo, filosofiche, storiche, letterarie e della formazione:
Enrico Acquaro, Angelo Ariemma, Carlo Beltrame, Marta Bertolaso, Sergio Bonetti, Emanuele Ferrari, Antonio Lucio Giannone, Domenico Ienna, Rosa Lombardi, Gianna Marrone, Stefania Giulia Mazzone, Antonella
Nuzzaci, Claudio Palumbo, Francesco Randazzo, Luca Refrigeri, Franco
Riva, Mariagrazia Russo, Domenico Russo, Domenico Tafuri, Alessandro
Teatini, Patrizia Torricelli, Agnese Visconti
• Scienze giuridiche, economiche e sociali:
Giovanni Borriello, Marco Cilento, Luigi Colaianni, Riccardo Gallo, Agostina Latino, Elisa Pintus, Erica Varese, Alberto Virgilio, Maria Rosaria
Viviano
Scienze e Ricerche in formato elettronico (pdf HD a colori):
• abbonamento annuale (24 numeri + supplementi): 42,00 euro (29,00 euro
per gli autori, i componenti del comitato scientifico e del collegio dei
referees)
Scienze e Ricerche in formato cartaceo (HD, copertina a colori, interno
in b/n):
• abbonamento annuale (24 numeri): 168,00 euro
• abbonamento semestrale (12 numeri): 84,00 euro
• una copia: 13,00 euro (7,00 euro per gli abbonati alla versione cartacea)
Il versamento può essere effettuato:
• con carta di credito, utilizzando il servizio PayPal accessibile dal sito:
www.scienze-ricerche.it
• versamento sul conto corrente postale n. 1024651307 intestato a Scienze
e Ricerche, Via Giuseppe Rosso 1/a, 00136 Roma
• bonifico sul conto corrente postale n. 1024651307 intestato a Scienze e
Ricerche, Via Giuseppe Rosso 1/a, 00136 Roma
IBAN: IT 97 W 07601 03200 001024651307
4
La rivista ospita due tipologie di contributi:
• interventi, analisi, recensioni, comunicazioni e articoli di divulgazione
scientifica (solitamente in italiano).
• ricerche e articoli scientifici (in italiano, in inglese o in altre lingue).
La direzione editoriale non è obbligata a motivare l’eventuale rifiuto opposto alla pubblicazione di articoli, ricerche, contributi o interventi.
Non è previsto l’invio di estratti o copie omaggio agli autori.
Scienze e Ricerche è anche una pubblicazione peer reviewed. Le ricerche e gli articoli scientifici sono sottoposti a una procedura di revisione paritaria che prevede il giudizio in forma anonima di almeno
due “blind referees”. I referees non conoscono l’identità dell’autore
e l’autore non conosce l’identità dei colleghi chiamati a giudicare il
suo contributo. Gli articoli vengono resi anonimi, protetti e linkati in
un’apposita sezione del sito. Ciascuno dei referees chiamati a valutarli potrà accedervi esclusivamente mediante password, fornendo alla
direzione il suo parere e suggerendo eventuali modifiche, miglioramenti o integrazioni. Il raccordo con gli autori è garantito dalla segreteria di redazione.
Il parere dei referees non è vincolante per la direzione editoriale, cui
spetta da ultimo - in raccordo con il coordinamento e il comitato
scientifico - ogni decisione in caso di divergenza di opinioni tra i vari
referees.
L’elenco dei referees impegnati nella valutazione degli articoli scientifici viene pubblicato con cadenza annuale.
Chiunque può richiedere di far parte del collegio dei referees di Scienze
e Ricerche allegando alla richiesta il proprio curriculum, comprensivo
della data di nascita, e l’indicazione del settore scientifico-disciplinare di propria particolare competenza.
Scienze e Ricerche
Sede legale: Via Giuseppe Rosso 1/a, 00136 Roma
Registrazione presso il Tribunale di Roma n. 19/2015 del 2/2/2015
Gestione editoriale: Agra Editrice Srl, Roma
Tipografia: Andersen Spa
Direttore responsabile: Giancarlo Dosi
www.scienze-ricerche.it
[email protected]
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | COPERTINA
Conoscenza geologica e consapevolezza
del rischio sismico all’indomani
del terremoto del Centro Italia
DOMENICO RIDENTE
Consiglio Nazionale delle Ricerche, Istituto di Geologia Ambientale e Geoingegneria
PREMESSA
Q
uando ero studente di geologia, rimasi piacevolmente colpito dalla prefazione di uno dei pochi
libri di testo allora in circolazione, Lezioni di Geologia Stratigrafica, del Professor Bruno Accordi. Poche ma
appassionate righe descrivevano i geologi come “privilegiati
che capiscono o intuiscono la storia delle vallate e delle cime
fin nel loro intimo”, facendo intendere come il percorso di
conoscenza intrapreso avrebbe potuto gratificarmi con una
“speciale” sensibilità verso quelle dinamiche, tanto imponenti quanto invisibili all’occhio comune, dalle quali può
scaturire tanto un incantevole paesaggio dolomitico, quanto
un disastroso terremoto. Perciò, all’indomani del sisma del
24 agosto, il profondo dispiacere che questa catastrofe ha inflitto a tutti noi è come acuito dal fatto di conoscere un po’
più “nel loro intimo” i terremoti e la natura della sismicità nel
nostro Paese, oltre che dal senso di frustrazione per la poca
considerazione verso questo tipo di conoscenza.
Come in altre circostanze simili, nell’immediato emergono
interrogativi, si accendono discussioni e nascono polemiche;
ma tra commozione e rabbia si fa strada anche il desiderio
di molti di comprendere meglio perché avvengono i terremoti nel nostro Paese, o perché non si possano prevedere.
Mi sono chiesto allora quanto sarebbe importante che questo
momento di interesse generale rimanesse vivo più a lungo,
Foto Ansa
5
COPERTINA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
oltre l’immediato dopo-terremoto. Credo, infatti, che una
maggiore consapevolezza generale riguardo a questi temi ci
aiuterebbe nella difficile ma necessaria impresa di voltare pagina nel modo di concepire il rapporto con il nostro territorio
e i rischi naturali.
Vorrei quindi provare a raccontare, a chiunque volesse saperne un po’ di più, e senza troppi tecnicismi, cosa sono e
perché avvengono i terremoti nel nostro Paese. Il mio obiettivo è riuscire a farlo mettendo in secondo piano la differenza
tra una “faglia diretta” e una “faglia inversa”, solitamente
una delle prime spiegazioni fornite dall’esperto in televisione. Si tratta certamente di un dato importante; ma non
è detto che elementi indispensabili alla conoscenza degli
esperti agevolino la comprensione di chi ascolta dal divano
di casa. La conoscenza degli esperti è invece importante ai
fini di un’efficace difesa dai terremoti, che riduca in modo
concreto danni e vittime nelle aree a rischio (che sono tante e
non tutte uguali). Questo vuol dire inevitabilmente che finora
questa conoscenza non è stata sfruttata appieno.
UNA GEOLOGIA DEI TERREMOTI “TERRA TERRA”
La faglia sotto i nostri piedi
Sappiamo che la sorgente di un terremoto è una struttura geologica nota come faglia. Una faglia è una frattura tra
due lembi di crosta in virtù della quale i due lembi, sottoposti a “forze tettoniche”, si possono muovere l’uno rispetto
all’altro, scuotendo le rocce circostanti e producendo quello
che noi percepiamo come terremoto. Le faglie si estendono
lateralmente (in lunghezza) e in profondità per decine di chilometri, rimanendo sepolte oppure affiorando in superficie.
Non solo le faglie sepolte ma anche quelle affioranti, spesso
ben mimetizzate col paesaggio naturale, possono essere difficili da individuare.
Anche quando è possibile determinare la presenza di una
faglia, non è detto si riesca a valutarne l’attività e la pericolosità; infatti, non tutte le faglie generano terremoti. Nel corso
di milioni di anni, il contesto geologico può variare in modo
tale che una faglia non sia più sottoposta alle forze tettoniche
che l’hanno prodotta e resa attiva. Pertanto, anche se come
sorgente sismica la faglia è considerata un’entità individuale,
la sua attività risente di fattori che potremmo definire “allargati” e “remoti”, perché influenzati dalla geologia di una vasta regione attorno alla faglia e da forze tettoniche risultanti
da una lunga e complessa storia di movimento delle “placche
tettoniche”.
Le placche tettoniche sono gli enormi frammenti in cui è
suddivisa la parte superiore e più “rigida” del nostro pianeta (definita “litosfera”). Ogni placca è anche “scollata” alla
base, in virtù del fatto che, a una certa profondità (tra 70 e
100 km), pressione e temperatura sono tali da determinare
un aumento della plasticità delle rocce. Questa zona plastica
allenta l’aderenza tra la placca tettonica e la parte sottostante (il “mantello sub-litosferico”), anch’essa più rigida. Le
placche possono così muoversi lentamente rispetto a questo
“cuscinetto plastico”, allontanandosi tra loro oppure conver6
gendo e scontrandosi con tutta la forza del loro peso.
Durante lo scontro, i margini delle placche si rompono
lungo un groviglio di faglie che agiscono come piani di scorrimento (variamente inclinati) lungo i quali i diversi lembi
fratturati si accavallano e si sovrappongono, innalzandosi a
catena montuosa. Le spinte tra placche persistono milioni di
anni dopo lo scontro che segna la fase principale dell’orogenesi, sollecitando le faglie che segmentano il corpo della
catena e le sue “radici”, estese fino a 40-50 km di profondità.
Il terremoto vero e proprio
Quando i due lembi di una faglia scorrono bruscamente e
rapidamente, l’uno rispetto all’altro, si dice che la faglia si
è attivata, e l’effetto dello scorrimento è un “urto” contro le
rocce circostanti che si traduce in un “treno di onde elastiche”: un fenomeno che a piccolissima scala chiameremmo
vibrazione, ma che alla scala della faglia e dei volumi di roccia coinvolti diventa per noi un terremoto. Non è necessario
che i due lembi fratturati scorrano lungo tutta la superficie di
faglia, e di solito ciò non avviene, dato che solo in una porzione della faglia (l’ipocentro del terremoto) si supera l’attrito che tiene fermi i due lembi adiacenti, facendoli scorrere.
Questo ci fa capire come la roccia in corrispondenza di
un tratto di faglia bloccato dall’attrito debba necessariamente
subire una pressione da parte della porzione che invece si è
mossa: questa pressione agisce come la spinta che carica una
molla, e contribuisce a vincere l’attrito nella zona bloccata, predisponendo i due lembi di faglia a “scattare” con un
nuovo scorrimento. Per questo motivo, di solito, un primo
scorrimento è seguito a breve da altri, fino a che il carico
“litostatico” (cioè il peso delle rocce tutt’intorno) non ha il
sopravvento e “stabilizza” la faglia. A questo punto, per attivarsi di nuovo, la faglia deve incamerare altra energia da
sollecitazioni provenienti dall’esterno, cioè dalle forze tettoniche in atto.
Le forze tettoniche generano un campo di sforzi che varia
in modo rilevante solo nel corso di parecchi milioni di anni.
Perciò, la quantità di energia che il campo trasmette a una faglia alla scala dei tempi umani, ad esempio ogni trent’anni, è
pressoché sempre la stessa. Così, una faglia grande, in grado
di generare terremoti forti, necessita tempi più lunghi, rispetto a una più piccola, per incamerare l’energia sufficiente al
superamento dell’attrito che blocca lo scorrimento. Ne consegue che ogni faglia ha tempi di attivazione “caratteristici”,
che possono variare da qualche decina di anni a svariati secoli, determinando così (come ordine di grandezza) i “tempi
di ricorrenza” dei terremoti in una certa zona.
Si comprende allora perché i terremoti più forti sono meno
frequenti nel tempo, e come l’assenza di sismicità in alcune
zone dipenda proprio dal fatto che le faglie di quelle regioni
abbiano dimensioni tali da richiedere tempi di caricamento
più lunghi, in virtù di un più alto potenziale sismogenico.
La Calabria, ad esempio, è la regione dove si sono verificati i terremoti italiani più forti in assoluto (centinaia di volte
più forti di quelli dell’Appennino centrale), ma da più di un
secolo, ormai, non si registrano terremoti forti, vale a dire di
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | COPERTINA
magnitudo superiore a 5.
Vale la pena ricordare che la magnitudo è una misura indiretta della “forza” di un terremoto in base al sistema di classificazione noto come Scala Richter. In pratica, la magnitudo
è un “esponente” compreso tra 1 e 10 nella formula con cui
si calcola l’energia sprigionata dal terremoto. In questa formula, il valore base rispetto al quale la magnitudo funge da
esponente è di poco superiore a 30. Questo vuol dire che,
all’aumentare di un fattore 1, ad esempio passando da magnitudo 5 a magnitudo 6, la quantità di energia in gioco aumenta
di circa 301 = 30 volte. Se invece la magnitudo aumenta di
2 gradi, passando ad esempio da un terremoto magnitudo
5 a uno magnitudo 7, l’energia sprigionata da quest’ultimo
è circa 302 = 30x30 = 900 volte maggiore. Per uno stesso
terremoto si possono avere valori leggermente diversi della
magnitudo, in funzione di differenti “parametri energetici”
di riferimento.
I terremoti italiani
L’Italia deve la sua esistenza al fatto che la placca Africana e quella Europea si sono scontrate 30-40 milioni di anni
fa, determinando l’orogenesi Alpino-Appenninica. Le Alpi
e l’Appennino settentrionale risentono maggiormente degli
sforzi di compressione dovute all’urto ancora in atto tra le
due placche. Questi sforzi causano spinte nella direzione di
accavallamento dei lembi di crosta fratturati, comprimendoli
fino a che uno di essi non inizia a scorrere contropendenza
lungo il piano di faglia, sormontando sempre più quello sottostante e favorendo così il sollevamento generale della catena. Faglie di “accavallamento” o compressive di questo tipo
hanno generato le numerose forti scosse del terremoto del
Friuli, nel 1976 (la più alta di magnitudo 6.5). Faglie come
queste si sono propagate a una certa distanza dal corpo della
catena, arrivando fin sotto la Pianura Padana, dove si trova
ad esempio la sorgente del terremoto dell’Emilia del 2012
(magnitudo 5.9).
L’Appennino centro-meridionale, invece, risente del venire meno delle spinte che durante l’orogenesi hanno fatto accavallare i lembi di crosta fratturata. Questo perché l’Appen-
nino centro-meridionale ha risposto allo scontro tra placche
non solo sollevandosi ma anche (negli ultimi 10-15 milioni
di anni) ruotando in senso antiorario. A seguito di tale rotazione, le faglie che lo attraversano sono orientate in modo
tale da risentire meno delle spinte in atto tra le placche. Le
faglie, quindi, non sono più sollecitate da spinte compressive
tali da determinare il sovrascorrimento tra lembi fratturati,
ma da forze che agiscono nel modo opposto: il lembo sovrastante si muove verso il basso scivolando via lungo il piano
di faglia. Come risultato, tra i due lembi di faglia si produce distensione invece che compressione, e la catena in quel
tratto subisce un abbassamento invece che un sollevamento.
I terremoti dell’Irpinia (1980, magnitudo 6.9), dell’UmbriaMarche (1997, magnitudo 6.1), dell’Abruzzo (2009, magnitudo 6.3) e anche quello del 24 agosto scorso (magnitudo
6.0), riflettono questa dinamica da “faglia distensiva”.
Tutte le faglie del nostro territorio, indipendentemente dalla loro natura e ubicazione, quando attivate danno luogo a
una serie di scorrimenti ravvicinati nel tempo, generando una
sequenza sismica. A volte, la scossa principale può segnare
l’inizio della sequenza, ed è seguita poi da altre scosse più
piccole (ma non necessariamente deboli). E’ quello che per
esempio si è verificato il 24 agosto scorso. Altre volte l’attivazione può avvenire con una serie di piccole scosse seguite
da una più grande, come nel caso de L’Aquila, dove si sono
registrate scosse minori per più di tre mesi prima dell’evento
di magnitudo 6.3 del 6 aprile 2009. E ancora, l’attività di
una faglia si potrebbe esaurire con una sequenza di scosse
piccole, evidentemente raggiungendo una condizione di stabilità senza che avvenga uno scorrimento tale da generare un
terremoto disastroso. Quest’ultima dinamica è abbastanza
frequente, per non dire che si verifica continuamente. Può accadere anche che una sequenza sismica si distribuisca su più
faglie vicine, a indicare la propagazione della deformazione
dall’una all’altra, con conseguente attivazione a “effetto domino” del sistema di faglie.
I terremoti non si possono prevedere
L’unicità di ogni sequenza sismica, anche nell’ambito di
7
COPERTINA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
uno stesso tipo di scenario tra quelli descritti prima, indica
un fatto preciso: non esiste una sistematicità, nella complessa
dinamica di eventi che precede, accompagna e fa seguito a
un terremoto, su cui poter basare un metodo di previsione del
tipo “dove e quando”, o semplicemente “è più probabile là
che altrove”. Per questo è irrealistico pensare che si possa arrivare un giorno a prevedere i terremoti. Non si tratta (come
alcuni pensano e sperano) di un’impossibilità metodologica
o concettuale, dovuta cioè a limiti destinati a essere superati
grazie al progresso tecnologico e scientifico. Si tratta invece
di un’impossibilità oggettiva, legata alle numerose variabili
che discendono dalla natura “storica” dei fenomeni geologici, e alla scala (spaziale e temporale) alla quale si manifestano i fenomeni sismici.
Certamente esistono enormi margini di miglioramento riguardo alla nostra comprensione della sismicità, e non bisogna smettere di lavorare in tal senso. Tuttavia, lavorare
affinché si riesca finalmente a utilizzare al meglio quello che
già sappiamo potrebbe rivelarsi più vantaggioso che cercare di acquisire conoscenze non proprio a portata di mano.
Senza contare che prevedere i terremoti non ci esimerebbe
dall’obbligo morale e dalla necessità di un impegno alla prevenzione.
L’ULTIMA OCCASIONE
Il principale strumento di sintesi della conoscenza geologica del territorio è la cartografia geologica. La cartografia
ufficiale che rappresenta la geologia del nostro Paese è la
“Carta Geologica al 100.000” (una scala cioè che riduce a
un centimetro elementi che nella realtà misurano un chilometro). Questa carta ha una storia lunga oltre un secolo ed è
composta da un certo numero di “fogli”, ognuno riguardante
un tratto di territorio. Sul foglio che lo contiene, il centro
abitato di Amatrice è delimitato da una linea blu. La legenda
del foglio ci svela il significato di tale linea: “Faglie visibili
e loro ipotetici prolungamenti”. Quello che fa riflettere è la
data di pubblicazione del foglio: 1955. Linee di faglia analoghe sono segnate anche in prossimità di Norcia, Accumoli e
Arquata del Tronto, su un foglio geologico che porta ancora
il contrassegno del “Regio Istituto Geologico”, in data 1941.
Far passare l’idea che queste informazioni, da tempo nel
cassetto, avrebbero potuto farci sapere che in quelle zone
stava per verificarsi un forte terremoto, è demagogico e non
corrisponde al vero. Tuttavia, va evidenziato come fatto
negativo che quelle informazioni sono rimaste nel cassetto
in pratica inutilizzate. La lezione da trarre da questo fatto
è duplice: sappiamo abbastanza bene, ormai, in quali aree
si trovano le principali sorgenti dei terremoti italiani, quali
sono le loro caratteristiche e che tipo di sismicità ci si potrebbe aspettare; conoscenze anche generiche come queste, se
valorizzate, sono sufficienti a fare molto più di quanto è stato
fatto finora in termini di prevenzione e difesa dai terremoti.
Una prevenzione efficace, in un Paese estesamente sismico
e ricco di centri storici come il nostro, certamente comporta costi elevati. E questo non è certo un aspetto secondario
8
in un momento di crisi generalizzata. Tuttavia, la storia dei
terremoti (e di altre catastrofi naturali) insegna che si finisce
sempre per spendere dopo ciò che non si è speso prima. In
realtà dopo si spende perfino di più. Questo non tanto per la
differente tipologia e consistenza degli interventi del “prima” e del “dopo”, quanto soprattutto per via di corruzione
e malaffare, che in genere portano a grandi spese per opere mal concepite, mal realizzate o palesemente incompiute.
Il vero problema quindi non è quello del reperimento delle
risorse ma, piuttosto, quello della loro gestione e del loro
corretto utilizzo.
Il terremoto del 24 agosto 2016 non sarà l’ultimo in questo Paese, ma è l’ultima occasione per riscattare la nostra
credibilità, mettendo finalmente in moto la macchina della
prevenzione prima ancora che quella dei soccorsi. Questa
consapevolezza è il punto di partenza da cui possono nascere
i presupposti di scelte importanti rispetto al problema del rischio sismico, magari all’insegna di un cambiamento più generale nel modo di affrontare i problemi strutturali del nostro
Paese. Il terremoto, infatti, è anche una metafora dei tanti
problemi a forte impatto socio-economico per i quali urgono
azioni e interventi adeguati. Sul fronte del rischio sismico,
come altrove, le forze politiche sono chiamate a trovare intese trasversali alla loro attuale frammentazione, che permettano di concepire e dare continuità a progetti a lungo termine,
indipendentemente dall’effimerità dei governi.
E’ tempo che i politici trovino quella “speciale sensibilità”
che dovrebbe discendere dal privilegio di guidare un Paese; cosa di certo non meno sensibilizzante del privilegio di
capire o intuire la storia delle vallate, delle montagne e dei
terremoti.
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA FORMAZIONE
Quanto Vale la Mia Ricerca?
[A]QR - Un Modello di Auto-Valutazione
della Qualità della Ricerca Universitaria
ALESSANDRO MARGHERITA
Dipartimento di Ingegneria dell’Innovazione, Università del Salento
L
a ricerca scientifica ha l’obiettivo di accrescere le conoscenze umane scoprendo, interpretando, formalizzando o innovando teorie,
fenomeni, eventi e comportamenti relativi
alla natura, all’uomo e alla società. Contribuendo al progresso dei modelli, dei metodi, delle tecniche
e delle tecnologie in tutti gli ambiti del sapere, la ricerca (di
base e applicata) è uno dei fattori chiave per la risoluzione
dei problemi dell’umanità e un insostituibile motore per l’innovazione e lo sviluppo economico di un paese.
Gli obiettivi, le attività e le tipologie di risultati del processo di ricerca variano notevolmente a seconda del settore di riferimento. A livello internazionale, la classificazione
prevalente dei settori della ricerca scientifica è quella ERC
– European Research Council basata sulle tre macro-aree
SH - Social Sciences and Humanities (include 6 sotto-aree),
PE - Mathematics, physical sciences, information and communication, engineering, universe and earth sciences (10
sotto-aree) ed LS - Life Sciences (9 sotto-aree). A livello
nazionale, i settori scientifico-disciplinari sono strutturati
in 14 aree relative alle
scienze matematiche e
informatiche (1), fisiche (2), chimiche (3),
della terra (4), biologiche (5), mediche (6),
agrarie e veterinarie
(7),
dell’antichità,
filologico-letterarie e
storico-artistiche (10),
storiche, filosofiche,
pedagogiche e psicologiche (11), giuridiche
(12), economiche e statistiche (13), politiche
e sociali (14), oltre ai
settori dell’ingegneria
civile e architettura (8) e ingegneria industriale e dell’informazione (9).
Indipendentemente dal contesto scientifico, il generico
processo di ricerca inizia con l’identificazione del tema e
dell’unità d’analisi su cui concentrare gli sforzi investigativi.
Il secondo passo è quello dello studio dell’esistente al fine
di capire quali sono i risultati già raggiunti in quell’ambito
del sapere e quali invece i gap di conoscenza da colmare. Il
terzo passo è volto a definire, in base alle domande di ricerca
poste, il metodo di acquisizione dei dati e di analisi degli
stessi. Le metodologie che possono essere adottate variano
in funzione dell’obiettivo della ricerca e possono includere
tipologie quali case study, grounded theory, action research,
design science, ricerca sperimentale e analisi econometrica.
Segue la conduzione dell’analisi vera e propria, applicando i metodi precedentemente definiti. In seguito, i risultati
ottenuti vengono formalizzati, validati e discussi. L’ultimo
passo è quello della divulgazione del lavoro realizzato e dei
risultati raggiunti all’interno della comunità scientifica di riferimento. Nel caso di ricerca applicata, il processo includerà
anche delle componenti
di progettazione, prototipazione e test volti
allo sviluppo di prodotti, servizi e processi di
rilevanza industriale.
L’Università e gli
enti di ricerca rappresentano l’ambito privilegiato in cui il processo di ricerca scientifica
viene condotto. Nel nostro paese, circa 50.000
tra docenti e ricercatori
di ruolo (quasi il 20% in
meno rispetto al 2009!)
conducono attività di
9
SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
ricerca in tutti gli ambiti e i settori scientifico-disciplinari,
con diversi livelli di qualità, di rilevanza dei risultati raggiunti e di impatto complessivo sul sistema scientifico e sociale.
Ma cosa si deve intendere per qualità della ricerca e come
deve valutarsi la qualità dell’attività di ricerca ed il merito di
chi la conduce?
Il tema della valutazione della ricerca scientifica è vecchio
quanto la stessa scienza e le prime accademie Europee del
‘600 si svilupparono soprattutto per valutare la rilevanza in
termini tecnici e di progresso della conoscenza (ma anche
politici e militari) dei risultati delle ricerche. L’importanza della valutazione dell’attività e dei prodotti della ricerca
scientifica è oggi ancora maggiore, per tre motivi principali.
Primo, la valutazione della qualità della ricerca è strettamente connessa all’ottimizzazione delle risorse finanziarie
destinate alle istituzioni universitarie. Negli ultimi decenni,
la crescita della ricerca scientifica ha superato infatti la disponibilità delle risorse pubbliche disponibili, generando il
problema della efficiente ed efficace ripartizione da parte degli enti politici e di finanziamento. L’esigenza di rispondere
direttamente alla società ha portato così le Università a confrontarsi, anche in una logica di reciproca competizione, con
forme di valutazione dei loro risultati. In tale logica, sono
state introdotte iniziative di valutazione dell’intero sistema
universitario e della ricerca da parte dell’ANVUR (Agenzia
Nazionale di Valutazione del Sistema Universitario e della
Ricerca), con la VQR (Valutazione della Qualità della Ricerca) per i periodi 2004-2010 e 2011-2014.
Secondo, il contesto competitivo nel quale le Università
operano è sempre più ancorato a logiche customer-driven e
di focalizzazione sulle risorse immateriali quale chiave di
successo per un’organizzazione knowledge-based. La crescente importanza dell’economia della conoscenza ha così
generato, soprattutto nei paesi avanzati, una vera e propria
“febbre” della valutazione, portando a definire ranking mondiali e report di benchmarking delle istituzioni di ricerca e
dei prodotti scientifici dalle stesse create.
Terzo, lo scenario di trasformazione normativa e di crisi del
sistema universitario pone importanti interrogativi sul ruolo
stesso dei ricercatori e sulla complessiva innovatività e utilità
dei risultati dagli stessi raggiunti. Il termine “ri-cerca” può
indicare, con accezione negativa, cercare di nuovo, cercare
cose già cercate, alludendo quindi ad un contributo innovativo potenzialmente limitato. Parallelamente, l’accezione positiva di “ri-cerca” è quella di attività senza fine, di iterazione
volta alla perfezione del sapere ed alla continua apertura al
nuovo. Poiché il sistema di valutazione deve anche orientare
le decisioni accademiche in termini di carriera e premialità,
occorre introdurre concetti quali utilità, knowledge transfer,
benefici e rilevanza al fine di misurare il “ritorno” sociale,
culturale, ambientale ed economico della ricerca finanziata
con fondi pubblici.
Riconosciuta la grande importanza di valutare qualità e
impatto dell’attività scientifica, il processo di valutazione è
però particolarmente complesso e l’introduzione di qualsiasi
metodo o sistema di valutazione richiede un’attenta riflessio10
ne sulle caratteristiche del sistema istituzionale e organizzativo che lo applica e sugli effetti che la valutazione potrebbe
produrre sul sistema universitario. L’attività di valutazione
deve applicare metodologie, tecniche e strumenti il più possibile rigorosi e oggettivi. Sebbene ampiamente dibattuta,
l’analisi bibliometrica è largamente utilizzata per fornire informazioni sulla qualità e impatto della ricerca scientifica, in
quanto basata su misure semplici da costruire/ottenere, quali
il numero delle pubblicazioni, il numero di citazioni, l’impact factor delle riviste e l’indice “H”. Gli indicatori bibliometrici rappresentano così dei proxy della performance dei
ricercatori universitari e rappresentano attualmente la base
per orientare decisioni accademiche e di policy. L’utilizzo di
valori medi e mediani è finalizzato a supportare uno sforzo
di normalizzazione e comparabilità settoriale.
Diversi studi sono stati condotti per analizzare modalità di
costruzione, interpretazione, applicabilità, ma anche abusi e
limiti delle misure bibliometriche. La valutazione basata sulla sola analisi bibliometrica ha alcuni limiti oggettivi. Primo,
risulta difficile definire dei metodi di valutazione standard
per tutti i settori e questo comporta che alcuni settori, quali
le scienze sociali, non possono essere facilmente (o affatto)
soggetti alla valutazione bibliometrica. Secondo, gli indici
bibliometrici non sono per definizione misuratori olistici,
ossia non sono in grado di tenere in dovuta considerazione
tutte le sfaccettature della complessa attività del docente e
ricercatore. Terzo, alcune critiche mosse all’utilità e robustezza dell’indagine bibliometrica derivano da alcuni potenziali fattori di bias quali il fenomeno dei “circoli” o scambio
di citazioni, le richieste o suggerimenti di citazioni da parte
delle riviste e la definizione dei criteri per la classificazione
delle stesse riviste in fasce di rilevanza.
Queste limitazioni sono alla base del vivace dibattito sulla
definizione e applicazione di ulteriori metodi e sistemi di valutazione della qualità della ricerca. Lasciando ad altri, in altre sedi, questo complesso sforzo di valutazione “esterna”, il
presente articolo si focalizza invece sull’importanza del processo di auto-valutazione da parte del ricercatore in relazione
alla sua missione, al suo operato ed alla sua performance nel
complessivo sistema socio-scientifico. Ogni ricercatore dovrebbe valutare quello che fa, come lo fa e perché lo fa.
Come è possibile quindi fornire al ricercatore (inteso in
senso allargato e quindi includendo anche il professore associato o ordinario che svolge attività di ricerca) uno strumento completo per valutare “in-process” (e non solo expost) la qualità della ricerca scientifica che conduce? Come
è possibile progettare tale strumento in un’ottica di balanced scorecard la cui applicazione possa orientare e guidare scelte, strategie e attività? Infine, più provocatoriamente,
in che modo l’utilizzo di uno strumento di auto-valutazione
potrebbe complementare i metodi di valutazione “esterni”
per ridurre complessità e risorse usate per la valutazione e
aumentare invece l’oggettività e gli effetti positivi della valutazione stessa?
La prossima sezione fornisce una risposta operativa a tali
quesiti, presentando una funzione di auto-valutazione che
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA FORMAZIONE
non va intesa come alternativa ai metodi di valutazione su
base bibliometrica, essendo la stessa collocabile ad un piano
di analisi ben diverso. La funzione può infatti supportare una
riflessione più ampia sulla qualità complessiva della ricerca
ed un giudizio di merito che non sia solo basato sul numero
di citazioni ma su una serie di elementi e di specifiche prerogative dell’attività del singolo ricercatore. La funzione viene
inoltre presentata per stimolare, all’interno della comunità
accademica, ulteriori riflessioni e contributi volti a migliorare e arricchire la proposta nella prospettiva di costruire in
modo condiviso dei sistemi di valutazione più generalizzabili, multi-dimensionali e robusti.
FUNZIONE DI AUTO-VALUTAZIONE
La qualità della ricerca universitaria (QR) può essere descritta e misurata dal ricercatore come una funzione di sette
variabili o parametri significativi relativi alla propria attività scientifica, ossia Research Scope (RS), Research Action
(RA), Stakeholder Reference (SR), Discipline Bridges (DB),
Artifact Value (AV), Resource Usage (RU) e Sustainable
Impact (SI). La funzione di auto-valutazione viene riportata
di seguito:
[A]QR = f (RS, RA, SR, DB, AV, RU, SI)
Ciascuno dei 7 parametri include 2 sotto-parametri che
determinano il valore della variabile principale e che contribuiscono quindi alla valutazione complessiva della funzione.
La Figura 1 fornisce il dettaglio dei parametri e dei sottoparametri.
Figura 1 Parametri e sotto-parametri della funzione di autovalutazione
RESEARCH SCOPE (RS)
Il primo criterio o parametro di auto-valutazione riguarda
l’oggetto dell’attività di ricerca, il suo “posizionamento” o
ambito di interesse. Il Research Scope fa quindi riferimento
all’unità d’analisi, al livello a cui l’investigazione viene effettuata ed al grado di granularità che ne deriva. La ricerca
può infatti essere condotta ad un livello variabile di specializzazione o generalizzazione rispetto all’universo di fatti
e fenomeni che descrive e studia. Il parametro include due
sotto-parametri, ossia Amplitude e Anchoring.
Il sotto-parametro Amplitude fa riferimento alla dimensione dello scope ed è descritto da tre opzioni possibili, rappresentate dal sistema, dal sottosistema e dalla componente. La
ricerca è condotta sul sistema quando ha ad oggetto e studia
il più alto livello di rappresentazione della realtà, nel tentativo di analizzarne le dinamiche generali e le macro-relazioni
tra le parti. La ricerca studia invece un sottosistema se si concentra su una parte del tutto, dando per definiti o lasciando ad
investigazioni esterne gli altri sottosistemi. Infine, lo scope è
collocato al livello delle componenti se la ricerca studia una
o più singole parti del tutto e quindi elementi di dettaglio di
un certo sottosistema. Ovviamente, la dimensione dello scope ha un impatto diretto sulle tipologie di domande di ricerca
che possono essere poste ed investigate.
Il secondo sotto-parametro è Anchoring e fa riferimento al
grado di “ancoraggio” della ricerca al livello sistemico, ossia
al livello a cui l’esplorazione è guidata, riferita o influenzata
dal sistema complessivo. Mentre nel caso di scope sistemico
ciò avviene per definizione, per la ricerca al livello di sottosistema o componente il parametro fa riferimento al grado a
cui l’investigazione tiene conto del livello di sistema nelle
assunzioni e nelle conclusioni della ricerca. Le alternative
possibili di valorizzazione di questo sotto-parametro sono
rappresentate da ricerca indipendente (ancoraggio al sistema
minimo o assente), ricerca guidata (ancoraggio medio al sistema, ancorché con vita propria) e ricerca basata sul sistema
(ancoraggio elevato nelle assunzioni e nelle conclusioni).
RESEARCH ACTION (RA)
Le sezioni seguenti descrivono ogni parametro e sottoparametro, con le rispettive possibili valorizzazioni ai fini
dell’applicazione della funzione.
In relazione ad un certo scope, l’attività di ricerca può
esercitare diverse tipologie di azioni, ossia di attività volte ad
un diverso obiettivo in relazione all’unità di ricerca. Il parametro Research Action fa quindi genericamente riferimento
al processo attivato dal ricercatore per agire sull’unità d’analisi identificata. Il parametro include due sotto-parametri,
ossia Type e Method.
Il sotto-parametro Type fa riferimento al tipo di azione eseguibile ed è descritto da tre opzioni possibili, ossia interpretazione, revisione e innovazione dell’unità d’analisi. L’interpretazione è un’attività a basso impatto sulla realtà esistente
ed ha come obiettivo quello di rileggere, secondo una lente
o prospettiva diversa, l’oggetto della ricerca. Se associata ad
elementi molto di dettaglio, l’attività di ricerca diventa piuttosto di speculazione filosofica. Al secondo grado dell’azio11
SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
ne, la ricerca non si limita alla semplice rilettura dell’oggetto
ma definisce o stimola una revisione sullo stesso, in alcuni
casi generando una rimodulazione del sottosistema. Infine, il
più profondo livello di azione della ricerca è quello dell’innovazione, in cui il processo di ricerca determina un sostanziale cambiamento del sistema o di una sua parte o componente. Al limite, tale attività genera una nuova visione, un
paradigm shift o una rivoluzione del sistema. La tipologia
di azione è ovviamente strettamente dipendente dall’ambito
scientifico della ricerca e non identifica un livello di nobiltà
o utilità della stessa ma solo un parametro di impatto più o
meno tangibile.
Il secondo sotto-parametro è Method e fa riferimento alla
modalità di ricerca, ossia al metodo scientifico adottato per
l’investigazione al fine di ottenere gli specifici obiettivi legati
al tipo di azione di ricerca. Il metodo è quindi strettamente
dipendente dall’unità d’analisi, dagli obiettivi di ricerca e
dall’azione da esercitare. Le opzioni includono tre possibili
classi di metodologia scientifica, ossia la ricerca basata su
metodo qualitativo (include osservazioni, interviste e casi di
studio), la ricerca basata su metodo quantitativo (utilizza soprattutto metodi statistici ed econometrici) e la ricerca basata
su metodo misto (una combinazione di componenti qualitative e quantitative). Un elemento cruciale nelle considerazioni
relative al metodo di ricerca è quello dell’etica (accademica
e sociale) con cui la ricerca stessa viene condotta e che riguarda ovviamente, in modo trasversale, qualsiasi azione di
ricerca e qualsiasi metodo applicato per condurla.
12
STAKEHOLDER REFERENCE (SR)
L’attività di ricerca è realizzata all’interno di un ecosistema di individui e istituzioni che rappresentano diverse categorie di “clienti” del processo di investigazione scientifica.
Ai fini della valutazione della qualità della ricerca è necessario, quindi, considerare tali attori e le specifiche istanze
espresse dagli stessi definendo un parametro appropriato. Lo
Stakeholder Reference definisce il grado variabile di inclusione di attori e relativi vincoli, norme, richieste esplicite e
aspettative nel raggio d’azione della ricerca. Il parametro include due sotto-parametri, ossia Degree e Adherence.
Il sotto-parametro Degree fa riferimento all’estensione
dell’unità di riferimento, con tre livelli possibili. Il primo livello è rappresentato dall’individuo, ossia il ricercatore stesso, il quale conduce l’attività di ricerca sulla base dei suoi
interessi, della sua formazione ed esperienza, delle sue aspettative e visione del mondo. Con riferimento alla dimensione
individuale, l’attività di ricerca mira quindi all’appagamento
e realizzazione del “self”. Il soggetto non opera però in modo
isolato ma piuttosto all’interno di un gruppo di lavoro in cui
diverse forze agiscono con complementarietà e sinergie, ma
anche con conflittualità e idiosincrasie determinate da personalità indipendenti ed un patrimonio culturale condiviso.
Il team o gruppo può ovviamente essere più o meno ampio,
interdisciplinare e internazionale. Ad un terzo livello, l’attività di ricerca si confronta con una comunità scientifica che
definisce obiettivi, direttive e veri e propri requisiti per l’ope-
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA FORMAZIONE
rato ed il riconoscimento scientifico del singolo e del gruppo.
Ovviamente, l’individuo, il gruppo e la comunità agiscono
nel mondo sociale, in cui trend, bisogni e aspettative, disponibilità finanziarie, policy, vincoli e altri fattori definiscono
una serie di condizioni che influiscono sull’attività di ricerca.
Il sotto-parametro Adherence fa riferimento al livello a
cui l’attività di ricerca ingloba le prospettive crescenti degli
stakeholder descritti in precedenza, soddisfacendo le rispettive istanze. Se il livello di aderenza è basso, la conduzione
dell’attività di ricerca è svincolata dall’esistenza, dall’operato e dalle aspettative dello stakeholder. La ricerca si configura sostanzialmente come libera e autonoma. Ad un secondo
grado, il livello di aderenza è medio e la ricerca è influenzata
dall’esistenza, dall’operato e dalle aspettative di un certo tipo
di stakeholder. Infine, al livello superiore l’aderenza è massima e la ricerca è customizzata, ossia ritagliata sull’esistenza,
l’operato e le specifiche istanze di un certo stakeholder.
DISCIPLINE BRIDGES (DB)
La ricerca scientifica è spesso finalizzata alla soluzione di
problemi e i problemi richiedono per definizione approcci
interdisciplinari. In tal senso, un ulteriore elemento di valutazione della ricerca è relativo alla sua capacità di creare dei
“ponti” culturali che si riflettono in un più robusto risultato e
impatto dell’attività scientifica. Il parametro di riferimento è
Discipline Bridges e include due sotto-parametri, ossia Connections e Scheme.
Il sotto-parametro Connections fa riferimento al livello a
cui le interconnessioni con altri mondi scientifici sono sviluppate, con tre possibili opzioni. Ad un primo livello, il collegamento può essere stabilito tra il focus della ricerca ed
altri elementi intra-settoriali. In tal caso, il ponte è costruito
tra l’unità d’analisi e altre unità d’analisi appartenenti allo
stesso settore di ricerca. Secondo, il livello di connessione
può essere definito in termini di collegamenti tra l’unità di
ricerca ed altre unità non appartenenti allo stesso settore ma
a settori della stessa area. Terzo, al livello più elevato la ricerca diventa davvero interdisciplinare nella misura in cui
le connessioni vengono stabilite tra la ricerca in oggetto ed
unità d’analisi di aree disciplinari completamente staccate
(inter-area).
Il secondo sotto-parametro è Scheme e fa riferimento alle
modalità operative concrete con cui le interconnessioni vengono progettate e costruite. La valorizzazione viene definita
da tre possibili opzioni. Lo schema d’azione è di tipo desk, se
le connessioni con altri settori o aree sono unicamente basate
su ricerca e studio di letteratura di riferimento e sullo studio
di evidenza empirica presente su fonti testuali. Lo schema
è field, se le connessioni intra-settore, inter-settore ed interarea sono generate dalla capacità del ricercatore di sperimentare sul campo le azioni necessarie. Infine, lo schema di connessione sarà misto se la creazione dei ponti culturali si basa
sull’adozione sia di strumenti e tecniche desk sia su modalità
operative di tipo field.
ARTIFACT VALUE (AV)
L’attività di ricerca dovrebbe produrre risultati tangibili la
cui natura varia ovviamente a seconda del settore di riferimento. La valutazione dell’attività deve essere quindi anche
basata sul parametro Artifact Value, ossia sulla capacità di
generare artefatti di valore e riutilizzabili dalla comunità
scientifica e dalla società civile. L’attività di ricerca deve
compiere la sua missione di knowledge coding, ossia di codifica del corpo di conoscenze e di costruzione dell’enciclopedia e delle pratiche da utilizzare per il progresso di quel
settore e della società in generale. Con il termine artefatto si
fa riferimento non solo alle pubblicazioni scientifiche quali
libri, articoli, manuali, codici e simili ma anche a brevetti,
prototipi di prodotto, servizi, specifiche tecniche, progetti di
sviluppo e simili. Il parametro include due sotto-parametri,
ossia Score e Adoption.
Il sotto-parametro Score fa riferimento al range ed alla
qualità degli artefatti prodotti e include un continuum di soluzioni legate a criteri comparabili a quelli usati in metodi di
valutazione tradizionali. Ai fini della parametrizzazione del
modello, un primo grado dello score è eccellenza globale,
se gli artefatti sono stati pubblicati e/o valutati ai più elevati
livelli della comunità scientifica internazionale. Il secondo
grado di score è internazionale, se gli artefatti sono stati
pubblicati e/o valutati a livello internazionale ma non sono
riconosciuti tra le eccellenze del settore. Infine, lo score è
nazionale, se gli artefatti sono stati pubblicati e/o valutati a
livello esclusivamente nazionale. La valutazione dello score,
ove attinente, può beneficiare dell’utilizzo di criteri di valutazione di tipo bibliometrico, quali il ranking della venue di
pubblicazione, il suo impact factor e parametri simili.
Il parametro Adoption fa riferimento al grado di utilizzo
effettivo dell’artefatto a livello scientifico ed extra-scientifico nel contesto di riferimento. Maggiore sarà il grado di
adozione ed effettivo utilizzo dell’artefatto e degli output
diversi dell’attività di ricerca, maggiore sarà il grado di valorizzazione di questo sotto-parametro. Per le pubblicazioni
scientifiche, il numero di citazioni è un valore espressivo del
livello di adozione e utilizzo di un certo lavoro scientifico
da parte di altri studiosi. Il sotto-parametro potrà assumere
un livello trascurabile (nel caso in cui vi è un basso livello
di adozione o utilizzo dell’artefatto), usato (medio livello di
adozione per un artefatto noto e condiviso) e seminale (per
un artefatto caratterizzato da un elevato livello di adozione
che lo rende un risultato di assoluto riferimento nel settore).
RESOURCE USAGE (RU)
Lo svolgimento di attività di ricerca richiede l’utilizzo di
risorse di vario tipo e la cui dimensione cambia sostanzialmente a seconda dell’attività di ricerca, del metodo utilizzato, dello scope e di tutti gli altri elementi considerati finora. La valutazione della qualità della ricerca deve quindi
considerare un parametro del tipo Resource Usage, al fine
di definire il grado di efficienza del processo investigativo,
13
SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
ossia di utilizzo delle risorse a parità di obiettivi raggiunti
e di output generato. Questo aspetto è particolarmente importante, soprattutto nel caso di ridotte disponibilità per il
finanziamento della ricerca. Il parametro in oggetto include
due sotto-parametri, ossia Nature e Scale.
Il sotto-parametro Nature fa riferimento al tipo di risorse utilizzate per condurre l’attività di ricerca. Le tre opzioni
possibili sono rappresentate dall’utilizzo di risorse intangibili (risorse umane, servizi di terzi, conoscenza esplicita e
codificata), risorse tangibili (risorse finanziarie, attrezzature,
tecnologie e risorse consumabili come materie prime, semilavorati o prodotti finiti), e risorse miste (se l’esecuzione
delle attività di ricerca richiede un mix di risorse tangibili e
intangibili).
Il secondo sotto-parametro è Scale e fa riferimento al livello di utilizzo e consumo delle risorse tangibili e intangibili.
Le tre possibili valorizzazioni della scala di consumo sono
rappresentate dalla ricerca efficiente, se il processo di ricerca
utilizza una quantità di risorse molto bassa rispetto alla mole
di lavoro condotta ed al volume di risultati ottenuti, bilanciata, se il processo di ricerca utilizza una quantità di risorse
proporzionata rispetto alla mole di lavoro condotta ed al volume di risultati ottenuti e dispersiva, se il processo di ricerca
utilizza una quantità di risorse eccessiva rispetto alla mole di
lavoro condotta ed al volume di risultati ottenuti.
SUSTAINABLE IMPACT (SI)
La ricerca scientifica produce un impatto per chi la conduce e per chi la utilizza, anche indirettamente. In linea di massima, l’impatto è di tipo socio-tecnico e dovrebbe essere sostenibile nel medio e lungo termine. Il parametro Sustainable
Impact include due sotto-parametri, ossia Form e Benefits.
Il sotto-parametro Form fa riferimento alla natura dell’impatto che la ricerca genera, indicando così anche un valore
di performance complessiva della stessa. Il sotto-parametro
può essere valorizzato in termini di impatto accademico, set-
toriale e sociale. Ad un primo livello di impatto, l’attività
di ricerca genera effetti sulla sola sfera universitaria di chi
la conduce ed in termini di riconoscimenti o premi ottenuti in ambito esclusivamente accademico. Ad un livello più
elevato, l’impatto è settoriale ed è misurabile in termini di
esternalità positive dell’attività di ricerca per il mondo extraaccademico, all’interno del meta-settore di riferimento. Infine, l’impatto più ampio dell’attività di ricerca è misurabile
come impatto sociale in termini di vantaggi e risultati per la
più ampia comunità civile, con più largo respiro rispetto alla
sola attività tecnico-scientifica.
Il sotto-parametro Benefits fa riferimento al grado di impatto che l’attività di ricerca genera per l’individuo, il settore
di riferimento o il mondo. Il beneficio può essere trascurabile qualora l’attività di ricerca non produce effetti visibili
o degni di nota, medio se l’impatto dei risultati raggiunti è
valutabile ed evidente se l’impatto è considerevole e direttamente associabile all’attività di ricerca condotta.
SINTESI E UTILIZZO DELLA FUNZIONE
La tabella 1 sintetizza la funzione di auto-valutazione riportando i parametri, i sotto-parametri e le rispettive opzioni di valorizzazione analizzati nella sezione precedente. Va
sottolineato che, se per alcuni dei sotto-parametri i valori
stabiliscono un’oggettiva “scala” di importanza (es. per lo
Score è oggettivo affermare che Eccellenza sia più rilevante
di Nazionale), per altri non è possibile definire una classifica
di importanza e le valorizzazioni del parametro vanno prese semplicemente come opzioni possibili (es. Qualitativo e
Quantitativo vanno considerati, fermi restando altri criteri,
sullo stesso piano di rilevanza in relazione al Method).
La funzione di auto-valutazione può supportare la formulazione di un giudizio sulla qualità e sull’impatto dell’attività
di ricerca svolta e sul “posizionamento” qualitativo del ricercatore nella sua comunità scientifica e sociale. In tal senso,
la funzione guida un percorso di auto-analisi su elementi o
Tabella 1 Parametri, sotto-parametri e valori della funzione di auto-valutazione
Parametro
14
RS
Research
Scope
RA
Research
Action
SR
Stakeholder
Reference
DB
Discipline Bridges
AV
Artifact
Value
RU
Resource
Usage
Sotto-Parametro
[1] Amplitude
[2] Anchoring
[1] Type
[2] Method
[1] Degree
[2] Adherence
[1] Connections
[2] Scheme
[1] Score
[2] Adoption
[1] Nature
[2] Scale
SI
Sustainable
Impact
[1] Form
[A] Accademico
[B] Settoriale
[C] Sociale
[2] Benefits
[A] Trascurabile
[B] Medio
[C] Evidente
[A] Componente
[A] Indipendente
[A] Interpretazione
[A] Qualitativo
[A] Individuo
[A] Autonoma
[A] Settore
[A] Field
[A] Nazionale
[A] Trascurabile
[A] Intangibili
[A] Efficiente
Valori
[B] Sottosistema
[B] Guidata
[B] Revisione
[B] Quantitativo
[B] Gruppo
[B] Influenzata
[B] Area
[B] Desk
[B] Internazionale
[B] Usato
[B] Tangibili
[B] Bilanciata
[C] Sistema
[C] Basata
[C] Innovazione
[C] Misto
[C] Comunità
[C] Customizzata
[C] Inter-area
[C] Misto
[C] Eccellenza
[C] Seminale
[C] Mista
[C] Dispersiva
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA FORMAZIONE
attributi cruciali rappresentati dalle 7 dimensioni espresse
dai parametri identificati. Ogni ricercatore può utilizzare le
componenti e le scale di valutazione con le priorità che reputa più opportune, traendo le dovute conclusioni. In tal senso,
l’applicazione della funzione di auto-valutazione porta semplicemente ad ottenere un “vettore” di attributi dell’attività
di ricerca (es. Research Scope: Componente, Indipendente;
Research Action: Revisione, Misto; etc.)
Il modello potrebbe però anche rappresentare la base per
un’applicazione di tipo quantitativo. In tal caso, è sufficiente
definire dei valori numerici ed eventuali “pesi” per i 7 parametri, i 14 sotto-parametri e i rispettivi valori. Si potrebbe,
in tal modo, costruire un vero e proprio algoritmo di calcolo
basato sulla funzione di auto-valutazione. Se tale algoritmo
viene adottato da una certa comunità scientifica o da un certo
settore scientifico-disciplinare, la comunità o il settore definiranno, in ragione delle proprie specifiche istanze e caratteristiche, le scale e le priorità relative alle componenti della
funzione di auto-valutazione. Ovviamente, essendo la ratio
originaria del modello proposto quella di supportare delle
riflessioni individuali (qualitative), il giudizio basato su (arbitrarie o comunque esogene) attribuzioni di valori e priorità
dei parametri potrebbe indebolire la forza e/o il senso della
funzione.
CONCLUSIONI
La ricerca universitaria è un’attività strategica per lo sviluppo culturale e socio-economico di un paese. La figura
del ricercatore è cruciale nelle sue attività volte all’accrescimento delle conoscenze relative alla natura ed alla società,
allo sviluppo di progetti e sperimentazioni, alla creazione
di virtuose interrelazioni tra istituzioni, imprese e cittadini,
all’innovazione e trasferimento tecnologico. Ogni ricercatore contribuisce a rinforzare l’impianto culturale e produttivo
del suo paese.
La valutazione dell’attività e dei prodotti della ricerca
scientifica, oggi di massima rilevanza, è un processo molto
delicato che può influire sulle dinamiche di crescita e sullo
status di singoli e istituzioni. Valutare significa esprimere
giudizi di qualità, impatto, efficacia, efficienza e rilevanza
sulla base di regole e criteri adatti agli scopi prefissati. Le
circostanze e l’oggetto della valutazione della ricerca possono però essere molto differenziati e la valutazione può quindi
richiedere approcci e tecniche ad-hoc.
La maggior parte delle attività di valutazione si basa oggi
su metodi bibliometrici che presentano però dei limiti legati
al fatto che non sono applicabili in modo generalizzato a tutti
i settori scientifici, colgono solo alcuni aspetti della complessa attività del ricercatore e sono soggetti ad alcuni fattori di
condizionamento. Occorre, quindi, definire nuovi sistemi e
nuovi metodi di valutazione maggiormente integrativi, robusti e multi-dimensionali.
Questo articolo si pone ortogonalmente rispetto a questa
esigenza e presenta una funzione di auto-valutazione olistica,
una sorta di balanced scorecard del ricercatore. Il contributo,
oltre a fornire un modello applicabile ed operazionalizzabile anche attraverso un algoritmo di calcolo, sottolinea implicitamente l’importanza che ogni ricercatore sviluppi un
mindset di auto-valutazione e di riflessione volta a costruire
strategie, scelte e attività di ricerca più performanti. La funzione di auto-valutazione è un primo tentativo di fornire una
checklist di base per una riflessione sulla natura, la qualità e
la rilevanza dell’attività di investigazione scientifica per l’individuo, la comunità ed il mondo.
BIBLIOGRAFIA
Baccini A. (2010) Valutare la Ricerca Scientifica. Uso e
Abuso degli Indicatori Bibliometrici, Il Mulino, Bologna.
Baldissera A. (2009) La Valutazione della Ricerca nelle
Scienze Sociali, Bonanno, Roma.
Barnabè F. (2010) La Cultura della Valutazione nelle Università, Cedam, Padova.
Binetti P. e Cinque M. (2015) Valutare l’Università & Valutare in Università. Per una “Cultura della Valutazione”,
Franco Angeli, Milano.
Bornmann L. (2012) “Measuring the societal impact of research”, EMBO Reports, 13(8): 673-676.
Bornmann L. (2013) “What is societal impact of research
and how can it be assessed? A literature survey”, Journal of
the American Society of Information Science and Technology, 64(2), 217-233.
Galimberti P. (2012) “Qualità e quantità: stato dell’arte
della valutazione della ricerca nelle scienze umane in Italia”,
Italian Journal of Library and Information Science, 3(1):
1-25.
Holbrook J.B. and Hrotic S. (2013) “Blue skies, impacts,
and peer review”, Roars Transactions, a Journal on Research Policy and Evaluation (RT), 1(1): 1-24
Kaplan S. e Norton D.P. (1992) The Balanced Scorecard,
HBS Press, Boston, MA.
Labini F.S. e Zapperi S. (2010) I Ricercatori non Crescono
sugli Alberi, Laterza, Bari.
Minelli E., Rebora G. e Turri M. (2002) Il Valore dell’Università. La Valutazione della Didattica, della Ricerca, dei
Servizi negli Atenei, Guerini, Milano.
Turri M. (2005) La Valutazione dell’Università. Un’Analisi dell’Impatto Istituzionale e Organizzativo, Guerini e
Associati, Milano.
15
AMBIENTE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
Il ruolo degli zoo nella conservazione
delle specie a rischio di estinzione
SILVIA AROSSA
Plymouth University, Ecotoxicology Laboratory
S
i deve tornare indietro di più di 200 anni per
risalire alla data di nascita degli zoo, in particolare, nel 1752 a Vienna, anche se in realtà il
termine zoo fu utilizzato per la prima volta per
indicare lo storico zoo di Londra, da un’abbreviazione di zoological garden. Queste strutture si sono nel
tempo modificate, trasformandosi da semplici ménageries,
esposizioni di animali, a veri e propri parchi zoologici, all’interno dei quali gli animali vivono in habitat del tutto simili a
quelli naturali e in cui il benessere degli animali viene prima
di tutto. Gli animali inoltre non vengono più catturati dalla
natura, ma arrivano bensì da altre strutture zoologiche. Già
dal 1973, grazie alla fondazione della CITES, è stato possibile controllare e regolamentare il commercio di animali e
specie minacciate di estinzione.
I parchi zoologici attualmente si stanno pian piano evolvendo in centri di educazione e conservazione. Tenendo conto che il 10 % della popolazione mondiale visita ogni anno
16
gli zoo, l’educazione e la sensibilizzazione del pubblico rappresentano uno dei principali obiettivi di queste strutture che
riescono dunque a raggiungere un vasto numero di persone.
Inoltre, queste strutture sono regolamentate da direttive e
leggi che stabiliscono i punti chiave salienti che permettono
agli zoo di diventare veri e propri centri di conservazione e
di ricerca. Essi infatti fanno parte di un network mondiale, la
World Association of Zoo and Aquaria, che collabora fra gli
altri con WWF, IUCN e Nature Conservacy.
Grazie a queste organizzazioni, gli zoo stanno diventando
parte attiva dei programmi di conservazione e reintroduzione
degli animali in natura.
IL DIBATTITO SUGLI ZOO TRA SENTIMENTALISMO E
SCIENZA
Sentimentalismo e moralismo sono spesso causa di problemi e incomprensioni riguardo al dibattito sugli zoo per-
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | AMBIENTE
ché spesso sfociano in animalismo estremo, perdendo però
di vista alcuni fattori fondamentali. In primis è necessario
discernere scienza da morale, conservazione da animalismo
ed etica morale. A livello globale, la tendenza è quella di trasformare gli zoo da strutture legate al semplice divertimento
e al commercio, a centri di ricerca scientifica sul benessere
animale, con il fine di preservare e conservare le specie a
rischio di estinzione, riprodurre gli animali per poterli reintrodurre in ambiente naturale e sensibilizzare il pubblico.
Nel 1980 è stata redatta la Strategia Mondiale degli Zoo,
nella quale vengono indicati i principali obiettivi delle strutture zoologiche in quanto tali. Innanzitutto, uno zoo deve sostenere attivamente la conservazione delle specie a rischio,
quindi offrire supporto alla ricerca scientifica e sensibilizzare
il pubblico riguardo alla necessità di conservare la natura e
le specie in pericolo.
Nel 1999, invece, la Direttiva 1999/22/CE definisce gli
zoo come strutture all’interno delle quali gli animali vengono
detenuti a scopi didattici, di ricerca, di ripopolamento e allevamento, con l’obiettivo di partecipare a programmi di conservazione, promuovere l’istruzione e rispettare le esigenze
biologiche e comportamentali degli animali ospitati. In particolare, gli zoo hanno l’obbligo di tenere registri aggiornati
riguardanti gli animali presenti in struttura.
In Italia esiste anche l’Unione Italiana degli Zoo e degli
Acquari (UIZA) che ha come obiettivo “quello di favorire
la cooperazione all’interno della comunità degli Zoo e degli
Acquari italiani al fine di promuovere la loro capacità di gestione degli animali allevati a scopo educativo, per la ricerca
scientifica e per contribuire alla conservazione della biodiversità globale. Questi obiettivi sono raggiunti grazie alla
collaborazione e coordinazione degli sforzi della comunità
nell’educazione, conservazione e ricerca scientifica attraverso un incremento di cooperazione fra tutte le relative organizzazioni e nel rispetto delle legislazioni interne dell’EU”.
A livello europeo, l’European Association of Zoos and
Aquaria (EAZA) svolge un ruolo molto simile. I membri
dell’associazione devono svolgere le proprie attività seguendo le linee guida emesse da EAZA stessa, che sono in accordo con la IUCN e le direttive europee. Da questi documenti
e da codice morale emesso da questa associazione se ne deduce la centralità della conservazione e della partecipazione
a progetti di salvaguardia, ma soprattutto la trasparenza e la
correttezza con la quale il lavoro deve essere svolto all’interno delle strutture zoologiche.
La conservazione ex-situ come strategia per la salvaguardia delle specie minacciate
Nel caso in cui una specie sia fortemente minacciata o il
numero di individui è molto ridotto, subentra un nuovo tipo
di conservazione, quella ex-situ. Essa rappresenta una strategia non alternativa a quella in-situ, cioè quella attuata in
natura, ma complementare, che viene messa in atto quando
individui di una popolazione vengono ospitati in aree delimitate, le cui condizioni sono un qualche modo manipolate
dall’uomo. Grazie alla presenza di popolazioni negli zoo gestite in maniera adeguata, diventa possibile la creazione di
riserve genetiche essenziali per la sopravvivenza delle specie in natura. Le popolazioni presenti in natura e quelle in
cattività devono essere gestite come metapopolazioni, e la
sopravvivenza della specie stessa dipenderà da entrambe le
parti, ex-situ e in-situ.
Lo svantaggio di questa tecnica è la possibilità di conservare solo una porzione della variabilità genetica delle specie, con l’eventualità di essere sottoposta a deriva genetica.
Quando la conservazione in-situ non è più possibile, è importante dunque la cooperazione tra centri di conservazione
ex-situ e centri di sperimentazione in-situ. La IUCN ha redatto nel 2014 delle linee guida per l’uso della conservazione ex-situ nella conservazione delle specie, da cui emerge
l’importanza della collaborazione tra questi due programmi
17
AMBIENTE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
ex-situ e in-situ e la necessità di pianificare nei dettagli il progetto. CNR, MIPA e Ministero dell’Ambiente si occupano di
gestire al meglio questa collaborazione.
I programmi di reintroduzione delle specie in natura sono
coordinati dalla Captive Breeding Specialist Group (CBSG)
che facilita il coordinamento di tali attività a livello globale.
In aiuto di questi progetti, subentrano la crioconservazione e
le tecniche di riproduzione artificiale, che hanno dimostrato
la loro potenzialità nel mantenimento della variabilità genetica e di conseguenza la loro capacità di conservare le specie
minacciate.
Inoltre le strutture zoologiche cercano di mantenere i contatti con i centri di sperimentazione e conservazione in-situ,
non solo attraverso collaborazioni indirette, ma anche dirette. Infatti, vengono spesso organizzate raccolte fondi destinate a programmi di conservazione in natura.
Esempi di reintroduzione di animali a rischio di estinzione che hanno coinvolto gli zoo
La gazzella di Mohr o Nager dama (Pallas, 1766) è stata
classificata dalla IUCN come critically endangered già nel
2006. Questa specie infatti ha subito una drastica riduzione
del proprio habitat e una caccia incontrollata nell’arco degli
ultimi decenni. Essa era originaria del Chad, Mali e Nigeria
e attualmente estinta a livello regionale in aree molto estese. È stato però possibile la sua reintroduzione in Senegal
che ora ospita una piccola popolazione di circa una decina
di individui. Il ripopolamento di quest’area è stato possibile
grazie alla Almeria Breeding Facility in Spagna e allo Zoo
18
di Monaco.
Altro esempio è la tigre o Panthera tigris (Linnaeus,
1758), la quale è classificata come endangered dalla IUCN
ed è minacciata da diversi fattori. Innanzitutto, la tigre viene cacciata per la sua pelliccia, le sue ossa e diverse altre
parti del corpo. Esse infatti vengono utilizzate nella medicina tradizionale asiatica come rimedi contro diversi malanni.
Inoltre, le zone un cui è localizzata vengono continuamente
convertite in campi coltivabili o aree adatte ad uso umano.
Nel 2010, a San Pietroburgo, in Russia, è stato redatto il
Global Tiger Recovery Program (GTRP 2010) che ha come
obiettivo quello di preservare e proteggere le tigri, limitando il commercio illegale attraverso la collaborazione con le
popolazioni locali. Questo prevede anche il coinvolgimento
dell’ European Breeding Program dell’EAZA che coinvolge
anche strutture zoologiche nella reintroduzione dell’animale. Tutto questo è volto al raddoppiare il numero delle tigri
presenti attualmente in natura, che si aggira intorno a 2154
entro il 2020.
Si evince dunque da quanto appena descritto nel dettaglio
che le strutture zoologiche devono essere oggigiorno considerate uno strumento della conservazione, che può realmente
aiutare le specie a rischio di estinzione presenti in natura.
Le difficoltà e le possibilità di errore sono molte, in primis
la riduzione della variabilità genetica, ma se ben gestite, le
popolazioni presenti in cattività possono rappresentare una
essenziale riserva genetica in grado di salvaguardare le specie presenti in natura.
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | CHIMICA
Dal vino di Noè alla chimica verde
ANTONIO TRINCONE
Istituto di Chimica Biomolecolare, Consiglio Nazionale delle Ricerche
S
DAL VINO DI NOÈ...
o di qualche contadino che all’appellativo
“biotecnologico” riferito al vino di Noè perlomeno riderebbe di me e non solo in relazione agli antichi metodi di conservazione della
bevanda ma proprio relativamente al suo processo produttivo. Però, che le biotecnologie affondino le loro
radici più o meno profondamente nel nostro passato è cosa
nota e indiscutibile. La fermentazione dello zucchero ad etanolo è un bioprocesso che era noto ai Babilonesi e per più di
settemila anni i microorganismi sono stati alla base della produzione di pane, yoghurt, formaggi e aceto. Del tutto inconsapevolmente per i nostri antenati, questi bioprocessi erano
attivati e sostenuti in condizioni ideali per la fermentazione
che interessava, a scapito di altri microorganismi in competizione. Il consumo dell’alcol nell’antico Egitto era già diffuso con la presenza di leggi contro l’abuso che regolavano
la vendita di tale prodotto. L’uso di bevande alcoliche negli
aspetti conviviali era più che noto, basti citare per la Grecia
e a Roma la mitologia di Dioniso e di Bacco ai quali erano
dedicate apposite feste religiose. Nell’Iliade e nell’Odissea,
poemi scritti circa sette secoli prima di Cristo ci sono riferimenti all’uso del caglio per la produzione del formaggio e
il lievito madre è apparso in Europa all’incirca nello stesso
periodo.
Ma nessuno capiva cosa accadeva.
A volerlo comprendere per primi furono i commercianti di
vino e birra del diciannovesimo secolo. Erano alla ricerca di
un modo per evitare la degradazione dei loro prodotti quando
questi venivano trasportati per lunghe distanze. Del problema si interessò Louis Pasteur che scoprì che era il lievito a
sostenere la fermentazione e che il deterioramento era dovuto ad altri microorganismi presenti che convertivano l’etanolo ad aceto. E’ a queste ricerche che si fa risalire l’interesse
di Pasteur per la microbiologia. Lo scienziato era convinto
che l’azione chimica del processo di fermentazione fosse una
caratteristica particolare dell’organismo nel mosto. Ci furono dispute con altri scienziati dell’epoca, in particolare con
Justus von Liebig il quale pensava che il processo non era
connesso con gli organismi viventi ma che la fermentazione
non fosse altro che un processo di natura chimica. In un certo
senso i due scienziati avevano ragione entrambi ma erano già
scomparsi prima della fine della disputa quando, nel 1897, i
fratelli Buchner scoprirono che l’estratto del lievito, senza
nessun organismo vivente presente, era capace di convertire il glucosio ad etanolo e anidride carbonica. Fu William
Kühne che usò per la prima volta la parola “enzima” per gli
agenti responsabili di tali reazioni. Benchè chiarificatrici di
alcuni aspetti, tali sistematizzazioni concettuali e l’uso di
nuovi termini non aiutavano molto: la parola enzima significa solo letteralmente, dal greco, all’interno del lievito. Ad
ogni modo, benchè la disputa con Liebig costò a Pasteur il
mancato riconoscimento delle sue ricerche in vita, l’impatto
di tali studi sull’industrializzazione dei processi fermentativi
fu elevato e portò ad una migliore comprensione degli aspetti
biologici alla base di tali processi1.
Anche un altro scienziato, Takamine, stava sviluppando un
processo fermentativo per la produzione di enzimi dal fungo
Aspergillus oryzae; il suo prodotto era noto come Takadiastase (si tratta di una miscela di amilasi e di altri enzimi glicolitici). Il prodotto era diffuso nell’America degli anni ‘50
e può essere ancora acquistato come aiuto per la digestione
in alcuni paesi orientali. Jokichi Takamine era un chimico
giapponese; durante alcuni viaggi di lavoro a New Orleans
conobbe la sua futura moglie americana stabilendosi negli
Stati Uniti. La sua vita fu dedicata alla ricerca con importanti
scoperte che lo hanno reso uno dei padri della biotecnologia.
Takamine ha tra l’altro inventato e brevettato un metodo per
la cristallizzazione dell’adrenalina oltre ad altre importanti
scoperte nel campo agro-biotecnologico. E’ morto a New
1 Michael K. Turner Biocatalysis in organic chemistry (Part I): past and
present, TIBTECH 1995, 13, 173-177
19
CHIMICA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
nelle reazioni chimiche. A
York nel 1922 all’età di 67
tale richiesta di prodotti defianni. Ed è proprio all’inizio
niti strutturalmente potevano
del ventesimo secolo che
pertanto far fronte i catalizla parola “biotecnologie”
zatori biologici e la biocataapparve per la prima volta
lisi moderna poteva mano a
nello Yorkshire. A Leeds
mano venire alla ribalta con
fu creato un ufficio, il “Buuna popolarità sempre crereau of Biotechnology” che
scente negli ultimi trent’angià a partire dal 1899 fornini. Tale ribalta deve anche
va consulenze in chimica e
essere riconosciuta all’ingemicrobiologia alle industrie,
gneria proteica e agli studi di
per gli aspetti fermentativi
genetica che hanno permesso
dei processi dell’epoca2.
Dal 1940 al 1960 gli svinegli ultimi anni del venteluppi delle biotecnologie
simo secolo di modificare
furono molto strettamente
le proprietà degli enzimi e
connessi all’industria fardi facilitarne la produzione.
maceutica, a parte aspetti inLa tecnologia enzimatica è
teressanti di alcuni processi
ancora oggi in questa fase di
biotecnologici durante il
enorme sviluppo.
ventesimo secolo legati alle
due guerre. Il primo ceppo
Science Direct è un dadi Penicillium produceva
tabase di ricerca di articoli
soltanto 2 milligrammi di Fig. 1 Hits su Science Direct (Elsevier) per ricerca prodotti scientifici di tutto scientifici che ospita più di
temporale coperto dal database usando la parola “biocatal*” per ALL
penicillina per litro di coltu- l’arco
dieci milioni di articoli da
FIELD e “Italy” per l’affiliazione degli autori di origine italiana. Analisi condotta
ra. Il confronto con la stessa nel Luglio del 2016 per cui i dati di tale anno non sono completi. L’asterisco 3500 riviste scientifiche e
rappresenta un metacarattere (jolly) utilizzato per rappresentare nelle ricerche
misura odierna (20 grammi/ una qualsiasi sequenza di caratteri. Il totale degli hits è di 1388, (in confronto 34.000 e-books. Una ricerca
Germany = 1974, USA = 2943).
litro) è chiarificatore degli
in questo archivio professiosviluppi più di ogni altro
nale del termine “biocatal*”
commento.
in articoli scientifici con l’affiliation degli autori a istituzioni
La definizione delle biotecnologie: “applicazioni di natura di ricerca italiane produce dei risultati interessanti (Figura 1).
tecnologica che si servono dei sistemi biologici, degli orgaA parte il periodo iniziale dal 1981 al 1995 i cui dati
nismi viventi o di derivati di questi per produrre o modificare possono essere certamente influenzati dalla nascita e dalla
prodotti o processi per un fine specifico” ruota intorno ad un strutturazione del database stesso, a partire dal 1996 fino ad
punto centrale poco evidente ai non addetti ai lavori, gli enzi- oggi la produzione scientifica di tali articoli appare relativami. Gli enzimi sono i catalizzatori biologici di natura protei- mente costante nel nostro paese, assestandosi su un numero
ca che rendono possibile la vita in tutti gli organismi viventi. di prodotti/anno che oscilla tra 50 e 80 pubblicati da gruppi
Gli enzimi sono state le prime biomolecole ad essere studiate di ricerca in tutto il territorio nazionale, appartenenti sia al
nei primordiali sviluppi della chimica biologica del novecen- contesto universitario che a quello degli enti di ricerca, in
to, lasciando il posto ai componenti e alla struttura del DNA special modo al Consiglio Nazionale delle Ricerche. Al di
a partire dalla seconda metà del secolo e alla complessità del là di questi aspetti generali è l’analisi dettagliata che appare
mondo dei carboidrati di oggi. Accanto agli studi biochimici più interessante. Il metodo di ricerca adottato sul database
dei processi enzimatici del novecento, nei laboratori di chi- non consente di stabilire con assoluta certezza l’afferenza
mica organica i successi della sintesi chimica permettevano del totale dei prodotti ad istituzioni italiane per la possibile
la produzione di una serie di sostanze prima sconosciute e la presenza di articoli derivanti da collaborazioni scientifiche
conferma della struttura delle sostanze naturali scoperte. La di ricercatori italiani di laboratori stranieri. Un’analisi visiva
richiesta di tali prodotti puri dal punto di vista stereochimico sui risultati così ottenuti assicura però che i prodotti frutto
per l’analisi precisa dell’influenza che la disposizione degli di istituzioni straniere non superano il 5% del totale. D’altro
atomi in una molecola apporta alle caratteristiche chimiche canto il confronto con la stessa ricerca eseguita per affiliazioe all’attività biologica era una delle difficoltà cui i chimici ni di altri paesi come USA e Germania ci rivela un dato per
non riuscivano pienamente a far fronte. La creazione di tali l’Italia del tutto ragguardevole.
Prendendo in considerazione le riviste su cui tali articoli
molecole in maniera selettiva è molto facilitata con l’utilizzo degli enzimi al posto dei catalizzatori inorganici, in uso sono pubblicati ci si accorge che accanto alla rivista Journal
Molecular Catalysis B:Enzymatic, che può essere classificata come quella più generica e che accoglie il maggior numero
2 Joseph H. Hulse Biotechnologies: past history, present state and future
prospects, Trends in Food Science & Technology 15 (2004) 3–18
di articoli, quasi a pari merito c’è una rivista più specifica pre20
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | CHIMICA
Scheda 1. Sintesi degli “About this Journal” dai relativi siti web delle riviste.
Journal Molecular Catalysis B:Enzymatic
Forum internazionale per ricercatori e sviluppatori di prodotto nelle applicazioni delle cellule intere o di
enzimi liberi come catalizzatori nella sintesi organica. L’enfasi è data agli aspetti meccanistici e sintetici delle
trasformazioni biocatalitiche. Gli articoli pubblicati devono riportare avanzamenti significativi nelle conoscenze
relative agli aspetti di ricerca di base o applicata sugli enzimi usati nella biocatalisi, sulle applicazioni industriali di
tali processi enzimatici, sulle trasformazioni stereoselettive, sullo screening di nuovi biocatalizzatori, etc.
Tetrahedron: Asymmetry
La rivista Tetrahedron: Asymmetry pubblica ricerche sperimentali o teoriche sugli aspetti dell’asimmetria nella
chimica organica, inorganica, organo-metallica e nella chimica-fisica o bioorganica. Argomenti di interesse
particolari riguardano gli aspetti chimico-fisici e le proprietà biologiche degli enantiomeri, le strategie e i metodi
della sintesi asimmetrica, la risoluzione e le tecniche analitiche per determinare la purezza enantiomerica.
Enzyme and Microbial Technology
La rivista Enzyme and Microbial Technology pubblica ricerche relative a novità di natura biotecnologica significative
sugli aspetti di base ed appllicativi delle scienze e tecnologie dei processi con uso di enzimi, microorganismi,
cellule animali e vegetali.
Process Biochemistry
Process Biochemistry è un giornale orientato alla pubblicazione di ricerche applicate su avanzamenti nel settore
delle scienze e tecnologie dei processi che coinvolgono molecole bioattive e organismi viventi. Tali processi
interessano la produzione di metaboliti o materiali utili, la rimozione di composti tossici con le tecniche della
biologia e della bioingegneria. Le aree più significative sono i nuovi bioprocessi e le tecnologie abilitanti di
applicazione in nutraceutica, nel settore della salute, dell’energia, dell’ambiente e nelle bioraffinerie.
Biochemical Engineering Journal
Il Biochemical Engineering Journal pubblica ricerche sulla promozione degli aspetti di ingegneria chimica dello
sviluppo dei processi biologici associati a materiali grezzi, preparazione di prodotti nei settori medico, industriale,
e ambientale. Particolare enfasi è data alla biocatalisi, ai biosensori , alle bioseparazioni, bioreattoristica, etc.
valentemente rivolta alla chimica organica e in special modo
al settore stereochimico: Tetrahedron: Asymmetry, insieme
ad altre più generiche (Tetrahedron e Tetrahedron Lett.) o
specifiche con uno sguardo più rivolto al settore della chimica bioorganica e farmaceutica (Bioorganic & Medicinal
Chemistry e Bioorganic & Medicinal Chemistry Lett.). Di
poco sotto si trovano altre riviste di natura differente le quali
accolgono pure un cospicuo numero di articoli come è il caso
di Enzyme and Microbial Technology, Process Biochemistry
e Biochemical Engineering Journal che pubblicano lavori di
prevalente natura biologica (bioprospecting, biomasse) o più
direttamente applicativa (Scheda 1).
...ALLA CHIMICA VERDE
Credo sia difficile anche per un profano pensare all’appellativo “chimica verde” come ad un settore della chimica
paragonabile alla chimica organica o alla chimica-fisica3. Più
che altro il colore potrebbe richiamare una moda verso le
iridescenze cui nemmeno le biotecnologie si sono potute sottrarre4 anche se non è così. Infatti, il concetto di chimica verde
“la progettazione di prodotti chimici e dei processi per la loro
produzione, che riduce o elimina del tutto la co-produzione
di sostanze pericolose all’uomo” emerse circa venti anni fa5
con l’introduzione dei 12 principi della green chemistry. Il
campo è ancora in speciale evoluzione nel nostro paese. La
chimica verde è rivolta allo studio di metodi atti ad ottenere
la massima conversione dei reagenti in un determinato prodotto e la minima produzione di residui attraverso un design
razionale del processo di insieme. Dopo venti anni dalla loro
pubblicazione i 12 principi sono più che mai attuali con l’aumento della sensibilità dell’opinione pubblica relativamente
a questi temi. Invece di riportare l’elenco come tale di questi
principi, facilmente reperibile in qualsiasi pubblicazione sul
3 http://www.chimicare.org/blog/filosofia/la-chimica-verde-principi-ecriteri-etici-nonche-economici-applicati-alla-produzione-industriale/
4 A. Trincone Come è profondo il mare... Scienze e Ricerche n. 24, Marzo 2016, pp. 47-52
5 Anastas , P. T. and Kirchoff , M. M. 2002 . Origins, current status, and
future challenges of green chemistry. Accounts of Chemical Research ,
35 , 686 – 694
tema, sembra interessante sottolineare che l’attrazione che
tali tematiche esercitano in questi settori può anche dare luogo ad incomprensioni su ciò che effettivamente è “verde”. E’
quindi di importanza fondamentale evitare distorsioni del significato originario della chimica verde: una chimica più sicura. Per esempio evitare di considerare semplici sostituzioni
di componenti delle formulazioni solo per sopperire ad una
performance poco “verde” di qualche ingrediente o cercare
di definire in maniera globale la vera sostenibilità di alcuni
prodotti chimici bio-derivati, etc. D’altro canto insieme ad
uno dei principi più importanti della green chemistry (atom
economy: i metodi di sintesi dovrebbero essere ideati per incorporare il più possibile nel prodotto finale tutti i materiali usati nel processo) si sono sviluppati nel corso degli anni
numerosi altri (step economy, redox economy, pot economy
e la carbon efficiency) i cui nomi lasciano intendere che un
significato addizionale si deve aggiungere a quello originario
della chimica verde: una chimica più sicura e più economica,
per massimizzare l’efficienza dei processi.
In questo ambito è interessante un esame dettagliato degli
aspetti relativi alla chimica verde all’interno degli articoli
scientifici sotto esame nella Figura 1. Solo a titolo di esempio: Sergio Riva del CNR di Milano mette in evidenza l’utilizzo delle laccasi nel campo tessile, della carta e nei settori
dell’industria alimentare come veri biocatalizzatori green che
utilizzano l’ossigeno producendo acqua come prodotto collaterale6. Altri interessanti articoli mettono in evidenza l’utilizzo di microalghe come materia prima per la produzione
di biodiesel studiando processi per l’ottimizzazione dell’estrazione delle sostanze di interesse7 o ancora l’utilizzo di
materiali ligno-cellulosici per l’ottenimento di prodotti utili8.
6 Sergio Riva, Laccases: blue enzymes for green chemistry, Trends in
Biotechnology, Volume 24, Issue 5, May 2006, Pages 219-226
7 Vincenzo Piemonte, Luisa Di Paola, Gaetano Iaquaniello, Marina
Prisciandaro, Biodiesel production from microalgae: ionic liquid process
simulation, Journal of Cleaner Production, Volume 111, Part A, 16 January 2016, Pages 62-68
8 Alessandra Piscitelli, Claudia Del Vecchio, Vincenza Faraco, Paola
Giardina, Gemma Macellaro, Annalisa Miele, Cinzia Pezzella, Giovanni
Sannia, Fungal laccases: Versatile tools for lignocellulose transformation,
Comptes Rendus Biologies, Volume 334, Issue 11, November 2011, Pages
789-794
21
CHIMICA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
Appare di ulteriore interesse
alla biocatalisi hanno moproprio in quest’ultimo condulato la loro produzione
testo lo studio di biocatalizscientifica (derivante dai
zatori da organismi estremofinanziamenti ricevuti),
fili per una migliorata produriversandola sui temi della
zione di prodotti interessanti
green chemistry in modi
dall’emicellulosa ottenuta
del tutto paragonabili a
dai rizomi di Arundo donax,
quelli di altri paesi.
pianta coltivata in terreni
Appare interessante in
esausti che alla fine del ciquesto contesto citare infine un editoriale apparso
clo di raccolta si ritrovano
sulla rivista New Bioin presenza di una quantità
technology nel 2013 che
di rizomi da poter utilizzare
riporta i contributi precome biomassa9.
Al di là però di questa anasentati ad una conferenza
lisi nel dettaglio dei singoli
internazionale,
‘‘Enviarticoli scientifici, che non
ronmental Microbiology
è possibile approfondire in
and Biotechnology in the
questo contesto, si può tentaFrame of the Knowledgere un approccio più generale
Based Bio and Green EcoFig. 2 Presenza delle keywords più diffuse (e relativi controlli) nella letteratura
prendendo in considerazione relativa alla green chemistry negli abstract dei prodotti di ricerca della Figura 1.
nomy’’ (EMB2012) tenudieci termini comuni presentasi a Bologna nel 2012.
ti nella letteratura scientifica
I temi di ricerca sotto i
relativa alla green chemistry.
quali tali contributi sono
Tale insieme di keywords è da poter ricercare negli abstract stati raccolti spaziano dalla produzione di biofuel e prodotti
del totale dei prodotti risultanti dall’analisi in Figura 1. La chimci utilizzando biowaste alla ricerca sull’interazione miFigura 2 presenta i risultati di tale analisi per keywords. E’ crobica e la simbiosi e dallo sviluppo di ricerche sulle biodeinnanzitutto interessante la presenza della keyword di con- gradazioni e bioremediation fino alle applicazioni più recenti
trollo “biocatalysis” usata per confrontare i risultati numerici di temi più strettamente legati alle biotecnologie marine10.
delle altre keywords presenti. Il rapporto col valore di questa E’ di ulteriore interesse, proprio relativamente al’importankeyword trovato negli stessi prodotti con affiliation “USA” za specifica delle biotecnologie marine nel contesto della
è analogo a quello dei totali dei prodotti (v. Figura 1) e ciò chimica verde, una frase contenuta nelle raccomandazioni
corrobora in primo luogo l’analisi così condotta su questi emesse da un gruppo di lavoro europeo11 con la quale si indati. Inoltre, rispetto al valore di controllo per “biocatalysis” tende chiudere questo articolo: “...there is a common interest
nei dati italiani (122), appare che il valore medio di presen- in developing all aspects of this field in co-operations betweza di concetti relativi ad altre keywords è attestabile intorno en academic and industrial stakeholders, to accelerate the
alla metà o poco meno (crop 50, biofuel 52, sustainable 60 transition to green chemistry, nutrition and pharmaceuticals
e lo stesso green 32); presenze di tutto valore rispetto al ri- based on marine biodiversity”.
scontro con le stesse keywords nei dati USA (greenUSA 74,
sustainableUSA 88). Ciò ci fa concludere che l’onda “green”
che ha investito altri paesi non è stata certamente assente nel
nostro, nel quale i gruppi di ricerca tradizionalmente legati 10 Spiros N. Agathos, Fabio Fava, Alberto Scoma, Biotechnology for the
9 Lama L, Tramice A, Finore I, Anzelmo G, Calandrelli V, Pagnotta E,
Tommonaro G, Poli A, Di Donato P, Nicolaus B, Fagnano M, Mori M,
Impagliazzo A, Trincone A AMB Express. 2014 Jul 9;4:55
22
Bio- and Green Economy, New Biotechnology, Volume 30, Issue 6, 25
September 2013, Pages 581-584
11 Background and recommendations on future actions for integrated
marine biotechnology R&D in Europe, KBBE-net partners of the Collaborative Working Group on Marine Biotechnology, October 2009.
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | INTERMEZZO
Moebius in love. Una favola
origamico-freudiana
FRANCO BAGNOLI
Dipartimento di Fisica e Astronomia e CSDC, Università di Firenze
A mille ce n’è... Non serve l’ombrello, il cappottino rosso o la cartella bella per venire con me... [1]
Bastano dei fogli di carta, del nastro adesivo e un paio di forbici.
Se vi chiedessero di disegnare la vostra vita, che figura traccereste? Se siete ottimisti, una retta con
pendenza positiva, o forse addirittura una parabola concava. Se siete pessimisti, l’opposto. O magari
una curva che prima scende e poi sale (o viceversa). Forse un albero ramificato, che mostra tutte le
opportunità che non avete seguito? Ma sicuramente, se andate più in dettaglio, avremo una curva periodica, tipo sinusoidale. Perché la vita è in primo luogo ripetitiva: i giorni si ripetono con un ritmo sempre
simile, e così fanno gli anni.
Forse meglio quindi disegnare la vita non su un foglio di carta piano, ma su un cilindro. Ecco, il
cilindro (o magari un tronco di cono) rappresenta meglio il ritmo della vita perché è una superficie intrinsecamente periodica: se tracciamo una linea “orizzontale” otteniamo, senza sforzo, un cerchio, una
volta che arrotoliamo la carta. Prendiamo quindi una striscia di carta, che qui mostro con una torsione
(è comodo distinguere le due facce, conviene usare i fogli a due colori per origami).
Arrotoliamola, incollando il bordo.
Abbiamo così un cilindro. Notiamo subito che questa figura ha un interno e un esterno, che si possono
facilmente far corrispondere a quello che proviamo dentro e a come appariamo fuori. Ma questi due
aspetti sono completamente separati... non è proprio così nella realtà.
Inoltre, sia per la vita interiore che per quella esteriore, ci sono sempre più contesti, per esempio il
lavoro e la famiglia o gli amici.
Proviamo a separare i diversi contesti: facciamo un piccolo taglietto per infilare la punta delle forbici
e poi seguiamo la linea mediana.
23
INTERMEZZO | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
Il cilindro si separerà in due cilindri più piccoli, completamente scorrelati tra loro.
Vorrebbe dire che la nostra vita è divisa in compartimenti stagni, una cosa che può portare facilmente
alla schizofrenia. Anche se non sembra, questo è dovuto alla completa separazione tra dentro e fuori.
Per dimostrarlo, riprendiamo la nostra striscia di carta, e incolliamola facendole fare un mezzo giro.
Abbiamo così un nastro di Moebius. Anche se localmente il nastro di Moebius è molto simile ad un
cilindro, le sue proprietà sono molto diverse. Tanto per cominciare non c’è un dentro e un fuori. Se usiamo una carta con due colori diversi sulle due facce, vediamo che il “dentro” e il “fuori” si susseguono.
Se tracciamo una “circonferenza” con un pennarello, vediamo che si finisce per “attraversare” entrambi
i lati della striscia di carta, finendo dove abbiamo cominciato dopo aver percorso tutta la superficie
(unica) della striscia. Questo ci rappresenta meglio: non esiste una distinzione netta tra il cielo stellato
sopra di noi e la legge morale dentro di noi [2].
24
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | INTERMEZZO
Ripetiamo l’esperimento di prima: facciamo un piccolo taglietto, infiliamo le forbici e poi proseguiamo lungo il segno del pennarello.
Tagliando l’ultimo lembo di carta scopriamo con piacere che il nastro non si divide in due: semplicemente si converte un in nastro più lungo.
La carta questa volta fa quattro mezzi giri (ovvero due giri completi) prima di richiudersi: ogni volta
che tagliamo a metà un “mezzo giro”, questo raddoppia, e poi abbiamo un altro “giro” completo quando rigiriamo la striscia in alto. Questo è consistente con la nostra metafora: tagliando in due una vita
(per esempio: prendendo un amante e facendo due lavori) otteniamo una vita più complicata... Il nastro
tagliato adesso ha due superfici: un dentro e un fuori, ma intrecciati tra loro.
E se proviamo a tagliare ancora (magari perché divorziamo e ci risposiamo) otteniamo due anelli
separati, pieni di nodi e inestricabilmente intrecciati. Una bella similitudine, non c’è che dire!
Adesso però analizziamo il caso della coppia, dato che gran parte delle nostre decisioni coinvolgono
altre persone. Prima o poi incontriamo l’anima gemella (o una sua approssimazione) e i due cerchi della
vita entrano in contatto. Possiamo simboleggiare questo avvenimento per mezzo di una croce di carta,
che poi arrotoleremo in vari modi. Per ricavare la croce, invece di impazzire con la colla o il nastro
adesivo, conviene prendere un foglio di carta, e piegarlo in diagonale (portando il lato corto su quello
lungo). Pieghiamo ancora una volta: otteniamo una specie di tenda (il sogno di tutte le neo-coppie?).
Pieghiamo ancora, ottenendo un piccolo triangolo rettangolo, e poi tagliamo vicino all’ipotenusa. Magicamente, svolgendo la carta apparirà una croce.
25
INTERMEZZO | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
Una possibilità per i due partner della coppia sotto osservazione è quella di seguire percorsi di vita
indipendenti. Nella nostra simbologia, questo consiste nel ripiegare i rami della croce a formare due
cilindri uniti ma perpendicolari.. non proprio la descrizione di un idillio.
Se adesso tagliamo i due cilindri cosa otteniamo? Al primo taglio appaiono... un bel paio di manette!
Ahi, ahi, la cosa sta diventando minacciosa! Forse il mutuo che abbiamo fatto per la nostra casetta
è stato un azzardo? O non avevamo considerato l’invadenza della suocera? E infatti, puntualmente, al
secondo taglio ecco che si manifesta... una bella prigione quadrata!
26
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | INTERMEZZO
Ammaestrati però dalla nostra esperienza precedente, intuiamo che la ragione profonda di questo
smacco è stata la separazione troppo netta tra interno ed esterno: tutte le case diventano delle prigioni
se ci rinchiudiamo dentro!
Proviamo a “aprirci” all’esterno. Questa volta, prima di incollare i rami della croce, diamo una mezza
torsione. Attenzione però! In uno dei rami diamo una torsione in senso orario, nell’altro in senso antiorario: ci vuole una certa diversità nella coppia.
A questo punto possiamo procedere con il taglio! Dopo il primo non si capisce molto, forse l’oggetto
ricorda un tanga (per rammentarci che esistono le tentazioni)?
27
INTERMEZZO | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
ma appena finito il secondo taglio.... magicamente appaiono due cuori intrecciati!
Cercando su YouTube per “Moebius hearts” si trovano molti video che mostrano il procedimento da
seguire.
Una versione in spagnolo di questo articolo è stata pubblicata su Revista C2: http://www. revistac2.
com/http://www.revistac2.com/moebius-enamorado/
RIFERIMENTI
[1] https://it.wikipedia.org/wiki/Fiabe_sonore
[2] E. Kant, Critica della ragion pratica (1788) https://it.wikipedia.org/wiki/Critica_della_ragion_
pratica
28
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | FILOSOFIA
The Uncertainty Principle.
Arguments and Implications for
Philosophy of Science
FILIPPO MARIA SPOSINI
Department of Philosophy, Sociology, Pedagogy and Applied Psychology (FISPPA), University of Padua, Italy
After the so called “scientific revolution” science evolved
through the application of logical reasoning to verifiable facts
and data. According to a Galilean vision of science nothing
in the universe happens randomly. Science must reveal order and predictability. During the firsts three decades of the
twentieth century all the certainties about nature, science and
reality have been revolutionized. By the time Heisenberg announced his uncertainty principle he presented an argument
that was ready to shake the core of science, technology and
philosophy. It marked an unsuspected weakness in the edifice of knowledge presenting the world with new challenges
in the possibilities of understanding. The aim of the present
paper is to analyze main arguments proposed by the uncertainty principle considering significant implications for the
philosophy of science.
O
INTRODUCTION
ur understanding of natural phenomena
after the so called “scientific revolution”
evolved through the application of logical reasoning to verifiable facts and data.
Starting with Galileo and then Newton,
scientific theories relied on the rigorous language of mathematics that provided a precise and thorough system able
to replace mystery with reason. According to a Galilean vision of science, nothing in the universe happens randomly:
there is no room for spontaneity. Nature might be extremely complicated but at bottom, science must reveal order and
predictability. The trick is to define the object of knowledge
in terms of precise observation and then find mathematical
laws able to present an inescapable and reliable explanatory system. This classical picture of knowledge engages all
natural sciences (and not only) in a reductionist project. «Reductionism» is a philosophical position which holds that a
complex system is nothing but the sum of its parts. To better understand it, the proposal is to analyze the system in its
individual constituents (Bunge, 1967). It assumes and takes
for granted that all minimal aspects of nature can be defined
with limitless precision and all interactions can be exactly
understood. For centuries, this approach showed its massive
potential and the project of a complete understanding of the
world seemed realizable. Nature in fact: «Was considered
knowable, and if it was knowable then one day, necessarily
it would be known» (Lindley, 2007). If absolute comprehension was unavailable, it was because of scientists’ inability to
deal with the task, not because nature itself was intractable.
During the firsts three decades of the twentieth century all
these certainties about nature, science and reality have been
revolutionized. By the time Heisenberg announced his uncertainty principle, he presented an argument that was ready
to shake the core of science, technology and philosophy. It
marked an unsuspected weakness in the edifice of knowledge
presenting the world with new challenges in the possibilities
of understanding. The aim of the present paper is to analyze
main arguments proposed by the uncertainty principle considering significant implications in philosophy of science.
THE PRINCIPLE
In March 1927 a twenty-five years old physicist, Werner
Heisenberg, published a breakthrough paper that offered a
simple, and at the same time startling principle that established a new approach in our understanding of the world. The
uncertainty principle represents a great achievement in the
field of quantum mechanics that at the time, was consistently
growing as a fundamental framework for understanding
and describing nature at the smallest length-scales (Kragh,
1999). According to this theory atoms can be found only in a
certain «quantum state» described as: «The form an atom assumes when it is left alone to adjust itself to the conditions at
low energies» (Weisskopf, 1979). The responsible of a certain quantum state are electrons, and the study of these tiny
particles has occupied scientists’ mind for a long time. In
29
FILOSOFIA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
the atomic world we observe significant changes when going from one
number of electrons to
another as one more
or less may lead to a
complete change of the
atomic state and its interaction capabilities.
Since the early experiments it was recognized
that electrons and other
atomic particles behave
in unexpected way. The
surprising event was
the electrons’ ability to
exhibit both wave and
particle properties. This
phenomenon takes the
name of «wave-particle
duality» and illustrates
a general characteris- Galileo Galilei
tic of the atomic world
where the properties of
a quantum system depend on the nature of the observation
performed (Reichenbach, 1946). Light for example, is a phenomenon that presents this duality. It can be a wave when
passing through a pair of slits, but it can be a stream of photons when it strikes a detector or a photographic film (Rae,
1986). Thus, one of the main consequences of wave-particle
duality is that it sets limits on the amount of information that
can ever be obtained about a quantum. Heisenberg realized
that this type of phenomena could be conceived in a different
way. He pointed out that a better understanding can be drawn
from a measurement of the position of an electron (Δx) and
its momentum (Δp) by shooting a photon at it (Heisenberg,
1927). But, as he performed the experiment, he faced a terrific issue. The more precisely the position of the electron
was determined, the less precisely its momentum could be
known, and vice versa. In the experiment photons were used
to identify position and momentum. In order to successfully locate the position of the electron, we must use a photon with a short wavelength. In this way the position can be
measured accurately but, because of the characteristics of
our measurement system, the photon used transfers a large
amount of energy to the electron altering significantly the
quantum state and therefore the momentum. If, on the other
hand, we want to understand the momentum of the electron,
we must use a photon with a long wavelength. In this case
the collision does not disturb significantly the electron’s momentum, but the position can only be determined vaguely.
This intimate partiality in the possibility of knowledge was
shocking for newtonian and einsteinian physics, but Heisenberg’s provocative description was entirely supported by the
mathematical framework applied. Confident about the quality of his researches, the german physicist established a new
30
fundamental principle:
«No matter what photon
wavelength is used, the
product of the uncertainty in measured position and measured momentum is greater than
or equal to a lower limit,
which is Planck’s constant» (Tipler, 1978).
This expression asserts
that there is a minimum
amount of unavoidable
disturbance caused by
any measurement. The
very act of measurement in fact, involves a
strong interaction that
produces a significant
disturbance from which
we cannot escape. The
uncertainty
principle
presents us with the
groundbreaking
idea
that the act of measurement introduces in the object of our
analysis a substantial change which cannot be precisely controlled.
The world could not be conceived anymore as an independent constellation of objects. And at the same time, the
conception of knowledge as a mirroring enterprise was forever gone.
THE PROBLEM OF MEASUREMENT
Following the arguments proposed by the uncertainty
principle, the act of measurement becomes a central problem. Measurement is standardly described and performed in
the following way. The object of our study is brought into
contact with an apparatus, with the result that the apparatus indicates the value in a physical quantity after they have
sufficiently interacted (Goldstein & Goldstein, 1980). This
procedure lies over the solid assumption that the object of
our knowledge exists for itself and constitutes a phenomenon de facto (Bunge, 1967). To this conception of nature, the
act of measurement must provide precise and accurate data
that represent the “real” and “objective fact”. No interference
with the phenomenon under investigation is allowed. It is in
the interest of science to not modify the object, otherwise
the physical quantity indicated by the measurement system
would be characterized by a systematic error producing unreliable knowledge. Scientist’s task is to intervene as little
as possible in order to allow an “ordinary manifestation of
reality”. In this frame it is clear that the observer-observed
relationship relies on the implicit possibility to neatly differentiate the two parts (Curd & Cover, 2012). In other words,
if the observer pays necessary attention, he can grasp the
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | FILOSOFIA
reality from a separate
and privileged position.
But here is the issue
that comes from the
uncertainty principle:
To what extent our intervention is irrelevant
for the purpose of measurement? According to
Heisenberg’s researches, the apparatus used
for measuring the momentum deprives us of
knowledge of the position of the electron and
the more accurately we
learn how fast it is moving, the less we know
where it is (Heisenberg,
1979). We cannot know
both position and speed
at the same time, so we Werner Heisenberg
are forced to choose:
«The very act of measuring changes the system in unpredictable ways» (Goldstein
& Goldstein, 1980). No matter how the measurement system
is accurate and precise, the uncertainty principle tells us that
some kind of interference is unavoidable. By measuring we
necessarily change the object of our study. In other words,
the observer can only change the observed.
POTENTIALITY AND ACTUALITY
This dichotomy represents a central concept that has been
developed in ancient times mainly by the contribution of Aristotle. The idea proposed by the the first teacher becomes
extremely relevant in the discussion of the philosophical implication of the uncertainty principle. Potentiality refers to
any possibility that a thing can be said to have, while actuality represents a situation where a possibility becomes real in
the fullest sense (Jaeger, 2013). In the experiment performed
by Heisenberg we noticed how the comprehensive knowledge of a certain quantum state is impossible to acquire at the
same time. The understanding of the observed object relies
upon the observer’s choice, whether he prefers to accurately
know one aspect or another. In this sense, the observer faces
a world of coexistence potentialities or possibilities rather
than one of determined things or objects (Bohr, 1958). To
the new perspective advanced by quantum physics, for each
potentiality there is a corresponding probability. In this range
of options, measurement can only probabilistically induce a
single outcome among a set of potential outcomes (Reichenbach, 1946). The position embraced by a consistent group
of physicists indicates an indeterministic conception of the
quantum world. Since the properties under investigation
have no definite value before the act of measurement, the
only act of knowledge is
responsible for specific
characteristics or reality. This understanding
thus, is fundamentally
different from the view
adopted in classical
physics centered over a
deterministic and mechanistic approach. But
Heisenberg
himself,
conscious of the important consequences of his
opinions, took a precise
position and firmly stated that: «The transition
from the possible to the
actual takes place as
soon as the interaction
between the object and
the measuring device,
and thereby with the rest
of the world, has come
into play» (Heisenberg,
1958). This state of affaires challenges us with puzzling implications. If the entire human knowledge relies on the act
of observing, and if this act not only changes irreversibly
the object of our investigation but sets the condition for a
specific manifestation of reality, then, what is the nature of
our knowledge? Is the world we are experiencing and we are
trying to understand just one of the many possible worlds?
These questions have given the chance for the development
of a striking debate to which several answers have been proposed (Rae, 1986; Greene, 2010). One of the most interesting
contribution to the discussion has been presented just after
the publication of the uncertainty principle by Heisenberg
himself and Niels Bohr. This interpretation of quantum mechanics takes the name of the «Copenhagen interpretation»
as they both conducted their researches in the danish capital.
COMPLEMENTARITY AND THE COPENHAGEN
INTERPRETATION
The Copenhagen interpretation of quantum mechanics
states that no objective reality can be described in quantum
systems (Plotnitsky, 2012). The only possible analysis relies on probabilistic methods. It rejects the objective reality
and denies that an electron has a well-defined position and a
well-defined momentum. In the absence of an actual observation neither its position or its momentum can be considered as part of the knowledgeable phenomena as the observations alone create the reality of the electron. «A measurement of an electron’s position creates an electron-with-a-position; a measurement of its momentum creates an electron-with-a-momentum. But neither entity can be considered
already to be in existence prior to the measurement being
31
FILOSOFIA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
made» (Heisenberg, 1958). We might wonder how we know
that a quantum object exists at all in the absence of any measurement. The answer proposed by the Copenhagen interpretation is that until we have measured some property of a system it is meaningless to talk about its existence, ergo, the reality is in the observation process, not in the electron (Bohr,
1958). But there is more. As stated before, there is no measuring device that can demonstrate at same time two different qualities of a certain quantum state. One experiment can
reveal the position of the electron, another the momentum.
Both cannot be identified at once. It is up to the experimenter
to decide which facet to expose according to his purposes.
Because these properties cannot be outlined together, Niels
Bohr proposed the so-called «principle of complementarity»
stating that position and momentum are different aspects of
a single reality that cannot be simultaneously measured and
observed (Katsumori, 2011). The essential ambiguity in the
quantum world sets the conditions for which the same system can display apparently contradictory properties where
the study of one variable, destroys all available knowledge
of some other variable. At the bottom of complementarity
there is an indeterministic vision. Reality must be considered
as one of many possibilities generated by the characteristics
of the observation performed. These considerations were so
startling and provocative that even an eccentric figure like
Albert Einstein in response to this interpretation pronounced
the famous expression: «God does not play dice!». Indeed,
the Copenhagen interpretation of quantum mechanics and
Heisenberg’s uncertainty principle were seen as twin targets
by detractors who believed in an underlying determinism and
a dogmatic realism (Lindley, 2007).
UNCERTAINTY, LANGUAGE AND LOGIC
The uncertainty principle represents a great achievement
that has been possible with the rigorous application of logic and mathematics. Without these formal languages there
would have been any possible knowledge in quantum physics and in most all other sciences. In the exploration of the
quantum world though, even the most powerful system of
knowledge faces an enormous issue. Let’s ask a simple question: What is an electron? According to classical logic it is
assumed that if a statement has any meaning at all, either
the statement (A = A) or the negation of the statement (A ≠
not A) must be correct. Translated to the atomic world, the
electron must be a wave or a particle, it cannot be both at the
same time. A third option is not allowed: tertium non datur.
However, we know from experiments that an electron can be
both a wave or a particle depending on the characteristics of
the measurement system (Levine, 2013). What we recognize
as normal, ordinary and logic in the macroscopical world
does not fit with microscopical level. This brings us to another problem related to the language used in our understanding
of the basic features of the world. The measuring devices
we use have been constructed by the observer according to
certain conventions. It is important to remind that «what we
32
observe is not nature in itself but nature exposed to our method of questioning» (Heisenberg, 1958). Our scientific work
consists in asking questions about nature in our language and
trying to get an answer from observation and measurement
by means that are comprehensible to us. The issue suggested
by the uncertainty principle tells us that nature does not speak
our language. Or to be more specific, that the use of formal
and logical reasoning does not imply that nature is actually
textured by mathematical language as Galileo thought. In
this sense, the uncertainty principle poses a limit in traditional logical reasoning as we face phenomena that go beyond
our capacity of description and representation. Heisenberg
even stated that we cannot attribute any material properties
to the concept of atom and: «Whatever image our mind can
conceive about the atom is eo ipso incorrect. A first kind understanding of the atom world is – I would say for definition
– impossible» (Heisenberg, 1979).
CONCLUSIONS AND CONSIDERATIONS
The Heisenberg’s uncertainty principle warns us that the
ability to describe the object of study is circumscribed and
intrinsically related to our intervention. When journalists admit that their own views can influence the stories they are
reporting, when translators assert that their activity is more
hermeneutical rather than interpretational, when anthropologists lament how their presence disrupts the cultural
dynamics they are examining, when psychologists say that
their role is strongly intrusive in an interview session, when
psychiatrists confess that the diagnosis provided is affected by subjective and contextual elements, in all these cases
Heisenberg’s principle is not far away. A pure and untainted
knowledge that does not imply any intrusion seems impossible to achieve. Even if it would be possible, there will always
be some contamination as the inquirer consciously choose
what to observe and how to perform the investigation.
So far we have discussed about the limitations posed by the
uncertainty principle. Now we have to talk about the opportunities. A part from the great advancements that quantum
mechanics is achieving, there are also other fields in which
the uncertainty principle can represent a significant starting
point for new and fruitful discussions in epistemology and
methodology. Here the reference is to the so-called “social
sciences”, a broad category that includes several disciplines
concerned with the dynamics that take place among members of our specie. In this field, the old fashioned deterministic approach has been widely applied with scarce results
(Harré & Gillet, 1994). For decades the main purpose of social scientist was to “look and not touch” assuming that an
objective knowledge of human interactions could be easily
grasped by adopting the well-developed scientific method
of natural sciences. As the cases above reported testify, the
study of social dynamics requires a strong intervention by
the observer. Starting from the basic idea that the researcher
significantly modifies the thing observed, here there is a great opportunity for theorists in social sciences. Social events
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | FILOSOFIA
could be addressed just like nuclear physicists approach the
study of quantum states. Since the observation performed
inevitably changes the object of investigation, it is completely misleading discussing on how to achieve a greater
experimental neutrality. Taking into account the condition
of the observer the new perspective may lead to other questions. For example, how can a social scientist profitably use
his influential role? How can we manage changes in a social
environment? How can we animate a different of representation of the living context? How can we invite actors and stakeholders to a new and desirable configuration of reality? In
order to harbor this shift it is paramount to consider and give
importance to the implications proposed. This shift requires
a radical turn in the epistemological and methodological assumptions but it can represent a prolific ground in defining
a new «interactionist paradigm» for social sciences (Turchi
& Orrù, 2014).
REFERENCES
Bohr, N. (1958). Atomic physics and human knowledge.
New York: Wiley.
Bunge, M. (1967). Studies in the Foundations Methodology and Philosophy of Science. New York, USA: Springer-Verlag.
Curd, M., & Cover, J. A. (2012). Philosophy of science:
The central issues. New York: W.W. Norton & Co.
Goldstein, M., & Goldstein, I. (1980). How we know. New
York, USA: Da Capo Press.
Greene, B. (2010). The elegant universe: Superstrings,
hidden dimensions, and the quest for the ultimate theory.
New York, USA: W. W. Norton & Co.
Harré, R., & Gillett, G. (1994). The discursive mind.
Thousand Oaks, CA: Sage Publications.
Heisenberg, W. (1927). Über den anschaulichen Inhalt der
quantentheoretischen Kinematik und Mechanik. Zeitschrift
für Physik, 43(3-4), 172-198
Heisenberg, W. (1958). Physics and philosophy: The revolution in modern science. New York, USA: Harper & Row.
Heisenberg, W. (1979). Philosophical problems of quantum physics. Woodbridge, CT: Ox Bow Press.
Katsumori, M. (2011). Niels Bohr’s complementarity: Its
structure, history, and intersections with hermeneutics and
deconstruction. Dordrecht: Springer.
Kragh, H. (1999). Quantum generations: A history of
physics in the twentieth century. Princeton, NJ: Princeton
University Press.
Jaeger, G. (2013). Quantum objects: Non-local correlation, causality and objective indefiniteness in the quantum
world. New York, USA: Springer.
Levine, M. (2013, December 12). Double-Slit Science:
How Light Can Be Both a Particle and a Wave. Scientific
American. Retrieved from http://www.scientificamerican.
com/article/bring-science-home-light-wave-particle/. Accessed 6 August 2016.
Lindley, D. (2007). Uncertainty: Einstein, Heisenberg,
Bohr, and the struggle for the soul of science. New York,
USA: Doubleday.
Plotnitsky, A. (2012). Niels Bohr and complementarity:
An introduction. New York, USA: Springer.
Rae, A. I. (1986). Quantum physics, illusion or reality?.
Cambridge: Cambridge University Press.
Reichenbach, H. (1944). Philosophic Foundations of
Quantum Mechanics. Berkeley: University of California
Press.
Tipler, P. A. (1978). Modern physics. New York, USA:
Worth Publishers.
Turchi, G. P., & Orrù, L. (2014). Metodologia per l’analisi dei dati informatizzati testuali: Fondamenti di teoria
della misura per la scienza dialogica. Napoli: Edises
Weisskopf, V. F. (1979). Knowledge and wonder: The natural world as man knows it. Cambridge, Mass: MIT Press.
33
SCIENZE FISICHE E AMBIENTALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
Un’introduzione ai modelli
meteorologici e climatici
CLAUDIO CASSARDO1, NAIMA VELA2-3 E VALENTINA ANDREOLI2
1 Dipartimento di Fisica, Università di Torino “Alma Universitas Taurinorum” - Ewha Womans Univerity, Department of Atmospheric
Science and Engineering, Seoul, Korea - CINFAI, Consorzio Interuniversitario Nazionale per la Fisica dell’Atmosfera e dell’Idrosfera
2 Dipartimento di Fisica, Università di Torino “Alma Universitas Taurinorum”
3 Agenzia Regionale per la Protezione Ambientale (Piemonte), Dipartimento sistemi previsionali (Torino)
La meteorologia ed il clima hanno assunto un ruolo sempre più importante nella vita quotidiana negli ultimi anni. A
questo ha sicuramente contribuito il continuo sviluppo della
ricerca scientifica, che ha reso disponibili strumenti numerici
più accurati e sofisticati in grado di coadiuvare i previsori
e gli scienziati nell’interpretazione del tempo meteorologico
presente e futuro, e nella comprensione dei fattori
che determinano il clima terrestre. Contemporaneamente, lo sviluppo quasi esponenziale del web,
dei social network e di tutte le tecnologie di comunicazione moderne ha avuto l’effetto di inondare di prodotti il pubblico. Tuttavia, non è ancora
cresciuta di pari passo la consapevolezza necessaria, da parte del pubblico, per sapersi districare
nell’offerta eccessiva di prodotti, discriminando
tra le informazioni utili e quelle accessorie, o talora anche dannose. Il problema principale risiede
nell’incapacità, in generale, di sapere interpretare
le potenzialità ed i limiti di tale informazione. Il
presente articolo vuole essere una sorta di miniguida in tal senso che, partendo dalla letteratura
più recente, si propone di dare una spiegazione
minimale utile per valutare l’informazione meteorologica e
climatica ormai onnipresente nel mondo di internet.
1. METEOROLOGIA E CLIMA: CHE CONFUSIONE!
Non passa settimana che, parlando con la gente o sui media, non si senta affermare che fa freddo, o caldo, o piove
troppo, o troppo poco, e che il clima è cambiato. Regna una
gran confusione sull’uso dei termini meteorologia e climatologia, e dei concetti ad essi collegati, per cui è opportuno
fare chiarezza fin dall’inizio sulla differenza tra meteorologia e climatologia. Meteorologia è una parola di origine
greca (μετεωρολογικά, meteorologhica) coniata da Aristotele intorno al 340 a.C., usata come titolo di un suo libro
che presenta osservazioni miste a speculazioni sull’origine
34
dei fenomeni atmosferici e celesti. La parola greca μετέωρος
(meteoros) indica infatti genericamente oggetti “alti nel cielo”, cioè situati tra l’atmosfera e le stelle fisse, mentre il suffisso λογία (loghìa) indica che è un trattato. Nelle epoche
successive, il sostantivo meteorologia ha assunto il significato dell’insieme delle condizioni atmosferiche (quello che
noi fisici chiamiamo lo stato del sistema), date ad esempio
dai valori delle grandezze come temperatura, umidità, velocità e direzione del vento, precipitazione, ecc. osservate in
un preciso istante ed in una determinata località. La parola
clima, invece, deriva anch’essa dal greco (χλιμα) e significa
inclinazione e tendenza, in quanto originariamente era collegata all’inclinazione dei raggi solari rispetto alla verticale
e, per estrapolazione, agli effetti di questo fenomeno sulle
temperature. Oggigiorno, il clima rappresenta la statistica
condotta sul tempo meteorologico osservato in una data regione ed è riferito ad un intervallo di tempo che escluda le
ciclicità più evidenti che caratterizzano le variazioni del tempo meteorologico. Le normative dell’Organizzazione Meteorologica Mondiale (WMO) hanno suggerito come intervallo
di tempo un periodo di trent’anni, che rappresenta una sorta
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE FISICHE E AMBIENTALI
di compromesso tra la richiesta di un tempo molto lungo,
che tenda a mediare il più possibile le fluttuazioni, ed il fatto
che - soltanto da poco più di un secolo - sono disponibili
serie di osservazioni meteorologiche complete che possano
permettere la ricostruzione del clima. Spesso si sente dire
che, parlando di meteorologia e clima, anche se l’oggetto di
studio delle due discipline è lo stesso (l’atmosfera terrestre),
sono le differenti scale temporali a differenziare le due discipline. Questo è in realtà solo parzialmente vero, in quanto il
tempo meteorologico dipende prevalentemente dalle caratteristiche attuali dell’atmosfera (temperatura, umidità, vento,
composizione, ecc.), alcune delle quali possono essere ipotizzate costanti o quasi nel breve periodo di una previsione
meteorologica (alcuni giorni), mentre il clima risente anche
di fattori esterni all’atmosfera (distanza Terra-Sole, deriva
dei continenti, circolazione oceanica, la variazione dello stato della superficie terrestre, la composizione dell’atmosfera,
ecc.) che, sui tempi lunghi del clima, possono variare anche
in modo consistente, e le cui variazioni debbono quindi necessariamente essere tenute in considerazione.
2. LE SIMULAZIONI MODELLISTICHE IN
METEOROLOGIA
Il concetto di modello riveste oggi una grande importanza in tutte le discipline scientifiche, non solo nella fisica. Il
significato originario di modello è quello di riproduzione
materiale di un sistema fisico a una determinata scala di riduzione o espansione. Un modello matematico è costituito
generalmente da una o più equazioni in cui le singole variabili rappresentano le proprietà dei singoli elementi del sistema reale in studio. In questa prospettiva, il sistema reale può
essere scomposto in processi e interazioni fondamentali che
possono essere descritte da singole equazioni che vengono
inserite nel modello. In questo modo, la previsione numerica
del tempo può essere considerata come un’applicazione del
metodo sperimentale galileiano (Pasini, 2005) e, a causa della complessità e dell’unicità dell’atmosfera terrestre, e quindi
dell’impossibilità di condurre esperimenti reali, il computer
può essere visto come un laboratorio virtuale. In esso, lo
scienziato ha il controllo completo del sistema virtuale che
simula quello reale, e può effettuare o ripetere esperimenti
numerici, e modificare con estrema facilità gli elementi teorici del modello e le situazioni degli esperimenti stessi, per
esempio cambiando i valori delle variabili.
Premesse queste considerazioni, si può affermare che la
stessa dicotomia, di cui si è parlato prima, tra meteorologia
e clima, la si ritrova pari pari nei modelli meteorologici e
climatici. I modelli meteorologici standard sono sostanzialmente caratterizzati da un trattamento dinamico del solo sistema atmosferico, all’interno del più vasto sistema terrestre;
questo significa che le loro equazioni riguardano solamente
la dinamica dell’atmosfera, mentre l’interazione con gli altri sottosistemi viene normalmente fornita tramite forzanti e
condizioni al contorno. Nei modelli climatici, invece, visti i
tempi scala molto maggiori, è necessario simulare in modo
esplicito non solo il sistema atmosferico, ma anche gli altri
sistemi; per questo motivo, tali modelli vengono ora chiamati “modelli del sistema Terra”.
In ognuno dei due casi, è possibile sviluppare modelli numerici costituiti da uno o più sistemi accoppiati di equazioni
differenziali. Le variabili di queste equazioni hanno una corrispondenza nel sistema reale in grandezze misurabili. Così,
dando alcuni valori iniziali realistici a ciascuna variabile del
modello e impostando le condizioni al contorno, si possono
risolvere numericamente queste equazioni, ottenendo una
stima dei parametri termodinamici e dinamici più rilevanti in
atmosfera o nel sistema terrestre. Questo approccio fu utilizzato per la prima volta – con poco successo e grande fatica,
visto che i calcolatori elettronici non esistevano ancora – da
Richardson (1922), e successivamente ripreso da Charney
et al. (1950). Il successo di questo ultimo tentativo aprì la
strada all’uso del computer elettronico per le previsioni meteorologiche.
Un modello meteorologico1 è costituito da una serie di
equazioni differenziali prognostiche per le principali variabili meteorologiche (velocità del vento, temperatura, umidità
e pressione), che includono le equazioni della conservazione
di quantità di moto, energia e acqua, e l’equazione di stato, alle quali si aggiungono delle equazioni semplificate che
tengono conto di tutta una serie di fenomeni che avvengono
a scale troppo piccole rispetto alla risoluzione del modello.
Inoltre, con il continuo aumento della potenza dei computer,
le equazioni utilizzate sono diventate via-via più complete
nel tempo, ed anche la loro risoluzione è gradualmente aumentata. Solo per illustrare un esempio, nel 1979, anno in cui
fu creato il Centro europeo per le previsioni meteorologiche
a medio termine (ECMWF) a Reading, la risoluzione tipica
delle uscite del primo modello era di circa 120 km, mentre
attualmente si aggira sui 10 - 11 km. Un altro componente
molto importante della catena previsionale modellistica che
è notevolmente migliorata nel tempo è l’inizializzazione dei
dati necessaria al modello per il suo funzionamento. Non c’è
pertanto da stupirsi se, conseguentemente, l’errore quadratico medio tra i campi previsti e le osservazioni meteorologiche è diminuito progressivamente, con valori di correlazione
che ormai arrivano al 95-97% per il terzo giorno di previsione (CSAEOS, 2008). Modelli come l’IFS (Integrated Forecasting System) che gira all’ECMWF, o il GFS (Global
Forecasting System) sviluppato dal National Weather Service (NWS) della National Oceanic and Atmospheric Administration (NOAA), sono chiamati globali, e sono noti in
gergo come General (o Global) Circulation Models (GCM),
in quanto “girano” sull’intero globo terrestre. La configurazione corrente dell’IFS è O1280L137, che corrisponde ad
1 Qui si fornisce una sintetica disamina delle principali caratteristiche dei
modelli numerici di uso in meteorologia e nelle scienze del clima. Per una
discussione più completa, si rimanda ad esempio ad alcuni blog tematici,
come “Che cosa sono i modelli meteorologici?”, “Le misure necessarie
per l’inizializzazione dei modelli per la previsione del tempo” e “L’interpretazione dei prodotti dei modelli meteorologici” (reperibili su https://
claudiocassardo.wordpress.com/).
35
SCIENZE FISICHE E AMBIENTALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
una distanza orizzontale tra punti griglia
di 0.1° di risoluzione orizzontale in latitudine e longitudine (pari a circa 10 km
alle nostre latitudini) e 137 livelli verticali. Questo significa che, sul globo, ci
sono circa ottocentoottantotto milioni
di punti griglia. Su ognuno di tali punti
griglia vengono risolte tutte le equazioni ad ogni time step (normalmente di
qualche secondo), le quali necessitano di
dati di input che debbono essere forniti
anch’essi su ogni punto griglia, a partire
dalle osservazioni (ci sono meno di mille
stazioni di radiosondaggio verticale che Fig. 1 – Esempio di una catena modellistica: per avere una previsione a scala locale, per esempio relativa
operano due volte al giorno, e qualche ad una o più province, si usano le uscite di un GCM per inizializzare un LAM, e a cascata eventualmente
altri LAM fino ad arrivare al dettaglio desiderato.
decina di migliaia di stazioni meteo che
inviano regolarmente i loro dati alla rete
meteorologica mondiale), con opportuni algoritmi interpo- analiticamente non risolvibili – i sistemi non lineari mostrano spesso un comportamento straordinariamente complesso
lativi.
Non tutti i modelli meteorologici considerano l’intera at- e caotico. Tale fenomeno è attualmente ben noto (Lorenz,
mosfera terrestre. Per ottenere una risoluzione maggiore, 1972) e caratterizza tutti i GCM, rendendo di fatto imposesistono altri modelli, detti ad area limitata (Limited Area sibile l’effettuazione di previsioni meteorologiche precise
Models, o LAM) oppure alla mesoscala, che studiano soltan- a lungo termine. Si noti che uno può sempre eseguire una
to una porzione di atmosfera, normalmente limitata ai bordi simulazione che duri diversi mesi ed analizzarne i risultalaterali. Il vantaggio di questi modelli è che possono, a parità ti; il problema è che tali risultati diventano completamente
di risorse di calcolo, dettagliare maggiormente la previsione, svincolati dall’andamento reale dopo alcuni giorni, per cui
risolvendo anche processi a scala più piccola del grigliato dei non hanno alcuna utilità dal punto di vista della previsione
modelli globali. Il calcolo è presto fatto: partendo dal numero del tempo.
L’impossibilità di stabilire, a priori, l’esattezza di una predi punti griglia del modello globale GFS e immaginando di
farlo girare su un’area comprendente l’Europa (per esempio visione affidandosi ad un’unica previsione deterministica ha
nel “rettangolo” compreso tra le latitudini 30°N e 75°N, e portato a sviluppare una nuova tecnica di previsione nella
le longitudini 30°O e 45°E), si ottiene che, imponendo lo quale si integrano simultaneamente più stati dell’atmosfera
stesso numero di punti griglia del modello globale, essi ri- caratterizzati da condizioni iniziali che differiscono di poco
sulterebbero spaziati di poco più di due chilometri. E infat- l’una dall’altra. Con questa nuova tecnica, nota con il nome
ti i LAM più risoluti oggigiorno ormai hanno proprio passi di ensemble predictions (previsioni di insieme), lo scenario
griglia dell’ordine di 1 km, o anche meno. Naturalmente, meteorologico previsto è quindi legato alla frequenza con cui
i LAM necessitano dei dati al contorno sui loro bordi, per il pattern atmosferico ricorre nella gamma di tutte le previcui debbono essere fatti “girare” dopo i GCM per usarne le sioni calcolate. Tale sistema diventa particolarmente utile nei
loro uscite. Con la disponibilità di questo tipo di prodotti, è casi in cui si verifichino transizioni nei regimi meteorologici
possibile avere previsioni meteorologiche di alta precisione a che i modelli prevedono con maggiore difficoltà.
In pratica, si eseguono diverse simulazioni con i GCM pergrande scala e anche previsioni accurate alla mesoscala e alla
scala locale (Fig. 1). Pertanto, in linea di principio, può esse- turbando le condizioni iniziali di una corsa di riferimento, e
re possibile fornire alcune segnalazioni nel caso in cui alcuni si analizzano gli andamenti risultanti. Indagando lo spazio
eventi estremi o pericolosi siano previsti a medio termine. dei possibili risultati a partire da un dato stato iniziale (incerto), le previsioni di insieme permettono quindi ai previsori di
Torneremo a breve su questo tema.
valutare i possibili risultati stimandone le possibilità di acca3. QUANTO SONO ATTENDIBILI LE PREVISIONI DEI
dimento, e quindi di comunicare i possibili rischi agli utenti.
MODELLI METEOROLOGICI?
Sottolineiamo qui la frase “permettono ai previsori di …“: il
ruolo degli esperti nell’interpretare le previsioni e spiegarLe equazioni che regolano la dinamica atmosferica o dei ne gli eventuali rischi correlati rimane fondamentale anche
fluidi sono non lineari. In un sistema non lineare, non è sod- nell’epoca dei modelli numerici, in cui si potrebbe credere di
disfatto il principio di sovrapposizione: cioè, non è vero che essere in grado di realizzare un centro meteo, o addirittura un
l’output sia proporzionale all’input. Oltre che a essere diffi- servizio meteorologico, semplicemente assemblando le uscicili da risolvere – nel caso delle equazioni che regolano la te dei modelli fatti girare da altri, senza la necessità di persodinamica atmosferica, basate sulle equazioni di Navier-Sto- ne qualificate che ne interpretino le uscite. Al giorno d’oggi,
kes per il flusso del fluido atmosferico, esse sono addirittura i vari centri meteorologici fanno ampio uso delle previsioni
36
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE FISICHE E AMBIENTALI
nee rosse così come la previsione deterministica, ma
siano “distanti” tra loro.
Normalmente i risultati
delle previsioni di insieme
sono sintetizzati in grafici
(Fig. 2) o mappe bidimensionali (Fig. 3), che in gergo vengono chiamati “spaghetti plot”. L’analisi della
Fig. 3 mostra già chiaramente da sola come debbano poi interpretarsi le mapFig. 2 – Esempio di una serie temporale delle integrazioni numeriche relative alle previsioni di insieme del modello IFS
pe previsionali alla luce
dell’ECMWF per la temperatura superficiale su Londra. Le due mappe si riferiscono esattamente a un anno di distanza l’una
dall’altra. In ogni mappa, la linea continua nera spessa indica la previsione deterministica del modello, mentre la tratteggiata
delle informazioni aggiunblu indica le osservazioni. In rosso sono invece indicate le previsioni dei vari run ottenuti perturbando le condizioni iniziali
(previsioni di ensemble). Grafico adattato dalle previsioni fornite dall’ECMWF.
tive fornite dagli spaghetti
plot. È importante capire,
in primo luogo, che le predi insieme, che vengono affiancate alle previsioni determini- visioni non hanno dappertutto lo stesso grado di attendibilità.
stiche. La tecnica è stata applicata per la prima volta nel 1992 Ad esempio, guardando gli spaghetti plot di Fig. 3, il tempo
sulla Groenlandia occidentale appare incerto già dal martesia all’ECMWF, sia al NCEP.
A titolo di esempio, mostriamo (Fig. 2) due previsioni del- dì 22 (secondo giorno di validità della previsione), mentre
la temperatura a 2 metri dal suolo per Londra, a partire dal 26 sul Regno Unito si comincia a notare una divergenza delle
giugno di due anni consecutivi, 1994 e 1995. Le curve rosse isoipse soltanto nel giorno di venerdì 25 (quinto giorno). È
sottili mostrano i singoli membri di una previsione di insie- comunque chiaro che la significatività delle tre ultime mapme. La diffusione delle previsioni appare molto diversa nei pe, relative ai giorni da domenica 27 aprile (settimo giorno)
due casi, pur trattandosi dello stesso giorno dell’anno (quindi in poi, è assolutamente nulla e non consente alcun tipo di
stessa stagione, nella stessa località). Questo dimostra che previsione oggettiva. Dovrebbe quindi apparire abbastanza
alcune condizioni iniziali sono più prevedibili di altre: in un chiaro, a questo punto, come gli spaghetti plot e, in generale,
caso si ha una dispersione delle previsioni del modello molto i prodotti delle previsioni di insieme, possano consentire di
elevata, nell’altro no. Si nota anche come, in entrambi i casi, attribuire un indice di affidabilità alla previsione. È infatti
le osservazioni reali si trovino all’interno del fascio delle li- importante essere a conoscenza del fatto che una previsione
meteorologica non è mai, e non potrebbe mai
neppure esserlo, assimilabile ad una certezza, ma rappresenta uno scenario evolutivo
più o meno probabile, a seconda di quanto
lontano si va nel tempo, allo stesso modo di
come un dottore che fa una diagnosi dello
stato di un paziente, emette poi una prognosi relativa all’evoluzione più probabile (ma
mai certa) della sua patologia.
Da ultimo, vorrei aggiungere che la discussione precedente ha riguardato i modelli
globali, poiché normalmente sono questi ad
essere fatti girare per lungo tempo (fino a 15
giorni). Si potrebbe pensare che un modello
a mesoscala o locale, avendo un grigliato più
fitto, possa consentire una notevole riduzione degli errori e quindi possa superare questo
problema. La realtà dimostra che non è così,
in quanto gli errori dovuti all’interpolazione
delle uscite del GCM sui bordi del grigliato
del LAM si propagano rapidamente all’interno nel tempo, ed è questo il motivo per cui
raramente le corse dei modelli alla mesoscaFig. 3 – Esempio di spaghetti plot relativi alle altezze di geopotenziale a 500 hPa previste dalle
previsioni di ensemble del modello GFS girato il 20 aprile 2014 alle 06 UTC. Fonte: wetterzentrale.de.
la o LAM si estendono oltre i 3-5 giorni.
37
SCIENZE FISICHE E AMBIENTALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
4. I MODELLI CLIMATICI
modelli, in modo da arrivare ad una determinazione delle caratteristiche climatiche di quella zona.
In questo nuovo contesto, quindi, il caos deterministico
che affligge le previsioni meteorologiche non è più un problema. Al contrario, esso descrive quella variabilità che rende possibile il realizzarsi di una statistica di stati diversi, e
dunque permette di poter determinare il clima. Naturalmente, diventa necessario verificare se effettivamente uno o più
modelli riescono a ricostruire le caratteristiche principali del
clima: questo lo si può ovviamente fare soltanto con il clima
passato e presente, in quanto si possono usare i dati osservati,
ed è stato effettivamente fatto per i GCM e anche alcuni modelli a scala regionale sul passato recente (generalmente gli
ultimi 150 anni: Fig. 4). Inoltre, dal momento che è possibile
effettuare esperimenti alterando a piacere i dati di ingresso di tali modelli, sono state anche eseguite delle analisi di
causalità, in modo da valutare le forzanti più importanti del
recente cambiamento climatico (Fig. 4). Una volta appurato
che i risultati di tali controlli sono soddisfacenti, il modello
può essere applicato alla previsione sul futuro, ovviamente
fornendo i valori delle forzanti e delle condizioni al contorno
sul periodo di interesse. Dal momento che le concentrazioni
future di gas serra sono il prodotto di sistemi dinamici molto
complessi, determinati da forze motrici come l’espansione
demografica, lo sviluppo economico delle varie nazioni, lo
sviluppo tecnologico, la disponibilità di materie prime e risorse, e tante altre, che determinano le emissioni future, è
evidente che la loro evoluzione futura è molto incerta. A
partire dall’ultimo decennio dello scorso secolo, i climatologi hanno quindi sviluppato dei modelli che prevedessero
valori realistici delle emissioni di gas serra, in modo da po-
Come abbiamo visto, nei modelli meteorologici il sistema
che viene descritto dinamicamente è l’atmosfera, mentre nei
modelli climatici o del sistema Terra, che hanno lo scopo di
prevedere le condizioni climatiche su un periodo molto più
lungo (da un trentennio a un secolo, o ancor più), tutto ciò
che sta alla sua interfaccia, e che può influenzarne il comportamento, non può essere considerato costante, in quanto i sottosistemi hanno delle loro dinamiche che interagiscono con
la dinamica dell’atmosfera in modo complesso; un esempio
tipico è l’interazione atmosfera-oceano. In questi modelli climatici, i vari sottosistemi vengono descritti nelle loro dinamiche interne e nelle reciproche interazioni mediante sistemi
di equazioni accoppiate. La tendenza nello sviluppo di questi
modelli, che sono curiosamente anch’essi noti con l’acronimo di GCM (Global Climate Model), è quella di inserire il
maggior numero di sottosistemi nella descrizione dinamica
interagente, in modo da riprodurre realisticamente i maggiori
feedback. I modelli climatici attuali riescono a descrivere le
dinamiche accoppiate di atmosfera, oceani, ghiacci, litosfera,
vegetazione, e anche le principali reazioni chimiche, mentre le influenze umane sono ancora in gran parte considerate
come fattori esterni.
Una domanda che spesso si sente porre è la seguente: dal
momento che il disegno di questi modelli climatici ricalca lo
schema deterministico dei modelli meteorologici, e che si è
visto come questi ultimi non sono in grado di fornire soluzioni deterministiche valide per più di 10-15 giorni, come si può
pretendere di ricostruire o prevedere il clima di un trentennio
o più? La risposta a questa domanda risiede nella definizione
statistica di clima. Come detto sopra, il clima di
una determinata zona comprende l’insieme delle
condizioni fisiche e meteorologiche che si verificano in un certo arco di tempo (almeno 30 anni,
come prescrive l’Organizzazione Meteorologica
Mondiale). Più precisamente, per definire il clima occorre valutare i valori medi e la variabilità
(ad esempio, in termini di deviazioni standard ed
eventi estremi) di una serie di grandezze, come
la temperatura e le precipitazioni. Il clima, dunque, è descritto dall’analisi statistica dei dati
che si possono estrarre dall’insieme delle realizzazioni degli stati del tempo meteorologico in
una data zona e in un certo periodo. Per questo
motivo, anche se i modelli climatici forniscono
delle uscite, per quanto riguarda l’atmosfera, assimilabili a quelle di un modello meteorologico,
è il modo di utilizzarle che cambia: non si deve
più guardare ai singoli valori previsti, che corrispondono allo stato del tempo in un determinato Fig. 4 – Validazione ed analisi di causalità a livello globale e continentale mediante l’integrazione
di diversi modelli climatici sull’ultimo secolo. La linee nere mostrano gli andamenti osservati
istante ed in una certa zona, perché tanto si sa delle temperature nell’ultimo secolo; le fasce rosa indicano le ricostruzioni ottenute dalle
corse di vari modelli che utilizzano solo le variazioni reali delle forzanti naturali, mentre le
che essi non sono deterministicamente attendi- fasce azzurre indicano le ricostruzioni ottenute utilizzando anche i dati reali delle forzanti
I risultati mostrano come le sole forzanti naturali non riescano a spiegare il
bili, ma si deve valutare la statistica, in termini antropogeniche.
comportamento reale delle temperature e come, pertanto, le cause antropogeniche siano state
nel determinare l’andamento termico dell’ultimo secolo, in modo particolare
di medie e variabilità per grandezze rilevanti dal fondamentali
in relazione all’ultimo trentennio del secolo (figura tratta dal Summary for Policymakers del
Working
Group
I dell’IPCC: disponibile online al sito www.ipcc.ch).
punto di vista climatico, sulle uscite di uno o più
38
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE FISICHE E AMBIENTALI
ter valutare le concentrazioni risultanti in atmosfera e poter
conseguentemente inizializzare i modelli climatici. Hanno
scelto di ipotizzare diverse famiglie di scenari di emissioni
corrispondenti a diversi gradi di sviluppo, denotati con delle
lettere (A1, A2, B1, B2, ecc.). Tali scenari sono immagini
alternative di come il futuro potrebbe svolgersi e sono uno
strumento adeguato con cui analizzare come le summenzionate forze motrici potrebbero influenzare le emissioni future;
essi sono pertanto strumenti indispensabili per le analisi sul
cambiamento climatico, compresa la modellistica del clima,
per valutarne le incertezze associate e gli impatti, e per impostare le strategie di adattamento e mitigazione più opportune.
Più recentemente, i climatologi hanno preso in considerazione, tra tutti gli scenari possibili, una famiglia di curve,
denotate con il nome di “percorsi di concentrazione rappresentativi” (RCP, acronimo di Representative Concentration
Pathways), che rappresentano andamenti possibili delle concentrazioni (non emissioni) di gas serra nel XXI secolo che,
alla luce delle simulazioni dei principali modelli climatici attualmente disponibili, potrebbero comportare valori specifici
della forzante radiativa da gas serra. Tali valori, adottati poi
anche dall’IPCC nella quinta relazione di valutazione (IPCC,
2013), sono stati chiamati RCP2.6, RCP4.5, RCP6 e RCP8.5
(Weyant et al., 2009) in quanto richiamano quattro possibili
valori di forzante radiativa nel 2100 rispetto ai livelli preindustriali: valori (2.6, 4.5, 6.0, e 8.5 W m-2, rispettivamente). Sono questi gli scenari usati nell’ultimo rapporto IPCC
(2013).
5. LA GESTIONE DEL RISCHIO
Oggi, il più delle volte, le persone ritengono poco probabili gli eventi estremi (ondate di caldo e freddo, alluvioni
e siccità, ma anche cicloni tropicali, grandinate, tempeste
di vento, ecc.), e la percezione di questo rischio è piuttosto
debole. Tuttavia, l’evidenza recente e le prospettive future
fanno paventare una crescita della loro intensità e frequenza, per effetto dei cambiamenti climatici in corso e previsti.
Una conseguenza possibile potrebbe essere la diffusione di
un senso di panico, di ansia sociale, che non aiuterebbe certo
a compiere azioni razionali. L’opzione contraria, però, ovvero sottovalutare i rischi, potrebbe avere d’altra parte conseguenze ancora più tragiche o quantomeno onerose in termini
economici e di fatalità.
Come trovare un giusto equilibrio tra I due stati opposti di
ottimismo ingiustificato e ansia perenne? La strada maestra
consiste nella preparazione di un sistema che possa rendere
i cittadini pronti e nello stesso tempo fiduciosi nelle proprie
capacità di reagire agli eventi, poiché questo circolo virtuoso aumenterebbe la sensazione di controllo sugli stessi e ridurrebbe l’incertezza cognitiva. Infatti, pur confidando in un
miglioramento futuro dei sistemi di previsione, la complessità e non linearità del sistema atmosferico lascerà sempre un
margine di incertezza non eliminabile: le previsioni saranno,
intrinsecamente, di tipo probabilistico sia per quanto concerne la localizzazione spazio-temporale degli eventi che per la
loro intensità.
Il rischio di mancati o falsi allarmi non è azzerabile, ma
si potrà superare realizzando e condividendo procedure di
gestione delle allerte molto chiare, che tengano conto delle
incertezze. Cosa fare o cosa non fare dovrà essere invece dedotto dal risultato di analisi costi/benefici, e non sulla base di
azioni improvvisate o dettate “dalla pancia”. Nello specifico
e per quanto riguarda specificatamente il nostro Paese, considerato l’attuale rischio idrogeologico, già di per sé molto
elevato, e la minaccia di un suo ulteriore innalzamento a causa dei cambiamenti climatici, occorrerà quindi predisporre e
attivare piani di protezione civile o di emergenza, nazionali e
decentrati, con procedure chiare e definite anche nel processo di comunicazione, che è assolutamente complementare a
tutta la gestione operativa, come confermato più volte dalle
recenti esperienze di eventi estremi in Italia2.
6. BIBLIOGRAFIA
CHARNEY J.G., FJORTOFT R., and VON NEUMANN
J., “Numerical integration of the barotropic vorticity
equation”, Tellus, 2, pp. 237-254, 1950.
CSAEOS (Committee on Scientific Accomplishments of
Earth Observations from Space), Earth Observations from
Space: The First 50 Years of Scientific Achievements, The
National Academies Press, Washington D.C., 144 pp., 2008.
IPCC, Climate Change 2013: The Physical Science Basis.
Contribution of Working Group I to the Fifth Assessment
Report of the Intergovernmental Panel on Climate Change
[Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K.
Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M.
Midgley (eds.)], Cambridge University Press, Cambridge,
United Kingdom and New York, NY, USA, 1535 pp,
doi:10.1017/CBO9781107415324, 2013.
LORENZ E.N. (1972). Predictability: does the flap of
a butterfly’s wings in Brazil set off a tornado in Texas?
139th Annual Meeting of the American Association for
the Advancement of Science (29 Dec 1972), in Essence of
Chaos (1995), Appendix 1, 181.
PASINI A., From Observations to Simulations. A
Conceptual Introduction to Weather and Climate Modelling,
World Scientific Publishers, Singapore, 216 pp., 2005.
RICHARDSON L.F., “Weather Prediction by Numerical
Process”,Cambridge Univ. Press, Cambridge, 236 pp., 1922.
WEYANT J., AZAR C., KAINUMA M., KEJUN J.,
NAKICENOVIC N., SHUKLA P.R., LA ROVERE E.,
YOHE G., Report of 2.6 Versus 2.9 Watts/m2 RCPP
Evaluation Panel, Geneva, Switzerland, IPCC Secretariat,
81 pp., 2009.
2 Si suggerisce, a questo proposito, la lettura del blog “La gestione dei
rischi in un clima mutato – parte III – le criticità” (su www.climalteranti.it),
da cui sono anche tratte alcune informazioni riportate in questo paragrafo.
39
SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
L’Educazione alla Teatralità: le nuove
indicazioni ministeriali
GAETANO OLIVA
Facoltà di Scienze della Formazione. Dipartimento di Italianistica e Comparatistica, Università Cattolica del Sacro Cuore di Milano
L
INDICAZIONI MINISTERIALI
e nuove indicazioni strategiche per l’utilizzo
didattico delle attività teatrali a scuola a.s.
2016-2017 presentate a Roma il 16 marzo
2016 in relazione alla Legge 13 luglio 2015,
n. 107, la c.d. “Buona Scuola” crea
l’occasione storica per ri-pensare all’educazione
teatrale e al suo rapporto con la scuola di ogni ordine e grado. La prima grande novità sono appunto
le indicazioni strategiche nelle quali il legislatore
pone l’accento sul rapporto tra l’attività didattica e
quella teatrale:
rispondere ai bisogni educativi dei giovani in modo adeguato alla realtà nella quale dovranno inserirsi […]. Per la prima volta nel panorama
della legislazione scolastica il legislatore ha introdotto una norma di
rango primario afferente le attività didattiche comunque connesse al
Teatro. In particolare, il comma 180 ribadisce il ruolo del MIUR nel
fornire alle scuole indicazioni per introdurre il Teatro a Scuola.2
La connessione tra due realtà specifiche quali la scuola ed
il teatro costituisce una spinta verso un rinnovamento nel
modo di realizzare l’insegnamento e l’apprendimento per
quello che riguarda l’ambito scolastico, in cui si ritrova
una costante tendenza alla chiusura ed alla settorialità delle materie e degli studi, e contemporaneamente si propone
di favorire una diffusione della cultura teatrale che troppo
spesso appare sconosciuta o lontana dalla maggior parte
delle persone.1
Con le nuove indicazioni ministeriali l’Educazione alla Teatralità entra definitivamente a far parte dell’offerta didattica delle scuole italiane di ogni ordine e grado facendogli ottenere piena cittadinanza nel bagaglio formativo
degli studenti.
Il valore educativo delle esperienze didattiche con gli spettacoli artistici, fatto valere dagli studi della Facoltà delle Scienze dell’Educazione, e gli obiettivi definiti dalle Conferenze mondiali sull’Educazione
L’Educazione alla Teatralità esce per la prima volta dalla
sperimentazione estemporanea, sia pure creativa, culturalmente interessante e diventa a tutti gli effetti parte integrante
del curricolo senza peraltro escludere le possibilità in orario
extrascolastico ma svolte in ambiente scolastico. Questa necessità era ormai da qualche tempo affermata da pedagogisti, insegnanti, educatori alla teatralità e pedagogisti teatrali;
come afferma Cristiano Zappa:
artistica, promosse dall’UNESCO, ha impegnato gli Stati membri, e
quindi l’Italia, a progettare ed eseguire programmi di alto livello per
1 Gaetano Oliva, Il teatro nella scuola, Milano, LED, 1999, p. 13.
40
2 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle
attività teatrali. a.s. 2016-2017. Parte prima. Paragrafo 1. Cfr., Legge 13
luglio 2015, n. 107, la c.d. “Buona Scuola”.
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA FORMAZIONE
Il teatro che entra – e deve entrare – oggi nella storia, lo fa a pieno
arricchire i suoi metodi e le formule, ed è indiscusso ormai che l’arte
titolo, non è un riempitivo o un’aggiunta a quelle che sono le attività
drammatica, il teatro di per sé, costituisca un efficace mezzo d’edu-
proprie del curricolo scolastico, né può essere ricondotto ad una visio-
cazione perché fa appello all’individuo intero, alla sua profondità e
ne di disciplinarietà settoriale o tanto meno può essere assimilabile ad
ai suoi valori. Gli indirizzi pedagogici dell’ultimo cinquantennio si
un’occasione di spettacolarizzazione.3
sono orientati verso una più approfondita conoscenza del ragazzo e
dell’adolescente, prendendo in considerazione la libera espressione
La stesse indicazioni riconoscono l’importanza degli studi
delle Facoltà di Scienze dell’Educazione nell’aver contribuito a dimostrare l’importante valore pedagogico e didattico
del teatro. A questo proposito è indicativo il paragrafo 4 in
cui si esplicita il valore pedagogico e didattico del teatro:
della loro carica di fantasia, di emotività e di sensibilità in determinate
forme di ricreazione. La rappresentazione teatrale svolta da ragazzi e
per i ragazzi, si è dimostrata come quella più ricca di indicazioni per
psicologi, pedagogisti e per gli educatori. Essa consente di seguire il
ragazzo nelle manifestazioni e diversi sviluppi della sua personalità,
e consente di offrire ai ragazzi mezzi di espressione più completi a
La scuola ha un indiscusso ruolo chiave per lo sviluppo delle giovani
vantaggio della formazione del loro carattere e del loro senso sociale,
generazioni. L’istituzione scolastica ha la responsabilità di formare
culturale e artistico. Se si vuole creare un ambiente favorevole allo
persone responsabili, ricche sul piano culturale e umano, capaci di
sviluppo di queste tendenze, si deve proporre ai ragazzi delle attività
rinnovare e sviluppare nuove alleanze tra l’uomo e l’ambiente, nella
che corrispondano ai loro interessi, desideri e bisogni. L’arte dram-
prospettiva di un cambiamento sostenibile. Il profilo formativo delle
matica in questo senso è l’attività più adatta all’esprimersi dell’in-
giovani generazioni è una variabile dalla quale dipende la qualità del
dividuo, poiché risponde alle manifestazioni spontanee dell’anima
futuro. L’arte, è una delle forme più complesse e autentiche con cui
infantile ed è quella che meglio può aiutarlo. Si deve riconoscere al
l’uomo, in ogni epoca, fin dai primordi, si è espresso e ha cercato
teatro la titolarità di luogo educativo.5
risposte. Le arti dello spettacolo, dunque, data la loro rilevanza pedagogica, se utilizzate in funzione didattico-educativa, sono tanto più
efficaci quanto più le scuole saranno consapevoli delle ragioni di que-
Le indicazioni ministeriali mettono tutto ciò in perfetta
evidenza.
sta scelta rispetto all’evoluzione storica e ai nuovi bisogni educativi.
I ragazzi, oggi più che mai, hanno bisogno di scoprire e condividere
Inoltre, ci si aspetta che le esperienze artistiche, condotte in modo
valori e di interagire con i coetanei e con gli adulti, e hanno altresì bi-
mirato ai bisogni degli allievi, favoriscano lo sviluppo della loro per-
sogno di sentire gli altri, anche se diversi, come una risorsa. Un senti-
sonalità e contribuiscano alla soluzione o contenimento o prevenzione
re, questo, possibile se essi accolgono e riconoscono le differenze e le
di conflitti personali e di gruppo. In questa prospettiva è più probabile
specificità dell’altro, in termini di cultura, censo, religione... Si tratta
che si possa realizzare quell’ideale di un sapere costruito nell’interre-
di uno spazio educativo che deve essere opportunamente costruito e
lazione teoria/prassi/teoria che può rendere la scuola un luogo privile-
4
valorizzato.
L’attività teatrale, infatti, rivela attitudini potenziali degli
individui, li accomuna, lì conduce all’aiuto reciproco, promuove il senso sociale; essa favorisce la libera espressione
della persona e soprattutto, le capacità di rispondere in modo
creativo agli stimoli prodotti dall’ambiente culturale in cui
vive. È importante che i ragazzi a scuola siano messi in grado di comprendere il linguaggio teatrale, poiché si ritiene
l’Educazione alla Teatralità, un elemento indispensabile alla
formazione di una libera e armonica personalità umana; esso,
infatti, può aiutare gruppi e persone a riscoprire il piacere di
agire, di sperimentare forme diverse di comunicazione favorendo una crescita della propria personalità. Il teatro, nel
definirsi educativo:
[…] vuole recuperare la dimensione di rito e di spazio per la ricerca
della propria identità, affinché diventi occasione per la conquista di sé
giato della Ricerca-Azione.6
Le indicazioni ministeriali riprendono e superano i precedenti protocolli e le vecchie linee istituzionali e normative
portando a compimento il lavoro svolto dagli anni Settanta
in poi e culminato nel primo Protocollo d’intesa stipulato
il 6 settembre 1995 tra il Ministero della Pubblica Istruzione, la Presidenza del Consiglio dei Ministri – Dipartimento dello Spettacolo e l’Ente Teatrale Italiano. Attraverso
questo primo documento si era riconosciuta “l’educazione
al teatro come un elemento fondamentale nella formazione
dei giovani”; ma senza farlo entrare a pieno titolo nell’apprendimento educativo. In questo senso le indicazioni sono
innovative: esse collocano il teatro nella scuola riconoscendo
in modo definitivo la relazione tra dinamiche espressivo-teatrali e processo di apprendimento e di crescita della persona.
Sull’importanza dell’educare al teatro nella scuola Cesare
Scurati afferma:
e per la costruzione di relazioni; si tratta di un percorso individuale
in un lavoro di gruppo. L’educazione ha costantemente bisogno di
- rappresenta un’opportunità rilevazione e rivelazione del potenziale
espressivo dei ragazzi;
3 Enrico M. Salati, Cristiano Zappa, La pedagogia della maschera.
Educazione alla teatralità nella scuola, Arona, Editore XY.IT, 2011, p.
20.
4 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle
attività teatrali. a.s. 2016-2017. Parte prima. Paragrafo 4: Valore
pedagogico e didattico del teatro
5 Gaetano Oliva, La funzione educativa del teatro, in “Scienze e
Ricerche”, n. 21, 15 gennaio 2016, pp. 53-54.
6 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle
attività teatrali. a.s. 2016-2017. Parte prima. Paragrafo 3: Effetti
dell’attuazione delle linee guida.
41
SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
- consente un’esplorazione approfondita dei testi in vista della loro rappresentazione;
didattica in modo da garantire un reale accesso formativo al
ragazzo che lo incontri a scuola.
- è un laboratorio spontaneo di ricerca centrato sui processi di lavori resi
significativi in vista del prodotto conclusivo (congruenza motivazio-
La scuola non può più essere soltanto considerata un soggetto che
nale tra prodotto e processo);
si occupa esclusivamente della trasmissione di contenuti, ma si deve
- modifica la strutturazione usuale dei rapporti di devianza e alterità,
far carico di altre responsabilità di ordine etico-sociale, insieme allo
valorizza anche coloro che non hanno altre opportunità per aver suc-
sviluppo delle abilità e delle competenze cognitive e alla formazione
cesso e rendersi visibili;
integrale degli alunni (non puramente intellettuale, ma anche fisica,
- rende evidenti caratteri di disponibilità degli adulti al di là delle competenze disciplinari formai;
- attenua i conflitti, fa sperimentare la solidarietà, riduce la competitività;
emotiva, razionale, spirituale), quella valorizzazione della dimensione
sociale ed educativa, quella formazione dell’uomo e del cittadino che
costituiscono un fondamentale riferimento della Costituzione repubblicana.10
- evidenzia territori linguistici non stereotipati, può modificare il clima
istituzionale, consente la verifica immediata degli sforzi e dei processi;
- può aiutare a scoprire il proprio io, suscita la questione dell’unità del
progetto, è sensibile alle problematiche dei valori educativi;
- è una vera e propria palestra delle emozioni, un luogo della costruzione dell’immagine di sé di fronte a se stesso e agli altri, che consente di
Si è riscontrato come la fruizione e la pratica teatrale possano contribuire fortemente allo sviluppo e al rinforzo delle capacità intellettive e critiche dell’individuo, all’arricchimento
delle sue emozioni, offrendo nuove occasioni che stimolano
il suo bisogno espressivo in situazioni di partecipazione e di
collaborazione sociale.
socializzare (modulare e controllare) il proprio mondo emotivo;
- soddisfa la necessità di ricomporre la frammentazione del sociale con-
L’ESPERIENZA TEATRALE
sentendone l’autorappresentazione e diventando quindi uno spazio
forte delle relazione profonde fra i soggetti.7
Per garantire queste numerose e complesse possibilità,
però, è necessario che la scienza dell’educazione interagisca
a stretto contatto con il teatro definendo che “cosa” e “come”
quest’ultimo debba interagire nella scuola riguardo ai percorsi formativi:
La scuola nella sua ricerca continua della qualità dell’istruzione deve porsi al centro di un processo culturale. Da
un punto di vista didattico – anche grazie alle arti espressive, essa deve porre «al centro del processo di apprendimento
l’allievo ovverosia il suo talento, il suo pensiero, le sue emozioni. In sintesi: la sua individualità»11; in quest’ottica
il teatro non deve essere considerato fine a se stesso, ma deve svilup-
Con l’introduzione del nuovo dettato normativo, l’attività teatrale
pare un’attività che si ponga come fine ultimo uno scopo educativo di
abbandona definitivamente il carattere di offerta extracurricolare ag-
formazione umana e di orientamento, credendo incondizionatamente
giuntiva e si eleva a scelta didattica complementare, finalizzata a un
nelle potenzialità di ogni individuo: si tratta, in sostanza, di supportare
più efficace perseguimento sia dei fini istituzionali sia degli obiettivi
la persona nella presa di coscienza della propria individualità e nella
curricolari [...]. È dunque il teatro che deve essere adattato alla scuola
riscoperta del bisogno di esprimersi di là delle forme stereotipate.12
e non viceversa. Infatti, diversamente opinando si correrebbe il rischio
di perdere di vista il suo valore didattico, pedagogico ed educativo che
consiste e contribuisce a mettere in atto un processo di apprendimento
che coniuga intelletto ed emozione, ragione e sentimento, pensiero
logico e pensiero simbolico.8
Se il teatro è pedagogia9 è necessario che questo connubio sia ancor più studiato delineando nella sua scientificità,
il campo d’azione e l’applicabilità pratica in relazione alla
Da un punto di vista sociale la scuola deve, inoltre, saper proporre un miglioramento del rapporto scuola/territorio
coinvolgendo gli attori sociali affinché sostengano i progetti
di educazione artistica. In definitiva si propone una ricerca
scientifica intorno al rapporto Teatro-Pedagogica al fine di
garantire
la creazione di condizioni ottimali per lo sviluppo di una Pedagogia
degli spettacoli artistici che dal piano teorico si sviluppa nella prassi
7 AA.VV, Educare al teatro, Brescia, Editrice La Scuola, 1998, p. 8.
8 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle
attività teatrali. a.s. 2016-2017. Parte seconda. Paragrafo 1: L’attività
teatrale come parte integrante dell’offerta formativa.
9 Cfr. Gaetano Oliva, L’educazione alla teatralità e la formazione. Dai
fondamenti del movimento creativo alla form-a-zione, Milano, LED, 2005.
Inoltre cfr., Serena Pilotto (a cura di), Scuola, teatro e danza. Trasversalità
delle arti del corpo nella didattica scolastica, Atti del Convegno 17 e 18
febbraio 2005, Teatro “Giuditta Pasta” Saronno, Milano, I.S.U., 2006.
Oppure cfr. Serena Pilotto (a cura di), Creatività e crescita personale
attraverso l’educazione alla arti: danza, teatro, musica, arti visive. Idee,
percorsi, metodi per l’esperienza pedagogica dell’arte nella formazione
della persona, Atti del Convegno 13 e 14 febbraio 2006, Teatro “Giuditta
Pasta” Saronno, Piacenza, L.I.R., 2007.
42
vissuta nei contesti reali, alimentandosi con una varietà e variabilità
dei problemi degli allievi, ai quali dà risposte, nonché con il loro contesto culturale. Una Pedagogia, dunque che va oltre il corpus teorico
accademico, non certo contrapponendosi ad esso bensì integrandole
10 Enrico M. Salati, Cristiano Zappa, La pedagogia della maschera.
Educazione alla teatralità nella scuola, cit., p. 35.
11 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle
attività teatrali. a.s. 2016-2017. Parte prima. Paragrafo 2: Finalità e scopi
delle linee guida.
12 Cfr. Gaetano Oliva, L’Educazione alla Teatralità nella scuola, in
“Scienze e Ricerche”, n. 13, 15 settembre 2015, p. 34.
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA FORMAZIONE
alla luce della pras-
atrale, è quello di favo-
si. Inoltre, ci si
rire positive interazioni
aspetta che le espe-
tra i membri del grup-
rienze
artistiche,
po; un altro importante
condotte in modo
compito è di abilitare il
mirato ai bisogni
gruppo a prendere deci-
degli allievi, favo-
sioni: arrivare a una de-
riscano lo sviluppo
cisione comporta la fati-
della loro persona-
ca di trovare un accordo
lità e contribuisca-
che non sia frutto di un
no alla soluzione
atteggiamento competi-
o
contenimento
tivo ma cooperativo, in
o prevenzione di
cui tutti sono considerati
conflitti
decisori.
persona-
li e di gruppo. In
L’insegnante-attore
questa
prospettiva
deve offrirsi con totale
è più probabile che
disponibilità alle esi-
si possa realizzare
genze
quell’ideale di un
del gruppo; per fare ciò
sapere
deve
costruito
nell’interrelazione
comunicative
possedere
delle
particolari motivazioni
teoria/prassi/teoria che può rendere la scuola un luogo privilegiato
13
della Ricerca-Azione.
al comunicare quali:
- il profondo valore di una comunicazione bidirezionale;
- la convinzione riguardo all’importanza della solidarietà attiva di un
A tale proposito diventa necessaria la formazione «degli educatori e dei docenti in possesso di specifiche
abilitazioni»14. La formazione della figura professionale del
maestro-insegnante-educatore alla teatralità deve avvenire a
diversi livelli:
gruppo di persone;
- la fiducia e il forte sentimento di empatia verso ogni singola persona.
Il conduttore del laboratorio teatrale deve rivolgersi al gruppo nella
sua totalità, effettuando degli interventi ricchi di
stimoli atti a permettere un processo di liberazione, di potenzialità e di
creatività: egli deve fare in modo che i membri del gruppo prendano
[…] tecnico, per possedere le conoscenze teorico pratiche necessa-
coscienza delle loro capacità latenti, spronandoli a vivere e a lavorare
rie ad adempiere la sua funzione; personale, al fine di raggiungere un
insieme, perché solo in questo modo la sua funzione sarà adempiuta
certo grado di maturità ed equilibrio individuale; relazionale, volto a
efficacemente.15
facilitare le possibilità di espressione, comunicazione e scambio. Lo
strumento principale di cui l’insegnante-attore dispone e di cui non
può fare a meno è la relazione, in altre parole la gestione sapiente
del processo comunicativo che egli instaura con il gruppo e i suoi
elementi; egli, per sfruttare al meglio quest’importantissima risorsa,
In questa prospettiva è più probabile che si possa realizzare un sapere costruito nell’interrelazione teoria/prassi/teoria che rende la scuola, un luogo privilegiato della RicercaAzione.
deve però possedere alcuni valori personali che guidino il suo comportamento:
INDICAZIONI OPERATIVE
- capacità di accogliere incondizionatamente ogni persona;
- capacità di cogliere la profonda originalità che ogni individuo mette
in gioco;
- capacità di vivere la complessità multidimensionale e la disparità
esistente tra conduttore e allievo della relazione
educativa che ha luogo nel laboratorio.
La figura dell’insegnante-attore si caratterizza per un insieme di compiti e funzioni che egli svolge in modo privilegiato, seppur non esclusivo.
Uno dei principali compiti educativi per chi conduce un laboratorio te13 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle
attività teatrali. a.s. 2016-2017. Parte prima. Paragrafo 3: Effetti
dell’attuazione delle linee guida.
14 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle
attività teatrali. a.s. 2016-2017. Parte prima. Paragrafo 1. Cfr., Legge 13
luglio 2015, n. 107, la c.d. “Buona Scuola”
Se la prima parte del documento definisce le “indicazioni
teoriche per la promozione delle attività teatrali”, la seconda
parte si concentra sulle “indicazioni operative per la gestione
di esperienze teatrali.
Le indicazioni operative indicano che le attività teatrali
possono svilupparsi in differenti direzioni ampliando l’offerta formativa per lo studente sia come protagonista (laboratorio teatrale) sia come spettatore attivo nell’incontro con
lo spettacolo.
Il laboratorio teatrale è dunque un momento definito e uno spazio protetto in cui si manifesta un intento educativo […]. Gli allievi, opportu15 Cfr. Gaetano Oliva, L’Educazione alla Teatralità nella scuola, cit.,
p. 37.
43
SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
namente guidati, affrontano un percorso individuale attraverso il quale
rio teatrale, il “fare teatro”, con l’intendo di:
si pongono in ascolto di loro stessi e, eseguendo esercizi mirati, giungono alla scoperta dei propri limiti e delle proprie capacità, appren-
[…] promuovere lo sviluppo della qualità dell’istruzione, intesa dal
dono possibilità nuove, utili ad esprimere in modo efficace il proprio
punto di vista sia dell’apprendimento sia della vita sociale:
pensiero e i propri sentimenti. Laboratorio quindi non significa tanto
- il punto di vista dell’apprendimento, deve essere inteso non come
un luogo quanto un lavoro, dal momento che costituisce un’occasione
somma di conoscenze ma come interpretazione integrata di elementi
per crescere, per imparare facendo, nella convinzione che l’aspetto più
cognitivi affettivi e psicomotori;
importante di questa esperienza sia da individuare nel processo e non
- il punto di vista sociale deve essere inteso come “clima dell’ambien-
nel punto d’arrivo.16
te” che, nelle indicazioni dell’OCSE, è una delle variabili della valutazione del livello di organizzazione nei sistemi scolastici dai quali
Indicazioni già stabilite dal decreto ministeriale “Promozione del teatro in classe anno scolastico 2015/2016”:
dipende la qualità dei loro risultati.
- le esperienze artistiche, ove possibile, vanno socializzate, essendo
importante dare visibilità ai ragazzi attraverso i loro prodotti artisti-
a) Educazione alla teatralità - Promuovere lo sviluppo della consape-
ci.19
volezza di sé e delle capacità di relazione e comunicazione, attraverso
tutte le arti espressive e tutti i linguaggi artistici. L’arte e le arti intese
come strumenti per la formazione della persona, nelle sue dimensioni legate alla creatività, all’affettività e al riconoscimento della sfera
emozionale.
b) La scatola creativa - Il teatro vissuto in una dimensione di laboratorio, per percorsi di apprendimenti non formali, che possa ampliare
il campo delle esperienze attraverso la sperimentazione di situazioni
di vita. Con particolare attenzione al superamento delle situazioni di
disagio e per favorire una vera inclusione sociale, interculturale e per
la valorizzazione delle differenze.
c) Teatro e socialità - educazione teatrale nell’ambito dei Centri Provinciali per l’istruzione degli adulti che, d’intesa con gli Istituti penitenziari, realizzano attività di educazione degli adulti nelle carceri.
Tale attività ha l’obiettivo di favorire altri spazi di socializzazione e di
stimolare la sfera affettiva e artistica di ciascuno.
d) Studenti in prima fila - Il teatro a scuola - La scuola a teatro. At-
Attraverso la realizzazione di questi due obiettivi è necessario che le esperienze artistiche esistenti oggi nella scuola
assumano il valore pedagogico educativo. Lo stesso documento apre a spiragli interdisciplinari tra arti espressive differenti e afferma la necessità di promuovere la conoscenza
del teatro attraverso la celebrazione della “Giornata Mondiale del Teatro”20 e la creazione di una Piattaforma Multimediale21, che avrà il compito di rendere condivisibili e omogenei gli obiettivi strategici e metodologici del teatro nella
scuola, salvaguardando e valorizzando la specificità delle
singole esperienze. La documentazione e il confronto attivato dalle scuole tramite la piattaforma servirà da un lato a
creare una mappatura delle proposte artistiche presenti sul
territorio e dall’altro a implementare il sistema delle buone
pratiche promuovendo il confronto critico e lo scambio di
informazioni.
traverso spettacoli dal vivo, incontri con autori/ attori, rassegne. Far
conoscere l’importanza del teatro come elemento fondante della cul-
BIBLIOGRAFIA
tura. Approfondire conoscenze e costruire saperi letterari e artistici
mediante opere teatrali.
e) Teatro e linguaggi innovativi - Il teatro come forma artistica e metodo per percorsi sperimentali, che favoriscano le relazioni tra pari
e educhino all’uso consapevole degli strumenti tecnologici di comunicazione, attraverso la realizzazione di forme espressive artistiche
innovative, con di linguaggi diversificati (video, social-network, spot
ecc.).17
Le nuove indicazioni ministeriali confermano queste prime indicazioni del 2015 individuando due macro obiettivi:
il primo è quello di promuovere “La fruizione di spettacoli
artistici come opportunità didattica (secondo modalità pedagogiche e didattiche funzionali alla scuola)” con l’obiettivo
– attraverso un accompagnamento critico e consapevole alla
visione – di incoraggiare l’ascolto attivo; la capacità di osservazione e la capacità di lettura dei linguaggi e dei segni
simbolici;18 il secondo di proporre l’esperienza del laborato16 Gaetano Oliva, Il laboratorio teatrale, Milano, LED, 1999, pp. 21-22.
17 Cfr.“Promozione del teatro in classe anno scolastico 2015/2016”
MIUR. REGISTRO DECRETI DIPARTIMENTALI del 30-09-2015.
Articolo 1.
18 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle
44
M.I.U.R. Indicazioni strategiche per l’utilizzo didattico
delle attività teatrali. a.s. 2016-2017.
MIUR. REGISTRO DECRETI DIPARTIMENTALI del
30-09-2015.“Promozione del teatro in classe anno scolastico 2015/2016”.
Gaetano Oliva, L’Educazione alla Teatralità nella scuola,
in “Scienze e Ricerche”, n. 13, 15 settembre 2015.
Enrico M. Salati, Cristiano Zappa, La pedagogia della
maschera. Educazione alla teatralità nella scuola, Arona,
Editore XY.IT, 2011
attività teatrali. a.s. 2016-2017. Parte seconda. Paragrafo 2: Inserimento
degli spettacoli artistici: obiettivi, strategie, azioni. Comma a) La fruizione
di spettacoli artistici.
19 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle
attività teatrali. a.s. 2016-2017. Parte seconda. Paragrafo 2: Inserimento
degli spettacoli artistici: obiettivi, strategie, azioni. Comma b) L
progettazione e la realizzazione di spettacoli teatrali. Paragrafo 3: I
laboratori teatrali.
20 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle
attività teatrali. a.s. 2016-2017. Parte seconda. Paragrafo 7: Incentivi e
agevolazioni
21 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle
attività teatrali. a.s. 2016-2017. Parte seconda. Paragrafo 6: Piattaforma
Multimediale.
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI
Diritti umani in carcere e politiche
pubbliche. Verso un nuovo paradigma
della responsabilità
PATRIZIA CIARDIELLO
Dottore di ricerca in Istituzioni e Politiche pubbliche, Dipartimento della Giustizia Minorile e di Comunità
N
el discorso pubblico sulle carceri, parole
quali crisi, emergenza, sovraffollamento, diritti umani vengono da sempre correlati, e, in tal senso, è noto come, nella
storia dei sistemi penitenziari, i progetti
di riforma del carcere risultino coevi dell’avvento del carcere stesso e la discrasia fra funzioni dichiarate e funzioni
svolte, l’inadeguatezza qualitativa e quantitativa delle risorse assegnate, la centralità egemone
della pena detentiva, pur in presenza di apparati ordinamentali aperti a forme alternative di
punizione legale, si configurano quali elementi
stabili del sistema, e non solo nel nostro paese.
Non è possibile, per converso, sottacere come il
sovraffollamento costituisca elemento di esponenziale amplificazione dei fattori della crisi
di legittimazione dell’istituzione penitenziaria
- da più parti e con diversi argomenti definita
perenne - generando condizioni di cui solo in
parte le descrizioni che se ne possono fare, se
ne fanno e se ne faranno possono e potranno
dare compiutamente conto. E’ noto, in tal senso, come i racconti degli operatori e delle persone detenute risultino accomunati, con grande
frequenza, dal presentare come una sfida il solo
non rassegnarsi alla pura gestione della coabitazione coatta,
allo scopo di mitigare l’umiliazione della dignità ed umanità
di chi, a vario titolo, vive in carcere anche solo per una parte
della giornata.
A partire dalla cennata correlazione fra carcere (per definizione, in crisi/emergenza) e diritti umani (nel carcere per definizione in crisi, insufficientemente rispettati), si offriranno
di seguito alcune considerazioni sui processi che, in presenza
di provvedimenti di un’autorità pubblica che contemplino la
limitazione/privazione della libertà personale, possono generarsi quando tale limitazione/privazione si coniughi con
quelli che il diritto e le convenzioni internazionali definisco-
no “trattamenti inumani e degradanti” equiparandoli a forme
di tortura. Si anticipa che il perno delle argomentazioni che
si offriranno risiede nella delineazione degli elementi che
supportano la necessità di un cambiamento paradigmatico
nell’analisi di tali processi e nella correlata definizione degli
interventi da porre in essere per anticipare le criticità in grado di costituire ambienti favorevoli alla commissione di atti
contrari al rispetto dei diritti umani e per orientare l’azione
pubblica complessivamente dispiegata verso la condivisione delle responsabilità sottese alla trattazione di questioni di
pubblica rilevanza. In tal senso, appare opportuno prendere
le mosse dall’intrinseca afflittività della pena. La pena, qualunque pena, compendia, in ogni caso, e in qualunque condizione, anche afflizione, e dunque, come accade per qualunque pharmakon (insieme medicamento e veleno), essa può
“curare” solo “avvelenando”, può pretendere di emendare
solo a patto di infliggere sofferenza (Curi 2002:409-410).
Secondo Renè Girard (1980), alla radice dello stesso diritto di infliggere una punizione c’è, al di là dell’enunciato
45
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
intendimento di eliminare il rischio di vendetta, una “violenza senza rischio di vendetta” che rimane il terreno archetipico da cui la pena giuridicamente formalizzata trae
continuamente alimento e forza (CaCCiari 2002:252). È in
tal senso che una punizione «che non sia comunque - per
quanto astrattamente ed eventualmente - in grado di ridurre o minacciare lo status sociale del violatore, non sia cioè
«degradante», non è riconosciuta né riconoscibile neppure
come pena…e che le stesse ricerche empiriche condotte in
materia confermano che l’idea socialmente costruita e diffusa è quella che identifica come penale il solo diritto criminale
arcaico e come pena quelle sole sofferenze legali socialmente avvertite come degradanti e quindi stigmatizzanti» (Pavarini 2002:286). Pertanto, anche il carcere, castigo legale
ed egualitario pur introdotto per punire umanamente senza
suppliziare e uccidere, e dunque per porre definitivamente al
bando la pena di morte non è mai stato contemplato potesse/
dovesse perdere ogni afflittività, pena la perdita di ogni residua funzione deterrente. A partire da Jeremy Bentham, padre
con Beccaria dell’illuminismo penale, che sostenne che se
le carceri non devono essere luoghi dove si aspetta la morte,
se le sofferenze corporali devono essere bandite, ciò non significa che il cibo non debba essere “scadente”, la disciplina
“severa”, l’abbigliamento “umiliante”.
Anche Erving Goffman, in “Asylums” (1961:34), indicava, tra le “istituzioni totali”, un “(terzo) tipo di istituzioni
totali (che) serve a proteggere la società da ciò che si rivela
come un pericolo intenzionale nei suoi confronti, nel qual
caso il benessere delle persone segregate non risulta la finalità immediata dell’istituzione che li segrega (prigioni,
penitenziari, campi per prigionieri di guerra, campi di concentramento).”
Un decennio dopo, in “Crimini di pace”, Stanley Cohen
(1975:441-442), nell’introduzione al saggio dal titolo “Uno
scenario per il sistema carcerario futuro”, scriveva:
Ogni scenario che presento si basa sull’assunto fondamentale che
il nucleo del sistema carcerario - la reclusione a scopo punitivo dei
delinquenti in edifici separati dal resto della società - non può essere cambiato. ... Non metto qui in discussione l’opportunità di queste
lo, si interessa del carcere e della sua (ir)riformabilità.Vi si
preconizzavano il trasformarsi progressivo delle carceri in
depositi umani; la crescente attenzione per la classificazione
dei detenuti come strumento di elezione per il governo degli
istituti di pena, ma anche per l’attuazione dei programmi di
riabilitazione; il concentrarsi delle “voci dominanti provenienti dall’esterno” sull’appoggio delle critiche provenienti
dall’interno del sistema stesso. Proseguendo nella metafora
cinematografica, Cohen scriveva
... Quelli che conoscono la situazione - amministratori e tecnici - leggendo articoli di fondo, manifesti politici dei partiti, relazioni annuali
e ascoltando i discorsi alle conferenze riconosceranno annoiati le seguenti «richieste»: maggiori disponibilità finanziarie, personale più
qualificato, edifici più moderni, salari più elevati, maggiore prestigio
per i professionisti, status più elevato per gli agenti penitenziari, migliori sistemi di classificazione, più ampie possibilità di aiuto dopo la
scarcerazione, migliore comprensione da parte del pubblico, eccetera.
Per converso, non risulta ancora empiricamente confermata l’ulteriore anticipazione dell’autore secondo la quale
Data la generale tendenza storica diretta contro l’istituzionalizzazione, le prigioni non potranno più operare una selezione. Accoglieranno
soltanto quelli che sono al di là delle possibilità di recupero, i casi
limite che devono essere rimossi dalla società.
Infatti, la generale tendenza storica – con alcune mitigazioni generate dalla constatazione dell’insostenibilità sul
lungo periodo dei costi finanziari e umani indotti dal ricorso massiccio al carcere - risulta a tutt’oggi connotata da un
incerto quanto intermittente procedere verso il contrasto
dell’istituzionalizzazione, che in Italia ha visto il governo
impegnato nella riduzione al sovraffollamento delle prigioni
(-17,8% tra il 2013 e il 2014) e nel varo di alcune iniziative
finalizzate sia all’ampliamento delle opportunità di accesso
alle misure alternative alla detenzione sia all’introduzione di
forme di probation fruibili anche dagli autori di reato adulti come risposta ai pronunciamenti della Corte Europea dei
Diritti dell’Uomo.1
riforme (eccetto che non vengano impropriamente presentate sotto
l’alibi della riabilitazione), né dubito della sincerità di chi le auspica;
ciò che intendo affermare è che dal momento che le riforme sono tese,
secondo la definizione esatta, a «migliorare un’istituzione eliminando o abbandonando le imperfezioni, i difetti o gli errori», esse non
portano a una vera ri-formazione dell’istituzione stessa. La forma del
sistema carcerario - nel senso in cui io uso questo termine - è simile a
una forma d’arte come il cinema: si possono eliminare le imperfezioni
(usando ad esempio attrezzature più complesse), si possono apportare
innovazioni tecniche (il colore o la tridimensionalità), è possibile anche compiere certe esperienze estetiche radicali (come il surrealismo
o il cinema-verità), ma la forma rimane intatta.
Chi volesse rileggere questo saggio potrebbe ritrovare mutatis mutandis - il nocciolo duro di molte delle criticità
a tutt’oggi alla ribalta con cui si confronta chi, a vario tito46
1 STRASBURGO - Il Consiglio d’Europa promuove l’Italia sul fronte
delle carceri. Le misure adottate, i risultati ottenuti sinora, e gli impegni assunti dal governo “di continuare a lottare contro il sovraffollamento carcerario in modo da ottenere una soluzione definitiva del problema” ricevono
il plauso del comitato dei ministri del Consiglio d’Europa.
L’esecutivo dell’organizzazione europea ha quindi deciso di dichiarare
chiuso il fascicolo che aveva aperto nei confronti dell’Italia dopo le condanne al nostro Paese da parte della Corte europea dei diritti umani per
lo spazio inadeguato in cui erano costretti una parte dei detenuti - meno
di tre metri quadrati a testa. E che i risultati siano buoni lo dimostrano
anche i dati pubblicati oggi nel rapporto ‘Space’ in cui viene fotografata
ogni anno la situazione del sistema penitenziario dei paesi membri del
Consiglio d’Europa.
La ricerca ha evidenziato che tra il 2013 e il 2014, anche se l’Italia aveva
ancora un problema di sovraffollamento, la popolazione carceraria italiana ha avuto un calo record del 17,8%, e che questa diminuzione è la
più grande registrata nei 47 paesi monitorati. “Questo risultato è l’effetto delle leggi introdotte in Italia tra il 2013 e il 2014” spiega all’Ansa
Marcelo Aebe, responsabile del progetto Space. E sono proprio le leggi
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI
È noto come, nel luglio 2009, il sistema penitenziario italiano abbia ricevuto dalla Corte Europea dei Diritti dell’Uomo quella che Tullio Padovani ha definito “una sorta di certificazione di indegnità”, attraverso una condanna dell’Italia
riferita allo “spazio” in cui una persona era stata detenuta,
meno di 3 mq.2 È noto, inoltre, come quella condannata non
si sia configurata quale condizione eccezionale, essendosi
quest’ultima a lungo estesa alla maggioranza degli istituti di
pena italiani e a tutti gli aspetti fondamentali della detenzione: permanenza in cella 20 ore su 24, qualità e quantità del
cibo, servizi igienici, assistenza sanitaria.3 È noto, ancora,
come la Corte Europea dei Diritti dell’Uomo si sia nuovamente pronunciata in materia l’8 gennaio 20134 reiterando
la condanna nei confronti dell’Italia per violazione dell’art.
3 della Convenzione Europea dei Diritti dell’Uomo e imponendo al governo italiano di procedere entro un anno a
decorrere dalla data in cui la sentenza fosse divenuta definitiva all’istituzione di «[...] un ricorso o un insieme di ricorsi
interni effettivi idonei ad offrire una riparazione adeguata
e sufficiente in caso di sovraffollamento carcerario [...]» e
all’allestimento delle condizioni necessarie a un più ampio
ricorso alle sanzioni e misure di comunità.
Pertanto - considerando anche il monito della CEDU a
procedere sulla strada delle riforme - rimane importante non
dimenticare i quesiti posti a suo tempo (2009) al riguardo da
Tullio Padovani:
la risultante di una serie articolata e ripartita di passaggi che tende a
rendere ogni soggetto agente “cieco” al prima e al dopo: rotella di un
ingranaggio.
C’è chi ordina, chi assegna, chi ammette, chi dispone e chi organizza.
Posso io - dirà il pubblico ministero - non emettere l’ordine di carcerazione imposto dalla legge? Posso io - dirà il funzionario dell’amministrazione - non assegnare il detenuto? Posso io - dirà il direttore - non
accoglierlo in carcere? Posso io - dirà il magistrato di sorveglianza
- liberare il detenuto maltrattato? E così ciascuno avrà alle proprie
spalle il rassicurante sostegno di un dovere funzionale che lo estrania
dall’esito finale e lo rende istituzionalmente indifferente alla riduzione
di un uomo in belva carcerata.
È con questi meccanismi che le istituzioni immunizzano i propri agenti: l’esito criminoso si nutre di frammenti sparsi di legalità. E mentre
questi dispensano giustificazioni personali, il crimine che ne risulta
perde l’autore, e si colloca nelle placide secche della politica, dove la
deplorazione per quanto accade si condisce di propositi sempre rinnovati e sempre vani.
In tali considerazioni è possibile rinvenire una stretta consonanza con quanto a suo tempo scritto da Antonio Cassese
(1994:130), Presidente dal 1989 al 1993 del Comitato per la
prevenzione della tortura istituito presso il Consiglio d’Europa:
...le prigioni sono mondi enormi e complicati. Mondi in cui la responsabilità per la gestione dell’istituzione, per le decisioni e le misure
A fronte di situazioni che fanno della carcerazione un trattamento con-
concrete concernenti la sua vita interna, sono diluite tra numerosissi-
trario al senso di umanità e in positiva contraddizione con le regole
me persone, e spesso dipendono da autorità che vivono lontano nella
internazionali e la legislazione interna, si profila o non si profila una
capitale”.
responsabilità personale?
Dovrà farsene carico qualcuno? Subito si staglia all’orizzonte il tipico
E ancora (Cassese op. cit.:56):
meccanismo giustificativo delle organizzazioni burocratiche complesse che mira a sgretolare la colpa e a farla morir fanciulla. Il procedi-
le situazioni inumane e degradanti sono il risultato di tante azioni e
mento destinato a sfociare nel trattamento inumano e degradante è
circostanze: spesso esse costituiscono la concrezione dei comporta-
varate ad aver convinto il comitato dei ministri del Consiglio d’Europa
che l’Italia è sulla strada giusta. Anche se questo non toglie che l’esecutivo
dell’organizzazione ricordi al governo che c’è ancora della strada da fare
e esprime la propria fiducia nel fatto che le autorità “continueranno gli
sforzi per assicurare condizioni di detenzione in conformità con quanto
stabilito dalla Convenzione europea dei diritti umani e dal Comitato per
la prevenzione per la tortura”: http://www.ansa.it/europa/notizie/rubriche/altrenews/2016/03/08/carceri-consiglio-deuropa-promuove-riformeitalia_468e4614-cba9-4b1e-af73-e95c242f76df.html
2 Occorre, peraltro, segnalare che tale spazio risulta inferiore a quello cui
l’Amministrazione penitenziaria aveva sino a quella data fatto riferimento,
indicato in un paio di decreti del Ministero della Salute concernenti i requisiti minimi per l’abitabilità (ovvero 9 mq per una cella singola e 14 per una
cella multipla). La sentenza della CEDU inerente il ricorso “Sulejmanovic
contro Italia” è rinvenibile nella sua versione integrale al seguente link:
http://www.giustizia.it/giustizia/it/mg_1_20_1.wp?previsiousPage=mg_1
_20&contentId=SDU151219
3 È opportuno segnalare che, soprattutto dal 2013, circa la riduzione della durata della permanenza delle persone detenute in quelli che l’ordinamento penitenziario definisce “locali di pernottamento” sono state assunte
dall’amministrazione penitenziaria varie iniziative tese all’adozione generalizzata di misure di contrasto.
4 Si fa riferimento alla sentenza inerente la “Causa Torreggiani e altri
contro Italia”, consultabile nella sua versione integrale al seguente link:
http://www.giustizia.it/giustizia/it/mg_1_20_1.wp?previsiousPage=mg_1
_20&contentId=SDU810042
menti più svariati di numerose persone […] Spesso (i trattamenti, ndr)
sono oggettivamente contrari al senso di umanità, senza che si possa
necessariamente discernere un’intenzione malvagia in chi li infligge.
Avvicinandosi al nucleo del presente contributo, si prendono le mosse proprio dall’affermazione di Cassese secondo
cui “l’esito criminoso si nutre di frammenti sparsi di legalità”: ritenere che i trattamenti inumani e degradanti, che talora assumono i connotati della violenza, fisica e psicologica,
siano/possano essere appannaggio esclusivo di alcuni, che,
per il rendersene autori e a differenza di altri, recherebbero le
stimmate di una originaria capacità di infliggere intenzionalmente sofferenza o di rimanere indifferenti alla sofferenza
denota, con una certa ingenuità scientifica, una sorta di superstizione che induce, de plano, l’assunzione di un approccio fatalistico e una generale deresponsabilizzazione.
Nel “secolo breve” che ci siamo appena lasciati alle spalle
si è creduto si fossero concentrati l’orrore dei regimi totalitari e delle “soluzioni finali” che hanno portato alla morte,
complessivamente, di 150 milioni di esseri umani. Ma ci si è
dovuti ricredere: nelle carceri di Abu Ghraib e di Guantana47
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
mo volute dall’occidente “democratico” per difendere i valori di cui si fa araldo, “normali” soldati hanno assunto l’identità di ruolo che l’appartenere a un’istituzione legittimante e
il sentirsi servitori di una buona causa richiedeva secondo le
definizioni di “buona causa” disponibili nel contesto. “Normali” soldati che hanno accolto quasi con stupore l’orrore
planetario che le loro gesta hanno suscitato, coerentemente
con la persuasione di non aver fatto che “il proprio lavoro”,
come a suo tempo la moltitudine di “lavoratori” - molti dei
quali nemmeno sostenitori attivi del nazionalsocialismo o
antisemiti - che consentirono, anche attraverso la delazione,
lo sterminio di ebrei, disabili, nomadi, omosessuali dentro
e fuori ai campi di concentramento. E un “normale” soldato si definiva anche Paul Tibbets, il pilota dell’Enola Gay,
l’aereo B-29 che sganciò la bomba atomica su Hiroshima e
che, intervistato nel 1975, rilasciò, fra le altre la seguente
dichiarazione:
caratteriale, patologica, fors’anche etnica e che, pertanto, i
trasgressori - secondo un’espressione molto usata, le mele
marce - si possano, si debbano estirpare come cellule cancerogene (esCobar 2008:XI-XI).
Gli autori dell’esperimento allestirono una piccola sezione
carceraria nei sotterranei nel dipartimento di psicologia della
Stanford University e la popolarono di studenti volontari “in
piena salute, intelligenti e di ceto medio, senza trascorsi di
consumo di alcol o droga, senza pendenze penali“, reclutati
attraverso un annuncio sul giornale e divisi arbitrariamente a
sorte fra i ruoli di detenuto e di sorvegliante.
Gli agenti non ricevettero alcuno specifico addestramento. Erano liberi di fare tutto ciò che ritenevano fosse utile a far osservare la legge,
a mantenere l’ordine e a farsi rispettare dai prigionieri. Crearono così
le loro regole e le applicarono sotto la supervisione del direttore David Jaffe, uno studente della Stanford University. Al pari di chi nella
vita sceglie un lavoro così rischioso, anche i nostri agenti vennero
I’m not proud that I killed 80,000 people, but I’m proud that I was able
informati dell’importanza della loro mansione e dei possibili rischi
to start with nothing, plan it and have it work as perfectly as it did..5
connessi alla situazione.
Come i veri detenuti, i nostri prigionieri sapevano che avrebbero avu-
e che, interrogato su quello che avesse provato in quell’istante, rispose: «Nothing. That was my job». Non diversamente, anche nelle carceri, e in tutte le situazioni in cui
qualcuno che appartiene a un’istituzione legittimante si sente
investito di un potere ritenuto, tautologicamente, per le stesse ragioni, legittimato, il rischio che le persone sottoposte a
quel potere vengano deumanizzate in nome di un mandato
identificato come “bene assoluto” è elevato, e non perché gli
operatori cui sono affidate le persone cui si decide di sottrarre
la libertà siano o, peggio, vengano selezionati fra i più inclini
alla violenza. Per tale ragione si incorrerebbe in errore ove si
considerasse fondato ritenere che a tale rischio siano sottratti
coloro che non indossano una uniforme, ovvero i non appartenenti ai corpi di polizia e alle forze dell’ordine.
Il celebre esperimento carcerario condotto nel 1971 nei
sotterranei della Stanford University da Philip Zimbardo,
professore emerito di psicologia sociale, riguardante la dinamica delle relazioni interpersonali in una prigione simulata,
ha fornito ragguardevoli elementi a sostegno della necessità
di considerare la “deontologia professionale” degli operatori
penitenziari (tutti) suscettibile di assumere differenti significati per ciascuno dei soggetti coinvolti in relazione ai repertori discorsivi giudicati maggiormente pregnanti in quel
determinato contesto. In altri termini, l’esperimento carcerario di Stanford avrebbe dovuto confutare irreversibilmente
quella persuasione di senso comune secondo cui condotte
contrarie alle leggi – siano poste in essere da comuni cittadini definiti devianti o da cittadini dotati di pubblica autorità
– costituirebbero la prova che i trasgressori condividono una
essenza che non si sa se considerare uno stigma morale, un
marchio indelebile, o anche e insieme una orrida necessità
5 in Peter J. Kuznick, Defending the Indefensible: A Meditation on the
Life of Hiroshima Pilot Paul Tibbets, Jr., in http://apjjf.org/-Peter-J.Kuznick/2642/article.html
48
to delle razioni alimentari ridotte, che avrebbero subìto qualche torto,
una certa violazione della loro privacy e dei loro diritti civili – di tutto
questo erano stati informati prima di prendere parte all’esperimento, e
avevano fornito il loro consenso.6
I risultati dell’esperimento furono tali da condurre alla sua
interruzione dopo solo sei giorni, anziché dopo i quindici
previsti in quanto cinque ‘detenuti’ avevano mostrato segni
di grave sofferenza, mentre i ‘sorveglianti’ avevano adottato, di giorno in giorno, atteggiamenti sempre più punitivi, e
avevano interpretato come privilegi da concedere secondo il
loro arbitrio anche quelli che erano stati chiaramente definiti,
all’inizio dell’esperimento, come diritti dei detenuti. Ma anche i componenti dello staff dirigente della prigione simulata
assunsero una identità di ruolo che rapidamente si allontanò
da quella propria dei ricercatori spingendosi fino all’ignorare
la manifesta sofferenza dei detenuti e i comportamenti illegali degli agenti, altrettanto manifesti, per riservare tutta la
propria attenzione alla costruzione di un piano per sventare
con ogni mezzo il tentativo di evasione di cui erano venuti a conoscenza. Nella prefazione al libro in cui riflette su
quell’esperienza a distanza di trent’anni - per giunta alla luce
dello studio approfondito degli abusi e delle torture di Abu
Ghraib7 condotto in qualità di consulente tecnico per la difesa di una delle agenti penitenziarie appartenente alla polizia
militare - Zimbardo scrive:
6 www.prisonexp.org
7 Nel 2004 l’agenzia di stampa Associated Press pubblicò un reportage –
poi ripreso con clamore mediatico mondiale da una trasmissione della rete
televisiva CBS (visionabile al seguente link http://www.cbsnews.com/
news/abuse-at-abu-ghraib/)- in cui alcuni ex prigionieri del carcere militare situato nella città irachena di Abu Ghraib raccontavano di essere stati
umiliati, abusati e torturati dagli agenti della polizia militare americana nel
corso della reclusione subìta al tempo della seconda guerra del Golfo, nel
2003, dopo il rovesciamento di Saddam Hussein.
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI
…Il tempo aveva affievolito in me il ricordo… di quanto io fossi stato
passivo nel permettere che gli abusi si protraessero così a lungo: un
peccato di inerzia.
Fu Cristina Maslach, divenuta successivamente la più importante studiosa della cd. “sindrome del burnout”, all’epoca
dottoranda in sociologia, che, nella ricostruzione di Zimbardo,
venuta ad intervistare guardie e prigionieri, mostrò tutto il suo dissenso nel vedere questi ragazzi in fila per il bagno coi sacchetti in
testa, con le gambe incatenate, con le mani l’uno sulla spalla dell’altro. Risentita disse “È terribile quello che state facendo!”. Su oltre 50
estranei ad aver visitato la nostra prigione, lei fu l’unica a contestarne
l’eticità. Divenne chiaro che l’esperimento doveva essere terminato.8
Al cospetto delle considerazioni rese possibili da quanto sin qui argomentato, diventa più visibile la debolezza
dell’assunto di base che accomuna sia i sostenitori della punizione esemplare dei “cattivi semi” della società sia quanti,
criticando tale posizione, attribuiscono a inclinazioni violente dei custodi la fonte di ogni male: l’ipotesi disposizionale,
secondo la quale la violenza costuirebbe l’esito di proprietà
psicologiche o morali che sarebbero tipiche dei violenti, e,
per giunta, di essi soli.
8 www.prisonexp.org
Nello scenario che si dischiude distogliendosi da tale assunto, la violenza – verbale e non – si configura, per converso, come un processo la cui generazione si realizza attraverso
la mediazione del linguaggio ordinariamente usato dai parlanti attraverso l’interazione discorsiva e nel quale l’identità
di ruolo e il coerente esercizio delle correlate responsabilità
vengono ad essere soppiantati dalle teorie di senso comune
impiegate dai differenti ruoli implicati nell’amministrazione della privazione o limitazione della libertà. Anticipare la
generazione di processi interattivi in cui la violenza venga
accettata e tollerata come legittima – o, tutt’al più, in alcune circostanze, surrettiziamente ammessa come inevitabile
– deve, pertanto, implicare uno scarto dal paradigma della responsabilità semplice verso quello della responsabilità complessa, che definita come responsabilità sociale condivisa è,
peraltro, da tempo al centro dell’elaborazione politica e culturale delle istituzioni europee e dei correlati programmi d’azione. Recentemente (2014), la condivisione delle responsabilità sociali è diventata l’oggetto di una Carta d’Europa
dedicata che si è tradotta in una raccomandazione indirizzata
ai paesi membri dal Comitato del Ministri. Tale documento provvede, ai sensi dell’art. 15 dello Statuto del Consiglio
d’Europa, alla costruzione di un articolato quadro argomentativo a supporto della necessità di proporre l’attuazione del
principio di responsabilità sociale condivisa per «stimolare
un clima di fiducia nel futuro, rafforzare la democrazia e sviluppare le risorse sociali e morali necessarie per permettere
49
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
ai cittadini europei di agire insieme per promuovere la tutela
universale dei diritti, il benessere di tutti, la coesione sociale, lo sviluppo sostenibile e l’interazione tra le culture» (dal
preambolo). A tal fine, all’art. 1 della Carta europea della
responsabilità sociale condivisa, quest’ultima viene definita
operando una sua distinzione dalla responsabilità e dalla responsabilità sociale:
a. la responsabilità è definita come una condizione in cui gli individui
e le istituzioni pubbliche e private sono tenuti (a) o sono in grado di
rendere conto delle conseguenze delle loro azioni o omissioni in tutti
nione Europea di indagare le ragioni della diffidenza del
pubblico nei confronti dell’innovazione tecno-scientifica. «I
propositi della Commissione si riassumono in questa frase:
“[...] We must take shared responsibility, without being forced to lay blame nor claim full control” (p.16). Condividere
la responsabilità, abbandonare il criterio sanzionatorio della
colpa e la pretesa di avere il pieno controllo sulle conseguenze delle nostre azioni sono i tre criteri che devono comporre
il nuovo sistema dell’innovazione responsabile».
La problematizzazione della responsabilità prende avvio,
secondo Foddai (2008:3), quando
i campi della vita pubblica e privata, nel rispetto di norme o obbligazioni morali, sociali e giuridiche applicabili;
dopo Hiroshima e Nagasaki, col grande tema del nucleare, e successi-
b. la responsabilità sociale è definita come una condizione in cui gli
vamente con l’avvento delle biotecnologie, il dubbio inquietante che
individui e le istituzioni pubbliche e private sono tenuti (a) o sono
anche lo scienziato nel suo lavoro non sia al riparo dai giudizi morali
in grado di essere responsabili delle conseguenze delle loro azioni o
ha cominciato a insinuarsi nelle coscienze un tempo tranquille degli
omissioni nel campo del benessere sociale e della protezione della
studiosi della natura. Mentre scopriamo che il nostro corredo etico
dignità umana, dell’ambiente e dei beni comuni, nella lotta contro la
è del tutto inadeguato alle nuove sfide, emerge un nuovo orizzonte
povertà e la discriminazione, e nella ricerca della giustizia e della co-
concettuale della responsabilità: al concetto di punizione si affianca
esione sociale, mostrando rispetto democratico delle diversità e delle
quello di cura e di relazione, alla rigida idea di reciprocità si contrap-
regole o obbligazioni morali, sociali e giuridiche applicabili;
pone quella di asimmetria e vulnerabilità, all’orizzonte temporale del
c. la responsabilità sociale condivisa, è definita come la condizione
passato si sovrappone la dimensione del futuro, allo scopo di sanzio-
in cui gli individui e le istituzioni pubbliche e private sono tenute (a)
nare comportamenti che compromettono l’equilibrio sociale, si affian-
o sono in grado di essere responsabili delle conseguenze delle loro
ca prepotente quello di prevenire danni irreversibili, di conservare un
azioni o omissioni, nel contesto degli impegni reciproci assunti in
equilibrio naturale che garantisca la sopravvivenza della specie uma-
modo consensuale, accordandosi su diritti e obblighi reciproci nel
na. La responsabilità diventa un progetto di azione condiviso.
campo della protezione sociale e della dignità umana, dell’ambiente
e dei beni comuni, della lotta contro la povertà e la discriminazione,
del perseguimento della giustizia e della coesione sociale, nel rispetto
democratico della diversità.
Quanto al campo di applicazione, la Carta precisa che la
responsabilità sociale condivisa non si sostituisce alle responsabilità specifiche «piuttosto le completa e le migliora
incoraggiando le parti sociali e gli individui a impegnarsi in
trasparenza e ad essere responsabili delle loro azioni in un
contesto di conoscenza e di processi decisionali costruiti attraverso il dialogo e l’interazione».
In ordine alla necessità di uno spostamento paradigmatico
in tema di responsabilità,9 Maria Antonietta Foddai, filosofa
del diritto da tempo interessata al tema, scrive di nuove prospettive nel saggio Sulle tracce della responsabilità - Idee e
norme dell’agire responsabile (2005). In una intervista sul
tema a cura della redazione della Fondazione Giovannino
Bassetti (2008),10 la studiosa prende le mosse da un passaggio
del report «Taking European Knowledge Society Seriously»
(2007)11, elaborato dal Gruppo di esperti incaricati dall’U-
In relazione a questo passaggio, l’autrice sostiene che si
possano considerare due differenti modelli di responsabilità:
uno semplice ed uno complesso. Il primo modello è relativo
al significato tradizionale, secondo il quale se si dice che una
persona è responsabile, si intende che ha un forte senso del
dovere, è degna di fiducia e prudente: tale modello si rivela
oggi inadeguato, in quanto «una persona coscienziosa e ligia
al dovere può arrivare a comportarsi in modo altamente irresponsabile, quando ignora le conseguenze negative che possono derivare dall’osservanza del dovere». La responsabilità
sembra assumere il suo significato più adeguato, secondo
Foddai (ivi:4), «proprio quando ci spingiamo nel territorio
sconosciuto, privo dei cartelli indicatori dell’etica comune»:
È qui che si avverte la necessità di un nuovo modello, definibile come
complesso o riflessivo, perché richiede un insieme di capacità critiche
che da un lato esaltano la nostra autonomia individuale e dall’altro
mostrano la nostra solitudine morale.
Essere responsabili in tal senso, dice Davis, significa essere capaci di
prevedere le conseguenze dei propri atti; saper valutare quando è il
caso di consultare altre persone o assumere le decisioni in modo del
9 Si vedano, al riguardo, anche C. Offe (2011), “La responsabilité sociale partagé. Reflexions sur les modèles d’action sociale «responsables»:
besoins et offre”, e i saggi di autori vari presenti in Vers une Europe
des responsabilités sociale partagées, Editions du Conseil de l’Europe:
Strasbourg.
10
www.fondazionebassetti.org/it/pagine/2008/07/maria_antonietta_
foddai.html
11 Il report è stato pubblicato in Italia nel 2008 col titolo Scienza e governance. La società europea della conoscenza presa sul serio, editore
Rubbettino.
50
tutto autonomo; avere la capacità di modificare i propri progetti verso
altri obiettivi ugualmente apprezzabili, avere infine la volontà di dare
un resoconto veritiero delle proprie azioni.
Occorre, pertanto, accettando anche le apparenti contraddizioni della responsabilità, spostarsi «da un sistema governato dalla certezza sui fatti e sulle norme, verticistico, basato
sul concetto di autorità, ad uno disegnato dalla cornice con-
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI
cettuale dell’incertezza, orizzontale, basato sulla partecipazione e sulla condivisione».
In questo senso, l’autrice sostiene che occorra andare oltre l’idea di una shared–responsibility assegnata o assunta,
come tale reificata, in favore di un’accezione che ne esalti la
configurazione processuale e la correlata incessante costruzione a cura del nuovo soggetto plurale della responsabilità:
Infatti questa implica che la responsabilità sia qualcosa di preesistente
che, come un carico pesante, viene divisa tra gli esploratori; ma io
credo che non sia un carico da portare sulle spalle, ma un progetto
che ogni sera si costruisce intorno al fuoco. Per uscire dalla metafora,
bisogna abbandonare il sistema verticistico che “assegna” la responsabilità, ma anche quello concettuale basato sull’”assunzione”, per
inventare quello della costruzione della responsabilità» (ibidem).
Se anche la responsabilità, come la violenza, non sono configurabili come contenuti dal significato univoco, ma come
esito di processi di costruzione sociale e culturale mediati dal
linguaggio, occorre dotarsi di strumenti adeguati allo statuto
epistemologico degli oggetti di conoscenza e di intervento, e
come tali scientificamente fondati, che consentano di generare obiettivi e strategie condivisi da tutti i soggetti presenti
nei contesti interessati. In altri termini, occorre disporre di
parametri per l’azione cui affidare la generazione di contesti
sociali e istituzionali in cui la responsabilità del rispetto della
legalità e dei diritti umani venga descritta come appannaggio di tutti e di ciascuno dei membri della comunità. Pertanto, per le scienze che fondano nel logos, al contempo, il
proprio presupposto epistemologico e il proprio oggetto di
indagine12 diventa necessario collocare i dati testuali – ovvero, con riferimento all’oggetto della presente trattazione, le
configurazioni di realtà sul rispetto dei diritti umani generati
e generabili nei contesti interessati attraverso l’interazione
dialogica– entro «un alveo di conoscenza che offra la possibilità di valutare come l’obiettivo di una ricerca o di un intervento operativo siano stati perseguiti in maniera efficace e
[...] quali ricadute possano avere nell’ambito più ampio della
comunità civile» (Turchi 2009:21). In altri termini, per generare una conoscenza dei fenomeni sociali fondata sul senso
scientifico – come tale antinomica rispetto a quella fondata
sul senso comune13 – occorre che i fenomeni sociali stessi
12 Le scienze -logos a cui si fa riferimento sono in particolare: sociologia,
politologia, antropologia, psicologia, ossia tutte quelle scienze che hanno
un oggetto di indagine non indipendente (non connesso all’uso) dallo strumento conoscitivo su cui si fondano, ossia il logos stesso (quindi non la
biologia, fisiologia, neurologia, ecc.), cfr. Turchi 2009:24.
13 Per senso comune si intende in questa sede «[…] preposizioni di qualsiasi natura e tipologia che definiscono e sanciscono qual è la realtà: lo
statuto di realtà è l’affermazione della stessa (realtà) ed è conferito dalla
forza retorica dell’argomentazione a prescindere dall’esplicitazione delle
categorie conoscitive poste (come posto per l’asserzione). Il senso comune è auto-referenziale in quanto si legittima eludendo il fondamento delle
proprie affermazioni ed è ‘comune in quanto c’è concordanza sul “modo”
in cui si afferma che qualcosa è reale (non tanto su ciò che si afferma di per
sé che può essere opinabile e dunque differente): proprio perché tale condivisione resta implicita, la modalità si impone come dato di fatto nel suo
produrre realtà. Cionondimeno esso rappresenta una modalità di conoscen-
vengano compresi e studiati come realtà costruite attraverso
processi eminentemente dialogici. Se i fondamenti teorici di
tale opzione si collocano eminentemente nel costruzionismo
sociale di Berger e Luckmann, dal punto di vista metateorico ci si colloca nell’alveo della svolta linguistica affermatasi
nella filosofia della seconda metà del Novecento – cui si deve
l’idea di linguaggio come costitutivo dell’universo sociale e
dell’azione come fenomeno profondamente radicato nell’uso
ordinario del linguaggio (cfr. Hughes, Sharrock 2005:186) –
e, segnatamente, della tarda opera di Wittgenstein.14 A tale
autore soprattutto si deve la ricostruzione dalle fondamenta delle modalità secondo le quali le parole ottengono dallo
stesso linguaggio il loro significato nel senso che «[...] il significato di un termine è dato dalla sua posizione nel complesso, e dal ruolo che esso può assumere in combinazione
con altri termini e con le azioni che compiamo» (Hughes,
Sharrock ivi:190).
Usando le parole stesse di Wittgenstein:15
Parliamo del fenomeno spazio–temporale del linguaggio [...] Ma ne
parliamo come parliamo dei pezzi degli scacchi quando enunciamo
le regole del gioco, e non come quando descriviamo le loro proprietà
fisiche. La domanda “che cos’è, propriamente, una parola?” è analoga alla domanda “Che cos’è un pezzo degli scacchi?”. L’essenza è
espressa nella grammatica (Wittgenstein 1967, § 108, 371).
Assumendo – nel solco tracciato, in particolare, da Wittgenstein e del modo di conoscere proprio del realismo concettuale16– che le interazioni vengono generate e governate
za, genera infatti conoscenza con implicazioni in termini di ‘realtà’, ma in
base a presupposti e criteri diversi dal senso scientifico» (Turchi 2009: 33).
14 Si fa riferimento a tale discontinuità nel pensiero dell’autore con la
locuzione “secondo Wittgenstein” indicando i testi delle “Ricerche filosofiche”, il “libro marrone” e il “libro blu”, successivi al “Tractatus”.
15 L. Colaianni, P. Ciardiello (a cura di) (2012), Cambiamo discorso.
Diagnosi e counselling nell’intervento sociale secondo la scienza dialogica, p. 35.
16 Attualmente, la riflessione epistemologica consente di individuare
tre livelli di realismo, corrispondenti ad altrettanti modi di conoscere che
«[…] non devono essere confusi con quanto si assume, in termini di senso
comune, come “reale”. I tre livelli di realismo esemplificano infatti le differenti relazioni che è possibile riscontrare fra l’“osservatore” (le categorie
che consentono e su cui si basa la conoscenza) e l’ “osservato” (ciò che
scaturisce dalla conoscenza in quanto astrazione categoriale) e non già con
quanto viene definito, appunto, per senso comune, come “reale”» (Turchi
2009:26). In quanto riferito epistemologicamente all’ontologia, il realismo
monista conferisce priorità all’ente osservato, piuttosto che alle modalità
utilizzate per conoscere. Per il realismo ipotetico la realtà è ancora concepita come ontologicamente data, ma non può essere conosciuta, potendosi,
al più, produrre su essa delle teorie (teoreticismo). Quanto al realismo concettuale, esso non contempla ‘fatti in sé’ ma costruzioni di realtà, “artefatti” (configurazioni appunto), così che - nella metafora - se si sottrae
la ‘mappa’ non rimane alcun territorio conoscibile (e da conoscere). La
configurazione è dunque costruita per mezzo di sistemi simbolici, tra cui
il linguaggio (sia esso formale oppure ordinario) utilizzato come modalità
di conoscenza, perciò non separabile (anzi, ne costituisce proprio il fondamento) dalle produzioni discorsive che nominano e descrivono le configurazioni stesse. Non ci si pone in termini di “scoperta” e di spiegazione della
realtà, ma di descrizione dei processi che costruiscono e configurano una
realtà come tale. Ciò che si conosce è il processo stesso del conoscere, di
conseguenza il dato ontologico viene completamente a mancare e il fondamento è puramente conoscitivo (gnoseologico come detto precedentemen51
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
attraverso l’uso del linguaggio ordinario, diventa, pertanto,
indispensabile affiancare alla conoscenza del cosa viene
detto (i differenti contenuti ovvero i pezzi degli scacchi) la
conoscenza delle modalità con cui i contenuti medesimi vengono utilizzati (il come viene detto qualcosa ovvero le regole
del gioco degli scacchi). In tal senso, avendo formalizzato
le regole d’uso del
linguaggio comunemente utilizzato dai
parlanti, la scienza
dialogica (Turchi
2007, 2009, 2010,
2012) rende possibile
conoscere
il collocarsi delle
configurazioni discorsive generate
nelle interazioni su
modalità di conoscenza proprie del
senso scientifico o,
antinomicamente,
del senso comune
ovvero ciò che “ciascuno crede che tutti
credano” all’interno
di una cerchia sociale e considerato ovvio dai suoi membri
(Schütz
1979).17
Pertanto, la scienza
dialogica si configura come approccio
del tutto pertinente con l’obiettivo di enfatizzare le implicazioni dell’impiego di tutte le “voci” di una comunità o di
una organizzazione posto al centro delle raccomandazioni
internazionali in materia come di qualsiasi politica pubblica
che si intenda finalizzata alla generazione della responsabilità sociale condivisa e del suo esercizio.
Collocandosi nell’alveo della scienza dialogica, pertanto,
la tradizione di pensiero del “sé sostanziale” viene sostituite): il criterio è il configurarsi della realtà, non l’avvicinamento ad essa. La
realtà dunque non è data e fattuale, ma è costruita nel processo, quindi nel
momento in cui viene ‘nominata’ (configurata discorsivamente) in quanto
tale (Turchi 2009:29-30).
17 Nell’ambito della scienza dialogica in cui l’oggetto è prodotto dalla
conoscenza che si genera attraverso l’interazione e l’uso del linguaggio
ordinario, il senso comune si definisce come un ‘modo’ di conoscere la
cui forma di conoscenza è differente dal senso scientifico: il senso comune
procede per affermazioni, ovvero si afferma quando si stabilisce che ciò
che è portato nella argomentazione è di per sé indipendente dalle categorie
o dai criteri usati (per quanto questo procedere resti comunque un modo).
La forma che tale modo usa è una forma che rileva le “cose” come indipendenti dai “modi” stessi. Il senso scientifico, di converso, procede per
asserzioni. L’asserzione è una particolare forma di affermazione, ovvero
una affermazione che esplicita le categorie conoscitive dell’osservatore,
cfr. G. P. Turchi, R. Fumagalli, M. Paita (a cura di) (2010), La promozione
della cittadinanza come responsabilità condivisa. L’esperienza pilota di
mediazione civica sul territorio della Valle del Chiampo.
52
ta dall’analisi del “sé contestuale”. Nei termini di Goffman,
non siamo in presenza di persone e dei loro momenti, piuttosto di momenti e delle loro persone (Zamperini 2004:49).
Dunque, come nella messinscena di un dramma i ruoli esistono a prescindere da qualsiasi attore, anche nell’istituzione
penitenziaria i ruoli sono script che prescrivono una certa
condotta, ponendosi
come proprietà collettiva che richiede
per il suo esercizio
la presenza di almeno due persone.
In tal senso, i ruoli sono sempre sia
costruiti sia assunti,
prendendo forma e
legittimazione dalle
istituzioni sociali in
cui sono contemplati.
“… le organizzazioni
distribuendo ruoli elargiscono identità. Quel
tipo di identità ospitata
da particolari palcoscenici dell’azione. E la
parte scritta dell’organizzazione punta al dissolvimento dell’identità
biografica”.18
Come le più o
meno recenti cronache suggeriscono, le responsabilità di
violenze e delle conseguenze di tali violenze che, in alcuni
casi, sono state correlate alla morte di cittadini arrestati o
detenuti in carcere, si collocano di frequente lungo una filiera che include un gran numero di soggetti, una filiera che
arriva ad includere, con gli autori materiali delle violenze,
i colleghi di tali autori, i loro superiori gerarchici, i medici che hanno visitato le persone detenute, i magistrati che
li hanno interrogati. È in tale scia che, in uno dei commenti
riferiti ai maltrattamenti che avrebbero cagionato la morte
di una persona detenuta in un reparto ospedaliero dedicato,
si è potuto leggere, in uno dei numerosi articoli di stampa
scritti a commento, “sarà difficile individuare i non colpevoli”. Ancora, durante il processo celebrato per indagare sulla
morte di un giovane per la quale sono stati poi condannati
quattro agenti della Polizia di Stato, un ispettore del medesimo corpo di Polizia ha dichiarato, non testualmente: “A. era
incensurato e dunque (enfasi aggiunta, ndr) non c’era alcuna
ragione di animosità nei suoi confronti”.19 Tale affermazione
18 A. Zamperini, op. cit., p. 63.
19 Dalla trasmissione televisiva “Un giorno in pretura” mandata in onda
il 22 novembre 2009 da RAI 3.
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI
è stata accolta dal silenzio dei più: del presidente della Corte,
del Pubblico Ministero, ma anche del legale delle parti civili, accomunati dal non aver utilizzato l’affermazione stessa
come occasione per raccogliere dall’ispettore considerazioni
ulteriori circa il rapporto fra certificato penale di un cittadino
e il trattamento del cittadino che le forze dell’ordine reputano di essere legittimate a praticare. Nel caso in esame, tale
rapporto è stato presentato come necessitato attraverso quel e
dunque, che configura un legame esclusivamente retorico fra
il primo contenuto (la condizione di incensurato del cittadino
fermato) e il secondo (l’assenza di animosità), dato per ovvio
dall’ispettore e non confutato da nessuno dei presenti aventi
titolo. Per converso, conferire attenzione - avvalendosi degli assunti teorici e metodologici della scienza dialogica - al
come sono stati usati i contenuti consente di asserire che tale
affermazione ha sottratto all’implicito che, perlomeno all’interno del gruppo di agenti alle dipendenze di quell’ispettore
durante la notte in cui F.A. è morto, fosse presente una teoria personale secondo la quale era considerato coerente col
mandato conferito alla Polizia di Stato provare “animosità”
(dal dizionario Zanichelli: ostilità, malanimo, faziosità) nei
confronti di un cittadino con precedenti penali, il cui status di
“pregiudicato” si riteneva, di conseguenza, fosse lecito pregiudicasse il suo status di titolare di diritti.
Nel suo libro “L’effetto Lucifero. Cattivi si diventa?” Zimbardo, nell’offrire il resoconto dell’accesso a fonti e testimonianze di prima mano di cui si è avvalso in qualità di perito
per la difesa nel processo intentato contro i soldati “torturatori” del carcere iracheno di Abu Ghraib, coglie l’occasione per
ripercorrere il suo esperimento carcerario di trent’anni prima
e delineare, anche alla luce di alcune repliche del medesimo
in contesti differenti,20 il paradigma del cattivo cestino.
Qualunque atto che un essere umano abbia commesso, per quanto
orrendo sia, può commetterlo chiunque di noi, nelle circostanze situazionali giuste o sbagliate. Saperlo non giustifica il male; piuttosto,
lo democraticizza, dividendone la colpa fra agenti normali invece di
dichiararlo ambito esclusivo di devianti e despoti: loro ma non noi.21
Come l’autore sottolinea in più passaggi richiamandosi
anche al celebre costrutto della banalità del male coniato
da Hanna Arendt, assumere questa diversa prospettiva non
20 Le Repliche e applicazioni dell’esperimento sono descritte da p. 371
a p. 379 del citato volume. Come scrive Clelia Bartoli (10:2010), “Tutte
queste, ad eccezione di un reality show della BBC – il cui setting era chiaramente poco scientifico – hanno dato risultati analoghi. […] Molto interessante anche l’esperienza prodottasi nella Cubberley High School di
Palo Alto nel 1967, in seguito ad una sorta di gioco di ruolo scolastico,
prodotto dal prof. Ron Jones per rispondere all’interrogativo di uno studente “Il nazismo potrebbe riaccadere?”. Il gioco rapidamente degenerò
e i ragazzi finirono per sentirsi davvero parte di una setta di eletti: the
Third Wave […] che ha ispirato le opere di numerosi scrittori e registi, cfr.
http://www.ronjoneswriter.com”)”. Fra queste, il film distribuito nel nostro paese con il titolo “La Terza Onda”, diretto da Anders Nilson (ndr). C.
Bartoli, La responsabilità di sistema e le ‘mele’ di Abu Ghraib, in Diritto
& questioni pubbliche, n.10/2010, www.dirittoequestionipubbliche.org/
page/2010.../a02_studi_C_Bartoli.pdf.
21 P. Zimbardo, op. cit., p. 318.
implica l’assoluzione delle persone coinvolte dalle responsabilità delle azioni compiute e nemmeno una sia pur larvata
giustificazione delle medesime. Sostenere la necessità di abbandonare il paradigma della esclusività della responsabilità
personale in favore di un paradigma che assume la responsabilità di sistema non costituisce “un pericoloso attentato
alla libertà individuale, perno della gran parte delle teorie etiche e giuridiche dell’Occidente” (bartoli cit.:3). Assumere
tale prospettiva può consentire di costruire “un discorso più
complesso sulla libertà dell’uomo e sulla sua vulnerabilità”
(bartoli cit.:4) senza per questo decretare “un determinismo
assolutorio e rassegnato” (bartoli 17:2010) quanto piuttosto
“… adottare un approccio di salute pubblica invece dell’approccio clinico standard inteso a curare mali e danni individuali” (Zimbardo 2008:XXV), spostando il focus dell’attenzione dal singolo ai processi attivati dall’interazione del
singolo con il sistema di riferimento attraverso il linguaggio
ordinario. Ebbene, più continua ad apparire difficile ritenere
che siano il caso o la cattiva volontà (tamburino 2000:170) i
responsabili del nocciolo afflittivo del carcere e della opacità
che spesso si oppone alla comprensione di quanto è accaduto (e dunque può nuovamente accadere) nelle circostanze in
cui convivono persone limitate nella libertà e persone che di
tali persone sono chiamate ad occuparsi, maggiore occorre
diventi l’impegno per mettere in campo aprocci conoscitivi
e convergenti strategie finalizzati alla realizzazione di una
incessante vigilanza sulle richieste poste ai ruoli attivi nei
diversi snodi della matrice istituzionale ed organizzativa e
sulle modalità di interazione fra tali richieste e coloro che
sono chiamate ad assolverle.
Se le istituzioni, nonostante la loro frequente mediocrità,
rendono possibile per una collettività umana riconoscere la
società come mondo comune; se il carcere è definibile, come
tutte le istituzioni, un artefatto umano; se anche il carcere è
fra le istituzioni cui è affidato il compito di tutelare i diritti e
di amministrare la giustizia in nome dei cittadini, anche dal
carcere e da come il carcere attua tale mandato dipende la
qualità della convivenza civile, dipende cioè l’intelligenza
collettiva impiegata nella elaborazione, nella discussione e
nelle scelte su quale società vogliamo e costruiamo (cfr. de
leonardis 2001) Se le istituzioni sono artefatti umani e non
enti di natura metafisica e astorica, è indispensabile, dunque,
proprio per quanto sinora argomentato, porre al centro dell’azione volta all’assunzione del paradigma della responsabilità
condivisa la conoscenza del come gli uomini e le donne che
abitano le istituzioni descrivono il mandato loro attribuito dai
precetti costituzionali e del come essi descrivono tale mandato con riferimento alle definizioni che di tale mandato vengono utilizzate nelle istituzioni stesse. In tal senso, nessuna
responsabilità può essere attribuita, fondatamente - per comportamenti inerti o manifestamente contrari al rispetto che si
deve anche a ogni persona umana la cui libertà sia limitata in
virtù di provvedimento di una pubblica autorità - a presunte
tare disposizionali dei pubblici agenti a vario titolo coinvolti senza incorrere in un errore epistemologico dalle nefaste
implicazioni proprio per il rispetto dei diritti umani e per la
53
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
legalità costituzionale. In tal senso, focalizzarsi, anziché sulle mele marce sui cattivi cestini consente di mettere l’accento
anche su una maggiore responsabilizzazione dei vertici delle
organizzazioni ossia “gli architetti di sistema”. È rilevante
notare, a tal proposito, che la commissione indipendente incaricata dal Ministero della Difesa statunitense di far luce su
300 incidenti occorsi a persone detenute a Guantanamo, in
Afghanistan e in Iraq ha concluso:
“L’eventualità potenziale di trattamenti abusanti nei confronti dei
detenuti durante la Guerra Globale al Terrorismo era assolutamente
prevedibile avendo conoscenza dei principi basilari della psicologia
sociale, insieme ad una consapevolezza dei numerosi ben noti fattori
di rischio ambientale. Molti leader non erano a conoscenza di questi
fattori di rischio e, pertanto, hanno fallito nell’adottare le misure necessarie a ridurre la possibilità che abusi di diverso tipo si verificassero durante le operazioni di detenzione” (bartoli 2010:20).
Proseguendo in tale scia, occorre sottrarre all’implicito
che di frequente il processo di legittimazione dei ruoli istituzionali collocati ai vertici di tali organizzazioni si impernia
prevalentemente sulla affermazione e riaffermazione simbolica delle gerarchie e dei gradi e che, al contrario, possono
promuovere una adeguata legittimazione, sia del proprio
ruolo sia di quello dei collaboratori stessi, quei dirigenti che
declinino il proprio status attraverso l’incessante vigilanza
sull’aderenza propria e dei propri collaboratori al testo costituzionale attraverso una lettura integrata dell’art. 27 con
gli articoli della Carta riferiti ai principi fondamentali della
dignità dell’uomo e del diritto al libero sviluppo della sua
personalità.
Pur condividendo con Bartoli che “questione aperta è se e
in che modo si possa rendere obbligatoria la trasformazione
di un sistema che cronicizza la devianza, la discriminazione
o l’illecito” (2010:22)22, è comunque indispensabile sostenere a tutti i livelli delle istituzioni la costruzione e l’esercizio
di competenze di ruolo che consentano di anticipare le criticità che possono verificarsi e di gestire le medesime elidendo
gli spazi per attribuzioni di significato personali al mandato
proprio del ruolo rivestito ove tali attribuzioni contemplino
la possibilità di cedimenti al venir meno del rispetto dovuto
ad ogni persona umana, con le connesse ricadute deontologiche, organizzative e gestionali.
Si tratta di far convergere ogni singolo atto o provvedimento verso l’adozione di repertori discorsivi istituzionali
e professionali che non contemplino attribuzioni identitarie
tipizzanti. Si fa riferimento, nella fattispecie, a quei repertori
che, organizzando definizioni di senso comune disponibili
nel contesto e da tale contesto implicitamente o esplicitamente avvalorate, consentono la reiterazione di copioni (si
torna alla metafora delle rappresentazioni teatrali o cinematografiche risalente a Goffman) all’interno dei quali viene
contemplato come “naturale” e, dunque, necessitato il conflitto fra i diversi attori della rappresentazione: fra chi arresta e chi è arrestato, fra chi detiene e chi è detenuto, fra
chi è detenuto per reati definiti “comuni” e chi lo è per reati
che vengono diversamente definiti, fra chi esercita un ruolo
orientato a sostenere i processi di attenuazione dell’afflittività e chi deve assicurare le condizioni per rendere possibili
tali processi, fra chi chiede la tutela dei diritti di chi è detenuto e chi è chiamato a dare esecuzione ai provvedimenti
della pubblica autorità che sono all’origine dell’arresto e
della detenzione. Occorre, in tal senso, con specifico riferimento al carcere, che le strategie di intervento impiegate
per l’adempimento della missione istituzionale prescindano
dall’attribuire centralità a domande che conferiscono statuto
ontologico al conflitto (Chi ha generato il conflitto? Quali
sono le sue caratteristiche?) in favore di approcci che consentano di intervenire sul come i conflitti vengano generati
attraverso l’uso del linguaggio adottato dalle parti per dichiarare il conflitto, indipendentemente dalle caratteristiche
che le parti si attribuiscono reciprocamente. Si pensi al permanere, nei rispettivi repertori discorsivi di (talune) persone
detenute e di (taluni) agenti di polizia penitenziaria (ma gli
esempi possono essere riferiti a qualsiasi contrapposizione
fra un noi e gli altri, quali quelle fra comunità autoctone e
immigrati) di definizioni identitarie che, stabilendo la sussunzione di alcune caratteristiche nelle quali si compendia in
modo esaustivo e compiuto il profilo dell’altro, stabiliscono
contestualmente le premesse del “conflitto”. Si tratta di un
conflitto che riduce a scarni stereotipi le identità delle parti
e che trascura la possibilità di impiegare repertori discorsivi
nuovi, in cui assumano centralità non i ruoli tipizzati in cui le
parti si sono reciprocamente confinate, ma la generazione di
regole che possono consentire nuove forme di dialogo, in cui
l’altro non venga identificato con una astrazione categoriale
e le sue parole non vengano utilizzate esclusivamente per
confermare la teoria di senso comune costruita dall’interlocutore facendo riferimento esclusivamente alle configurazioni validate dall’uso (il detenuto, per definizione, inaffidabile
e manipolatore; l’agente di polizia penitenziaria, per definizione, indifferente e arrogante et similia).
Circa l’importanza di abbandonare definizioni tipizzanti
dell’altro (sia gli agenti sia i detenuti cd. protetti) per approdare ad una diversa qualità delle relazioni Silvano Lanzutti (2010), detenuto presso la Casa di reclusione di Bollate,
scrive:
Devi intanto sconfinare da quel vecchio luogo comune che i detenuti
fanno i detenuti e gli agenti gli agenti. Devi comunicare con loro,
instaurare un rapporto di fiducia, ma, ancor prima, di socializzazione.
… Il “Progetto Bollate” sarà concluso quando un detenuto comune,
ristretto per reati di droga o rapine, accoglierà a braccia aperte, accompagnandolo nell’inserimento in reparto, il sex offender o colui
che venga trasferito da un reparto di “protetti”.
22 Questione posta dall’autrice anche attraverso la domanda “Vi è un
modo per rendere giuridicamente vincolante sostituire o aggiustare il cestino che fa marcire le mele?”, p.22.
54
Nel dare conto delle criticità incontrate nel costruire il proprio ruolo, un agente di Polizia penitenziaria riferisce, con
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI
argomenti e modalità d’uso del linguaggio simili, del fare riferimento al “sono solo carcerati” per “sbrogliare la matassa
e fugare ogni dubbio” (fonte: repubblica on line, 6 gennaio
2010):
raggiungere in modo efficace tale scopo.
91. Le autorità penitenziarie devono sostenere un programma di ricerca e di valutazione sulle finalità della detenzione, sul suo ruolo in una
società democratica e sul raggiungimento della missione da parte del
Il primo giorno pensi di essere preparato e forte - scrive un agente -
sistema penitenziario.
ma quando entri in sezione nessuno può sapere cosa succederà perché
ogni giorno è diverso da tutti gli altri... Quello che non capisci è quale
sia il tuo ruolo all’interno di questo ingranaggio. Non c’è libro che
ti spieghi come ti devi comportare, se sia meglio essere duri oppure
comprensivi e tolleranti... Tu decidi se ascoltare o essere ascoltato,
se fare o non fare, se rivolgerti a un superiore o fare di testa tua. Per
sbrogliare la matassa e fugare ogni dubbio scegli il ragionamento più
semplice e dici a te stesso: ‘Sì ma tanto sono solo carcerati’.
In entrambe le porzioni di testo considerate è possibile rilevare, pertanto, pur nella differenza dei ruoli considerati (il
detenuto e l’agente di Polizia penitenziaria), la constatazione
del ricorrere nel contesto istituzionale di repertori discorsivi
che assolutizzano e circoscrivono la definizione del ruolo dei
detenuti e di quello del personale di polizia penitenziaria, e
che assurgono surrettiziamente al rango di paradigmi per l’azione cui i diversi ruoli sono sollecitati, anche loro malgrado,
a fare riferimento: «[...] i detenuti fanno i detenuti e gli agenti
gli agenti» – «Sì ma tanto sono solo carcerati». È possibile,
pertanto, anticipare che, ove non vengano posti in essere dai
vertici delle istituzioni interventi finalizzati alla generazione
di condivisione della responsabilità circa il rispetto della legalità, l’opposizione e il conflitto fra ruoli tenderanno a perpetuarsi e a esacerbarsi, con i connessi gravami: climi istituzionali tesi e alto contenzioso disciplinare in primo luogo,
con il corteo di trasferimenti e di compromissione dei percorsi riabilitativi posti in essere e, dunque, del prolungarsi dei
periodi di detenzione, con esiti del tutto antinomici rispetto al
mandato conferito al sistema dell’esecuzione penale.
Sempre con riferimento al carcere, appare pertinente ricordare che le Regole Penitenziarie Europee sintetizzano le condizioni in grado di contrastare la cristallizzazione ed opposizione fra ruoli con indicazioni che enfatizzano l’influenza
delle “autorità penitenziarie”, sottolineando che particolare
rilievo deve essere conferito al contesto in cui devono svilupparsi le trame relazionali, la chiarezza degli scopi perseguiti
dall’intero sistema penitenziario e la necessità di gestire le
controversie e i conflitti fra le persone detenute e fra queste
e il personale anche attraverso forme di mediazione e riparazione:
56. Per quanto possibile, le autorità penitenziarie devono ricorrere a
Ancora, la Raccomandazione Rec (2012)5 del Comitato
dei Ministri agli Stati membri sul Codice Europeo di Etica
per il personale penitenziario23 messa a punto dal Comitato
Europeo per i Problemi Criminali (CDPC) presso il Consiglio d’Europa, precisa che se ciascun operatore penitenziario
«deve essere responsabile dei propri atti» nondimeno gli atti
e le omissioni di un funzionario devono «in tutti i casi» essere inseriti «in una catena gerarchica chiaramente definita»:
A.12. Il personale penitenziario deve essere, a tutti i livelli della gerarchia, personalmente responsabile dei propri atti, delle proprie omissioni o degli ordini dati ai propri subordinati; esso deve sistematicamente verificare la legalità delle operazioni che essi si propongono di
condurre.
A.13. L’amministrazione penitenziaria deve comportare una catena
gerarchica chiaramente definita in seno ai servizi penitenziari. Deve
essere possibile in tutti i casi determinare il superiore responsabile in
ultima istanza degli atti o omissioni di un funzionario penitenziario.
Senza dubbio, in tal senso, grande rilievo può assumere
l’apporto della formazione, iniziale e successiva, con alcune
avvertenze:
- la formazione in grado di consentire la collocazione ed
eventuale ri-collocazione nel ruolo non può che essere imperniata sull’assunto che tutti i ruoli si generano nell’interazione (sociale), in un contesto culturalmente e socialmente
connotato da cui l’attore attinge modi di vedere, che tale
interazione si svolge in riferimento a simboli culturalmente
condivisi, principalmente il linguaggio e che il linguaggio
proietta sulle situazioni, attraverso i ruoli e le organizzazioni,
mappe già costruite (Ciardiello 2008a);
- la formazione che persegua il cambiamento intervenendo
solo su una componente del sistema trascurando le altre è
destinata all’irrilevanza (verde 1989: 26);
- la formazione può concorrere al cambiamento solo se
vi sono, sullo sfondo, scelte politiche convergenti e risorse
umane ed economiche destinate alla soluzione dei problemi.
Là dove questo non sia presente come minimo comune denominatore di partenza, le eventuali “buone intenzioni” individuali sono destinate alla deriva, alla frustrazione e – come
ultima sponda - al disimpegno” (PePa 1992:31).
dei meccanismi di riparazione e di mediazione per risolvere le vertenze con i detenuti e le dispute fra questi ultimi.
72. 1. Gli istituti penitenziari devono essere gestiti in un contesto etico che sottolinei l’obbligo di trattare tutti i detenuti con umanità e di
rispettare la dignità inerente ad ogni essere umano.
Dunque, nonostante il carcere e il dibattito sulla sua (im)
possibile riforma siano praticamente coevi, rimane fondamentale interrogarsi sul senso e sull’efficacia del mantenere la centralità della pena detentiva e, ove si giudichi che
essa debba comunque essere inflitta, chiedersi quale pena
2. Il personale deve avere un’idea chiara dello scopo perseguito dal
sistema penitenziario. La direzione deve indicare la via da seguire per
23 http://www.coe.int.
55
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
possa assolvere al mandato conferito dai padri costituenti.
“Il dramma delle prigioni ha implicazioni che vanno molto al di là della scena su cui viene rappresentato”, scriveva
Cohen, che, nell’opera citata in esordio, affermava, continuando con la metafora cinematografica, che i critici possono avere, e hanno, influenza sul modo in cui il dramma viene
rappresentato, e possono, in ultima analisi, decidere anche
che venga o non venga rappresentato. Qualcosa di affine ha
scritto Mathiesen, descrivendo il ruolo degli intellettuali e
dei ricercatori sociali collocati “lungo il confine del sistema
carcerario” che, cedendo alle lusinghe della doxa (termine
greco usato da Bourdieu per connotare ciò che è posto come
insindacabile e dato per scontato in una cultura), scelgano di
implicarsi nel solo dibattito ortodosso:
Nel dibattito ortodosso i dettagli vengono discussi, ma le premesse basilari del sistema in questione rimangono indiscusse e [dunque] «doxiche». Nel dibattito eterodosso, per contro, le domande fondamentali
sulle premesse di base emergono (mathiesen 2002:343).
Nella prospettiva del dibattito eterodosso e, dunque, delle domande sulle questioni di base concernenti la questione
criminale, le risposte costituzionalmente orientate dovrebbero prendere le mosse dall’assunto che la privazione della
libertà non soddisfa nessuna delle esigenze della collettività offesa dai reati: la chiarificazione delle responsabilità; il
depotenziamento dei vantaggi che possono venire all’autore
dalla commissione del reato; l’incidenza effettiva sul futu56
ro dell’autore in termini di supporto al mutamento del suo
percorso biografico; l’affermazione della negatività della
violazione. Ancora, occorre sostenere l’elevazione dell’umanizzazione della pena e del finalismo rieducativo24 al rango
di scopi preminenti della pena in ogni momento della sua
esistenza e, dunque, sollecitare l’inversione del processo di
polarizzazione delle istanze di umanizzazione e di individualizzazione del trattamento sanzionatorio esclusivamente
sul versante esecutivo della pena. In tal senso, il recupero
del finalismo rieducativo oltre la sola fase dell’esecuzione
della pena si configura come pienamente compatibile con
l’obiettivo di minimizzazione del diritto penale, “da sempre
invocata dai giuristi come punto di equilibrio di una società
moderna che sappia rispondere con sanzioni differenziate, e
per questo maggiormente efficaci, a comportamenti dotati di
disvalore contenuto e comunque tali da non meritare una reazione criminalistica” (roia: 2003). Tesa alla minimizzazione
della violenza dei delitti, ma anche delle reazioni ai delitti,
la riduzione dell’area di incidenza del diritto penale si tradurrebbe, sotto il profilo normativo, nella definizione di un
arsenale sanzionatorio diversificato, flessibile quanto capace
di cogliere le specifiche esigenze sanzionatorie sottese alla
24 Il principio di umanizzazione della pena deve considerarsi come limite
della funzione rieducativa: quanto detto è attestato dal fatto che l’originaria formulazione dell’art. 27 co. 3 proposta dal Comitato di Redazione
della Costituzione italiana, su proposta dell’on. Aldo Moro, optò per l’anteposizione alla “rieducazione del condannato” del “senso di umanità” (M.
Ruotolo, Diritti dei detenuti e Costituzione, Giappichelli, Torino, 2002).
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI
commissione di un particolare illecito penale.
Poiché, memori della parola di Alessandro Baratta, nel
trattamento della questione criminale si intersecano differenti policy (politica sociale, economica, occupazionale,
urbanistica ecc.), occorre intervenire sulle categorie giuridiche fondative del vigente sistema sanzionatorio, risalente
al 1930 e, nel suo nucleo essenziale, come ha scritto Carlo Fiorio (2008), «espressione di una nomenklatura sabauda, maschile e padronale di un’Italia contadina». Nella scia
della copiosa produzione dottrinaria degli ultimi decenni e
delle diverse bozze approntate dalle Commissioni incaricate
nel corso delle ultime legislature di procedere alla revisione
del Codice penale, si ribadiscono in questa sede le direttrici fondamentali di tale intervento nella riconsiderazione del
numero e della fattispecie dei comportamenti cui attribuire
la qualifica di reato; nella riduzione del numero dei reati da
punire con la privazione della libertà, tenendo conto dei reati
che, nel concreto, sono produttori del progressivo aumento
del ricorso al carcere; nella riduzione della cd. “forbice” sanzionatoria tra il minimo e il massimo edittale; nell’introduzione della previsione di forme alternative di gestione dei
conflitti secondo il paradigma proprio della restorative justice, che punta alla restituzione alle parti e alla comunità della
responsabilità di costruire una diversa visione del conflitto
(Ciardiello 2009b).
Come fil rouge, il riferimento ad una diversa accezione
alla “certezza della pena”, da intendersi non in senso retributivo come inflessibilità della durata e della natura della
medesima, ma come certezza che lo stato, in presenza di
un reato, perseguirà l’autore e lo chiamerà a rispondere del
suo comportamento. In tale accezione, la certezza della pena
non dovrebbe tradursi in una prevenzione speciale sottratta
a qualsiasi limite garantistico e, dunque, confliggente con il
principio costituzionale della rieducazione del condannato.
Né, di conseguenza, potrebbe declinarsi attraverso la postulazione di una sorta di “colpevolezza per la condotta di vita”
espressa da quella tendenza alla configurazione normativa
per “tipi d’autore” che ha ispirato tempo fa la riforma della
recidiva25 - definita «preoccupante» dalla Corte costituzionale già nel 1993 (sentenza n. 306) - per i quali la rieducazione
non sarebbe possibile o non potrebbe essere perseguita.
Pene prescrittive, ablative, interdittive, para-detentive, ossia reazioni sanzionatorie diversificate, per un verso in grado di restituire alla pena quella sua ineliminabile funzione
di prevenzione generale (negativa e positiva) e per un altro
verso contestualmente atte a supportare l’inclusione sociale
dell’autore di reato, proprio in virtù della loro spiccata prossimità contenutistica con le note di disvalore tipico recate dal
fatto di reato per il quale è pronunciata condanna. Ma quel
che più conta: forme di punizione edittali non più e non solo
devolute alla fase della esecuzione, e quindi fruibili dal giudi-
25 E. Dolcini, Rieducazione del condannato e rischi di involuzione, in
Rassegna penitenziaria e criminologica, n. 2-3, a.2005, Roma, Istituto
Poligrafico e Zecca dello stato, Roma, p. 78.
ce della cognizione, ossia da applicarsi in esito al processo26,
che si aggiungano alle misure alternative alla detenzione e al
probation giudiziale di recente introdotto con la sospensione
del procedimento con messa alla prova, dal 2014 applicabile,
con modalità peculiari, anche ad imputati adulti.
Si tratta di una prospettiva all’interno della quale diventerebbe indispensabile definire i criteri di minimizzazione,
allo scopo di perseguire non solo la riduzione del numero
dei reati in astratto, ma anche di quelli che, nel concreto,
risultano produttori del progressivo aumento del ricorso al
carcere, sostenendo, al contempo, lo sviluppo di un sistema
extra-penale in grado di ridurre la domanda sociale di penalità e, al suo interno, di punizione attraverso il carcere. In tal
senso, occorre considerare che le leggi all’origine del sovraffollamento esponenziale cui si è assistito negli ultimi anni
hanno prodotto, solo nel 2007, l’arresto di 94 mila persone,
di cui 70 mila uscite nei nove mesi successivi (35 mila entro
11 giorni, 29 mila entro 3 giorni, pari al 32% del totale); che
una elevata percentuale delle condanne inflitte in nome della
città ostile (Margara 2002-2015) implica una elevata quantità di reclusioni brevi, per reati a vario titolo connessi con
condizioni di grave marginalità sociale inflitte a quelli che un
ex magistrato di sorveglianza definì, già molti anni fa, “gli
avanzi della giustizia” (Cappelli 1988); che le pene detentive, specie se brevi, enfatizzando le proprietà venefiche del
pharmakon, si risolvono in un grave danno per quella collettività che attraverso la segregazione, pur sempre temporanea,
si pretende di voler proteggere (Dolcini-Paliero 1989).
Assunto che una pena certa in quanto inflessibile risulta
troppo vicina all’antica dimensione vendicativa della pura
retribuzione, per eludere il rischio che una pena flessibile,
per essere tale, debba nutrirsi di discrezionalità suscettibili di
essere valutate come prive di fondamento giuridico e scientifico (Ciardiello 2004c:20) occorre divergere dall’attuale contrapporsi di prospettive dicotomiche, per aprirsi all’esame di
soluzioni rimaste ai margini del dibattito nonostante il loro
ricorrere nell’analisi della dottrina e degli stake holders.27 In
ogni caso, risulta indispensabile la ri-considerazione delle
implicazioni di una declinazione operativa del costrutto di
“rieducazione” che di frequente non appare supportata da
teorie adeguate all’oggetto di indagine e di intervento. Occorre, dunque, rivisitare criticamente gli assunti impliciti
utilizzati nella valutazione della progressione compiuta dai
condannati nel corso del trattamento, termine che, ancorché
presente nel vigente ordinamento penitenziario e nel relativo
26 P.Emanuele,“La funzione rieducativa della pena e l’esecuzione penale” in http://gruppodipisa.uniud.it/Benvenuto_files/emanuele.pdf.
27 Per una rassegna non esaustiva circa le modalità esperibili per salvaguardare le garanzie individuali ed il supporto ai processi di reinserimento
sociale eludendo i rischi connessi al neoretribuzionismo e all’illimitato
esercizio della discrezionalità giudiziaria, si vedano E. Dolcini, La “rieducazione” del condannato tra mito e realtà in Rivista italiana di diritto e
procedura penale, 1979; L. Eusebi, Può nascere dalla crisi della pena una
politica criminale?, in Dei delitti e delle pene, Edizioni Gruppo Abele,
1994; P. Ciardiello (a cura di), Quale pena. Problemi e riflessioni sull’esercizio della punizione legale in Italia, Unicopli, Milano, 2004.; G. De
Cataldo, Minima criminalia, il manifesto libri, Roma, 2006.
57
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
regolamento di esecuzione, favorisce il surrettizio soggiacere
degli interventi realizzati a supporto dell’inclusione sociale
degli autori di reato alle perduranti influenze del positivismo
scientifico e giuridico che si traducono in valutazioni del
cosiddetto “ravvedimento” effettuate, sotto mentite spoglie,
sulla scorta di criteri propri del paradigma positivistico e del
correlato modello clinico.
Nell’esprimersi al riguardo e riprendendo alcuni temi centrali della sua genealogia dei sistemi disciplinari, Michel
Foucault indicò nella“medicalizzazione della giustizia” l’origine del cedimento del soggetto di diritto allo psicopatico
e, per tale via, dell’eclissi del diritto penale:28
La medicalizzazione della giustizia conduce a poco a poco a un’evizione del diritto penale, delle pratiche giudiziarie. Il soggetto di diritto cede il posto al nevrotico o allo psicopatico, più o
meno irresponsabile, la cui condotta sarà determinata da fattori
psico-biologici. A questa concezione alcuni penalisti oppongono un ritorno al concetto di punizione che si concili meglio con il
rispetto della libertà e della dignità dell’individuo. Non si tratta di ritornare a un sistema di punizione brutale e meccanica… ma
di trovare una coerenza concettuale e di fare una netta distinzione tra ciò che compete al diritto e ciò che compete alla medicina.
… Ciò significa che gli individui che fanno parte di questa società
devono riconoscersi come soggetti di diritto che in quanto tali possono essere puniti e castigati se infrangono qualche regola. Non vi è
in questo, credo, niente di scandaloso. Ma è dovere della società fare
in modo che gli individui possano effettivamente riconoscersi come
soggetti di diritto.
Come l’assunto di base comune ai sostenitori e ai detrattori della spiegazione “identitaria” dei comportamenti di abuso
dell’autorità (sia che si tratti di azioni sia di omissioni o negligenze), il paradigma positivistico si caratterizza per un
orientamento marcatamente disposizionale, dunque imperniato sull’individuo, che trascura i processi interattivi e contestuali in cui si forma e modifica incessantemente l’identità
personale. Occorre perseguire tale obiettivo di modificazione
degli assunti teorici che, di frequente, vengono posti alla
base del cd. trattamento rieducativo29 perché é anche chiedendo e/o consentendo il perpetuarsi del ricorso al modello
eziologico-disposizionale – caratterizzante tuttora quella
parte dei saperi sull’uomo rimasta indifferente all’affermarsi
dei paradigmi interazionistici (Ciardiello - Turchi 2008) che si perpetua e si magnifica l’idea dell’homo criminalis che
altrove si enuncia scientificamente ed eticamente inaccettabile. Per tale via si pongono, pertanto, le premesse per la costruzione e la stabilizzazione dell’identità deviante che si
dovrebbe contrastare, per la sanzione di inefficacia degli in28 http://www.24sette.it/contenuto.php?idcont=537
29 In tale direzione si pronunciano anche le “Linee guida per l’inclusione delle persone sottoposte a provvedimenti dell’autorità giudiziaria”
- Ministero della Giustizia - Commissione consultiva e di coordinamento
con le Regioni e gli Enti locali presso il Dipartimento dell’Amministrazione penitenziaria (2008), nelle quali si dà per assunta l’adozione di un
approccio laico al trattamento rieducativo.
58
terventi in materia e per la cristallizzazione dei repertori culturali e delle rappresentazioni sociali concernenti gli autori
di reato e dei soggetti devianti, nell’accezione di senso comune che tali definisce individui o gruppi che si siano allontanati dal rispetto delle norme condivise all’interno di ogni
specifico contesto sociale (Berzano - Prina 1995: 9). Le pratiche connesse a tali assunti teorici meritano, peraltro, accorta considerazione in quanto, pur esterne all’orbita dei trattamenti “inumani e degradanti”, esercitano una decisiva influenza sull’entità e sulla qualità dell’esecuzione della pena
intra ed extramuraria, sulle relative policy e, dunque, sulla
possibilità che le reazioni ai reati e il reinserimento sociale
dei relativi autori diventino questioni di rango pienamente
pubblico con riferimento all’impatto di tali policy sulle questioni all’origine della loro predisposizione. Decisamente
poco esplorata a tutt’oggi, infatti, risulta la messa in opera
delle politiche pubbliche che si intersecano nella concreta
gestione e trattamento degli autori di reato e del contributo
che esse offrono alla delineazione del perdurante scarto fra le
finalità riabilitative enunciate nei testi normativi e gli esiti di
tali politiche, e ciò anche prescindendo dalle più che ampiamente dibattute implicazioni dell’ormai tendenzialmente endemico sovraffollamento.30 Anche in tal caso, gli assunti teorici e metodologici della scienza dialogica, coniugati con
quelli dell’analisi delle politiche pubbliche consentono di
asserire che occorre conferire ben maggiore attenzione al
come si realizzi la messa in opera dei principi inscritti nelle
leggi e alle strategie in tal senso utilizzate, a supporto della
pubblica controllabilità dell’efficacia di quanto viene compiuto “in nome del popolo italiano”. In tal senso, si registra
come la descritta, frequente torsione in senso clinico della
valutazione del grado di rieducazione conseguito e la mancata valutazione dell’impatto dei programmi riabilitativi a vario titolo posti in essere - con riferimento sia ai singoli autori
di reato sia ai raggruppamenti di essi realizzati con riferimento ai reati ascritti (v. sex offenders) o a condizioni soggettive (quali la presenza di una diagnosi di alcol-tossicodipendenza o di malattia psichiatrica) - si prestano agevolmente ad un impiego in chiave disciplinare/premiale di quegli
elementi del trattamento (istruzione, formazione professionale, lavoro, coltivazioni delle relazioni familiari) che dovrebbero, per converso, essere considerati – nella prospettiva
che si addice ad una democrazia costituzionale e alla separazione fra diritto e morale che ne costituisce il fondamento
positivo – come diritti effettivamente esigibili. Pertanto, anche nel caso si consideri plausibile che la prigione continui a
lungo a configurarsi come la detestabile soluzione di cui
sembra non potersi fare a meno (Foucault) occorre – oltre
30 Non è superfluo aggiungere che, con rare eccezioni, risulta parimenti
poco frequente anche l’esplorazione dell’impatto delle misure di welfare
penale assunte a supporto delle persone in misura alternativa alla detenzione o soggette a misure di probation, finanziate, in alcune regioni del
paese, da Regioni ed Enti locali attraverso dispositivi (dalle leggi di settore al Fondo Sociale Europeo) che accomunano le due popolazioni target
(soggetti in esecuzione penale intramuraria e soggetti in esecuzione penale
esterna).
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI
che farvi ricorso con la parsimonia intrinseca al frame delineato – rovesciare la prospettiva: dalla necessità di giustificare l’utilità della pena privativa della libertà alla doverosità
(per governi che vogliono tener conto dei diritti fondamentali della persona umana) di limitare la dannosità della privazione della libertà (Eusebi 1990:124 - Daga 1990). In tale
prospettiva, focalizzare il complesso degli interventi sul progressivo impiego da parte di tutti i ruoli attivi nel contesto e
dei detenuti stessi di usi del linguaggio che escludano la
coincidenza tout court fra persona e autore di reato renderebbe possibile fare ricorso al citato approccio di salute pubblica
indicato da Zimbardo come il più adeguato ad affrontare in
modo organico il supporto ai comportamenti rispettosi della
dignità umana, comportamenti che, nelle situazioni in cui
convivono persone private della libertà e persone che, per
motivi professionali, tale privazione devono gestire, risultano spesso a rischio. Peraltro, considerato che, secondo la
nota sentenza n. 204 emanata dalla Corte costituzionale nel
1974, “sorge il diritto per il condannato a che, verificandosi
le condizioni poste dalla norma di diritto sostanziale, il protrarsi della realizzazione della pretesa punitiva venga riesaminato al fine di accertare se in effetti la quantità di pena
espiata abbia o meno assolto positivamente al suo fine
rieducativo”,31 occorre considerare con rinnovata attenzione
le implicazioni del configurarsi del corrispettivo “obbligo
tassativo posto in capo allo Stato di predisporre i mezzi idonei e le forme atte a garantirle”.32 Si osserva, al riguardo, che
tale obbligo tassativo possa opportunamente imperniarsi (anche) su quanto prescritto dal Regolamento di Esecuzione
dell’Ordinamento penitenziario (art.115 co.5): “L’idoneità
dei programmi di trattamento a perseguire le finalità della
rieducazione è verificata attraverso appropriati metodi di
ricerca qualitativa”33 (la cui assertività è espressa attraverso
il ricorso all’impiego della forma verbale “è verificata”) e su
come tale prescrizione trovi concreta declinazione nelle programmazioni elaborate dalle singole direzioni degli istituti di
pena e degli Uffici per l’Esecuzione Penale Esterna nonché
nei programmi di trattamento che la legge penitenziaria dispone debbano essere predisposti con riguardo a ciascuna
persona condannata. Il mutamento di prospettiva in argomento deve, dunque, poter includere nel proprio orizzonte la
progressiva perequazione sul territorio nazionale della quantità e qualità dei servizi intesi secondo l’accezione sopra indicata, inclusi quelli deputati all’offerta alla Magistratura di
Sorveglianza di elementi di conoscenza pertinenti con l’obiettivo di promuovere il reinserimento sociale degli autori
di reato. E tale perequazione deve essere realizzata - oltre che
attraverso l’emanazione di linee di indirizzo convenute attra31 Tali principi sono stati confermati nelle successive sentenze nn. 343
del 1987, 282 del 1989 e 125 del 1992 (rispettivamente ai nn. 7, 8 e 4 della
motivazione in diritto.
32 Sentenza della Corte costituzionale n. 306 del 1993, p. 5.
33 L’inquadramento sistematico del comma citato in un articolo del
Regolamento di Esecuzione riservato alla Distribuzione dei detenuti ed internati negli istituti non preclude la possibilità di considerare tale prescrizione della valutazione dell’efficacia estensibile all’intera gamma degli interventi individualizzati a supporto del “trattamento” dell’autore di reato.
verso la Conferenza Stato-Regioni preparate da preliminari
intese interistituzionali - anche attraverso la promozione del
ricorso ad approcci teorici e a strumenti metodologici coerenti con la diversa rilevanza che si propone di conferire
all’interazione dialogica fra persona condannata e il più ampio contesto nel quale la persona sta espiando la condanna in
esecuzione nonché alla condivisione della responsabilità fra
i soggetti a vario titolo implicati nell’esecuzione della pena,
comprese le comunità locali. In tal senso, qualunque ruolo
chiamato a concorrere al perseguimento degli obiettivi assegnati al sistema dell’esecuzione penale deve essere parimenti chiamato ad assumersi la responsabilità di esprimere pareri
fondati su elementi obiettivabili, condivisibili, comprensibili
da chiunque debba avvalersene e non su affermazioni di fatto
non falsificabili, e dunque, da Popper in poi, estranee alla
prospettiva del metodo scientifico. Si tratta di un mutamento
di prospettiva che implica, insieme obiettivo e strategia di
azione, una politica che, nel tradursi in policy, sia in grado di
coniugare il minimo malessere necessario per i devianti con
il massimo benessere per i non criminali (Ferrajoli
1989a:325), di amministrare e governare il disordine (Mosconi 2004:318) senza sottoscrivere l’opzione di attribuire al
diritto una funzione pedagogica, di non accogliere senza riserve le fallacie argomentative su cui fondano le posizioni
della cosiddetta opinione pubblica ovvero quel senso comune34 che costruisce i modi di guardare alla realtà facendo ricorso alla creazione e alla conservazione degli stereotipi favorita, secondo la feconda lezione di Lippmann (1921:XVIII),
da una informazione che
…ha a che fare con una società in cui le forze dominanti sono assai
imperfettamente documentate… e che normalmente può documentare
solo quello che è stato documentato per lei dalle istituzioni nel corso
del loro funzionamento.
Nel transito verso il paradigma della responsabilità sociale
condivisa, anche il ruolo dell’informazione nella democrazia
moderna si configura, dunque, di importanza cruciale, assieme alla trasparenza delle istituzioni e dei processi politici, soprattutto nel dibattito sui temi collettivi che della formazione
delle opinioni (suscettibili di tradursi in orientamenti politici
e, dunque, nella scelta dei propri rappresentanti) dovrebbe
costituire la fondante premessa.35 La chiave di volta per il
34 Nell’ambito della scienza dialogica in cui l’oggetto è prodotto dalla
conoscenza che si genera attraverso l’interazione e l’uso del linguaggio
ordinario, il senso comune” si definisce come un ‘modo’ di conoscere
la cui forma di conoscenza è differente dal “senso scientifico”: il senso
comune procede per affermazioni, ovvero si afferma quando si stabilisce
che ciò che è portato nella argomentazione è di per sé indipendente dalle
categorie o dai criteri usati (per quanto questo procedere resti comunque
un modo). La forma che tale modo usa è una forma che rileva le “cose”
come indipendenti dai “modi” stessi. Il senso scientifico, di converso, procede per asserzioni. L’asserzione è una particolare forma di affermazione,
ovvero una affermazione che esplicita le categorie conoscitive dell’osservatore. (G. P. Turchi, R. Fumagalli, M. Paita 2010).
35 Si consideri, al riguardo, che già nella democrazia ateniese del IV
secolo avanti Cristo si assumeva come centrale l’idea che la legittimazione
di un ordinamento dipende dalla capacità dei cittadini di discutere gli affari
59
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
cambiamento in tale direzione può essere costituita dalla
convergenza dei contributi delle istituzioni, del sapere scientifico e delle attività di comunicazione verso la moltiplicazione delle opportunità di confronto dialogico sulle questioni di rilevanza pubblica, fra le quali certamente si annovera
l’impiego delle risorse collettive a supporto dell’inclusione
sociale degli ex autori di reato. Si tratta, attraverso tale confronto, di favorire lo sviluppo di una democrazia discorsiva
in cui venga definitivamente archiviato il mito di una volontà autentica del cittadino che preesisterebbe alla discussione
pubblica e quello della presunta coincidenza fra doxa ed episteme, ovvero fra quanto si afferma come reale e i criteri sulla scorta dei quali tale affermazione viene effettuata, dunque
fra senso scientifico e senso comune. In tal senso, concepire
la comunità politica come spazio di interazione discorsiva
implica l’allestimento di un contesto in cui le diverse posizioni possano essere valutate e confrontate; al contempo, tale
configurazione di comunità politica esige un ambiente normativo e culturale che riconosca appieno il ruolo e la responsabilità dei media e della comunicazione istituzionale nella
formazione dell’agenda pubblica. Presupposto fondante della democrazia discorsiva rimane un’intelaiatura istituzionale
(quella propria dello Stato costituzionale di diritto) in grado
di proteggere i canali della comunicazione sociale e della
formazione dialogica dell’opinione e della volontà, fornendo
la garanzia dell’autonomia individuale e di relazioni simmetriche di riconoscimento reciproco, espressione dell’eguale
dignità di tutti i soggetti. Fondato sull’assunto che “non abbiamo un linguaggio, ma siamo linguaggio” (volli 2005:
68), l’approccio in questione – che nella scienza dialogica
trova adeguato supporto teorico e metodologico – si delinea
come adeguato sia alla trattazione delle singolarità sia alla
considerazione della polifonia delle voci che si intrecciano
nei contesti in cui la questione criminale si articola. Se il linguaggio non esercita un ruolo passivo di mera registrazione
di un senso prodotto altrove, occorre, dunque, fare dell’attenzione alla costruzione discorsiva della realtà la strategia
di elezione per la generazione di conoscenza e per la sollecitazione del cambiamento culturale di cui in queste pagine si
propone l’avvento, a partire dalla decostruzione progressiva
dei repertori che nello spazio discorsivo pubblico – inclusivo
delle istituzioni e di chi nelle istituzioni opera – costruiscono
e mantengono le definizioni correlate a costrutti quali (in)sicurezza, devianza, trasgressione, pena, immigrazione, identità culturale. Tale decostruzione si palesa come indispensabile in quanto le relative modalità di costruzione della conoscenza, pur avvalendosi del senso comune che attribuisce
statuto ontologico a fenomeni socialmente e culturalmente
connotati, diventano le premesse apparentemente necessitate
di molte delle scelte comuni alle società globalizzate. E si
tratta di scelte cruciali in quanto, perpetuando pregiudizi e
stereotipi, alimentano “architetture” in cui le responsabilità
pubblici e una visione generale della società che attribuiva perciò grande
peso alla loro dotazione di informazioni e argomenti, alla loro partecipazione alla vita politica e alla loro autonomia morale.
60
di sistema – e dunque la condivisione delle responsabilità
che, ai diversi livelli e soggetti, competono – vengono minimizzate, se non sottaciute.
Pur in assenza dei sondaggi deliberativi e dei deliberation
days auspicati da alcuni dei più noti sostenitori della democrazia deliberativa,36 si tratta di obiettivi perseguibili anche
attraverso alcuni passaggi strategici che si configurano già,
qui e ora, come interni allo spazio discorsivo pubblico italiano ed europeo in quanto connessi sia alla compiuta declinazione degli obiettivi indicati dal legislatore costituente nazionale sia all’implementazione di raccomandazioni internazionali e dell’Unione Europea in materia di tutela dei diritti
umani e di promozione della coesione sociale. Si fa riferimento alle implicazioni della recente ratifica37 da parte
dell’Italia del Protocollo opzionale alla Convenzione ONU
del 1984 (sottoscritta dall’Italia nel 2003) che all’articolo 1
esplicita l’obiettivo «di creare un sistema di visite regolari in
tutti i luoghi di privazione della libertà effettuate da organismi indipendenti internazionali e nazionali, al fine di prevenire la tortura e altri trattamenti o pene crudeli, inumani o
degradanti».38 In tal senso si configura suscettibile di rilevanti implicazioni la recente istituzione di un’autorità nazionale
e indipendente competente per la vigilanza sui luoghi in cui
più intensi sono i rischi di violazione dei diritti umani39,
un’autorità che dovrà essere in grado di esercitare, come ha
scritto Antonio Cassese, «un controllo minuto ed efficace sul
modo in cui la macchina dello stato funziona all’interno di
luoghi che sono ancora troppo spesso nell’ombra». E per
esercitare tale controllo “minuto ed efficace” occorrerà che
tale autorità si avvalga opportunamente degli apporti dei Garanti istituiti da comuni, province e regioni40, secondo un as36 James Fishkin e Bruce Ackerman, rispettivamente, professore di
comunicazione internazionale e scienze politiche presso la Stanford
University e Sterling Professor di diritto e scienze politiche alla Yale
Law School. Secondo la concezione anglosassone, per “deliberazione” si
intende una attività di riflessione, argomentazione e ponderazione sulle
questioni di pubblico interesse prima di prendere una decisione promossa
da istituzioni interessate a creare le condizioni ideali per consentire all’opinione pubblica di esercitare un potere che, in assenza di tale ponderazione,
corre gli opposti e altrettanto temibili rischi rappresentati dalla tirannia
della maggioranza o dalla democrazia elitaria.
37 Con L.195/2012 il Parlamento ha autorizzato la ratifica del Protocollo
e l’adozione dell’ordine di esecuzione.
38 È noto che per completare l’adeguamento dell’Italia alle convenzioni
internazionali dovrebbe essere introdotta nel codice penale una specifica
previsione del reato di tortura, non riducibile alla somma di altre fattispecie generiche.
39 Tra tali luoghi, con le carceri, i Centri di identificazione ed espulsione
per persone prive di permesso di soggiorno, le camere di sicurezza annesse
alle caserme delle polizie locali e statali e dei Carabinieri, ma anche le
strutture deputate alla cura e alla riabilitazione delle persone consumatrici
di sostanze psicotrope illegali e/o nei cui confronti sia stata formulata una
diagnosi concernente sindromi definite di competenza della psichiatria.
Si vedano al riguardo le competenze attribuite al Controleur Genéral des
lieux de privation de liberté francese, in http://www.cglpl.fr/
40 Per una disamina di punti di forza e di debolezza dell’esperienza
dei Garanti italiani si vedano le Relazioni sull’attività svolta nel 2007 e
nel 2008 dal Garante dei diritti delle persone limitate nella libertà della
Provincia di Milano consultabili presso il sito istituzionale del citato Ente
e, più in generale, le Relazioni che documentano l’attività esercitata dai
Garanti finora istituiti.
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI
setto in grado di coniugare l’esercizio dei poteri attribuito al
Garante nazionale con la vicinanza ai luoghi in cui è più intenso il rischio di violazione dei diritti.41 Si noti, in tal senso,
anche il pronunciamento del Parlamento Europeo nella Relazione 2013-2014 sui diritti fondamentali nell’Unione Europea che, nella annessa Proposta di Risoluzione, al punto
151, “ricorda che i diritti fondamentali dei detenuti devono
essere garantiti dalle autorità nazionali; deplora le condizioni
di detenzione nelle carceri e in altri istituti di custodia di numerosi Stati, tra cui figurano il sovraffollamento delle carceri e il maltrattamento dei detenuti; ritiene indispensabile l’adozione, da parte dell’UE, di uno strumento che garantisca
l’attuazione delle raccomandazioni del Comitato europeo per
la prevenzione della tortura e delle pene o trattamenti inumani o degradanti (CPT) e delle sentenze della CEDU”. Legittimata, peraltro, dalla previsione di una autonoma fattispecie
di reato relativa alla tortura non ancora introdotta nella legislazione italiana, tale authority - grazie alla sua terzietà ed
indipendenza dal potere politico e alla fisionomia peculiare
delle sue attribuzioni, connotata dalla anticipazione delle criticità e dall’esercizio della moral suasion - si configurerà
quale snodo cruciale per il cambiamento progressivo sia delle configurazioni di realtà (discorsivamente intese) della
pubblica opinione in materia di amministrazione della giustizia e di uso della pubblica autorità sia di quelle connotanti il
mutamento culturale al centro della presente elaborazione:
un mutamento in grado di favorire la progressiva sedimentazione nel senso comune che quanto attiene all’anticipazione
e gestione dei comportamenti antigiuridici e delle relative
implicazioni implica l’esercizio di una responsabilità da condividere socialmente, come tale non delegabile esclusivamente agli attori istituzionali. In tal senso, il trattamento dei
cittadini destinatari di provvedimenti dell’autorità giudiziaria non può che configurarsi come l’insieme delle modalità di
interazione tra i membri delle istituzioni a vario titolo interessate, i cittadini che cooperano all’attuazione dei fini istituzionali e gli stessi cittadini destinatari di provvedimenti
dell’autorità giudiziaria, interazioni che devono essere tali da
consentire di anticipare e gestire le criticità che possono presentarsi all’interno dei contesti interessati secondo criteri di
coerenza con i principi costituzionali. Implicazione e corollario dell’assunzione di tale diverso paradigma della respon41 Circa le possibili declinazioni dell’articolazione fra livello nazionale
e livello locale e le relative implicazioni, si veda la ricerca promossa dal
Comune di Roma sulla figura del Garante in Europa nell’ambito di un
programma finanziato dalla Commissione Europea in http://www.ristretti.
it/areestudio/giuridici/garante/garante_europa.pdf. Si segnala che va affermandosi l’avviso secondo il quale sarebbe opportuno estendere la tutela
anche agli interessi legittimi, in base alla considerazione che, nell’istituzione penitenziaria, “alla distinzione tra diritti e interessi non corrisponde
necessariamente dal punto di vista sostanziale una simmetrica graduatoria:
è difficile negare, ad esempio, che il trasferimento del detenuto in una
struttura lontana dal luogo di residenza dei suoi familiari possiede una carica di afflittività ben maggiore della mancata corresponsione della «mercede» relativa ad un giorno di lavoro.” F. Della Casa, intervento al Convegno
Tra custodi e custoditi (5 novembre 2002) in www.abuondiritto.it, citato
da G. Santoro, in Diritti dei detenuti in Portogallo e in Italia. Esperienze a
confronto, consultabile nello citato sito web.
sabilità è l’impossibilità di una definizione del “bene” che
esuli dalla condivisione sopra delineata e che possa tradursi,
in assenza di tale condivisione, in inflizione di sofferenza
esercitata sia in modo intenzionale sia in modo non intenzionale e indiretto, attraverso quei trattamenti inumani e degradanti che, anche senza integrare forme di tortura, si configurano come la risultanza di una serie di comportamenti e circostanze che, di fatto, violano i diritti umani come sanciti
dalla Costituzione e dalle Convenzioni internazionali in materia. Ancora, occorre che, ovunque collocati, quanti nella
comunità scientifica42 e in quella civile, nei sistemi esperti e
nelle agenzie di welfare, nelle regioni, negli enti locali, in
Parlamento sono coinvolti, direttamente e indirettamente,
nella trattazione di questioni di rilevanza pubblica (e, dunque, concernenti i diritti, il diritto e la giustizia),43 assumano
che l’esclusione sociale, la devianza, i conflitti non hanno
esistenza indipendente dai modi socialmente istituiti di definirli e trattarli. A corollario di tale posizionamento culturale
ed epistemologico si pone il conferimento della massima attenzione ai processi interattivi di generazione della conoscenza mediati dal linguaggio e il ruolo che gli attori coinvolti vi svolgono, tenendo conto del mutamento dei processi di
controllo e della correlata nuova retorica che vanno prendendo forma nell’alveo della crisi del welfare (PitCh 2006:115).
In tal senso, la modificazione di quei repertori che nello spazio discorsivo pubblico si configurano come esito ed insieme
origine di quella che è stata definita la costruzione sociale
della paura - e, con essa, della richiesta di sempre maggiore
penalità - implica la delineazione di policy trasversali a tutti
gli ambiti dell’intervento sociale quanto convergenti verso la
condivisione di una sicurezza declinata come produzione di
maggiore “sicurezza dei diritti per tutti” (baratta Pavarini
2006b:58). In altri termini, si tratta di collocare il complessivo policy making nel solco della ragione sociale dello stato
italiano delineata dal testo costituzionale attraverso norme
che stabiliscono, con il principio della pace, i diritti fondamentali, individuali e sociali, e individuano le relative garanzie (Ferrajoli 2007b:898). In tale accezione, la sicurezza si
configura come l’esito dell’assunzione della cittadinanza
come ricerca e come responsabilità condivisa fra tutti coloro
che abitano un territorio. Si tratta di una prospettiva conso42 «Lo scienziato sociale acquisterà dignità e forza solo quando avrà elaborato il suo metodo. Ci riuscirà se sarà capace di tramutare in concrete
possibilità il bisogno dei dirigenti della Grande Società di possedere strumenti di analisi che rendano intelligibile un ambiente invisibile e formidabilmente difficile. (…) Questi studiosi della vita pratica sono i veri pionieri
di una nuova scienza sociale. Sono «ingranati nelle ruote motrici» e sia la
scienza che l’azione si avvantaggeranno in modo radicale da questo loro
connubio operativo: l’azione trarrà benefici dalla chiarificazione dei suoi
presupposti; i presupposti la trarranno dalla continua verifica dei fatti.» W.
Lippmann, op. cit., p. 270.
43 Paul Ricoeur, “La giustizia è un concetto che non appartiene né alla
morale né al diritto positivo, ma ai “principi generali del diritto”, che si
trovano nelle dichiarazioni universali dei diritti come per esempio nella Dichiarazione d’indipendenza della Rivoluzione americana, nella
Dichiarazione dei diritti dell’uomo e del cittadino della Rivoluzione francese e nel preambolo di molte costituzioni, che spesso contengono principi
più giusti rispetto al contenuto determinato delle leggi che seguono.”, in
http://www.emsf.rai.it/articoli/articoli/.asp?d=17.
61
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
nante con quella bachtiniana dell’«exotopia»: una sorta di
extralocalizzazione, «una tensione dialogica dominata dal
continuo ricostituire l’altro come portatore di una prospettiva
autonoma, altrettanto sensata della nostra e non riducibile
alla nostra», a prescindere da definizioni identitarie che, in
quanto tali, fossilizzano le possibilità di dialogo e di convivenza, cristallizzando in copioni predefiniti i ruoli di tutti e di
ciascuno (sClavi 2003:31).44 Corrispettivamente, assumere
anche la cittadinanza come responsabilità condivisa implica
la progressiva estensione della qualità e della quantità dei
soggetti che si considerino co-responsabili in materie a lungo
considerate di esclusiva pertinenza dell’autorità statuale quali la giustizia e la sicurezza, implicanti forme di partecipazione alla vita pubblica esigenti per tutti, compresi i cittadini,
attraverso forme della democrazia che, integrando le tradizionali espressioni della democrazia rappresentativa, promuovano la costruzione di regole volte a garantire non tanto
l’effettività di una partecipazione quale che sia quanto piuttosto l’effettività di una partecipazione di qualità (arena
2010, valastro 2010)45. Corollario di tale declinazione della
cittadinanza risulta la formulazione di politiche pubbliche e
progetti di intervento pertinenti con l’obiettivo di ridurre, in
prospettiva, il numero e l’offensività dei reati e quello delle
persone direttamente e indirettamente offese da tali reati
come parte di una più ampia strategia di supporto della coesione sociale. In tal senso, in quanto coerente con tale prospettiva e con quanto va affermandosi da tempo negli orientamenti del Consiglio d’Europa,46 occorre perseguire l’ade44 «Nell’empatia il ricercatore (e l’operatore) isola e decontestualizza alcuni tratti della esperienza dell’altro per comprenderla in base alla propria
esperienza, quindi mantenendo valido il proprio contesto. Finge di mettersi
nelle scarpe dell’altro, ma in realtà, all’ultimo momento, mette l’altro nelle proprie scarpe. Nell’exotopia invece la ricerca inizia quando, avendo
cercato di mettersi nelle scarpe dell’altro, ci si accorge che non gli vanno
bene. Ma per accorgersi bisogna «esporsi», non si può usare né i questionari né le interviste rigidamente strutturate». M. Sclavi, Arte di ascoltare e
mondi possibili, Bruno Mondadori, Milano, 2003, p. 31.
45 Per la trattazione delle implicazioni per la coesione sociale dell’assunzione della cittadinanza e dell’azione pubblica secondo il paradigma della
responsabilità condivisa v. P. Ciardiello, Il terzo luogo. Coesione sociale e
azione pubblica. Generare e valutare processi partecipativi, Aracne, Roma,
2016.
46 Si vedano, al riguardo, la Carta Sociale europea, la nuova Strategia
di coesione sociale e la dichiarazione di Helsinki. Ad esemplificazione
di tale orientamento, si riportano di seguito alcuni brani tratti dal libro
“L’approccio alla sicurezza attraverso la coesione sociale. Decostruire
la paura (degli altri) andando al di là degli stereotipi” edito a cura del
Consiglio d’Europa (www.coe.int.; pp. 31-34):
Sauvegarder la cohérence entre droits fondamentaux et sécurité
La crédibilité de la justice est un préalable auquel aucune société ne devrait
vouloir renoncer…face aux illégalismes qui s’opposent à une vie sociale
bien réglée, les autorités publiques doivent répondre avec détermination
mais d’une manière qui soit cohérente avec la substance des droits et des
libertés qu’elles sont finalement chargées d’assurer pour tous. … cela impose avant tout de sauvegarder son indépendance face aux pressions éventuelles d’autres institutions et agences, de développer son accessibilité,
d’assurer que son exercice soit égal pour tous.
(Palidda a souligné) l’exigence de ne pas donner aux pouvoirs discrétionnaires des polices l’occasion de se déployer: en contrôler démocratiquement l’activité et en réprimer les abus est aussi une bonne méthode pour
dénoncer toute exception aux normes juridiques et au respect des droits
fondamentaux.
62
sione al paradigma riparativo per l’anticipazione dei conflitti
e non solo per la gestione delle implicazioni dei conflitti
scaturiti dalla violazione della legge penale.
La progressiva adozione del paradigma della responsabilità sociale condivisa delineata in questa sede, in quanto
fondata sul garantismo quale principio ordinatore di tutti
gli interventi relativi alla res publica, implica la vigilanza
sull’adeguatezza dei contenuti normativi delle leggi ai contenuti normativi dei patti fondativi delle comunità. Inoltre,
configurandosi come fil rouge dell’azione pubblica e come
volano dell’integrazione delle diverse politiche di settore,
consente di tenere all’interno della stessa trama discorsiva
la riduzione della sfera degli illeciti penali e del ricorso alla
privazione della libertà, il contrasto delle teorie di senso comune che affermano e perpetuano sia la presunta diversità
ontologica dell’autore di reato sia quella dell’agente chiamato a gestirne l’arresto e la detenzione nonché la costruzione di uno spazio discorsivo pubblico in cui non trovino
legittimazione i repertori della violenza e della costruzione
della categoria del nemico e dello straniero, la generazione
di forme di vita democratica non imperniate esclusivamente
intorno all’aggregazione delle preferenze, ma anche alla loro
trasformazione. Ancora, si tratta di una prospettiva che, non
fondandosi sul carattere meramente formale del principio di
legalità, può consentire di coniugare le questioni connesse
alle tutele giurisdizionali e quelle relative al modello di sviluppo in grado di garantire e finanziare i diritti.47 Per tale via,
diventa, peraltro, plausibile che la politics maturi l’intendimento a – e diventi competente nel - generalizzare la promozione di nuove forme di esercizio della democrazia nella
corroborata certezza che senza il recupero della capacità di
costruire una visione condivisa del futuro essa è destinata a
rimanere muta e a perdere progressivamente legittimazione
…des nouveaux parcours de citoyenneté devraient être ouverts pour
contrer durablement la déviance, la désaffiliation, la discrimination des
groupes sociaux vulnérables.
Rouvrir les parcours de la citoyenneté, de l’utilité et de la valorisation de
tous pour déconstruire la peur
Des larges concertations qui se veulent efficaces à long terme devraient
développer une perspective plus ample et diversifiée, à partir d’un rééquilibrage des tâches et des poids relatifs entre élus locaux, membres d’associations et d’organisations civiles, entrepreneurs responsables de l’insertion,
professionnels de police, agents des services sociaux et experts en médiation des conflits et empowerment des relations de solidarité.
Développer un usage plus critique et participatif des médias
Si essentielles qu’elles soient dans une société démocratique sûre, une information plurielle et une communication participative ne se développent
pas spontanément: elles doivent devenir l’objet d’un intérêt collectif, voire
d’un développement proactif qui concerne à la fois les autorités publiques,
nationales et locales, les organisations et les mouvements de la société
civile, les professionnels du secteur, les structures de l’éducation et de la
formation aux différents niveaux et, finalement, tout citoyen en tant que
client des réseaux médiatiques.
47 S. Holmes, C.R. Sunstein, The Costs of Rights. Why Liberty Depends
on Taxes, W.W. Norton, New York 1999, trad. it. Il costo dei diritti.
Perché la libertà dipende dalle tasse, Il Mulino, Bologna 2000. In tale volume, gli autori mettono in evidenza che si discute dei diritti non tenendo
in adeguata considerazione che le pretese individuali o collettive elevate al
rango di diritti possono ricevere effettiva soddisfazione solo nella misura
in cui l’ordinamento non solo dà loro riconoscimento e tutela, ma destina
loro anche specifiche risorse. In altri termini, i diritti hanno dei costi.
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI
e consenso. Ed è all’interno di una tale visione del futuro che
anche gli interrogativi sul se, sul come e sul quanto punire
possano finalmente divenire questioni di rango pienamente
pubblico e, con essi, quelli inerenti le concrete modalità di
esercizio della limitazione della libertà personale dei cittadini.
RIFERIMENTI BIBLIOGRAFICI
Arena G., Tre regole per le nuove forme della democrazia,
in www.labsus.org
Bartoli C., La responsabilità di sistema e le mele di Abu
Ghraib, in www.dirittoequestionipubbliche.org/page/2010.../
a02_studi_C_Bartoli.pdf
Berzano L., Prina F., Sociologia della devianza, NIS, Torino, 1995.
Bosetti G., Maffettone S. (a cura di), Democrazia deliberativa. Cosa è, LUISS University Press, Roma, 2004.
Cacciari M., Due passi all’inferno. Brevi note sul mito
della pena, in U. Curi e G. Palombarini (a cura di), Diritto
penale minimo, Donzelli Editore, Roma, 2002.
Cappelli I., Gli avanzi della giustizia. Diario del giudice di
sorveglianza, Editori Riuniti, Roma, 1988.
Cassese A., Umano-disumano. Commissariati e prigioni
nell’Europa di oggi, Laterza, Bari, 1994.
Ciardiello P. (a), Formazione e sviluppo organizzativo
nel sistema dell’esecuzione penale, in Rassegna penitenziaria e criminologica, Istituto Poligrafico e Zecca dello Stato,
Roma, n.3, 2008.
Ciardiello P. (b), Giustizia riparativa, diritti e welfare plurale, in Giustizia riparativa, comunità, diritto, Studi sulla
questione criminale, Carocci Editore, Roma, anno IV, n. 1,
2009.
Ciardiello P., Il terzo luogo. Coesione sociale e azione
pubblica. Generare e valutare processi partecipativi, Aracne,
Roma, 2016.
Ciardiello P., Introduzione, in P. Ciardiello (a cura di),
Quale pena. Problemi e riflessioni sull’esercizio della punizione legale in Italia (1992-2004), Unicopli, Milano, 2004.
Ciardiello P., Turchi G.P., Paradigma narrativistico, osservazione scientifica della personalità e trattamento degli autori di reato in L. Colaianni, P. Ciardiello (a cura di) Cambiamo discorso. Diagnosi e counselling nell’intervento sociale
secondo il paradigma narrativistico, Carocci Editore, Roma,
2008.
Cohen S., Uno scenario per il sistema carcerario futuro in
F. Basaglia, F. Basaglia Ongaro (a cura di), Crimini di pace,
Einaudi, 1975.
Consiglio d’Europa, L’approccio alla sicurezza attraverso
la coesione sociale. Decostruire la paura (degli altri) andando
al di là degli stereotipi in www.coe.int.
Curi U., Il paradosso della pena, in U. Curi e G. Palombarini (a cura di), Diritto penale minimo, Donzelli Editore,
Roma, 2002.
Daga L., Sistemi penitenziari, (lemma), Enciclopedia del
diritto, XLII, Giuffrè, 1990.
de Leonardis O., Le istituzioni. Come e perchè parlarne,
Carocci, Roma, 2004.
Dolcini C., Paliero E., Il carcere ha alternative? Le sanzioni sostitutive della detenzione breve nell’esperienza europea,
Giuffrè, Milano, 1989.
Dolcini E., Rieducazione del condannato e rischi di involuzione, in Rassegna penitenziaria e criminologica, n. 2-3,
Roma, Istituto Poligrafico e Zecca dello stato, Roma, 2005.
Emanuele P., La funzione rieducativa della pena e l’esecuzione penale in http://gruppodipisa.uniud.it/Benvenuto_files/emanuele.pdf.
Escobar R., Il bene e la sua ombra, prefazione all’edizione
italiana a P. Zimbardo, L’effetto Lucifero. Cattivi si diventa?, Raffaello Cortina, Milano, 2008.
Eusebi L., La pena “in crisi”. Il recente dibattito sulla funzione della pena, Editrice Morcelliana, Brescia, 1990.
Ferrajoli L. (a), Diritto e ragione. Teoria del garantismo
penale, Laterza, Roma-Bari, 1989.
Ferrajoli L. (b), Principia juris. Teoria del diritto e della
democrazia, vol. 1. Teoria del diritto, Laterza, Bari, 2007.
Fiorio C., Mediazione e processo penale, in Mediare non
punire, Quaderni di “Antigone”, anno III, n.2, Edizioni
L’Harmattan, Torino, 2008.
Foucault M., Che cosa vuol dire punire, in http://www.
gianfrancobertagni.it/materiali/filosofiacritica/direpunire.
htm
Girard R., La violenza e il sacro, tr. it. Adelphi, Milano
1980.
Goffman E., Asylums, Einaudi, Torino, 1961.
Grande E., Il terzo strike. La prigione in America, Sellerio,
Palermo, 2007.
Holmes S., Sunstein C.R., The Costs of Rights. Why Liberty Depends on Taxes, W.W. Norton, New York 1999,
trad. it. Il costo dei diritti. Perché la libertà dipende dalle tasse, Il Mulino, Bologna 2000
Lanzutti S., Quella diffidenza che inquina i rapporti, in carte Bollate, aprile-marzo 2010, p. 10.
Lippmann W., L’opinione pubblica, Donzelli, Roma,
2000.
Margara A., Quale giustizia? Repetita non iuvant: Ancora
sulla pena e sul carcere, in http://www.questionegiustizia.it/
rivista/2015/2/quale-giustizia_repetita-non-iuvant_ancorasulla-pena-e-sul-carcere_243.php
Mathiesen T., Verso il XXI secolo. Abolizione: un sogno
impossibile?, in U. Curi e Palombarini G. (a cura di), Diritto
penale minimo, Donzelli Editore, Roma, 2002.
Mori L., Il consenso. Indagine critica sul concetto e sulle
pratiche, ETS, Pisa 2009.
Mosconi G., La crisi postmoderna del diritto penale, in U.
Curi e G. Palombarini (a cura di), Diritto penale minimo,
Donzelli Editore, Roma, 2002.
Mosconi G., Tre domande a Giuseppe Mosconi, in P. Ciardiello (a cura di), Quale pena. Problemi e riflessioni sull’esercizio della punizione legale in Italia (1992-2004), Unicopli, Milano, 2004.
Padovani T., Se i detenuti sono vittime del reato di maltrat63
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
tamenti, www.radiocarcere.com, 30 settembre 2009.
Pavarini M. (b), Introduzione. “L’aria della città rende (ancora) liberi”? Dieci anni di politiche locali di sicurezza, in M.
Pavarini (a cura di), L’amministrazione locale della paura.
Ricerche tematiche sulle politiche di sicurezza urbana in Italia, Carocci, Roma, 2006.
Pavarini M., Il grottesco della penologia contemporanea,
in U. Curi e G. Palombarini (a cura di), Diritto penale minimo, Donzelli Editore, Roma, 2002.
Pavarini M., Processi di ricarcerizzazione e nuove teorie
giustificative della pena in Rassegna penitenziaria e criminologica, Istituto Poligrafico e Zecca dello Stato, Roma, n.
1-3, 2000.
Pepa L., La risorsa umana nei servizi, in L. Pepa (a cura
di), La nostra Bastiglia. La sfida della formazione fra repressione e presa in carico della devianza, Edizioni Gruppo Abele, Torino, 1992.
Pitch T., La società della prevenzione, Carocci, Roma,
2006.
Re L., Carcere e globalizzazione. Il boom penitenziario negli Stati Uniti e in Europa, Laterza, Roma-Bari, 2006.
Ricoeur P., L’idea di giustizia, in http://www.emsf.rai.it/
articoli/articoli/.asp?d=17.
Roia F., La giustizia penale fra riforme processuali e riforme ordinamentali in http://www.diritto.it/osservatori/giustizia_costituzione/ver_giustizia/proc_pen_03.html.
64
Ruotolo M., Diritti dei detenuti e Costituzione, Giappichelli, Torino, 2002.
Sclavi M., Arte di ascoltare e mondi possibili, Bruno Mondadori, Milano, 2003.
Tamburino G., Conoscere il carcere, in Micromega, n.
1-2000, Gruppo editoriale “L’Espresso”, Roma.
Turchi G.P., Fumagalli R., Paita M. (a cura di), La promozione della cittadinanza come responsabilità condivisa.
L’esperienza pilota di mediazione civica sul territorio della
Valle del Chiampo, Domeneghini, Padova, 2010.
Valastro A., Una nuova sfida: qualità ed effettività della
democrazia partecipativa. Generare nuove forme di abitudine alla democrazia, in www.labsus.org
Verde A. (a cura di), I contributi teorici nel campo della formazione del personale penitenziario, in La formazione e l’aggiornamento del personale penitenziario, Quaderni
dell’Ufficio Studi, Ricerche e Documentazione della Direzione Generale per gli gli Istituti di Prevenzione e Pena, n.
23, Istituto Poligrafico e Zecca dello Stato, Roma, 1989.
Volli U., Manuale di semiotica, Laterza, Roma-Bari, 2005.
Zamperini A., Le prigioni della mente. Relazioni di oppressione e resistenza, Einaudi, torino, 2004.
Zimbardo P., The Lucifer effect. How good people turn
evil, Edizione italiana, L’effetto Lucifero. Cattivi si diventa?, Raffaello Cortina, Milano, 2008.
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | STORIA DELLA SCIENZA
La metodologia costruttivista e
l’unificazione culturale a livello di
formazione sono fattori indispensabili
per la conoscenza
FRANCESCO GIULIANO
N
el nostro tempo, quando la Scienza, figlia
del pensiero dialettico, sta facendo passi
da gigante – è recente la notizia scientifica sulla produzione per la prima volta di un fascio di atomi di antidrogeno al
CERN di Ginevra: una scoperta che apre le porte alla risoluzione dell’annoso problema della ‘prevalenza della materia
rispetto all’antimateria del cosmo’ – penso che uno dei mali
peggiori ai fini educativi e formativi sia il dogmatismo, ovvero un insegnamento di stampo catechetico che insegna ad obbedire, a eseguire ciò che ci viene ‘comandato’ e che, quindi,
‘impedisce’ di pensare e di elaborare in modo autonomo e
creativo. Il dogmatismo porta l’individuo, di fatto, ad acquisire sin dalla tenera età insegnamenti e precetti che gli vengono ‘imposti’ come verità assolute, indiscutibili, inconfutabili.
Ciò, di conseguenza, lo condiziona e gli chiude la mente rispetto al raggiungimento di nuove prospettive, a causa della
categorizzazione del lavoro in un determinato settore, dove
l’individuo è costretto a ‘ripetere’, anche se apparentemente diversificato, per l’intera esistenza tutto ciò che gli è stato insegnato. Oggi, stiamo vivendo una delle peggiori crisi
economiche che, secondo alcuni studiosi, ha prodotto, sta
producendo e ancora produrrà, nel mondo occidentale, danni peggiori di quelli generati dalla seconda guerra mondiale:
perdita del posto di lavoro con il conseguente aumento della disoccupazione, incapacità di adattarsi ad nuovo lavoro,
suicidi, crescita della disoccupazione giovanile, incremento
della povertà, impossibilità di inventarsi nuove attività lavorative, ma soprattutto precarietà non solo di chi è giovane ma
anche di chi, già adulto ( un cinquantenne ancora lontano dal
pensionamento) lavorando perde il lavoro per sempre.
Per cercare di scongiurare tutto questo, la scuola dovrebbe
avere il compito di educare alla creatività e all’adattamento a
nuove situazioni, evitando o riducendo nel contempo l’insegnamento dogmatico in tutte le discipline.
Si consideri pure il difficile rapporto asimmetrico tra le
scienze umane e le scienze propriamente dette. Le prime,
infatti, proiettate ad indagare sul passato e ad interpretarlo,
sono arroccate in un mondo isolato fatto di sapienza nonempirica che dà della realtà una visione pessimistica. Le
seconde, invece, grazie a tutte le straordinarie scoperte che
hanno permesso e permettono continuamente di progredire, e
al conseguente ampliamento della conoscenza e alla relativa
diffusione di essa tramite internet e i social network, stanno
immettendo l’umanità nel futuro con una visione ottimistica.
Una rivoluzione in atto, dunque, che sta portando l’uomo sia
a ‘vedere’ non solo il macrocosmo in cui vive ma anche il
microcosmo di cui è costituito, e a cambiare continuamente
il modo di intendere la vita e di interpretare il mondo e l’universo. Le vecchie entità e i loro mezzi che governavano l’umanità sono in crisi. Nel 1991, John Brockman, presidente
della Edge Foundation, in un saggio dal titolo The Emerging
Third Culture, scriveva: Negli ultimi anni il campo di gioco
della vita intellettuale americana si è spostato e l’intellettuale tradizionale ha assunto un ruolo sempre più marginale. Un’istruzione in stile anni Cinquanta, basata su Freud,
Marx e il modernismo, non è una qualifica sufficiente per
una testa pensante del giorno d’oggi. Di fatto gli intellettuali tradizionali americani sono in un certo senso sempre più
reazionari e spesso fieramente (e perversamente) ignoranti
di molti significativi conseguimenti intellettuali della nostra
epoca. La loro cultura, che disdegna la scienza, è spesso non
empirica. Utilizza un proprio gergo e lava in casa i propri
panni (più o meno sporchi). È perlopiù caratterizzata da
commenti di commenti, e la spirale di commenti si dilata fino
a raggiungere il punto in cui si smarrisce il mondo reale. Per
questi intellettuali tradizionali che, oltre che in America, si
trovano anche dalle nostre parti, tutto ruota attorno alla parola, che spesso è priva di fondamento. Si prospetta necessariamente, per questo, l’avvento di una terza cultura, in cui gli
umanisti pensino come gli scienziati e gli scienziati come gli
umanisti, perché in fondo ciò che accomuna gli uni agli altri
sono i sentimenti che esprimono e la passione che mettono
nel loro lavoro. Cambia l’essenza della ricerca, ma ciò che
65
STORIA DELLA SCIENZA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
opera è sempre e
soltanto l’uomo
con la sua mano
e la sua mente.
Emotività e razionalità vanno
di pari passo. Si
propone, allora,
con la terza cultura la concretizzazione di un
nuovo umanesimo!
La terza cultura, infatti, non
evidenzia tra la
cultura umanistica e quella
scientifica alcuna separazione,
quella separazione che ha
creato e crea dei
compartimenti
stagni culturali dannosi, che
costituiscono
un freno sia allo
sviluppo della
conoscenza a livello individuale che alla risoluzione dei problemi collettivi.
Chiediamoci, allora, perché oggi non si riesce ad affrontare
e risolvere i problemi sociali ed economici che assillano l’umanità progredita così come è stato sottolineato in premessa?
Oggi, mentre la scienza, grazie alla razionalità di cui è satura (non è un caso che il metodo scientifico, dopo un letargo
di circa diciotto secoli, abbia ripreso il suo cammino a partire
dal ‘600 grazie non solo al metodo scientifico galileiano e al
razionalismo cartesiano ma anche al ripristino della filosofia
epicurea, fautrice della libertà di pensiero, che subentrò prepotentemente alla filosofia aristotelica che invece ne era stata
inibitrice), stia progredendo in maniera esponenziale, penso
che una delle principali cause che generano l’allontanamento
della gente dalla ‘conoscenza’ sia l’uso latente del dogmatismo in tutti gli ambiti culturali e la divisione culturale a
livello formativo appena accennata.
A sostegno di ciò, risulta necessario citare l’interessante
saggio “Gödel, Escher, Bach: Un’Eterna Ghirlanda Brillante”, pubblicato nel 1979, del filosofo statunitense Douglas
Richard Hofstadter (1945) secondo cui tutto ruota attorno
alla seguente domanda: Le parole e i pensieri seguono regole
formali o no? Nel saggio vi si intrecciano, infatti, le opere del
matematico e logico austriaco Kurt Gödel, quelle dell’incisore e grafico olandese Maurits Cornelis Escher, e la musica
del grande e creativo compositore tedesco Johann Sebastian
Bach. Dal loro confronto emerge, appunto, la ricerca di un
66
filo comune, di
un meccanismo
neurologico latente, che unisca le loro opere
dell’uomo a settori culturalmente giudicati molto
diversi tra di essi,
come la logica,
la grafica, e la
musica, ovvero
come le idee, la
manualità e le
emozioni e i sentimenti espressi
dal linguaggio
musicale. Allora
siamo indotti a
porci le seguenti
domande: Il nostro cervello funziona allo stesso
modo sia quando
si risolve un problema matematico o si scrive una
proposizione o si
dipinge un quadro o si compila
un brano musicale? Non è il pensiero che ci guida in ogni
cosa? Non è il pensiero che guida la mano esperta in qualunque settore dello scibile umano? La Cultura può essere
‘compartimentata’ ai fini educativi? La compartimentazione
culturale è uno stereotipo? La separazione della Cultura in
umanistica e scientifica è utile ai fini educativi e formativi?
È bene, a questo punto, fare una miscellanea di semplici
considerazioni di carattere storico ai fini esplicativi ma anche
didattici.
A scuola si insegna fondamentalmente che 2 + 2 è sempre
uguale a 4 nell’insieme dei numeri naturali {0,1,2,3, 4, 5, …
… … , n}, ma raramente si insegna che il risultato potrebbe
essere diverso se si operasse in un insieme diverso come,
ad esempio, in {0,1,2,3} dove 2 + 2 = 0 oppure in quello
dell’orologio {1,2,3,4,5,6,7,8,9,10,11,12} dove 12 + 2 = 2.
Da ciò deriva, dunque, che il risultato di un’operazione, in
questo caso l’addizione, non è scontato, ma è relativo all’insieme numerico in cui si sta lavorando. Questo significa che
l’insegnamento basato su un procedimento assiomatico, cioè
costruito su determinati postulati convenzionali ma variabili,
creerebbe nell’individuo degli strumenti mentali flessibili che
lo porterebbero ad essere creativo e a sfondare la ‘gabbia’in
cui il dogmatismo lo vincola mentalmente per sempre. Eppure la storia ci ha fatto conoscere grandi filosofi come Talete
di Mileto (640 – 547 a.C.), secondo cui ‘la ragione governa il mondo’, o come Pitagora (570 – 495 a.C.), secondo il
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | STORIA DELLA SCIENZA
quale ‘la matematica è l’essenza della natura’, i quali sono
stati, in epoche diverse, i fautori della prima grande rivoluzione del pensiero scientifico. Essi scoprirono la potenza del
lógos, che in sé racchiude i significati di pensiero, di parola,
di concetto, di ragione. Grazie al lógos dopo il superamento
del mýthos, l’umanità considerò i fenomeni naturali non più
espressione arbitraria assegnata dall’uomo ad una qualsivoglia divinità, ma piuttosto espressione coerente e dialettica di
una divinità logica e matematica. Ciò determinò il passaggio
dall’incertezza alla certezza, tant’è che Aristotele (384- 322
a.C.) enunciò il principio di non-contraddizione secondo
cui è ‘impossibile che il medesimo attributo, nel medesimo
tempo, appartenga e non appartenga al medesimo oggetto
e sotto il medesimo riguardo’, che si esprime più semplicemente con la proposizione ‘P è anche non-P’ è falsa. Molto
tempo prima di lui, anche Parmenide, il filosofo eleatico vissuto nel VI secolo a.C., sosteneva che la legge formale della
non-contraddizione è la legge dell’Essere, a cui il pensiero
risulta vincolato in modo necessario per dargli compiutezza
e validità. Pensiero questo che si riscontra pure in Platone,
secondo il quale la logica è la costruzione matematica delle
connessioni delle idee, le quali costituiscono la base della
realtà e confutano gli errori e i paradossi applicando il principio di non contraddizione. Sin da allora, l’uomo pensante,
dunque, si è posto di fronte alla logica, sostantivo che deriva
appunto da lógos, che permette di discernere ciò che è valido
da ciò che non è valido; in definitiva ciò che è coerente da ciò
che è incoerente, ciò che contraddice un concetto ritenuto valido, nel contempo e nel contesto. Da allora sia la logica che
il principio di non-contraddizione, concetti inscindibili della
coerenza, sono stati basilari per la costruzione del pensiero
e del ragionamento congruente al fine della risoluzione di
un problema qualsiasi. Circa ventidue secoli dopo, Galileo
Galilei (1564 – 1642) scriveva nel “Il Saggiatore” che ‘La
filosofia è scritta in questo grandissimo libro che continuamente ci sta aperto innanzi a gli occhi (io dico l’universo),
ma non si può intendere se prima non s’impara a intender la
lingua, e conoscer i caratteri, ne’ quali è scritto. Egli è scritto in lingua matematica, e i caratteri son triangoli, cerchi, ed
altre figure geometriche, senza i quali mezzi è impossibile a
intenderne umanamente parola; senza questi è un aggirarsi
vanamente per un oscuro laberinto’. Tuttavia, con l’avvento
della meccanica quantistica (1925-1926), basata sul concetto
di quanto introdotto nel 1900 da Max Planck (1858 – 1947),
grazie ai fisici Werner Karl Heisenberg (1901 -1976 ) e Erwin Schrödinger (1887 – 1961), si è passati al concetto di
indeterminatezza, perché l’elettrone - con la teoria del 1924,
sul dualismo onda-corpuscolo, fatta dal fisico Louis De
Broglie (1892 – 1987) -, oltre a comportarsi come un’entità materiale ha il carattere di un’onda, in quanto manifesta
proprietà ondulatorie, cioè l’elettrone risulta al tempo stesso
corpuscolo (essere) e onda (non-essere). In questo modo, si
è passati sponte sua dalla dialettica aristotelica a quella antidialettica o di Eraclito (535 – 475), che si può esprimere
con le seguenti semplici citazioni, ‘negli stessi fiumi scendiamo e non scendiamo’ a causa dello scorrere dell’acqua,
o ancora ‘il mare è l’acqua più pura e impura: per i pesci è
bevibile e vitale, per gli uomini è imbevibile e mortale’. Ciò
ha comportato, allora, il passaggio ad un’altra logica dove
possono risultare ‘vere un’affermazione e la sua negazione’,
cioè, come si diceva in latino, ‘ex falso (sequitur) quod libet’,
dal falso (segue) una qualsiasi cosa a piacere. In definitiva, il
principio di non contraddizione viene sostituito dal principio
di complementare contraddittorietà, che equivale a quello
che si chiama più semplicemente “principio di esplosione”
secondo cui ‘data una proposizione possono risultare vere
tutte le proposizioni che la negano’, cioè ‘P è anche non-P’
è possibilmente vera.
Se nel passato, non ci fossero stati matematici dotati di
strumenti mentali di elevata creatività, oggi non avremmo
l’informatica basata sull’algebra di Boole (1815 – 1864), che
utilizza l’insieme {0,1}, né avremmo la già accennata meccanica quantistica (che studia l’infinitamente piccolo), né
la teoria della relatività generale di Einstein (che si occupa
dell’infinitamente grande). Tutto ciò grazie alla modifica del
quinto postulato della geometria piana o euclidea (III secolo
a.C.) che è quella che si studia normalmente a scuola. Il quinto postulato di Euclide è quello relativo al parallelismo di due
rette: ‘data una retta e un punto esterno ad essa esiste un’unica retta parallela passante per detto punto’. Modificando
tale postulato sono sorte due geometrie, dette appunto non
euclidee: la geometria ellittica o geometria di Bernhard Riemann (1826 –1866) e la geometria iperbolica o geometria di
Nikolaj Ivanovič Lobachevskij (1792 -1856). Queste geometrie, a differenza della geometria piana euclidea, non sono
intuitive, ma importanti ai fini di scandagliare la realtà più
approfonditamente.
Per rendere più accessibili questi concetti e per favorire lo
sviluppo di capacità creative, nell’insegnamento si potrebbe
usare l’approccio ‘metodologico costruttivista, che considera il sapere come qualcosa che non può essere ricevuto in
modo passivo (come affezione del mondo esterno) dal soggetto, ma che risulta dalla relazione fra un soggetto attivo
e la realtà. La realtà, in quanto oggetto della nostra conoscenza, sarebbe dunque creata dal nostro continuo “fare
esperienza” di essa’. Esso si basa, dunque, sul processo di
costruzione individuale dei significati concettuali i quali, attraverso la comunicazione e il confronto, diventano anche
sociali. Ciò comporterebbe uno stravolgimento educativo rivoluzionario che trasformerebbe l’insegnamento ‘versativo’
e ‘passivo’ attualmente usato in ‘attivo’ con tutti i vantaggi
educativi che ne deriverebbero.
Un insegnamento creativo sarebbe altamente democratico
perché permetterebbe, appunto, la comprensione di concetti scientifici non comuni, ma presenti in diversi settori culturali. Alcuni di essi vengono applicati al comportamento
umano per comprenderlo meglio, come l’isomorfismo (dal
greco isos, uguale, e morfé, forma, significa uguale forma),
un concetto algebrico fondamentale tra due oggetti ‘indistinguibili per la loro struttura’. Nel linguaggio algebrico, l’isomorfismo corrisponde a due strutture algebriche che hanno
lo stesso numero e tipo di operazioni e che tra di esse vige
67
STORIA DELLA SCIENZA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
la corrispondenza biunivoca. Usando, ad esempio, la tavola
pitagorica di moltiplicazione dei segni positivo + e negativo
-, e quella di addizione dei numeri pari P e numeri dispari D:
+
x
+
=
+
P
+
P
=
P
+
x
-
=
-
P
+
D
=
D
-
x
+
=
-
D
+
P
=
D
-
x
-
=
+
D
+
D
=
P
si scopre che sono la stessa cosa, in quanto la differenza
tra queste due tavole è soltanto una differenza di nomi degli
oggetti (+,– in una e P,D nell’altra) e delle operazioni (moltiplicazione nella prima e addizione nella seconda). Insomma,
tra le due tavole basta un cambiamento di nome che tra di
esse esiste una corrispondenza biunivoca. I seguenti esempi
pratici risulteranno utili per la comprensione del concetto:
a) Una sferetta di vetro e una sferetta di marmo sono entrambe palline dense: anche se sono fatte di sostanze diverse,
le loro strutture geometriche sono isomorfe.
b) Un normale mazzo di 40 carte da gioco siciliane e un
normale mazzo di 40 carte da gioco piacentine: anche se le
figure sono differenti, i mazzi hanno la stessa struttura, cioè
sono isomorfi e le regole di gioco sono identiche indipendentemente dal mazzo che si utilizza.
Il concetto di isomorfismo si trova anche in contesti considerati culturalmente diversi.
Sostiene, infatti, Douglas Hofstadter nel citato saggio
“Godel, Escher, Bach: Un’eterna ghirlanda brillante” che
‘si parla di isomorfismo quando due strutture complesse si
possono applicare l’una sull’altra, cioè far corrispondere
l’una all’altra, in modo tale che per ogni parte di una delle
strutture ci sia una parte corrispondente nell’altra struttura;
in questo contesto diciamo che due parti sono corrispondenti se hanno un ruolo simile nelle rispettive strutture’.
In mineralogia l’isomorfismo è il fenomeno secondo il
quale due o più sostanze aventi composizione chimica simile
cristallizzano nello stesso sistema in forme analoghe, come
la magnesite (o carbonato di magnesio) MgCO3 e la siderite
(o carbonato di ferro II) FeCO3. Anche qui tra le due strutture chimiche esiste una corrispondenza biunivoca. In natura,
l’isomorfismo è un fenomeno molto comune.
In psicologia esiste “Il postulato dell’isomorfismo della
Gestalt (o Psicologia della forma o rappresentazione)”, il
quale sancisce che ‘i processi astratti del pensiero (i processi della memoria, dell’apprendimento, del comportamento,
ecc.) hanno un preciso supporto materiale. L’isomorfismo
indica un’identità strutturale tra il piano dell’esperienza
diretta e quello dei processi fisiologici ad esso sottostanti.
Qualsiasi manifestazione del livello sensibile, dalla semplice
percezione di un oggetto alla più complessa forma di pensiero, trova un corrispettivo in processi che a livello cerebrale
presentano caratteristiche funzionali identiche.’
Prediamo, per fare un esempio, la transumanza, cioè la
migrazione stagionale dalle zone collinari e montane, verso le pianure e viceversa, delle greggi alla ricerca di pascoli
68
ad opera dei pastori, ovvero il passaggio da un pascolo ad
un altro, come ha scritto Gabriele D’Annunzio nella poesia
“I pastori”: Settembre, andiamo. È tempo di migrare./ Ora
in terra d’Abruzzi i miei pastori/ lascian gli stazzi e vanno
verso il mare:/ scendono all’Adriatico selvaggio/ che verde è come i pascoli dei monti. .... Un fenomeno tipicamente
italiano quello della transumanza data la conformazione geografica dell’Italia – i monti sulla dorsale appenninica e la
pianura che si stende verso il mare -, dettato da un’esigenza
utilitaristica e necessaria per il sostentamento degli animali.
La transumanza è uno spostamento da un luogo ad un altro
che ha inciso nella psiche di molti italiani facendoli diventare trasformisti. I comportamenti dei transumanti e dei trasformisti, a dirla con Hofstadter, costituiscono ‘due strutture
complesse che si possono applicare l’una sull’altra, cioè
far corrispondere l’una all’altra, in modo tale che per ogni
parte di una delle strutture ci sia una parte corrispondente
nell’altra struttura; in questo contesto le due parti sono corrispondenti perché hanno un ruolo simile nelle rispettive
strutture.’
Conseguentemente, risultano isomorfi i comportamenti dei
transumanti e quelli dei trasformisti, anche se i primi sono
encomiabili dal punto di vista sociale ed economico, mentre
i secondi, al contrario, sono immorali e deprecabili. Come
i transumanti che passano da un pascolo ad un altro, così i
trasformisti passano da una ideologia ad un’altra ideologia
però secondo i loro bisogni e le loro necessità e non secondo i bisogni e le necessità della collettività. L’operazione, in
ambedue i casi, presuppone ‘processi che a livello cerebrale presentano caratteristiche funzionali identiche’ anche se
cambia solo il fine.
Senza entrare nel merito, c’è isomorfismo anche tra verità
e falsità, tra reale e virtuale come, ad esempio, tra noi e la
nostra immagine riflessa da uno specchio, e così via.
Passando ora ad un altro settore scientifico, quello della
meccanica quantistica, si prenda come riferimento il citato
principio di indeterminatezza di Heisenberg, formulato nel
1927. Esso esprime i limiti riguardo la determinazione dei
valori delle grandezze fisiche osservabili in un dato sistema
fisico. Quando due di tali grandezze non possono essere determinate contemporaneamente esse risultano incompatibili,
quali possono essere la velocità, o l’energia o l’impulso e
la posizione di un elettrone all’interno di un atomo: ‘È impossibile la determinazione simultanea della velocità, o di
qualsiasi proprietà affine, per esempio l’energia o l’impulso,
e della posizione di una particella’. Ebbene, questo principio si può applicare anche al comportamento umano. Infatti,
considerando l’essere umano vivente come sistema fisico,
quando gli si presenta un certo evento che lo coinvolge e
lo perturba, esso userà per la valutazione di quell’evento sia
la ragione che il sentimento. Ragione e sentimento risulteranno le due grandezze incompatibili di tale sistema fisico.
Ad esempio, quando un uomo sposato, incontrando una bella
donna se ne invaghisce, subisce il famoso colpo di fulmine.
Esso nel caso che si lascerà trasportare dal sentimento non
terrà conto della ragione e, viceversa, se si lascerà trasportare
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | STORIA DELLA SCIENZA
dalla ragione comprometterà il sentimento. Cioè l’una prevarrà sull’altro o viceversa. Applicando, allora, il principio
di indeterminatezza alle relazioni umane (amore, amicizia,
rapporti commerciali o finanziari, interessi politici, ecc.) si
potrebbe azzardare la seguente formulazione per l’analogia
testé considerata: ‘È impossibile la definizione simultanea
della ragione e del sentimento di una persona in uno stato
di perturbazione’.
In Chimica esiste un principio, noto come principio dell’equilibrio mobile, che venne scoperto dal chimico francese H.
Le Châtelier nel 1884 e, un anno dopo ma autonomamente,
dal chimico tedesco F. Braun. Questo principio, che si trova
in tutti i testi di ‘Chimica generale’ per la sua fondamentale
importanza, sancisce che ‘se un ad sistema chimico (reazione chimica) in equilibrio viene apportato dall’esterno una
variazione ad uno dei fattori che lo ‘governano’, il sistema
viene perturbato e tende a controbilanciare la variazione
apportata al fine di ripristinare l’equilibrio’. In altre parole, tale concetto esprime in chimica quello che è il terzo
principio della dinamica in fisica. Secondo il chimico-fisico
americano Walter John Moore (1918 – 2001), docente all’Università dell’Indiana, questo principio addirittura è universale, in quanto si può applicare anche alla psicologia, alle
scienze sociali, all’economia. E, quindi, anche alla politica
sia nazionale che internazionale. Orbene, sulla base di ciò,
partendo dal presupposto che ogni Stato del mondo, dal punto di vista socio-politico, sia fondato su una qualsiasi forma
di governo sia essa democratica, o totalitaria, o monarchica
costituzionale, o altro, questa ne determina l’instaurarsi di
una condizione d’equilibrio e che questo equilibrio si rifletta
anche a livello planetario. Se si intervenisse dall’esterno a
modificare, in un qualsiasi Stato, l’equilibrio socio-politico
esistente, si creerebbe in esso uno stato di perturbazione che
avrebbe riflessi non solo sull’equilibrio interno ma anche su
quello esterno con risvolti imprevedibili.
Tenendo conto di tutto questo, rivolgendo lo sguardo
alla storia recente, sia l’intervento in Iraq con la cosiddetta
‘guerra preventiva’ ideata nel 2003 dal presidente americano Bush sia, successivamente, l’ingerenza in Libia che ha
portato all’eliminazione fisica di Gheddafi, sono stati i fattori
esterni che hanno apportato perturbazioni sconvolgendo gli
equilibri esistenti in questi Paesi con riflessi negativi anche a
livello internazionale. Infatti, in concomitanza con la guerra
civile in Siria, tutto ciò ha posto le basi della nascita dell’ISIS
(Stato Islamico dell’Iraq e della Siria) che sta diffondendo
terrore e morte in ogni parte del mondo. Gli attentati continuamente rivendicati da questa crudele organizzazione, sia
quelli passati che quelli recentissimi di Parigi, di Bagdad, di
Dacca, dell’abbattimento dell’aereo russo sul Sinai e di tanti
altri ancora, che hanno prodotto centinaia di morti e feriti
innocenti e inermi, sono atti a creare, mediante la trasmissione di paura e panico tra la gente, modifiche all’equilibrio
esistente e quindi al sistema politico occidentale vigente, basato sui valori rispettosi della dignità umana e fondanti della
democrazia, tra cui la fratellanza, l’uguaglianza e la legalità,
e sono finalizzati a porre il predomino dello stato islamico sul
mondo occidentale, socialmente progredito.
La simmetria (Dal greco συμμετρία, che proviene
da σύν “con” e μέτρον “misura”), un concetto geometrico
e algebrico, è ‘un’ordinata distribuzione delle parti di un
oggetto (di un edificio, di una struttura, di un’opera d’arte,
ecc.) tale che si possa individuare un elemento geometrico
(un punto, una linea, una superficie) in modo che a ogni
punto dell’oggetto posto da una parte di esso corrisponda, a
uguale distanza, un punto dall’altra parte’: la simmetria di
una piazza; la simmetria in pianta, o in alzato, di un edificio; una facciata che manca di simmetria. ‘In questo senso,
si parla di simmetria con riferimento, per es., al viso o al
corpo umano, oppure al corpo di un insetto, o ad una foglia vegetale, ecc., idealmente divisi longitudinalmente da
un piano (piano di simmetria) che li separa in due parti specularmente uguali. … presso gli antichi Greci, (ha il significato di) intimo e armonico rapporto di proporzioni e di ritmi
dell’opera d’arte …’.
Da ciò scaturisce anche la profonda e intima connessione
tra simmetria e ordine. Tant’è che il pakistano Abdus Salam,
premio Nobel per la Fisica 1979, afferma che ‘Una tavola
apparecchiata ove ogni commensale ha una posata alla sua
destra e una alla sinistra è perfettamente simmetrica. Ma
non appena il primo commensale sceglie la posata con cui
cominciare a mangiare, questa simmetria viene infranta: subentra un ordine, che consente a tutti di cibarsi senza usare
le mani.’ Nel linguaggio comune, ordine e simmetria sono
spesso usati come equivalenti, ma non appena si passa al
disordine si crea un nuovo ordine che crea un dinamismo
tale da permettere al sistema (nel nostro caso la tavola apparecchiata con i commensali) di evolversi. Ogni commensale
è libero di mangiare come vuole, anche se rimane soggetto
ad alcune regole e in un continuo interscambio con gli altri,
soprattutto con i vicini.
Ma anche nella ‘psicologia del comportamento, … (con
la simmetria) si qualifica il tipo di rapporto interpersonale (e
i relativi comportamenti) nel quale entrambi i soggetti tendono a esercitare un dominio sull’altro, rifiutando di assumere un ruolo subalterno e instaurando così una situazione
di costante competitività, da cui può scaturire un equilibrio
di tipo simmetrico.’ Il che si traduce, nei rapporti di amore,
di amicizia, di lavoro, di interessi vari, in uno scambio, un
do ut des continuo, una biiezione tra i sentimenti dell’uno
e dell’altro, tra gli interessi dell’uno e dell’altro, cioè una
corrispondenza biunivoca tra l’uno e l’altro. Bisogna evitare, però, di comportarsi come Narciso che, innamoratosi
della sua immagine riflessa dallo specchio d’acqua, la vuole
abbracciare, ma cade nell’acqua rompendo definitivamente
la corrispondenza biunivoca tra sé e la sua immagine. In altre
parole, quando nei rapporti interpersonali tra due soggetti, in
uno di questi prevalgono l’amore di sé, l’egoismo, l’ipocrisia, il cinismo, ecc., viene meno la simmetria. In mancanza
di questa interrelazione, ne consegue che tutto viene a cessare, non c’è più simmetria, e il dinamismo tra i due soggetti
scompare definitivamente.
In geometria, tra tutte le figure geometriche piane, quella
69
STORIA DELLA SCIENZA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
più simmetrica è il cerchio dotato di infiniti elementi di simmetria mentre tra tutte le figure geometriche solide è la sfera.
Questa concezione se fosse conosciuta da alcuni politici non
gli farebbe fare banali errori così come è avvenuto qualche
anno fa nella presentazione alla stampa del simbolo di un
nuovo partito. Ne fu giustificata, infatti, la scelta del quadrato
perché esso richiama l’idea di uguaglianza dato che questo
poligono ha quattro lati “uguali” e quattro angoli “uguali”.
Compromettere la geometria con la politica è sembrato azzardato e avventato perché, quando un matematico sente la
parola “uguale”, si pone subito la domanda Uguale in che
senso? Ciò presuppone contestualmente una relazione di
equivalenza tra due entità o elementi o oggetti o cose o persone. Sosteneva il matematico Lucio Lombardo Radice che
‘Il concetto di relazione di equivalenza è talmente importante in matematica (e non solo in matematica) da giustificare
ogni sforzo’ perché esso venga compreso dalla maggior parte delle persone. Basta, infatti, l’affermazione ‘due oggetti
o elementi o entità o cose o persone sono uguali’ che sorge
subito la domanda’Uguali in che senso?’. Due persone possono essere uguali per il colore della pelle, o per il sesso, o
per l’età, o per la statura, o per la cittadinanza, o per la razza,
ecc.. Oppure due oggetti possono essere uguali per la forma,
oppure perché hanno la stessa distanza da uno stesso punto,
cioè sono equidistanti, e così via. Per questo, quando si parla di uguaglianza bisogna sempre chiedersi in che senso?,
cioè bisogna definire una relazione, o meglio una relazione
di equivalenza.
In termini matematici, quando in un dato insieme (come
quello corrispondente ai cittadini X, Y, Z, … di uno Stato)
si verificano le seguenti relazioni: se X è uguale ad X (si ha
una relazione riflessiva), se X è uguale a Y, allora Y è uguale
ad X (si ha relazione simmetrica), se X è uguale a Y e Y è
uguale a Z, allora X è uguale a Z (si ha una relazione transitiva), si ha una relazione è detta di equivalenza.
In questo contesto, allora, si può dire che ‘i figli sono uguali di fronte ai genitori’, ‘i cittadini sono uguali di fronte alla
legge’, ecc. e, conseguentemente, risulta che il concetto di
uguaglianza è relativo e non assoluto, dinamico e non statico, dialettico e non dogmatico.
Orbene, ritornando al simbolo quadrato del partito politico, ci si chiede se tutti i punti che costituiscono i lati di
un quadrato sono equidistanti dal centro del quadrato ottenuto dall’intersezione delle due diagonali (baricentro), cioè
godono della relazione di equivalenza. La risposta è negativa, in quanto, ad esempio ogni punto chiamato vertice è più
distante dal predetto centro di un altro qualsiasi punto che
sta su un lato del quadrato (la distanza dal predetto centro
diminuisce man mano che il punto si avvicina al punto medio
del lato). Questo vuol dire che i punti del perimetro del quadrato non godono della relazione di equivalenza, in quanto
non è rispettata la relazione transitiva. Né quella simmetrica.
A titolo di esempio, supponendo che il quadrato fosse il simbolo dell’uguaglianza, e il suo centro raffigurasse il Partito
come un’entità astratta, oppure la Legge, o lo Stato, e i punti
che costituiscono il perimetro del quadrato rappresentassero
70
i cittadini, ne conseguirebbe che non tutti i cittadini fossero
uguali di fronte al Partito, o di fronte alla Legge o allo Stato.
Ora, se si immagina sul piano di ruotare di 360° il quadrato,
attorno al suo centro ottenuto dall’intersecazione delle sue
due diagonali, la sua forma si mostrerà all’osservatore invariata per ben quattro volte: questo vuol dire che il quadrato
ha un centro di simmetria di ordine quattro, in cui si intersecano quattro assi di simmetria.
In una rotazione pari ad un angolo giro, dunque, la simmetria infranta viene ricomposta per ben quattro volte. Come
detto precedentemente, citando il premio Nobel Abdus Salam, quando la simmetria infranta si ricompone in una nuova simmetria si ha dinamismo e creatività. Da ciò si deduce
che, data un’ipotetica figura geometrica in cui il centro di
simmetria è di ordine ‘n’, in una rotazione completa la simmetria infranta sarà ricomposta ‘n’ volte, e quindi si avrà più
dinamismo e più creatività per valori di ‘n’ via via crescenti,
(che in un contesto sociale significa più libertà e quindi più
democrazia). E per quel centro passeranno ‘n’ assi di simmetria. Per ‘n’ infinito, tale figura piana sarà il cerchio il cui
centro è un centro di simmetria, in cui si intersecano infiniti
assi di simmetria. Non solo. Tutti i punti della circonferenza
sono equidistanti dal centro del cerchio. Quel partito politico, allora, avrebbe fatto bene, a mio parere, per esprimere la
relazione di uguaglianza e per porre tutti i suoi elettori uguali nei confronti del partito a scegliere, al posto del quadrato,
il cerchio, figura infinitamente democratica.
BIBLIOGRAFIA
C.I.D.I. di Firenze (a cura di), Storicità e attualità della
Cultura scientifica e insegnamento delle scienze, MariettiManzuoli, Firenze 1986
J. Brockman, I nuovi umanisti – Perché (e come) l’arte, la
politica, la storia e la filosofia devono tener conto delle moderne scoperte scientifiche, Garzanti, Milano 2005
V. Lingiardi e Nicla Vassallo (a cura di ), Terza Cultura –
Idee per un futuro sostenibile, Il Saggiatore, Milano 2011
L. Campedelli, Fantasia e logica nella matematica, Feltrinelli, Milano 1973
N. Abbagnano, Storia della filosofia – Il pensiero greco
e cristiano: dai Presocratici alla scuola di Chartres, Gruppo
Ed.le L’Espresso, 2005
S. Glasstone, Trattato di Chimica-Fisica, Carlo Manfredi
Ed., Milano 1963
E. Ribaldone e G. Bioanucci, I principi della Chimica, A.
Mondadori Ed., Milano 1980
G. Catalano e L. Lombardo-Radice, Minialgebra,Feltrinelli,
Milano 1972
D. R. Hofstadter, Gödel, Escher, Bach: Un’Eterna Ghirlanda Brillante, Adelphi, 1990
www.treccani.it> Vocabolario
F. Prattico, Dal caos … alla coscienza, Ed. Laterza, Bari
1998.
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
Trattamento Manipolativo Osteopatico
in pazienti affetti da disordini dello
sviluppo psicomotorio: studio pilota
GIUSEPPE DELLA VECCHIA1-3, CLAUDIO CIVITILLO1, TIZIANA FORTINO2
1 (AEMO) Accademia Europea Medicina Osteopatica - Dipartimento Ricerca & Tesi, Aversa (Italy)
2 (AEMO) Accademia Europea Medicina Osteopatica, Aversa (Italy)
3 (AIRRI) Associazione Italiana Riabilitazione e Reinserimento Invalidi, Aversa (Italy)
Objective - Valutare l’uso del Trattamento Manipolativo
Osteopatico (OMT) in associazione alla Cura Standard (CS)
(OMT + CS) nel trattamento dei disordini dello sviluppo
psicomotorio (DSPS) e determinare se il OMT + CS possa
apportare ulteriori miglioramenti in pazienti pediatrici con
DSPS.
Design - Studio pilota che per convenienza di campionamento ha reclutato casi consecutivi. Lo studio è stato condotto presso un Centro di Riabilitazione Neuromotoria di cura
primaria convenzionato con il Servizio Sanitario Nazionale
Italiano. I pazienti valutati convenzionalmente con diagnosi
definitiva di DSPS dall’Azienda Sanitaria Locale (ASL) di
appartenenza e soddisfacenti i criteri di inclusione sono stati
ammessi a partecipare volontariamente.
Intervention and measures - La popolazione ha ricevuto
da uno studente iscritto al 6 anno di formazione accademica
in osteopatia idoneo per la tesi, la valutazione osteopatica
(VO) pre/post trattamento e 1 sessione di OMT + CS a settimana per una durata complessiva di 8 settimane in un periodo compreso da Marzo 2014 ad Aprile 2014. Le tecniche
osteopatiche utilizzate erano limitate al rilascio mio-fasciale
ed a energia muscolare indirizzate alle disfunzioni somatiche
generali e cranio sacrali. La valutazione dell’ outcome primario ovvero cognitiva comportamentale è stata effettuata
con la registrazione della Denver Development Screening
Test (DDST II) pre-post OMT + CS.
Results - Dei 25 soggetti di etnia caucasica arruolati al
baseline un totale di 16 soggetti (64% [11M-5F]) con età cronologica media al basale di 4 anni e 7 mesi (ds± 2,15) hanno
terminato lo studio. Il Test t per la verifica della varianza
media pre-post OMT + CS registra una differenza di −2.07
punti % associata ad un miglioramento statisticamente significativo (p<0,00).
Conclusions - I dati pilota suggeriscono che il OMT + CS
può essere una modalità di trattamento non farmacologico
con effetti non inferiori alla CS in pazienti affetti da DSPS
I
INTRODUCTION
disordini dello sviluppo psicomotorio (DSPS)
sono caratterizzati da variegate caratteristiche cliniche1 ad eziologia multifattoriale2. In alcuni casi3
si calcola una prevalenza nei bambini che va dal
2,6% al 11,4%. L’approccio medico comprende
combinazioni di terapia comportamentale4 e farmacologica5.
In letteratura biomedica si evidenziano studi condotti atti a
valutare l’efficacia della Medicina Complementare e Alternativa (CAM) in bambini con disordini psicomotori6, alcuni
studi in particolare hanno valutato l’efficacia del trattamento
manipolativo osteopatico7 (OMT).
OBJECTIVE
Valutazione cognitiva comportamentale mediante il Development Screening Test (DDST II8) pre-post OMT + CMS.
MATERIALS AND METHODS
Standard of care
La valutazione e il trattamento della DSPS comporta un
approccio medico multimodale comprese combinazioni di
terapia comportamentale e farmacologica, e nello specifico
il gruppo di studio era stato sottoposto a diagnosi medico
specialistica neuropsichiatrica di ritardo/disturbo psicomotorio ed era in trattamento sanitario neuropsicomotorio e/o
logopedico per DSPS.
Setting and research procedures
Lo studio è stato presentato in sessione plenaria alla direzione sanitaria e alla presenza dei tutori legali volontari di
pazienti pediatrici affetti da DSPS presso un centro di riabilitazione neuromotoria di cura primaria convenzionato con il
Servizio Sanitario Nazionale Italiano (SSNI). Un consenso
informato scritto dedicato per la descrizione dello studio, la
71
SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
points clinici registrati al basale tempo zero (t0) sono stati
rapportati ai punteggi ottenuti
all’end points tempo uno (t1).
Le procedure dello studio sono
presentate nella Figura N1.
pubblicazione dei dati e le procedure di Valutazione Osteopatica (VO) e OMT + CS da somministrare è stato ottenuto
dai tutori legali dei pazienti. Data la natura pilota di questo studio e la sua enfasi sul dimostrare l’effetto del OMT +
CS, per convenienza di campionamento è stato utilizzato un
unico gruppo di trattamento, che in tal modo precludeva un
gruppo di controllo sottoposto a OMT sham. Un totale di 25
pazienti con DSPS sono stati arruolati in questo studio pilota,
i pazienti che non hanno aderito allo studio hanno continuato
la cura standard per il DSPS.
I soggetti inclusi nello studio con età Cronologica (EC) non
superiore 6 anni, avevano ricevuto diagnosi medico specialistica di ritardo/disturbo psicomotorio, ed erano sottoposti
a trattamento sanitario neuropsicomotorio e/o logopedico.
Nessun soggetto con trauma cranico da meno di mesi 6,
patologia di natura neoplastica o qualsiasi controindicazione
al OMT (stabilito dalla direzione sanitaria) è stato incluso
nello studio. Un operatore al 6 anno di formazione e idoneo
per la tesi in Osteopatia presso l’Accademia Europea Medicina Osteopatica (AEMO), previo training verbale e pratico ricevuto per lo studio, ha effettuato la VO utilizzando il
modulo SOAP9 per la registrazione delle disfunzioni somatiche evidenziate. E’ stata programmata 1 sessione di OMT
a settimana test dipendente per una durata complessiva di 8
settimane da (Marzo2014 -Aprile 2014) senza sospendere o
interferire con la CS. Le tecniche da utilizzare erano limitate al rilascio miofasciale, energia muscolare e cranio sacrali
delle disfunzioni rilevate adattate alle esigenze del singolo
paziente evidenziate durante lo svolgimento della sessione di
trattamento. Zone di particolare interesse rilevate mediante
i parametri TART10 erano riconducibili ai distretti cranico e
cervicale. L’intera sessione durava complessivamente 30 minuti,10 minuti per la VO e ±20 minuti per il OMT in setting
familiare ai pazienti nei decubiti supino, prono e laterale (su
lettino adeguato); non è stato limitato l’accesso ai genitori
o ai tutori legali nel setting di trattamento. Il DSPS è stato valutato con il questionario DDST II (end points clinico
primario) pre-post OMT + CS somministrato da personale
sanitario della struttura di riabilitazione in cieco rispetto alle
procedure di VO e OMT. I dati di valutazione per gli end
72
Tutti i dati sono stati analizzati con il software statistico per
discipline biomediche versione
6.011 da un operatore esterno
in cieco. E’ stato utilizzando il
Test t per campioni appaiati per
la verifica della varianza media
prodotta dal trattamento con intervallo di confidenza 95% e
p<0,05. Nell’ultima sessione di trattamento è stato considerato anche il follow-up per la somministrazione della DDSTII da personale esperto del centro di riabilitazione
RESULTS
Caratteristiche principali dei pazienti
Dei 25 pazienti di etnia caucasica arruolati al baseline un
drop out di 9 (36%[4m-5f]) pazienti è avvenuto per motivi
non dichiarati e non riconducibili a motivi particolari o ad
aventi avversi riferiti dalla direzione sanitaria e tutori legali.
Le registrazioni dei 9 pazienti usciti dallo studio non sono
state prese in considerazione per l’analisi dei dati. Sono stati
raccolti e registrati i dati tra basale/end points (t0 – t1)di un
totale di 16pazienti(64%[11m-5f]) range di età compresa
tra (2-5,5 anni),EC media a t0 4 A e 7 mesi (ds ± 2,15 )
con età sviluppo psicomotorio medio 2 A e 3 M (ds ±15,14).
Dei 16 pazienti la distribuzione per classi di età e sesso era
f=N5(3;60%) classe di età 4,5-5,5 anni, (2;40%) classe di età
3-4 anni. Per il sesso m=N11 (4;36,36%) classe di età 5-6
anni, (2;18,18%)classe di età 4,5-5 anni, (3;27,27%) classe
di età 3-4 anni, (2;18,18%) classe di età 2-3 anni. I dati della
distribuzione per classi di età del campione in studio sono
sintetizzati in Tabella N1.
Tabella N1. Distribuzione delle classi di età del campione in studio
Femmine
Classi di età
n
Maschi
%
5-6
n
%
4
36,36
4,5-5,5
3
60
2
18,18
3-4
2
40
3
27,27
2
18,18
11
100
2-3
Totale
5
100
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
End points clinico
Test t per la verifica della varianza media DDST II prodotta nel campione (t0=27.34 [Dev. Std. 10.84; IC 95%: 21.56
- 33.11]), (t1=29.69[Dev. Std. 11.9; IC 95%: 25.56 - 35.81]),
differenza(–2.078punti %[Dev. Std. 1.997]). Intervallo di
confidenza della differenza al 95% da (–3.142 a –1.104), t=
–4.162 con 15 gradi di libertà; p<0,00. I dati del Test t sono
sintetizzati nella Tabella N2
Tabella N2. Test t per dati appaiati
DDST II
N
Media
(±ds)
IC 95%
t0
16
27.34
(10.84)
21.56 - 33.11
t1
16
29.42
(11.9)
25.96 - 35.81
–2.078
(1.997)
–3.142 a
–1.104
Differenza
P
<0,00
Legenda: ds = deviazione standard; IC = intervallo di confidenza; P= p-value
DISCUSSIONS
In questo gruppo di bambini con DSPS il OMT associato al CMS ha avuto un effetto tendenzialmente positivo in
quanto associato ad un miglioramento statisticamente significativo come segnalato dalla DDST-II con un progresso dello sviluppo psicomotorio dei bambini quantificabile in circa
2,1 mesi. La DDST-II12 (1992) è una revisione aggiornata del
test di screening DDST13 del (1967), entrambi sono stati progettati per l’utilizzo da parte del personale sanitario utile nel
monitorare lo sviluppo di neonati e bambini in età prescolare.
Seppur con le dovute limitazioni la scala di misura permette
agli operatori sanitari di individuare soggetti il cui sviluppo
psicomotorio si discosta significativamente da quello ritenuto fisiologicamente compatibile con l’età, tale da giustificare
eventuali ed ulteriori indagini cliniche. II test è indirizzato a
quattro funzioni generali come oggetto di prove che vanno
dalla nascita fino ai sei anni:
1. comportamento personale e contatto sociale (come sorride, imitazioni);
2. attività motorie finalizzate (come prese manuali da seduto, scarabocchiare);
3. linguaggio (come parole oltre mamma e papà);
4. movimenti basilari/attività motoria grossolana (come
lanciare la palla, salire le scale con appoggio) .
Il DDST-II risulta quindi un test ideale per visualizzare
il progresso dello sviluppo dei bambini con caratteristiche
uniche per la sua facilità di somministrazione . Sulla base di
questi risultati, si può ipotizzare che il OMT abbia avuto una
influenza positiva nel breve termine in questa popolazione di
pazienti. La ricerca condotta nel campo della medicina osteopatica sui DSPS è molto limitata, è quindi difficile interpretare e confrontare i risultati pilota ricavati da questo studio
con quelli di altri ricercatori. Frymann e colleghi hanno stu-
diato l’applicazione di cure osteopatiche14 per i bambini con
problemi di apprendimento15,16. Lassovetskaia17 ha effettuato
uno studio su bambini con problemi di linguaggio e di apprendimento. Tra 96 i bambini con il rendimento scolastico
di ritardo, i bambini che hanno ricevuto il OMT segnalano
punteggi significativamente più elevati in quasi tutte le categorie di rendimento scolastico dopo 6 a 12 settimane rispetto
ai bambini che non hanno ricevuto il OMT.
Limitations
Dato la natura pilota dello studio e considerato il piccolo
campione che precludeva il confronto e l’analisi statistica
con un gruppo di controllo i dati sono ancora aperti a interpretazione. In particolare le difficoltà incontrate nel determinare le disfunzioni nella popolazione esaminata per la scarsa
compliance rilevata nella fase iniziale dai pazienti ha limitato
il protocollo di trattamento. La pianificazione futura di nuovi
studi indica di coinvolgere più operatori osteopati, con maggior training di formazione nella fase diagnostica e nella fase
terapeutica, utilizzando anche strategie di familiarizzazione
precedenti con i pazienti nel setting di trattamento. Il dropout avvenuto è stato del 36% riscontrando interesse da parte
dei familiari di pazienti non arruolati al baseline che sono
stati arruolati in corso di studio.
Future directions
Questo studio è stato un primo tentativo di dimostrare che
il OMT + CS può influenzare positivamente l’andamento clinico dei pazienti pediatrici affetti da DSPS e per dimostrare che ci può essere una base biologica per quanto riguarda
l’efficacia del OMT. La speranza per il futuro è quella di
condurre un studio controllato randomizzato nel DSPS dove
i pazienti ricevano il OMT+ CS e solo CS, questo ci permetterebbe di trarre dati più chiari da interpretare.
CONCLUSIONS
I dati pilota di questo studio suggeriscono che il OMT può
essere una modalità di trattamento aggiuntiva, non invasiva, con effetti positivi, non farmacologico associabile alle
CS privo di particolari reazioni al trattamento per la cura dei
DSPS in reparti di cura primaria di riabilitazione dell’età
evolutiva.
Conflitti di interesse
Gli autori non dichiarano conflitti di interesse per il manoscritto.
Presentazione del manoscritto
Gli autori sono in accordo sul testo del presente manoscritto.
Ringraziamenti
Si ringraziano M.Pagano, N.Pagano, V.Pagano per l’accoglienza e per l’accesso alla struttura riabilitativa. Si ringrazia
De Franchis F. per raccolta dati, coordinamento sommini73
SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
strazione CS e OMT. Si ringrazia l’amministrazione, la direzione sanitaria e il personale di neuro psicomotricità del
centro di riabilitazione AIRRI di Aversa (CE) per l’assistenza ricevuta durante il lavoro.
Contributo degli autori
della Vecchia G. Protocollo, testo, interpretazione dati; Civitillo C. Protocollo, testo, interpretazione dati, raccolta dati,
tabelle, figure; Fortino T. Raccolta dati e somministrazione
OMT.
Lista abbreviazioni
DSPS=disturbo sviluppo psicomotorio; CS=usual care;
OMT=Osteopathic manipulative treatment; DDST=Denver
Development Screening Test; t0=tempo zero; t1=tempo uno;
VO=valutazione osteopatica
REFERENCES
1. BarkleyR. Advances in the diagnosis and subtyping of
attention deficit hyperactivitydisorder: whatmaylieahead for
DSM-V. Rev Neurol 2009; 48 (supl.2): 101-106
2. Millichap JG. Etiologic classification of attention-deficit/hyperactivitydisorder. Pediatrics 2008; 121(2): 358-365
3. Alcantara J, Davis J. The chiropractic care of children
with attention-deficit/hyperactivitydisorder: a retrospective
case series. Explore (NY) 2010 May-Jun; 6(3):173-82
4. Karpouzis F, Pollard H, Bonello R.A. Randomised
controlled trial of the Neuro EmotionalTechnique (NET)
for childhood Attention Deficit Hyperactivity Disorder
(ADHD): a protocol Trials. 2009 Jan27;10:6
5. Mulas F, Gandía R, Roca P, Etchepareborda MC, Abad
L. Pharmacologicalupdate in attention deficit hyperactivitydisorder: models of intervention and new drugs.Rev
Neurol. 2012 May 21;54 (3): 41-53
6. Galicia-Connolly E1, Shamseer L, Vohra S. Complementary, holistic, and integrative medicine: therapies for
neurodevelopment in preterm infants. Pediatr Rev. 2012
Jun;33(6):276-8
7. Accorsi A .Lucci C. Di Mattia L. et al. Effect of osteopathic manipulative therapy in the attentive performance of
children with attention-deficit / hyperactivity disorder. J Am
74
Osteopath Assoc. 2014 May;114(5):374-81
8. Frankenburg WK, Ker CY, Engelke S, Schaefer
ES, Thornton SM. Validation of key Denver Development
Screening test items: a preliminary study. J Pediatr.1988
Apr;112(4):560-6
9. Sandra L. Sleszynski,Thomas Glonek. Outpatient Osteopathic SOAP Note Form: preliminary results in osteopathic
outcomes-based research.J Am Osteopath. Assoc. April
2005 105: 181-205
10. Sandra L. Sleszynski,Thomas Glonek. Outpatient
Osteopathic SOAP Note Form: preliminary results in osteopathic outcomes-based research.J Am Osteopath. Assoc.
April 2005 105: 181-205
11. Stanton A Glantz. Statistica per discipline biomediche
6 edizione. Edizione italiana a cura di Adriano De Carli.Versione 6.0 IBSN 978-88-386-3925-8.McGraw-Hill
12. Frankenburg, WK, Dodds, J., Archer, P. et al . Il
DENVER II: una revisione importante e restandardization
dei Denver Developmental Screening Test. Pediatria, 89: 9197, 1992
13. Frankenburg WK e Dodds JB. Il Denver Developmental Screening Test. J. Pediat, 71: 181 1967
14. Frymann VM, Carney RE, Springall P. Effect of osteopathic
medical managemet on neurologic development in children.
J Am Osteopath Assoc. 1992;;92(6):729-744.
VM.
The
osteopathic
appro15. Frymann
ach to the child with a seizure. In: King HH,ed. Proceedings of International Research Conference: Osteopathy in Pediatrics at the Osteopathic Center
for Children in San Diego, CA 2002. Indianapolis, IN:
American Academy of Osteopathy; 2005:8996
16. Frymann VM: Learning difficulties of children viewed
in the ligth of the osteopthic concept. J Am Osteopath Assoc.1976;76(1):46-61
17. Lassovetskaia L. Applications of the osteopathic approach to school children with delayed psychic development of cerebro-organic origin. In King HH,
ed Proceedings of International Research Conference: Osteopathy in Pediatrics at the Osteopathic Center for Children in San Diego, CA 2002. Indianapolis,
In: American Academy of Osteopathy; 2005:52-59
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELL’ANTICHITÀ
Anecdota Punica
ENRICO ACQUARO
È
dato noto in letteratura, scientifica e non,
che la storia punica sia per massima parte
dipendente dalle fonti greche e latine. Meno
noto è l’apporto che le opere storiche in lingua volgare nel XVII secolo hanno portato a
determinati aspetti di questa storia, soprattutto nelle sue ricadute annibaliche. Solitamente ignorato a questi riguardi è lo
scritto di Girolamo Briani, Dell’istoria d’Italia dalla venuta
d’Annibale Cartaginese in Italia fino a gli anni di Christo
N. Signore 1527 libri diciotto. Edito a Venezia, presso Giovanni Guerigli, nel 1623-24, in due volumi e messo in rete
in https://books.google.it/b (Briani 1623-24). L’opera, che
attinge per il periodo antico a Livio (ripreso per gran parte
da Jacopo Nardi [Nardi 1562], a Plutarco ed a Polibio, è redatta in «una prosa scialba e greve», come ebbe a definirla
Gaspare De Caro (Gaspare De Caro 1972), in un italiano in
divenire, dove il latino è piegato in un volgare spesso pesante
e ripetitivo.
Tuttavia, a leggere i primi due libri, emerge una considerazione non banale sulle conseguenza della discesa annibalica
in Italia (Brizzi 2011; Acquaro 2015, 37-44; Baker 2016):
«…La venuta d’Annibale Cartaginese in Italia, la mossa de’
Romani contro di lui; le mutazioni de’ governi, la varietà
de’ pensieri, i tumulti, le ribellioni, i saccheggiamenti, & l’
altre cose, che seguirono, diedero molto bene à conoscere
tutte le cose humane reggersi con certa varietà, e mutatione
in modo, che con perpetuo giro qualhora crescere, e qualhora
diminuire si veggano» (Briani 1623, 2). Nella prospettiva di
questa filosofica considerazione, che Briani condivide con
l’erudizione italiana del Cinquecento (basti pensare alla storia veneziana di Paolo Paruta) (Paruta 1523). si pongono le
origini della stessa identità italiana: la discesa di Annibale
Barca (Cornell 1966), la reazione gallica, latina e campana, e
la politica del senato di Roma (Eck - Heil 2005). Politica che
è costretta a misurarsi con le aspettative italiche che aveva
sino a quel momento gestito senza un strategia costruttiva.
La stessa dislocazione coloniale romana e latina si misura,
d’Annibale in poi, con una meditata valutazione globale delle risorse economiche in grado di dare il massimo reddito
alla Penisola italica (Sidebottom 2005, de Ligt 2012). Un
avvio a quel processo d’unità che precede di qualche secolo
l’Italia di Augusto e smentisce già per l’età annibalica, la
celebre frase di Klemens von Metternich, che definiva «l’Italia un’entità geografica». Poco spazio, fra l’altro, è dato alla
memoria delle delitie di Capua (Acquaro 2014, 48-50), che
Girolamo Briani relega nella sua opera alle rispettive allocuzioni di Marcello e di Annibale (Briani 1623, 67-69): le
aspettative politiche della città campana datasi ad Annibale
costituiscono riferimenti costanti nella historia.
Del resto, che l’Italia fosse «una provincia da manomettere» lo fa notare Briani quanto riferisce del famoso sogno
di Annibale: «…Vogliono, che la seguente notte gli paresse di vedere dormendo un giovane di maraviglioso aspetto,
il quale gli diceva essergli da Giove mandato per guida in
quella impresa, e che perciò lo seguisse senza volgere altrove
gli occhi, e che volgendosi pure si vedesse finalmente venire dietro un grandissimo serpente, che quanto si ritrovava
dinanzi, abbatteva; e dopò il serpente una procella d’acqua,
e vento tempestosissimo; e che domandando di questo nuovo prodigio, gli fosse risposto, che questa sua andata doveva
essere la rovina d’Italia, e che se desiderava di manomettere
questa Provincia, andasse pure innanzi senza timore, che di
certo vedrebbe l’esito delle cose; Per questa nuova visione,
essendo rimasto tutto lieto, passò l’Ibero…» (Briani 1623,
4). Un sogno divino (Acquaro 2016) è all’origine di quell’Italia: non a caso ad esso si rivolge una cospicua letteratura
ed anche una stampa di Bartolomeo Pinelli (Acquaro 2014,
56, fig. 35).
Sogno che così registra Neponziano, epitomatore del IV
secolo di Valerio Massimo: «De somniis [ext. 1] Hannibal
somniavit iuvenem humana forma augustiorem, qui se hortaretur in excidium Italiae, auctore Iove secuturum. Deinde
post tergum respiciens intueri sibi visus est serpentem vastum cuncta populantem, audire etiam caeli fragorem, nec
non et nimbos cum maligna luce visere. Interrogavit iuvenem praeeuntem qui subsequatur. Ille ad haec ‘vides’ inquit
‘vides excidium Italiae: tace et cetera permitte fatis’». Lo
stesso autore ricorda il sogno di un altro dux cartaginese,
75
SCIENZE DELL’ANTICHITÀ | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
Amilcare: «[ext. 8] Hamilcar dux Carthaginiensium audissem sibi somnio visus est quod Syracusis, quas obsidebat,
alio die cenaturus esset. Pugnavit spe victoriae et in urbem
harpagonibus raptus est» (Acquaro - Ferrari).
Una volta partito Annibale dall’Italia, l’interesse di Girolamo Briani per Cartagine viene meno: di Annibale riparlerà
soltanto per dar conto dell’incontro ad Efeso fra il Barca e
Scipione (Brizzi 2007) sulla scorta di quanto riferisce il retore del I secolo a. C. Quinto Claudio Quadrigario, autore
di ventitré libri di Annales, perduti ma largamente usati da
Livio: «…Scipione Affricano, ch’era il terzo oratore Romano, parimente in Efeso, ove con l’istesso Annibale, come
riferisce Quadrigario, hebbe alcuni piacevoli ragionamenti; essendo che l’uno stimava molto l’altro; e come accade,
esendo Annibale richiesto da Scipione, qual credesse egli,
che fosse stato il miglior Capitano, ch’havesse mai il mondo
havuto, rispondesse, che Alessandro Magno, per haver con
poche genti, cosi grossi eserciti vinti. E che domandato, à
chi havrebbe dopò Alessandro dato il primo luogo, dicesse à
Pirro per haver saputo meglio di qual si voglia altro Capitano
accampare, e conoscervi il suo vantaggio; Mà quivi non restò
pago Scipione, poiche havrebbe voluto arrivare col suo desio
à quel di sentir lodare se stesso, onde ricercando Annibale
per il terzo oggetto ritrovò, che quando altra consideratione s’avesse de’ nuovi, e buoni Capitani, che Annibale stesso
doveva esser posto nel numero, di che sorridendo Scipione,
disse, Or che diresti, se tu me vinto havesti; Ed egli à lui,
quando fosse succeduto, non ad Alessandro, mà à me stesso avrei dato il primo luogo; Con questa risposta vogliono
alcuni, ch’egli dimostrasse l’eccellenza di Scipione non esser da agguagliare à quella d’Alessandro, ne di Pirro; e che
egli stesso riputava esser maggior di lui, e che questo istesso
pensiero dimostrasse, quando che venendo all’atto del passeggiare, come accenna Plutarco, si pose da man dritta, e
Scipione come humanissimo, lo si sofferse, senza dimostrare
nel viso segno alcuno di sdegno, ne di pensiero…» (Briani
1623, 205).
Un’ultima considerazione sulle antichità puniche di Briani: nell’opera non si pone
soverchio accento, come
in gran parte della letteratura contemporanea e
successiva, sullo stereotipo etnografico negativo dei Cartaginesi, che
arriva con i suo caratteri
negativi (crudeltà, superstizione, astuzia, in una
parola fides punica) sino
alla figura di Settimio
Severo, il primo imperatore romano ad avere
antenati punici.
BIBLIOGRAFIA
Acquaro, E. 2014
La memoria dei Fenici (= La memoria dei Fenici, 1), Lugano.
Acquaro, E. 2015
La memoria di Cartagine nella pittura italiana fra Seicento e
Settecento e nelle incisioni della «Istoria romana» di Bartolomeo Pinelli (= La memoria dei Fenici, 2), Lugano.
Acquaro, E. 2016
L’oracolo e i sogni di Annibale, in https://lamemoriadeifenici.wordpress.com 2016.
Acquaro, E. - Ferrari, D.
Una collana per la memoria, in https://lamemoriadeifenici.
wordpress.
Baker, G.Ph. 2016
Annibale (= Odoya Lirary, 216), Bologna.
Briani, G. 1623-24
Dell’istoria d’Italia dalla venuta d’Annibale Cartaginese in
Italia fino a gli anni di Christo N. Signore 1527 libri diciotto.
Venezia.
Brizzi, G. 2007
Scipione e Annibale. La guerra per salvare Roma, Roma Bari.
Brizzi, G. 2011
Metus punicus. Studi e ricerche su Annibale in Italia, Imola.
Cornell, T.J.
Hannibal’s Legacy: The Effects of the Hannibalic War on
Italy, in T.J. Cornell - N.B. Rankov - P.A.G. Sabin (edd.),
The Second Punic War. A Reappraisal, London 1966.
De Caro, G. 1972
s. v. Briani Girolamo, in Dizionario biografico degli Italiani,
14.
de Ligt, L. 2012
Peasants, Citizens and Soldiers. Studies in the Demographic
History of Roman Italy 225 BC-100 AD, Cambridge.
Eck, W. - Heil, M. (edd.) 2005
Senatores populi Romani. Realität und mediale Präsentation
einer Führungsschicht, in Kolloquium der Prosopographia
Imperii Romani vom 11.13. Juni 2004, Stuttgart.
Nardi, J. 1562
Le Deche di Tito Livio
Padovano delle Historie
tradotte nella lingua toscana, Venezia.
Paruta, P. 1545
Istoria Veneziana, Venezia.
Sidebottom, H. 2005
Roman
Imperialism:
The Changed Outward
Trajectory of the Roman
Empire, in Historia:
Zeitschrift für Alte Geschichte, 54. 3, 315 - 30.
Bartolomeo Pinelli (1781-1835), Visione misteriosa di Annibale, avanti il suo passaggio sulle
Alpi, per scendere nell’Italia (1818). CalcoGrafica, FN46047.
76
N. 38 - 1° OTTOBRE 2016
RICERCHE
Le ricerche e gli
articoli scientifici sono
sottoposti prima della
pubblicazione alle
procedure di peer review
adottate dalla rivista,
che prevedono il giudizio
in forma anonima di
almeno due “blind
referees”.
78
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | ARCHITETTURA
Costruire con il legno in area
mediterranea
ANTONELLA DELLA CIOPPA
Dipartimento di Architettura e Disegno Industriale, Seconda Università di Napoli
L’idea di costruzione in legno è spesso legata al concetto
di temporaneità (costruzioni per l’emergenza), pertinenza (il
capanno degli attrezzi) o ricreatività (chalet di montagna),
ma le nuove frontiere dell’architettura biocompatibile, energeticamente efficiente e a basso costo stanno sempre più
fortemente orientando il mercato verso l’uso di questo materiale. Il legno viene proposto come una valida alternativa
ai tradizionali materiali da costruzione (laterizi, cemento, acciaio), generalmente utilizzata nei paesi del nord con clima
temperato freddo d’altitudine, dove la diffusione dell’uso di
questo materiale è legato all’ampia disponibilità e alle sue
caratteristiche fisiche termoisolanti.
In area mediterranea, l’uso tradizionale del legno è principalmente legato alla costruzione di tetti, solai e finiture (pavimenti, infissi, porte), ma raramente è utilizzato per strutture
e tamponature, in quanto l’esigenza prevalente è il controllo
degli apporti solari gratuiti.
Il contributo illustra gli esiti di una ricerca svolta con
aziende del settore, tesa ad ottimizzare le prestazioni dell’involucro in legno in zone a clima mediterraneo, integrate a
soluzioni tecnologiche come le serre solari, pareti solari ventilate (Muri Trombe), componenti opachi con intercapedine
di aria chiusa o aperta fortemente ventilata, elementi solari
ventilati, elementi opachi con isolamento trasparente, sistemi
di ombreggiatura integrati, ... ma anche soluzioni costruttive
e progettuali che scaturiscono da un’analisi climatico/ambientale propria dell’area mediterranea.
I
INTRODUZIONE
l legno è un materiale da sempre utilizzato in edilizia, che negli ultimi anni sta tornando alla ribalta
grazie alla maggiore attenzione alla sostenibilità
in edilizia e alla forte innovazione tecnologica.
Le abitazioni in legno costituiscono un segmento in forte espansione, trainato dalla nuova consapevolezza
dei vantaggi legati al costruire in legno in termini di qualità
costruttiva, salubrità, sicurezza sismica ed elevato rapporto
qualità-prezzo, ma anche perché “Il legno è in grado di fornire una valida risposta alla crescente attenzione ai problemi
energetici e ambientali, puntando con decisione ad un ruolo
da indiscusso protagonista nella green economy, grazie alla
capacità di coniugare comfort abitativo, risparmio energetico
e abbattimento di emissioni di CO2 in atmosfera”1.
Il contesto delle aree montane con clima freddo risulta particolarmente favorevole alla realizzazione di costruzioni in
legno grazie alla maggiore reperibilità della materia prima in
loco che ha determinato nel tempo una consolidata tradizione
edilizia.
Ma il legno può essere una valida alternativa ai tradizionali
materiali per le costruzioni (laterizi, cemento, acciaio) anche
in paesi del sud con clima temperato caldo mediterraneo e
subtropicale.
Tradizionalmente nelle aree mediterranee, l’uso del legno
è limitato alla costruzione di tetti, solai e finiture (pavimenti,
infissi, porte) e raramente è utilizzato per strutture e tamponature, in quanto l’esigenza prevalente è il controllo degli
apporti solari gratuiti. Infatti, per gli edifici di area mediterranea, il “diritto all’ombra” è prioritario rispetto al “diritto
al sole”, in quanto il clima mediterraneo invita a considerare
prevalente il controllo tecnologico e progettuale dei parametri correlati alla prestazione energetica per la climatizzazione
estiva: fabbisogno energetico per il raffrescamento e per la
deumidificazione2.
L’analisi dei consumi energetici nel nostro paese ha dimostrato che si consuma di più per il condizionamento estivo
che per il riscaldamento invernale, pertanto, oggi l’attenzione al tema della protezione dal caldo estivo è diventata una
questione di estremo interesse per i progettisti.
1 Web: http://knowtransfer.unitn.it/4/edilizia-sostenibile-e-costruzionilegno
2 Violano A. (2012), Cinque livelli di fattibilità per un edificio energeticamente efficiente, In: Cannaviello M., Violano A. (Ed. by), Certificazione e Qualità energetica degli edifici; Milano: Franco Angeli Editore
79
ARCHITETTURA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
Fig. 1
Il lavoro che si presenta mira a definire le possibili soluzioni tecnologiche, costruttive e progettuali utili ad ottimizzare le prestazioni dell’involucro in legno per le zone a clima
mediterraneo.
La ricerca, articolata in più fasi, ha visto in primis la raccolta delle informazioni in merito alle caratteristiche climatiche e alle tecniche costruttive tradizionali del mediterraneo,
ed anche dei dati tecnici sulle aziende leader di case prefabbricate in legno.
Ciò ha permesso di comprendere a fondo il contesto geografico e l’attuale offerta del mercato caratterizzato da diversi sistemi costruttivi dotati di specifiche funzionalità.
A seguire, si è proceduto con un’analisi dei requisiti imposti dalla normativa italiana alle aziende produttrici di case
prefabbricate in legno, in tema di prestazioni energetico-ambientali degli edifici, così da arrivare a definire i potenziali
requisiti che le case in legno dovrebbero avere se costruite in
aree con clima mediterraneo.
STRATEGIE PER OTTIMIZZARE LE PRESTAZIONI
DELL’INVOLUCRO IN LEGNO
Nelle zone con clima mediterraneo (A, B, C e D) l’esigenza principale, connessa al clima, non è tanto ridurre le dispersioni termiche nella stagione invernale quanto controllare gli
accumuli termici nella stagione estiva.
Un’altro fattore che contribuisce a creare una situazione
di discomfort in queste aree nel periodo estivo è l’umidità
relativa che raggiunge picchi anche del 90%, aumentando la
percezione fisica del calore e causando difficoltà respiratorie.
Le condizioni climatiche delle aree costiere della penisola
italiana sono paragonabili a quelle degli altri lembi di costa
che si affacciano sul mediterraneo (Figura 1) dove si riscontrano caratteristiche e soluzioni tecnologiche analoghe in risposta alle condizioni climatiche.
Le costruzioni mediterranee hanno infatti una forma diffu80
samente compatta, per garantire il più vantaggioso rapporto
tra superficie di involucro e volume riscaldato, efficiente rispetto alle dispersioni termiche in inverno, piccole aperture
contrapposte per favorire la ventilazione naturale in estate,
con spazi ad assetto variabile (porticati, logge, patii, spazi
filtro, serre) il cui comportamento selettivo ottimizza le prestazioni nel corso dell’intero anno3.
Negli edifici mediterranei si tende a privilegiare il fronte
esposto a sud, in modo da captare i raggi solari attraverso le
aperture in inverno, quando il sole è basso, e a schermare le
superfici vetrate dai raggi solari in estate, quando il sole è
alto, con aggetti orizzontali quali ad esempio balconi, logge,
vengono, invece, limitate al massimo le aperture sui fronti
est e ovest, poiché su tali lati portano scarsa energia in inverno, quando il sole è debole e di durata limitata, poiché
il percorso solare d’inverno è breve, e surriscaldamento in
estate, quando il sole è basso ed entra in profondità, il percorso solare è più lungo e i raggi sono difficili da schermare.
Generalmente, il lato nord, che invece non riceve praticamente mai il sole se non all’alba e al tramonto in estate,
è caratterizzato da aperture ridotte, per evitare dispersioni;
queste servono solo per innescare la ventilazione naturale
durante la stagione calda in modo da “scaricare” durante la
notte il calore accumulato dalla parete esposta a sud durante
il giorno.
Una tipologia mediterranea tipica è la casa a patio, che presenta una struttura compatta con aperture solo verso il patio.
Un elemento costruttivo, a cui bisogna prestare molta attenzione in area mediterranea, è la copertura che rappresenta
l’attacco al cielo dell’edificio. Ovviamente questo elemento
è quello che più degli altri risente del soleggiamento diretto.
Le coperture delle case mediterranee sono comunemente ri3 Capobianco L., Violano A. (2010), Abitare Mediterraneo: un progetto
di edilizia residenziale pubblica ecocompatibile. In: “Il Progetto Sostenibile”, Trimestrale - Anno VIII, N° 25 , giugno 2010 pp. 46-51
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | ARCHITETTURA
spondenti a più tipologie di cui le più comuni sono quelle a
terrazza, a volta e a cupola.
Ognuna di queste tipologie ha alle spalle una tradizione
costruttiva su base empirica le cui sperimentazioni hanno
portato ad ottenere prestazioni funzionali ottimali.
La tradizione costruttiva locale registra, sulla copertura
piana, un’ulteriore struttura a telaio (gazebo) che sostiene
materiali leggeri come ad esempio dei teli in tessuto o in paglia che assicurano una schermatura dai raggi solari creando
un ambiente aperto ai lati e fruibile4. Questa copertura leggera viene rimossa nel periodo invernale così da permettere ai
raggi solari di riscaldare la copertura piana garantendo degli
apporti solari gratuiti ai locali sottostanti.
Le coperture voltate o a cupola, invece, proprio per la loro
forma favoriscono la riduzione della superficie di accumulo termico direttamente irradiata dal sole e, di conseguenza,
la quantità di energia termica assorbita e trasmessa all’ambiente interno. Inoltre, contribuiscono ad innescare i moti
convettivi per la ventilazione interna. Spesso, per migliorare
questi flussi di aria, nella parte superiore della volta o della
cupola viene praticata un’apertura che favorisce la fuoriuscita dell’aria calda interna.
Fattore parimenti importante da controllare nelle costruzioni mediterranee, è il colore.
Il “colore” condiziona l’assorbimento superficiale e il trasferimento di energia ricevuta per irraggiamento: i colori
scuri hanno un elevato coefficiente di assorbimento, mentre i
colori chiari hanno un basso valore di assorbimento.
Siccome i colori scuri assorbono maggiormente la radiazione solare sono da evitare nei climi caldi, mentre i colori
chiari, che la riflettono, riducono la captazione di energia
termica.
Tra i requisiti di comfort dettati dal D.M. 26/06/2015
(Allegato 1), emerge espressamente la richiesta di utilizzare cool roof con materiali ad alta riflettanza solare con un
valore minimo di 0,65 nel caso di coperture piane e 0,30 nel
caso di coperture a falde, per limitare il fabbisogno energetico per la climatizzazione estivo. Infatti “la prassi operativa
in architettura è caratterizzata dal tentativo di promuovere
un’innovazione tecnologica orientata verso l’ecoefficienza
e l’auto-sostenibilità energetica (from net zero energybuildings to plus energybuildings) che sia il frutto di un’innovazione mentale, non solo ecologica e ambientale. A livello di
scelte tecnologiche, non basta integrare nella copertura un
sistema fotovoltaico o solare termico per far diventare un
edificio energeticamente efficiente [...] Nella scelta di materiali e sistemi costruttivi è da incentivare la valorizzazione
delle tecniche e dei materiali tradizionali locali, interpretati
progettualmente in modo innovativo, e la scelta di prodotti preferibilmente ecocompatibili e riciclabili. Il legno è, da
4 Violano A., Cannaviello M., De Simone L. (2014), Traditional materials, innovative performance, In: Gambardella C. (Ed. by), Best Practices in
heritage, conservation and management. From the world to Pompei, Napoli, La scuola di Pitagora editrice
questi punti di vista, un materiale con ottime prestazioni”5.
Le soluzioni progettuali che prevedono l’uso di materie
prime e modalità attuative di cui sia controllato il costo ambientale ed energetico in tutto il ciclo di vita … e anche oltre!
sono la risposta alla crescente sensibilità del settore delle costruzioni che, in linea con il pensiero “ambientalmente consapevole” propone il legno come materiale da costruzione
naturale che ha il grande vantaggio di non essere nocivo per
la salute dell’uomo, di essere eco-sostenibile e rinnovabile.
Dall’altro canto, però, l’utilizzo di materiali completamente naturali nella realizzazione delle case in legno, ha fatto
sì che i prezzi risultassero inizialmente più alti rispetto alle
costruzioni tradizionali.
In effetti, le costruzioni in bioedilizia, pur avendo un costo iniziale più alto, permettono di recuperare questo costo
con minori consumi energetici e bassissima manutenzione
del fabbricato.
Il legno è caratterizzato da un basso valore del coefficiente
di conduttività termica, pertanto le strutture realizzate con
questo materiale hanno buone prestazioni termo-acustiche
che permettono di ridurre al minimo la perdita di calore durante il periodo invernale e il raffrescamento durante il periodo estivo.
Si può, in generale, affermare che una parete in legno spessa 25 cm, realizzata con il sistema costruttivo Blockhaus,
isola quanto una parete di calcestruzzo spessa 60 cm.
Il mercato offre diverse tecniche costruttive per le strutture
in legno, di cui le più diffuse sono sostanzialmente quattro:
· Blockhaus o “casa in perline”, che consiste nel sovrapporre perline o tronchi direttamente in cantiere per realizzare le pareti autoportanti grazie a delle particolari
ammorsature tridimensionali;
· Platform frame o “casa a pannelli”, che consiste nell’assemblare in fabbrica le singole pareti con una trama
strutturale a telaio bidimensionale, che può essere successivamente rivestito con differenti materiali di finitura;
· Timber frame o “casa a telaio”, che consiste nell’assemblare direttamente in cantiere la struttura portante
dell’intera casa, composta da pilastri e travi in legno collegati fra loro da un complesso sistema di giunti. Anche
in questo caso il rivestimento può essere effettuato con
differenti materiali di finitura.
· X-lam, che consiste nell’assemblare in fabbrica le varie
5 VIOLANO, Antonella. BUILDING WITH WOOD: the summer energy
performance according the UNITS 11300:2014-I. In: Le Vie dei Mercanti,
2015, p. 1941-1943 [Encouraging the eco-efficient and auto-sustainableoriented technological innovations is the current researching and working
conditions’ main feature (from net zero energy buildings to plus energy
buildings). They can be the result of a mental innovation, both ecological
and environmental. For the technological choices, it is not enough integrated in the cover a photovoltaic or solar thermal system to build an energetically efficient building... When choosing building materials and systems,
it is important to incentivize the techniques and local traditional materials
appreciation, well translated in an innovative way, and the products’ choice to be ecocompatible and recyclable. From these points of view, wood is
a material with a very good performance.]
81
ARCHITETTURA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
pareti realizzate con 3/5/7/9 strati di legno disposti con
orditura incrociata e incollati. Rivestite successivamente
con diversi materiali di finitura.
La prima tipologia è la più arcaica e la più rustica, tipica
degli ambienti montani con una massa strutturale molto imponente ma con grandi limiti riguardo al dimensionamento
dei vani e alla diversità di forma che può assumere l’edificio,
condizionato dalla massima lunghezza delle tavole o tronchi
adoperabili. Le altre tre hanno in comune la versatilità delle
finiture che le rende più simili alle costruzioni tradizionali
realizzate con altro materiale.
La tipologia timber frame, che viene spesso preferita dai
costruttori, permette una grande libertà di design e soluzioni architettoniche. La platform frame, invece, consente una
maggior semplicità di progettazione e forse anche un piccolo
vantaggio in termini di costi e di tempi di realizzazione.
Quest’ultima si presta maggiormente alla standardizzazione di progetto penalizzando il design personalizzato.
Gli aspetti costruttivi, tecnici e formali, da considerare per
ottimizzare le prestazioni degli edifici in legno realizzati in
area mediterranea sono principalmente la ventilazione naturale, le ombre proprie, il coefficiente di assorbimento solare
delle finiture esterne.
Specialmente nei climi caldi e nelle stagioni estive, la
ventilazione costituisce un efficace strumento per garantire il raffrescamento passivo degli edifici. Il movimento e il
rinnovamento dell’aria, che sono tanto maggiori quanto più
consistenti sono le differenze di temperatura e pressione tra
l’interno e l’esterno, allontanano il calore in eccesso dalle
strutture edilizie per convezione termica, in modo naturale.
Ciò assicura benefici refrigerativi e consente anche di migliorare la qualità dell’aria.
Anche le ombre contribuiscono fortemente al controllo
dell’accumulo termico perché riducono gli apporti termici
dovuti all’irraggiamento solare diretto.
Per efficientare il sistema possono essere messe in atto alcune strategie progettuali più o meno complesse. La norma
in materia di controllo delle prestazioni energetiche degli
edifici impone l’adozione di sistemi schermanti per la riduzione dell’apporto di calore per irraggiamento attraverso
le superfici vetrate. Semplicemente agendo sulla geometria
dell’edificio si possono creare in facciata alternanze di pieni
e vuoti o aggetti orizzontali (“corrugamenti”) che, in maniera
naturale creano zone d’ombra.
Nel periodo estivo i sistemi schermanti devono garantire
un ombreggiamento delle superfici trasparenti esposte nei
quadranti Sud-Ovest/Sud-Est tale da ottenere una percentuale di schermatura pari a 70%, è altresì importante però
che i sistemi utilizzati per la riduzione del calore entrante
per irraggiamento solare nel periodo estivo non precludano
i necessari apporti solari gratuiti nel periodo invernale: i sistemi di protezione devono limitare la radiazione diretta nel
periodo estivo, ma permetterla nei mesi invernali.
Inoltre, per utilizzare al meglio i materiali da costruzione,
bisogna conoscere il comportamento degli stessi a temperature elevate o al variare della temperatura.
82
Tra le proprietà termiche quelle che maggiormente condizionano, per le finiture delle superfici opache esterne, la
scelta di un materiale rispetto ad un altro sono il coefficiente
di assorbimento e la emissività.
Il coefficiente di assorbimento della radiazione solare (α)
indica l’attitudine di un materiale ad assorbire l’energia radiante che incide su di esso; in genere superfici scure e rugose si scaldano più di quelle chiare e lisce.
La emissività (ε) indica l’attitudine di un materiale a disperdere l’energia radiante che incide su di esso; in genere
superfici scure e rugose dissipano più calore di quelle chiare
e lisce.
E’ consigliabile, quindi, utilizzare materiali con basso valore di α ed alto valore di ε cosa non semplice da raggiungere
visto che spesso i materiali hanno per questi parametri valori
contrapposti6.
Questi due parametri termofisici incidono notevolmente
sul controllo della temperatura delle superfici esterne di un
edificio, in particolare nelle zone mediterranee dove l’energia solare incidente è molto elevata specialmente nel periodo
estivo.
La temperatura raggiunta dalla superficie di un elemento
di involucro opaco esposto al sole determina la quantità di
calore che potrà successivamente entrare all’interno dell’edificio.
Pertanto, nelle zone calde come quelle mediterranee, è necessario controllare il più possibile il flusso termico in entrata e in uscita, agendo sulla finitura della superficie esterna
(tipo di materiale, colore, rugosità) oltre ad utilizzare sistemi
schermanti della radiazione solare.
Per valutare le prestazioni in maniera comparata, gli elementi costruttivi esaminati nello studio condotto sono la
parete esterna (Tab. 1) e la copertura (Tab. 2) perché sono
questi gli elementi che costituiscono il confine tra interno ed
esterno più significativo.
La comparazione dei parametri di trasmittanza, sfasamento e attenuazione serve per capire se esiste una soluzione tecnologica appropriata. In effetti, anche se lo spessore delle
coperture varia da 22 cm. a 28 cm., i valori della trasmittanza
restano quasi uguali per tutte le aziende mentre lo sfasamento ha delle forti variazioni. Infatti per le coperture si passa da
un minimo di 5 ore ad un massimo di 13 ore.
Questo dato ha una notevole rilevanza per il clima mediterraneo perché, per queste zone, la normativa richiede uno
sfasamento di circa 12 ore per garantire, nel periodo estivo,
lo smaltimento dei carichi termici diurni durante le ore notturne.
Dalle tabelle si evince che le aziende adottano materiali
diversi per le strutture, per il rivestimento e per l’isolamento
senza che ciò determini una variazione sostanziale dei requisiti cogenti.
Per analizzare e confrontare fra loro i sistemi costruttivi
più diffusi, è stata redatta una tabella (Tab. 3) nella quale
6 Allen E., Iano J. (2011). Fundamentals of Building Construction: Materials and Methods,.5ª ed. John Wiley&Sons,. p. 1008
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | ARCHITETTURA
Tab. 1
Tab. 2
83
ARCHITETTURA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
Tab. 3
sono state inserite le classi esigenziali e i requisiti previsti
dalle norme UNI per definire l’organismo edilizio e i sistemi
(ambientale e tecnologico) di cui si compone.
Nella tabella sono stati inseriti solo i requisiti più significativi e caratterizzanti le case in legno rispetto alle condizioni
climatiche in regime estivo per le zone a clima mediterraneo.
Questa analisi ha evidenziato che, per quanto concerne la
sicurezza, i sistemi costruttivi hanno tutti una buona attitudine a mantenere inalterata la funzione portante degli elementi
strutturali, in funzione delle condizioni climatiche esterne
con una leggera flessione per il sistema X-lam che in relazione alla capacità dissipativa valutata attraverso il fattore di
struttura q0 risulta essere meno resistente degli altri.
Riguardo ai requisiti termici ed igro-termici, si evidenziano risultati meno favorevoli per il sistema Block house. Questo sistema è costituito da un blocco unico di legno che non
consente un buon isolamento dall’esterno a differenza degli
altri sistemi che hanno pareti multistrato create ad hoc per
migliorare le prestazioni.
Anche per la gestione il sistema Block house è quello che
risulta avere caratteristiche meno performanti per il clima
mediterraneo.
Per questo sistema costruttivo il controllo dell’inerzia termica, risulta più difficile rispetto agli altri sistemi e quindi
necessita di maggiore energia per il riscaldamento ma anche
84
per il raffrescamento o di un’integrazione di isolante.
Per concludere, un’attenta progettazione che preveda l’integrazione di soluzioni tecnologiche in grado di garantire
condizioni di comfort ambientale durante tutto l’anno consente anche l’uso del legno come sistema costruttivo in area
mediterranea.
Uno sguardo al passato ci aiuta a capitalizzare progettualmente le conoscenze empiriche acquisite in secoli di attività
costruttiva senza impianti termici.
“Ciò non significa che debba essere necessariamente un’architettura tradizionalista o vernacolare, in quanto le soluzioni morfologiche e tipologiche e quelle tecnico-costruttive subiscono un’evoluzione nel tempo in relazione all’emergere
di nuovi bisogni e all’introduzione di nuovi materiali e nuovi
sistemi di edificazione. [...] Progettare oggi nei contesti mediterranei significa comprendere le ragioni legate al clima,
alle risorse, ai materiali dei luoghi. Progettare in queste aree
geografiche non impone un pedissequo riferimento alle forme delle architetture della tradizione costruttiva di quelle
regioni ma, piuttosto, una innovativa reinterpretazione delle
ragioni che per secoli ne hanno guidato la realizzazione.”7
7 M. Lavagna, “Progettare con il clima, progettare nel contesto: tipologie, tecnologie e cultura materiale” CIL 133 FOCUS.
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
Un enzima potrebbe essere la chiave di
volta per la cura dell’Alzheimer
GIOVANNI STELITANO
Biotecnologo
S
i chiama Glicogeno Sintasi Chinasi 3 (GSK3)
l’enzima che i ricercatori stanno studiando
da ormai una decade come possibile bersaglio per la cura dell’Alzheimer. Inizialmente
scoperto dal gruppo di ricercatori guidato da
Embi1 nel 1980 per l’importante ruolo che svolge nel processo biologico conosciuto come gliconegenesi2, la GSK3
è tutt’ora oggetto di studio per le numerose altre funzioni
svolte nel metabolismo cellulare e nel decorso di numerose
patologie3, tra cui il diabete, l’Alzheimer e il Parkinson, il
disturbo bipolare e la dipendenza alle droghe.
CARATTERIZZAZIONE DELL’ENZIMA
La GSK3 è una proteina monomerica, è cioè formata da
un unico monomero che ha funzione strutturale e possiede il
sito attivo in cui viene processata l’attività enzimatica. Studi
specifici sul sito attivo e sull’attività enzimatica della GSK3
hanno dimostrato che essa riconosce e lega più di un centinaio di substrati4, mentre i calcolati teorici indicano che può
processare circa quattrocento molecole. Sono state riscontrate due isoforme della GSK3 date dallo splicing alternativo
del suo messaggero3: la GSK3α e la GSK3β che differiscono
sia per i loro bersagli molecolari sia per il ruolo che giocano
nei processi biologici all’interno dei differenti tessuti cellulari. Le due isoforme non sono quindi interscambiabili. A
dimostrazione di ciò è indicativo il fatto che l’isoforma α è,
per esempio, completamente assente negli uccelli, e che la
1 Embi N., Rylatt D.B. & Cohen P. (1980). Glycogen synthase kinase-3
from rabbit skeletal muscle. Separation from cyclic-AMP-dependent protein kinase and phosphorylase kinase. Eur J Biochem. 107:519-527.
2 Ossia nell’allungamento della catena di glicogeno in risposta ai segnali
biomolecolari derivanti dal pathway dell’insulina
3 Grimes C.A., & Jope R.S. (2001). Themultifaceted roles of glycogen
synthase kinase 3β in cellular signaling. Prog Neurobiol 65, 391–426.
4 Linding R., Jensen L.J., Ostheimer G.J., van Vugt M.A., Jørgensen C.,
Miron I.M., et al. (2007). Systematic discovery of in vivo phosphorylation
networks. Cell 129, 1415–1426.
sua assenza non è letale per lo sviluppo del feto nelle altre
specie animali, mentre l’assenza dell’isoforma β non permette la differenziazione cellulare di alcuni tessuti come quello
neurale e quello cardiaco.
La GSK3 è una protein chinasi serina/treonina specifica,
è cioè un enzima che lega un gruppo fosfato a un residuo di
serina o di treonina della molecola bersaglio (substrato). In
particolare, esso riconosce la sequenza S/T-X-X-X-S/T(P) in
cui S è una serina, T è una treonina, X è un amminoacido
generico e (P) indica un gruppo fosfato che è stato precedentemente legato da un’altra protein chinasi (definita primed kinase) alla sequenza di riconoscimento. Una volta individuata
tale sequenza, la GSK3, in presenza di ioni di magnesio, lega
il gruppo fosfato γ, che strappa da una molecola di ATP, alla
serina o alla treonina non fosforilata della sequenza di riconoscimento5 come mostrato nella figura 1.
L’attività della GSK è di tipo processivo, ciò vuol dire che
l’enzima continuerà a legare un gruppo fosfato a un residuo
di serina o treonina fintanto che essi si trovino a tre amminoacidi di distanza dal residuo precedentemente fosforilato.
Una caratteristica interessante della GSK3 consiste nel fatto che è una proteina costitutiva6, ossia sempre presente e
attiva all’interno delle cellule, a differenza delle protein chinasi notoriamente inducibili, ossia proteine che necessitano
di un induttore che ne attivi la sintesi.
In effetti, un primo processo di regolazione di questo enzima viene attuato già durante la sua sintesi dall’enzima stesso,
che si auto-fosforila7 su un residuo di serina (differente nelle
5 Dajani R., Fraser E., Roe S.M., Yeo M., Good V.M., Thompson V., et
al. (2003). Structural basis for recruitment of glycogen synthase kinase 3β
to the axin–APC scaffold complex. EMBO J 22, 494–501.
6 Doble B.W. & Woodgett J.R. (2003). GSK-3: tricks of the trade for a
multi-tasking kinase. J Cell Sci, 1;116:1175-1186.
7 Hughes K., Nikolakaki E., Plyte S.E., Totty N.F., & Woodgett J.R.
(1993). Modulation of the glycogen synthase kinase-3 family by tyrosine
85
SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
Figura 1 Immagine dell’autore
due isoforme). Questo processo porta al massimo l’attività
enzimatica, il cui aumento è di circa duecento volte, nelle
prime fasi di emivita dell’enzima e ha lo scopo di avere un
enzima che sia subito attivo all’interno della cellula.
La GSK3 si può trovare in due forme, una attiva e una inattiva. Il processo di inibizione viene attuato da numerose altre
protein chinasi che derivano principalmente da due pathway,
quello dell’insulina (come la protein chinasi A, PKA) e quello del Wnt8, un complesso di trasduzione dei segnali biologici che permette la risposta cellulare agli stimoli esterni ed
è costituito dalle proteine di membrana dipendenti dal calcio
nonché da una famiglia di proteine chiamate wingless related
proteins da cui prende il nome. Le chinasi attivate da questi
due pathway possono fosforilare la GSK3 su una serina nella
porzione N-terminale9 (la serina-9 per quanto riguarda l’isoforma beta, la serina-21 per quanto riguarda l’isoforma alfa).
Questo processo fa sì che la coda della porzione N-terminale
della GSK3 si sposti sul sito attivo, assumendo un comportamento da pseudo-substrato, e lo nasconda, impedendo così
il legame con le molecole bersaglio. Le stesse proteine che
inibiscono la GSK3 hanno anche la capacità di defosforilarla
per permetterle di tornare allo stato attivo.
RUOLO BIOLOGICO DELLA GSK3 NELL’EZIOLOGIA
DELL’ALZHEIMER
Il morbo d’Alzheimer è una delle malattie degenerative
più comuni, che colpisce la popolazione al di sopra dei 65
anni d’età ma talvolta si può sviluppare anche precocemente.
Si calcola che circa il 60-70% dei pazienti affetti da demenza
si identifichi in questa patologia.
Sono attualmente in fase di valutazione clinica delle terapie a base di litio poiché esso si è dimostrato essere un
phosphorylation. EMBO J 12, 803–808.
8 Ryves W.J., Harwood A.J. (2003). The interaction of glycogen synthase
kinase-3 (GSK-3) with the cell cycle. Prog Cell Cycle Res. 2003;5:489-95.
9 Cross D.A., Alessi D.R., Cohen P., Andjelkovich M. & Hemmings
B.A. (1995). Inhibition of glycogen synthase kinase-3 by insulin mediated
by protein kinase B. Nature 378, 785–789.
86
neuroprotettore già nei pazienti affetti da sindrome bipolare
mostrando inoltre la capacità di abbassare il tasso di insorgenza dell’Alzheimer in questi pazienti10.
Le ricerche dell’ultimo decennio si sono quindi focalizzate
nel comprendere i meccanismi d’azione del litio nelle cellule
neuronali affette dalla patologia, ed è ormai dimostrato che
il litio ha un comportamento competitivo nei confronti del
magnesio per il sito attivo della GSK3 bloccando così l’attività enzimatica11.
A seguito di questa scoperta è stato approfondito il ruolo
dell’enzima nell’insorgenza e nel decorso della malattia, e
in effetti, è stato dimostrato come la GSK3, e in particolare
l’isoforma β, intervenga su più livelli nei processi patologici
che riguardano l’Alzheimer12.
Principalmente possiamo distinguere due eventi biologici
caratteristici della malattia: la perdita di stabilità dei microtubuli che conferiscono forma e solidità alle cellule, e la formazione della placche nello spazio extracellulare. Entrambi
gli eventi portano alla distruzione delle cellule neuronali.
La formazione delle placche, il più breve e semplice da
trattare dei due processi, è dovuto all’aggregazione nello
spazio intracellulare dei frammenti Aβ13. Essi non sono altro che dei piccoli peptidi, lunghi 40-42 amminoacidi, che si
formano dalla degradazione della proteina precorritrice della
beta-amiloide (APP), proteina di transmembrana delle cellule neuronali, quando la GSK3β ha un’eccessiva attività e
induce una cascata di eventi che culminano con l’attivazione
della γ-secretasi. L’aggregazione dei frammenti Aβ in placche comporta l’attivazione della via cellulare apoptotica14.
10 Nunes P.V., Forlenza O.V., Gattaz W.F. (2007). Lithium and risk for
Alzheimer’s disease in elderly patients with bipolar disorder. Br J Psychiatry. Apr. 190:359-360.
11 Klein P.S. & Melton D.A. (1996). A molecular mechanism for the effect of lithium on development. Proc Natl Acad Sci USA 93, 8455–8459.
12 Grimes C.A., & Jope R.S. (2001). Themultifaceted roles of glycogen
synthase kinase 3β in cellular signaling. Prog Neurobiol 65, 391–426.
13 Price D.L. & Sisodia S.S. (1998). Mutant genes in familial Alzheimer’s disease and transgenic models. Annu Rev Neurosci. 21:479-505.
14 Kim J.Y., Kim H., Lee S.G., Choi B.H., Kim Y.H., Huh P.W., Lee
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
La perdita di stabilità dei microtubuli, invece, è un processo più complesso e dipende da tre eventi distinti che tuttavia
hanno la stessa conseguenza a livello molecolare.
1) Il primo evento è causato da un’eccessiva attività della GSK3β che comporta la fosforilazione della β-catenina,
subunità principale della caderina, sui residui amminoacidici 41, 37 e 33, causandone la degradazione a opera dell’ubiquitin-proteosoma15.
2) Il secondo evento consiste nell’iperfosforilazione della
proteina tau operata dalla GSK3β. Questa proteina, che fisiologicamente si lega ai microtubuli per conferirne stabilità
alla cellulare, quando iperfosforilata tende ad aggregarsi in
complessi molecolari neurotossici quali i filamenti a doppia
elica (PHFs) e i grovigli neurofibrillari (NFTs)16. Le modificazioni sì operate contribuiscono all’alterazione della plasticità delle sinapsi e ai cambiamenti degenerativi riscontrati
nell’Alzheimer17.
3) La GSK3β può anche svolgere la propria attività all’interno del nucleo cellulare dove un’eccessiva funzione porta
allo splicing alternativo del messaggero di tau. La proteina
tau, che fisiologicamente è presente nella forma 4R (così
chiamata perché ha una sequenza amminoacidica ripetuta 4
volte), viene così sintetizzata nell’isoforma 3R che ha bassa
affinità per i microtubuli. Nelle cellule corticali coltivate in
vitro a un’elevata espressione di 3R si associa la perdita di
stabilità dei microtubuli con conseguente produzione delle
stesse lesioni presenti nei pazienti affetti da Alzheimer18.
rose critiche su questi studi, giacché l’enzima è implicato in
numerosi processi biologici la cui alterazione ha un impatto
negativo sull’organismo, tuttavia, negli ultimi anni, è stato
dimostrato che l’inibizione della GSK3 (sia mediante le terapie al litio, attualmente in fase di valutazione clinica, sia
utilizzando delle molecole farmaceutiche che hanno un’azione inibente più specifica nei confronti dell’enzima come i
derivati della maleimide, noto neuroprotettore) non solo rallenta i processi patologici sia in vitro che in vivo tipici della
patologia ma promuove anche la neurogenesi20 delle cellule
dell’ippocampo. Lo scopo degli studi futuri è quindi orientato non solo a bloccare i processi neurodegenerativi tipici
dalla patologia, ma verte anche nel trovare un equilibrio tra
essi e la neurogenesi. Queste scoperte hanno convinto anche
i più scettici ad approfondire questa direzione di ricerca, ma
molto lavoro è ancora necessario.
È dimostrato inoltre, che nei pazienti affetti da Alzheimer
si ha un incremento della concentrazione dell’enzima in un
tessuto facilmente reperibile come le cellule linfatiche, ciò
potrebbe permettere il suo utilizzo come marker della patologia19.
CONCLUSIONI
Sebbene numerosi studi sono stati condotti negli ultimi
10 anni, sono ancora necessarie numerose ricerche per riuscire a trovare una cura efficace per il morbo d’Alzheimer,
ma l’inibizione della GSK3 sembrerebbe essere una strada
promettente. I ricercatori più scettici hanno avanzato numeK.H., Han H. & Rha H.K. (2003). Amyloid beta peptide (Abeta42) activates PLC-delta1 promoter through the NF-kappaB binding site. Biochem
Biophys Res Commun. 310:904-909.
15 Valvezan A.J. & Klein P.S. (2012). GSK-3 and Wnt signaling in neurogenesis and bipolar disorder. Front Mol Neurosci 5, 1.
16 Flaherty D.B., Soria J.P., Tomasiewicz H.G. & Wood J.G. (2000).
Phosphorylation of human tau protein by microtubule-associated kinases:
GSK3beta and cdk5 are key participants. J Neurosci Res. 62:463-472.
17 Arendt T. (2004). Neurodegeneration and plasticity. Int J Dev Neurosci. 22:507-14.
18 Hernandez F., Pérez M., Lucas J.J., Mata A.M., Bhat R. & Avila J.
(2004) Glycogen synthase kinase-3 plays a crucial role in tau exon 10
splicing and intranuclear distribution of SC35. Implications for Alzheimer’s disease. J Biol Chem. 279:3801-3806.
19 Hye A., Kerr F., Archer N., Foy C., Poppe M., Brown R., Hamilton
G., Powell J., Anderton B., Lovestone S. (2005). Glycogen synthase kinase-3 is increased in white cells early in Alzheimer’s disease. Neurosci
Lett. Jan 3; 373(1):1-4.
20 Morales-Garcia J.A., Luna-Medina R., Alonso-Gil S., Sanz-San Cristobal M., Palomo V., Gil C., Santos A., Martinez A.& Perez-Castillo A.
(2012). Glycogen synthase kinase 3 inhibition promotes adult hippocampal neurogenesis in vitro and in vivo. ACS Chem. Neurosci. 963e971.
87
88
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | RECENSIONI
e non si incontra, spesso, con il reale
La teoria del
valore di un’opera. Ciò non riguarda
il caso editoriale dell’anno scorso che,
“soggetto di
ancora oggi, non smette di interessare
massa”
specialisti, cultori e semplici interessati. Mi riferisco alla Teoria del Soggetto
in Danilo
di massa, presentata per la prima volta
ne La fine del nostro tempo, trattato del
Campanella
filosofo Danilo Campanella.
Il successo del saggio consiste procome diagnosi babilmente
nell’aver annunciato la
necessità
di
umanesimo»,
del vulnus della definito comeunla «nuovo
«terza via» ossia una
mediazione tra il liberalismo e il sociacoscienza nel
lismo. Nella società i diritti umani sono
postmodernismo il perno fondamentale e l’individuali-
RICCARDO NARDUCCI
Scienze della Comunicazione, Università
degli Studi Roma Tre
I
n un’epoca post-moderna come
la nostra in cui il decorrere della
crisi economica ed i tentativi di
reazione si susseguono, non sempre ci
è chiaro il nuovo ruolo dell’uomo nella società. Il modo in cui si è adattato
e ambientato nella crisi, ed i suoi tentativi di iniziare percorsi di progresso
verso nuove sfide che possano essere
trampolini di lancio per l’uscita dalla
crisi economica. Una crisi che sembra
presentare varie sfaccettature, toccando cosi i vari ambiti della vita di una
persona. Pochi saggi di filosofia recenti
racchiudono forti contenuti psicologici
e di scienza comunicativa; ancora meno
presentano un successo editoriale rilevante. L’interesse della critica, soprattutto di quella universitaria, è spesso legata a correnti interne dell’Accademia
smo, tipico del pensiero liberale, viene
bilanciato da principi di collettività e di
solidarietà. Questo orizzonte, sociologico e filosofico-politico, costituisce il
nucleo di fondo del volume La fine del
nostro tempo, in cui l’autore, alla luce
di un’accurata analisi storica, richiama
il primato dei diritti fondamentali connaturati nella persona e il primato del
personalismo come prospettiva sociale, etica, culturale e politica, come ben
sottolineato dal filosofo Andrea Gentile, docente associato presso l’Università degli Studi Guglielmo Marconi.
Come il prof. Gentile riporta nell’introduzione al trattato, il volume è strutturato in tre parti: Potere e consenso;
Fenomenologia del soggetto di massa;
Tempi nuovi si annunciano, con l’aggiunta di un’ulteriore sintesi ne La terza via (appendice finale). All’interno di
questa articolazione complessiva, nella
terza parte del saggio, vengono formalizzate delle risposte reali e concrete al
problema della crisi contemporanea e
sono enucleati nuovi modelli e alcune
interessanti teorizzazioni innovative
come: la «teoria del soggetto di massa», la «teoria della spersonalizzazione
progressiva» e la «teoria dell’apparato
comunitario».
La strutturazione del saggio presenta alcune tematiche invero non nuove
nel panorama della filosofia politica, né
della filosofia del diritto. L’ispirazione
a Wilhelm Röpke e a Emmanuel Mounier (per altro citati) è molto presente
nel trattato, come anche l’accenno a
un certo personalismo che, pur volendo essere realista, non esce fuori da un
certo esistenzialismo ottocentesco, il
cui eco è molto forte nelle pagine del
Campanella. Ciò che rende diverso “La
fine del nostro tempo” dagli altri saggi,
e ciò per cui si è lungamente dibattuto
nei circoli, nelle conferenze, nei dibattiti, nelle tavole rotonde, è dato dalla
creazione di due nuovi concetti dottrinali: “Soggetto di massa” e “Teoria
della spersonalizzazione progressiva”.
La prima è una teoria psicologica a dire
il vero già presente nel panorama della psicologia di massa contemporanea,
benché il Campanella la traduca in termini politici, con l’uso della filosofia,
in modo più esauriente rispetto a tanti
psicologi
Per la verità ciò che è apparso come
una novità vera e propria è stata la teoria del soggetto di massa. Campanella
parte dal seguente presupposto storico:
“Il potere politico, in tutte le sue varianti,
ha dovuto adattarsi alle “dinamiche indipendenti” della storia, applicando dei metodi di controllo sempre differenti; ha avuto
bisogno di plasmare i sudditi, nei periodi di
regime monarchico, attraverso specifiche
qualità: dovevano essere leali, coraggiosi,
dediti a un codice d’onore, rispettosi delle
classi superiori, attraverso la “costruzione”
di soggetti che si prestavano bene sia a sacrificarsi in guerra sia ad abbracciare l’aratro nei periodi di pace. I regimi teocratici
hanno plasmato, attraverso la fede, la carità
e l’umiltà, un altro tipo di soggetto: il fedele. Successivamente, si è passati dal feudo
al commercio, dal lavoro nei campi a quello
nelle città, dall’agricoltura alla fabbrica e,
infine, all’impresa. Con l’avvento del capitalismo, il sistema mercatista si impegnerà
nel plasmare un nuovo tipo di fedele-suddito: il consumatore. Per gran parte della
storia umana le società si sono basate sulla
disciplina e il loro culmine si ha tra il XVIII
e il IX secolo1 (…) Noi siamo il più grande
prodotto dell’ingegneria del nostro tempo”,
continua il filosofo, per poi aggiungere: “Al
soggetto di massa è stata tessuta addosso
una personalità, sia individuale che collettiva, atta a integrarlo all’interno del sistema
politico; se ci riflettete sopra, noterete che
1 Danilo Campanella, La fine del nostro tempo, Dissensi 2016, p. 79.
89
RECENSIONI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
Dunque, posto che la persona sia
un soggetto autocosciente, il soggetto
umano individuale, la politica, alleata
con il mercato e grazie alla tecnologia,
ha plasmato un modello umano simile
a una formica, connesso con gli altri
individui, un soggetto nato non per se
stesso ma per il suo collettivo. Il soggetto di massa, appunto:
“La tecnologia delle comunicazioni,
al servizio della politica, ha costruito
una società in cui è potuto instaurarsi
un nuovo e più avanzato tipo di potere. Eppure ciò non sarebbe bastato a
realizzare il perfetto controllo dell’individuo nella società massificata, costruendo così un vero e proprio “soggetto di massa”. Per chiudere il cerchio
occorreva un meccanismo, all’interno
del “sistema aperto”, che consentisse al
cittadino di auto-limitarsi”3.
Ciò che interessa peculiarmente la
sociologia e le scienze delle comunicazioni è la linea che Campanella traccia tra mass media e libertà personale
dell’individuo, anzi, della persona. Il
Quarto potere è così forte nell’epoca
postmoderna da riuscire a plasmare un
nuovo tipo di essere umano, antropologicamente diverso (come viene altresì
riconosciuto nell’eminente Rivista di
Sociologia), grazie alla costruzione
di una coscienza collettiva che parte
dall’aberrazione della natura originaria dell’uomo. In tal senso Campanella si scontra in una parziale polemica
col Sartori, il quale nella sua teoria
dell’Homo Videns parla di decostruzione, mentre Campanella si riferisce ad
una costruzione progressiva e silente,
2 Ibidem., p. 88.
3 Ibid., p. 90.
un ruolo similare lo avevano assunto, in
precedenza, i partiti politici che, in Europa,
dominarono per circa un secolo”2.
90
non ex novo, ma che soffoca la natura
originaria della persona parzialmente
formata o non ancora formata, in modo
tale che essa non saprà mai veramente
chi è.
Tale studio si pone certamente come
una novità nel panorama della psicologia sociale e della filosofia politica,
ma anche un pregevole contributo alla
ricerca, riguardo i temi trattati nel testo,
già conosciuti, ma riportati in chiave sicuramente nuova e più schietta: Campanella non utilizza sotterfugi retorici
o sottigliezze filosofiche per dirci come
stanno le cose, ma indica il re, nudo,
così com’è. Anche se, spesso, veniamo
convinti che sia ben vestito.
Danilo Campanella
La fine del nostro tempo
Dissensi, 2016
SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | RECENSIONI
Ricercatore per
sempre
C
ome si scrive una pubblicazione scientifica? Come
si diventa ricercatore e poi
professore universitario? Nato da sei
lezioni sulla scrittura delle pubblicazioni scientifiche, tenute dall’autore
per il dottorato di ricerca in “Biodiversità, agricoltura e ambiente”, e dalla
sua esperienza personale, nel libro Ricercatore per sempre Pietro Santamaria illustra come si scrive un articolo
da proporre ad una rivista scientifica e
racconta la sua odissea di ricercatore e
professore universitario prima e dopo
la presa di servizio.
Il libro intervalla i capitoli sulla
scrittura scientifica con le vicende che
hanno portato l’autore a sostenere due
volte lo stesso concorso per professore
associato, a vincerlo e a non poter prendere servizio fino ad un nuovo concorso sostenuto dieci anni dopo.
Così ai capitoli dedicati alle varie
sezioni di una pubblicazione scientifica (titolo, authorship, riassunto, parole
chiave, introduzione, materiali e metodi, risultati, discussione, conclusioni,
bibliografia e ringraziamenti) seguono,
come in una corsa ad ostacoli, i racconti dell’odissea di un ricercatore italiano
finita anche in Parlamento.
Nel manuale sulla scrittura, Santamaria segnala come è possibile valutare la forza di un articolo scientifico ed
esorta i lettori a non essere mai noiosi
suggerendo, ad esempio, le istruzioni
per poter preparare una presentazione
orale con Power Point. Piuttosto approfondita è la parte relativa alla scrittura
dei risultati, alla preparazione di tabelle
e figure e allo studio e interpretazione
delle interazioni.
“Ricercatore per sempre” è anche un
invito a non dimenticare il valore pubblico della professione e a tenere presente l’etica del ricercatore.
Pietro Santamaria è professore associato di orticoltura all’Università di
Bari. È autore di oltre 250 pubblicazioni ed è stato docente guida di oltre
100 laureandi, dottoranti e assegnisti di
ricerca.
A questo link (http://www.aracneeditrice.it/aracneweb/index.php/pubblicazione.html?item=9788854893085) è
possibile leggere le prime pagine del
libro.
Pietro Santamaria è professore
associato dell’Università degli Studi
di Bari Aldo Moro presso il Dipartimento di Scienze Agro-Ambientali e
Territoriali. Insegna Colture ortive al
Corso di laurea magistrale in Gestione
e sviluppo sostenibile dei sistemi rurali
mediterranei, Ortofloricoltura speciale
al Corso di laurea magistrale in Medicina delle piante e Comunicazione della scienza e pubblicazioni scientifiche
alla Scuola di dottorato di ricerca in
Biodiversità, agricoltura e ambiente.La
sua attività scientifica è rivolta in modo
particolare alle seguenti tematiche di
ricerca: nutrizione minerale, coltivazioni senza suolo, qualità dei prodotti
e biodiversità delle specie orticole. È
autore di oltre 250 pubblicazioni scientifiche tra cui otto libri (due monografie
e sei curatele).
Pietro Santamaria
Ricercatore per sempre
Una guida alla scrittura delle
pubblicazioni scientifiche e l’odissea
di un ricercatore italiano
Aracne editrice, 2016
Responsabilità
R
esponsabilità è ciò che la
gente chiede alla gente. Senso generatore di senso. Un
senso che sembra esser perso nel tempo
corrente. Una parola che sembra esser
desueta e, così, non più collegata a Valore, Morale e Libertà. Fors’anche perché sostituita da sicurezza. Condizione,
questa, che ci è posta come la soluzione alla vita non buona che viviamo. E
spesso quello che sviluppiamo per arginarne il dilagare altro non è che resistenza. Ma la resistenza è logorante e
deve far i conti con quella caratteristica
umana che è la sofferenza. Occorre capacità di cura. Una cura che parta dal
sé di ognuno ma non si esaurisca nello
stesso. E dal sé di ognuno potrà estendersi verso il prossimo altro, a partire
dal figlio. Una Responsabilità forte del
vaglio operato dal dubbio, dal timore e
dalla speranza.
Alfredo Marinelli, professore di Oncologia presso l’Università degli Studi
Federico II di Napoli; Neurolinguista;
è componente del board dell’Istituto
di Psicologia Umanistica “De Marchi”
IPUE di Roma; svolge attività di formazione e consulenza anche nel settore
industriale. Ex direttore scientifico dei
Corsi Centralità dell’Uomo (2012) e
The Civis (2013) patrocinati dal Parlamento Europeo. Oltre la produzione scientifica specialistica è autore di
numerosi capitoli in testi universitari
con trattazione di etica, bioetica, accanimento terapeutico, comunicazione,
relazione, esercizio professionale, ar91
RECENSIONI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016
gomenti insegnati in Master. Ha pubblicato su “Hiram” rivista del Grande
Oriente d’Italia, Massoneria Universale, di cui è componente; è autore della
rubrica “Assaggi” su expartibus.
L’ultimo
segreto di
Mussolini
Alfredo Marinelli
Responsabilità
Personale sociale politica
Jouvence, 2016
L’
otto settembre del 1943
l’Italia annunciò l’armistizio con le Forze
alleate. Fu una resa senza condizioni.
Qualcosa però si mosse sottobanco.
C’era infatti un altro tavolo, non ufficiale, dove il governo Badoglio continuò a collaborare con il vecchio amico
tedesco. Tra ricatti, ostaggi, minacce e
sotterfugi, l’illustre prigioniero Mussolini veniva così sottratto agli Alleati e
consegnato ai tedeschi il 12 settembre
a Campo Imperatore.
L’agente Nelio Pannuti, addetto alla
sorveglianza personale di Mussolini al
Gran Sasso, in un’intervista rilasciata
all’autore della presente opera, dichiarò che quell’incursione dei tedeschi
“sembrava proprio un’azione concordata, tant’è che, una volta liberato il
Duce, ci fu un momento conviviale
tra soldati italiani e tedeschi nella sala
dello stesso albergo, tutti con le armi in
spalla pacificamente”.
Per chi non lo sapesse: i manuali storici hanno sempre narrato dell’efficacia
dei servizi segreti tedeschi e dell’impresa epica dei loro paracadutisti per
liberare Mussolini. Ma quale efficenza!
Che fandonie! Che a Campo Imperatore si trovava prigioniero il Duce lo
sapevano tutti, persino i bambini. Addirittura ci fu un pastorello di tredici
anni che trafugò gli alianti tedeschi im-
92
possessandosi di alcuni armamenti. Per
non parlare della complicità italiana nel
riaggiustamento storico. Il comandante
dei carabinieri al Gran Sasso Alberto
Faiola, fu pure encomiato, quando al
contrario questi, non solo non predispose alcuna misura cautelativa, ma venne
anche meno ai suoi doveri invitando
alcuni suoi amici proprio in quei giorni
all’albergo di Campo Imperatore.
Insomma una nuova verità storica
che è raccontata sin dagli inizi grazie
anche alla testimonianza - sconosciuta a molti - di Karl Radl, l’aiutante di
colui che erroneamente è stato sempre
considerato il vero artefice dell’Operazione Quercia”: il capitano Otto Skorzeny.
Vincenzo Di Michele (1962) già
autore di “La famiglia di fatto” (un’analisi sulle tematiche della convivenza
more uxorio); “Io prigioniero in Russia” (oltre 50.000 copie vendute e vincitore di premi alla memoria storica);
“Guidare oggi” (un manuale di guida
per le insolite problematiche stradali);
“Mussolini finto prigioniero al Gran
Sasso”(una revisione dei fatti storici
sulla prigionia del Duce a Campo Imperatore nel settembre 1943); “Pino
Wilson, vero capitano d’altri tempi”
(2013, la biografia ufficiale dello storico calciatore della Lazio campione
d’Italia nel 1974); “Come sciogliere
un matrimonio alla Sacra Rota” (2014,
un’inchiesta dettagliata sull’iter di annullamento dei matrimoni innanzi ai
Tribunali ecclesiastici).
Vincenzo Di Michele
L’ultimo segreto di Mussolini
Quel patto sottobanco fra Badoglio e i
tedeschi
Il Cerchio, 2015