[go: up one dir, main page]

Academia.eduAcademia.edu
ISSN 2283-5873 Scienze e Ricerche SR N. 38, 1° OTTOBRE 2016 38. Scienze SRe Ricerche RIVISTA BIMENSILE · ISSN 2283-5873 GLI ANNALI 2015 1 numero in formato elettronico: 7,00 euro ( UN NUMERO A SCELTA IN OMAGGIO AGLI ABBONATI ) Abbonamento annuale a Scienze e Ricerche in formato elettronico (24 numeri + fascicoli e numeri monograici): 42,00 euro * * 29,00 euro per gli autori e i componenti del comitato scientiico e del collegio dei referees www.scienze-ricerche.it 38. Sommario DOMENICO RIDENTE Conoscenza geologica e consapevolezza del rischio sismico all’indomani del terremoto del Centro Italia pag. 5 pag. 9 pag. 16 pag. 19 pag. 23 pag. 29 pag. 34 pag. 40 pag. 45 pag. 65 pag. 71 pag. 75 pag. 79 pag. 85 ALESSANDRO MARGHERITA Quanto Vale la Mia Ricerca? [A]QR - Un modello di Auto-Valutazione della Qualità della Ricerca Universitaria SILVIA AROSSA 16 Il ruolo degli zoo nella conservazione delle specie a rischio di estinzione ANTONIO TRINCONE Dal vino di Noè alla chimica verde FRANCO BAGNOLI Moebius in love. Una favola origamico-freudiana FILIPPO MARIA SPOSINI The Uncertainty Principle. Arguments and Implications for Philosophy of Science CLAUDIO CASSARDO, NAIMA VELA E VALENTINA ANDREOLI Un’introduzione ai modelli meteorologici e climatici GAETANO OLIVA L’Educazione alla Teatralità: le nuove indicazioni ministeriali PATRIZIA CIARDIELLO Diritti umani in carcere e politiche pubbliche. Verso un nuovo paradigma della responsabilità 40 FRANCESCO GIULIANO La metodologia costruttivista e l’uniicazione culturale a livello di formazione sono fattori indispensabili per la conoscenza GIUSEPPE DELLA VECCHIA, CLAUDIO CIVITILLO, TIZIANA FORTINO Trattamento Manipolativo Osteopatico in pazienti affetti da disordini dello sviluppo psicomotorio: studio pilota ENRICO ACQUARO Anecdota Punica RICERCHE ANTONELLA DELLA CIOPPA Costruire con il legno in area mediterranea GIOVANNI STELITANO Un enzima potrebbe essere la chiave di volta per la cura dell’Alzheimer 45 RECENSIONI n. 38 (1° ottobre 2016) 3 N. 38, 1° OTTOBRE 2016 ISSN 2283-5873 Scienze e Ricerche Rivista bimensile (esce il 1° e il 15 di ogni mese) n. 38, 1° ottobre 2016 Coordinamento • Scienze matematiche, isiche, chimiche e della terra: Vincenzo Brandolini, Claudio Cassardo, Alberto Facchini, Savino Longo, Paola Magnaghi-Delino, Giuseppe Morello, Annamaria Muoio, Andrea Natali, Marcello Pelillo, Marco Rigoli, Carmela Saturnino, Roberto Scandone, Franco Taggi, Benedetto Tirozzi, Pietro Ursino • Scienze biologiche e della salute: Riccardo N. Barbagallo, Cesario Bellantuono, Antonio Brunetti, Davide Festi, Maurizio Giuliani, Caterina La Porta, Alessandra Mazzeo, Antonio Miceli, Letizia Polito, Marco Zaffanello, Nicola Zambrano • Scienze dell’ingegneria e dell’architettura: Orazio Carpenzano, Federico Cheli, Massimo Guarnieri, Giuliana Guazzaroni, Giovanna La Fianza, Angela Giovanna Leuzzi, Luciano Mescia, Maria Ines Pascariello, Vincenzo Sapienza, Maria Grazia Turco, Silvano Vergura • Scienze dell’uomo, ilosoiche, storiche, letterarie e della formazione: Enrico Acquaro, Angelo Ariemma, Carlo Beltrame, Marta Bertolaso, Sergio Bonetti, Emanuele Ferrari, Antonio Lucio Giannone, Domenico Ienna, Rosa Lombardi, Gianna Marrone, Stefania Giulia Mazzone, Antonella Nuzzaci, Claudio Palumbo, Francesco Randazzo, Luca Refrigeri, Franco Riva, Mariagrazia Russo, Domenico Russo, Domenico Tafuri, Alessandro Teatini, Patrizia Torricelli, Agnese Visconti • Scienze giuridiche, economiche e sociali: Giovanni Borriello, Marco Cilento, Luigi Colaianni, Riccardo Gallo, Agostina Latino, Elisa Pintus, Erica Varese, Alberto Virgilio, Maria Rosaria Viviano Scienze e Ricerche in formato elettronico (pdf HD a colori): • abbonamento annuale (24 numeri + supplementi): 42,00 euro (29,00 euro per gli autori, i componenti del comitato scientiico e del collegio dei referees) Scienze e Ricerche in formato cartaceo (HD, copertina a colori, interno in b/n): • abbonamento annuale (24 numeri): 168,00 euro • abbonamento semestrale (12 numeri): 84,00 euro • una copia: 13,00 euro (7,00 euro per gli abbonati alla versione cartacea) Il versamento può essere effettuato: • con carta di credito, utilizzando il servizio PayPal accessibile dal sito: www.scienze-ricerche.it • versamento sul conto corrente postale n. 1024651307 intestato a Scienze e Ricerche, Via Giuseppe Rosso 1/a, 00136 Roma • boniico sul conto corrente postale n. 1024651307 intestato a Scienze e Ricerche, Via Giuseppe Rosso 1/a, 00136 Roma IBAN: IT 97 W 07601 03200 001024651307 4 La rivista ospita due tipologie di contributi: • interventi, analisi, recensioni, comunicazioni e articoli di divulgazione scientiica (solitamente in italiano). • ricerche e articoli scientiici (in italiano, in inglese o in altre lingue). La direzione editoriale non è obbligata a motivare l’eventuale riiuto opposto alla pubblicazione di articoli, ricerche, contributi o interventi. Non è previsto l’invio di estratti o copie omaggio agli autori. Scienze e Ricerche è anche una pubblicazione peer reviewed. Le ricerche e gli articoli scientiici sono sottoposti a una procedura di revisione paritaria che prevede il giudizio in forma anonima di almeno due “blind referees”. I referees non conoscono l’identità dell’autore e l’autore non conosce l’identità dei colleghi chiamati a giudicare il suo contributo. Gli articoli vengono resi anonimi, protetti e linkati in un’apposita sezione del sito. Ciascuno dei referees chiamati a valutarli potrà accedervi esclusivamente mediante password, fornendo alla direzione il suo parere e suggerendo eventuali modiiche, miglioramenti o integrazioni. Il raccordo con gli autori è garantito dalla segreteria di redazione. Il parere dei referees non è vincolante per la direzione editoriale, cui spetta da ultimo - in raccordo con il coordinamento e il comitato scientiico - ogni decisione in caso di divergenza di opinioni tra i vari referees. L’elenco dei referees impegnati nella valutazione degli articoli scientiici viene pubblicato con cadenza annuale. Chiunque può richiedere di far parte del collegio dei referees di Scienze e Ricerche allegando alla richiesta il proprio curriculum, comprensivo della data di nascita, e l’indicazione del settore scientiico-disciplinare di propria particolare competenza. Scienze e Ricerche Sede legale: Via Giuseppe Rosso 1/a, 00136 Roma Registrazione presso il Tribunale di Roma n. 19/2015 del 2/2/2015 Gestione editoriale: Agra Editrice Srl, Roma Tipograia: Andersen Spa Direttore responsabile: Giancarlo Dosi www.scienze-ricerche.it info@scienze-ricerche.com SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | COPERTINA Conoscenza geologica e consapevolezza del rischio sismico all’indomani del terremoto del Centro Italia DOMENICO RIDENTE Consiglio Nazionale delle Ricerche, Istituto di Geologia Ambientale e Geoingegneria PREMESSA Q uando ero studente di geologia, rimasi piacevolmente colpito dalla prefazione di uno dei pochi libri di testo allora in circolazione, Lezioni di Geologia Stratigraica, del Professor Bruno Accordi. Poche ma appassionate righe descrivevano i geologi come “privilegiati che capiscono o intuiscono la storia delle vallate e delle cime in nel loro intimo”, facendo intendere come il percorso di conoscenza intrapreso avrebbe potuto gratiicarmi con una “speciale” sensibilità verso quelle dinamiche, tanto imponenti quanto invisibili all’occhio comune, dalle quali può scaturire tanto un incantevole paesaggio dolomitico, quanto un disastroso terremoto. Perciò, all’indomani del sisma del 24 agosto, il profondo dispiacere che questa catastrofe ha inlitto a tutti noi è come acuito dal fatto di conoscere un po’ più “nel loro intimo” i terremoti e la natura della sismicità nel nostro Paese, oltre che dal senso di frustrazione per la poca considerazione verso questo tipo di conoscenza. Come in altre circostanze simili, nell’immediato emergono interrogativi, si accendono discussioni e nascono polemiche; ma tra commozione e rabbia si fa strada anche il desiderio di molti di comprendere meglio perché avvengono i terremoti nel nostro Paese, o perché non si possano prevedere. Mi sono chiesto allora quanto sarebbe importante che questo momento di interesse generale rimanesse vivo più a lungo, Foto Ansa 5 COPERTINA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 oltre l’immediato dopo-terremoto. Credo, infatti, che una maggiore consapevolezza generale riguardo a questi temi ci aiuterebbe nella dificile ma necessaria impresa di voltare pagina nel modo di concepire il rapporto con il nostro territorio e i rischi naturali. Vorrei quindi provare a raccontare, a chiunque volesse saperne un po’ di più, e senza troppi tecnicismi, cosa sono e perché avvengono i terremoti nel nostro Paese. Il mio obiettivo è riuscire a farlo mettendo in secondo piano la differenza tra una “faglia diretta” e una “faglia inversa”, solitamente una delle prime spiegazioni fornite dall’esperto in televisione. Si tratta certamente di un dato importante; ma non è detto che elementi indispensabili alla conoscenza degli esperti agevolino la comprensione di chi ascolta dal divano di casa. La conoscenza degli esperti è invece importante ai ini di un’eficace difesa dai terremoti, che riduca in modo concreto danni e vittime nelle aree a rischio (che sono tante e non tutte uguali). Questo vuol dire inevitabilmente che inora questa conoscenza non è stata sfruttata appieno. UNA GEOLOGIA DEI TERREMOTI “TERRA TERRA” La faglia sotto i nostri piedi Sappiamo che la sorgente di un terremoto è una struttura geologica nota come faglia. Una faglia è una frattura tra due lembi di crosta in virtù della quale i due lembi, sottoposti a “forze tettoniche”, si possono muovere l’uno rispetto all’altro, scuotendo le rocce circostanti e producendo quello che noi percepiamo come terremoto. Le faglie si estendono lateralmente (in lunghezza) e in profondità per decine di chilometri, rimanendo sepolte oppure afiorando in supericie. Non solo le faglie sepolte ma anche quelle afioranti, spesso ben mimetizzate col paesaggio naturale, possono essere dificili da individuare. Anche quando è possibile determinare la presenza di una faglia, non è detto si riesca a valutarne l’attività e la pericolosità; infatti, non tutte le faglie generano terremoti. Nel corso di milioni di anni, il contesto geologico può variare in modo tale che una faglia non sia più sottoposta alle forze tettoniche che l’hanno prodotta e resa attiva. Pertanto, anche se come sorgente sismica la faglia è considerata un’entità individuale, la sua attività risente di fattori che potremmo deinire “allargati” e “remoti”, perché inluenzati dalla geologia di una vasta regione attorno alla faglia e da forze tettoniche risultanti da una lunga e complessa storia di movimento delle “placche tettoniche”. Le placche tettoniche sono gli enormi frammenti in cui è suddivisa la parte superiore e più “rigida” del nostro pianeta (deinita “litosfera”). Ogni placca è anche “scollata” alla base, in virtù del fatto che, a una certa profondità (tra 70 e 100 km), pressione e temperatura sono tali da determinare un aumento della plasticità delle rocce. Questa zona plastica allenta l’aderenza tra la placca tettonica e la parte sottostante (il “mantello sub-litosferico”), anch’essa più rigida. Le placche possono così muoversi lentamente rispetto a questo “cuscinetto plastico”, allontanandosi tra loro oppure conver6 gendo e scontrandosi con tutta la forza del loro peso. Durante lo scontro, i margini delle placche si rompono lungo un groviglio di faglie che agiscono come piani di scorrimento (variamente inclinati) lungo i quali i diversi lembi fratturati si accavallano e si sovrappongono, innalzandosi a catena montuosa. Le spinte tra placche persistono milioni di anni dopo lo scontro che segna la fase principale dell’orogenesi, sollecitando le faglie che segmentano il corpo della catena e le sue “radici”, estese ino a 40-50 km di profondità. Il terremoto vero e proprio Quando i due lembi di una faglia scorrono bruscamente e rapidamente, l’uno rispetto all’altro, si dice che la faglia si è attivata, e l’effetto dello scorrimento è un “urto” contro le rocce circostanti che si traduce in un “treno di onde elastiche”: un fenomeno che a piccolissima scala chiameremmo vibrazione, ma che alla scala della faglia e dei volumi di roccia coinvolti diventa per noi un terremoto. Non è necessario che i due lembi fratturati scorrano lungo tutta la supericie di faglia, e di solito ciò non avviene, dato che solo in una porzione della faglia (l’ipocentro del terremoto) si supera l’attrito che tiene fermi i due lembi adiacenti, facendoli scorrere. Questo ci fa capire come la roccia in corrispondenza di un tratto di faglia bloccato dall’attrito debba necessariamente subire una pressione da parte della porzione che invece si è mossa: questa pressione agisce come la spinta che carica una molla, e contribuisce a vincere l’attrito nella zona bloccata, predisponendo i due lembi di faglia a “scattare” con un nuovo scorrimento. Per questo motivo, di solito, un primo scorrimento è seguito a breve da altri, ino a che il carico “litostatico” (cioè il peso delle rocce tutt’intorno) non ha il sopravvento e “stabilizza” la faglia. A questo punto, per attivarsi di nuovo, la faglia deve incamerare altra energia da sollecitazioni provenienti dall’esterno, cioè dalle forze tettoniche in atto. Le forze tettoniche generano un campo di sforzi che varia in modo rilevante solo nel corso di parecchi milioni di anni. Perciò, la quantità di energia che il campo trasmette a una faglia alla scala dei tempi umani, ad esempio ogni trent’anni, è pressoché sempre la stessa. Così, una faglia grande, in grado di generare terremoti forti, necessita tempi più lunghi, rispetto a una più piccola, per incamerare l’energia suficiente al superamento dell’attrito che blocca lo scorrimento. Ne consegue che ogni faglia ha tempi di attivazione “caratteristici”, che possono variare da qualche decina di anni a svariati secoli, determinando così (come ordine di grandezza) i “tempi di ricorrenza” dei terremoti in una certa zona. Si comprende allora perché i terremoti più forti sono meno frequenti nel tempo, e come l’assenza di sismicità in alcune zone dipenda proprio dal fatto che le faglie di quelle regioni abbiano dimensioni tali da richiedere tempi di caricamento più lunghi, in virtù di un più alto potenziale sismogenico. La Calabria, ad esempio, è la regione dove si sono veriicati i terremoti italiani più forti in assoluto (centinaia di volte più forti di quelli dell’Appennino centrale), ma da più di un secolo, ormai, non si registrano terremoti forti, vale a dire di SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | COPERTINA magnitudo superiore a 5. Vale la pena ricordare che la magnitudo è una misura indiretta della “forza” di un terremoto in base al sistema di classiicazione noto come Scala Richter. In pratica, la magnitudo è un “esponente” compreso tra 1 e 10 nella formula con cui si calcola l’energia sprigionata dal terremoto. In questa formula, il valore base rispetto al quale la magnitudo funge da esponente è di poco superiore a 30. Questo vuol dire che, all’aumentare di un fattore 1, ad esempio passando da magnitudo 5 a magnitudo 6, la quantità di energia in gioco aumenta di circa 301 = 30 volte. Se invece la magnitudo aumenta di 2 gradi, passando ad esempio da un terremoto magnitudo 5 a uno magnitudo 7, l’energia sprigionata da quest’ultimo è circa 302 = 30x30 = 900 volte maggiore. Per uno stesso terremoto si possono avere valori leggermente diversi della magnitudo, in funzione di differenti “parametri energetici” di riferimento. I terremoti italiani L’Italia deve la sua esistenza al fatto che la placca Africana e quella Europea si sono scontrate 30-40 milioni di anni fa, determinando l’orogenesi Alpino-Appenninica. Le Alpi e l’Appennino settentrionale risentono maggiormente degli sforzi di compressione dovute all’urto ancora in atto tra le due placche. Questi sforzi causano spinte nella direzione di accavallamento dei lembi di crosta fratturati, comprimendoli ino a che uno di essi non inizia a scorrere contropendenza lungo il piano di faglia, sormontando sempre più quello sottostante e favorendo così il sollevamento generale della catena. Faglie di “accavallamento” o compressive di questo tipo hanno generato le numerose forti scosse del terremoto del Friuli, nel 1976 (la più alta di magnitudo 6.5). Faglie come queste si sono propagate a una certa distanza dal corpo della catena, arrivando in sotto la Pianura Padana, dove si trova ad esempio la sorgente del terremoto dell’Emilia del 2012 (magnitudo 5.9). L’Appennino centro-meridionale, invece, risente del venire meno delle spinte che durante l’orogenesi hanno fatto accavallare i lembi di crosta fratturata. Questo perché l’Appen- nino centro-meridionale ha risposto allo scontro tra placche non solo sollevandosi ma anche (negli ultimi 10-15 milioni di anni) ruotando in senso antiorario. A seguito di tale rotazione, le faglie che lo attraversano sono orientate in modo tale da risentire meno delle spinte in atto tra le placche. Le faglie, quindi, non sono più sollecitate da spinte compressive tali da determinare il sovrascorrimento tra lembi fratturati, ma da forze che agiscono nel modo opposto: il lembo sovrastante si muove verso il basso scivolando via lungo il piano di faglia. Come risultato, tra i due lembi di faglia si produce distensione invece che compressione, e la catena in quel tratto subisce un abbassamento invece che un sollevamento. I terremoti dell’Irpinia (1980, magnitudo 6.9), dell’UmbriaMarche (1997, magnitudo 6.1), dell’Abruzzo (2009, magnitudo 6.3) e anche quello del 24 agosto scorso (magnitudo 6.0), rilettono questa dinamica da “faglia distensiva”. Tutte le faglie del nostro territorio, indipendentemente dalla loro natura e ubicazione, quando attivate danno luogo a una serie di scorrimenti ravvicinati nel tempo, generando una sequenza sismica. A volte, la scossa principale può segnare l’inizio della sequenza, ed è seguita poi da altre scosse più piccole (ma non necessariamente deboli). E’ quello che per esempio si è veriicato il 24 agosto scorso. Altre volte l’attivazione può avvenire con una serie di piccole scosse seguite da una più grande, come nel caso de L’Aquila, dove si sono registrate scosse minori per più di tre mesi prima dell’evento di magnitudo 6.3 del 6 aprile 2009. E ancora, l’attività di una faglia si potrebbe esaurire con una sequenza di scosse piccole, evidentemente raggiungendo una condizione di stabilità senza che avvenga uno scorrimento tale da generare un terremoto disastroso. Quest’ultima dinamica è abbastanza frequente, per non dire che si veriica continuamente. Può accadere anche che una sequenza sismica si distribuisca su più faglie vicine, a indicare la propagazione della deformazione dall’una all’altra, con conseguente attivazione a “effetto domino” del sistema di faglie. I terremoti non si possono prevedere L’unicità di ogni sequenza sismica, anche nell’ambito di 7 COPERTINA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 uno stesso tipo di scenario tra quelli descritti prima, indica un fatto preciso: non esiste una sistematicità, nella complessa dinamica di eventi che precede, accompagna e fa seguito a un terremoto, su cui poter basare un metodo di previsione del tipo “dove e quando”, o semplicemente “è più probabile là che altrove”. Per questo è irrealistico pensare che si possa arrivare un giorno a prevedere i terremoti. Non si tratta (come alcuni pensano e sperano) di un’impossibilità metodologica o concettuale, dovuta cioè a limiti destinati a essere superati grazie al progresso tecnologico e scientiico. Si tratta invece di un’impossibilità oggettiva, legata alle numerose variabili che discendono dalla natura “storica” dei fenomeni geologici, e alla scala (spaziale e temporale) alla quale si manifestano i fenomeni sismici. Certamente esistono enormi margini di miglioramento riguardo alla nostra comprensione della sismicità, e non bisogna smettere di lavorare in tal senso. Tuttavia, lavorare afinché si riesca inalmente a utilizzare al meglio quello che già sappiamo potrebbe rivelarsi più vantaggioso che cercare di acquisire conoscenze non proprio a portata di mano. Senza contare che prevedere i terremoti non ci esimerebbe dall’obbligo morale e dalla necessità di un impegno alla prevenzione. L’ULTIMA OCCASIONE Il principale strumento di sintesi della conoscenza geologica del territorio è la cartograia geologica. La cartograia uficiale che rappresenta la geologia del nostro Paese è la “Carta Geologica al 100.000” (una scala cioè che riduce a un centimetro elementi che nella realtà misurano un chilometro). Questa carta ha una storia lunga oltre un secolo ed è composta da un certo numero di “fogli”, ognuno riguardante un tratto di territorio. Sul foglio che lo contiene, il centro abitato di Amatrice è delimitato da una linea blu. La legenda del foglio ci svela il signiicato di tale linea: “Faglie visibili e loro ipotetici prolungamenti”. Quello che fa rilettere è la data di pubblicazione del foglio: 1955. Linee di faglia analoghe sono segnate anche in prossimità di Norcia, Accumoli e Arquata del Tronto, su un foglio geologico che porta ancora il contrassegno del “Regio Istituto Geologico”, in data 1941. Far passare l’idea che queste informazioni, da tempo nel cassetto, avrebbero potuto farci sapere che in quelle zone stava per veriicarsi un forte terremoto, è demagogico e non corrisponde al vero. Tuttavia, va evidenziato come fatto negativo che quelle informazioni sono rimaste nel cassetto in pratica inutilizzate. La lezione da trarre da questo fatto è duplice: sappiamo abbastanza bene, ormai, in quali aree si trovano le principali sorgenti dei terremoti italiani, quali sono le loro caratteristiche e che tipo di sismicità ci si potrebbe aspettare; conoscenze anche generiche come queste, se valorizzate, sono suficienti a fare molto più di quanto è stato fatto inora in termini di prevenzione e difesa dai terremoti. Una prevenzione eficace, in un Paese estesamente sismico e ricco di centri storici come il nostro, certamente comporta costi elevati. E questo non è certo un aspetto secondario 8 in un momento di crisi generalizzata. Tuttavia, la storia dei terremoti (e di altre catastroi naturali) insegna che si inisce sempre per spendere dopo ciò che non si è speso prima. In realtà dopo si spende perino di più. Questo non tanto per la differente tipologia e consistenza degli interventi del “prima” e del “dopo”, quanto soprattutto per via di corruzione e malaffare, che in genere portano a grandi spese per opere mal concepite, mal realizzate o palesemente incompiute. Il vero problema quindi non è quello del reperimento delle risorse ma, piuttosto, quello della loro gestione e del loro corretto utilizzo. Il terremoto del 24 agosto 2016 non sarà l’ultimo in questo Paese, ma è l’ultima occasione per riscattare la nostra credibilità, mettendo inalmente in moto la macchina della prevenzione prima ancora che quella dei soccorsi. Questa consapevolezza è il punto di partenza da cui possono nascere i presupposti di scelte importanti rispetto al problema del rischio sismico, magari all’insegna di un cambiamento più generale nel modo di affrontare i problemi strutturali del nostro Paese. Il terremoto, infatti, è anche una metafora dei tanti problemi a forte impatto socio-economico per i quali urgono azioni e interventi adeguati. Sul fronte del rischio sismico, come altrove, le forze politiche sono chiamate a trovare intese trasversali alla loro attuale frammentazione, che permettano di concepire e dare continuità a progetti a lungo termine, indipendentemente dall’efimerità dei governi. E’ tempo che i politici trovino quella “speciale sensibilità” che dovrebbe discendere dal privilegio di guidare un Paese; cosa di certo non meno sensibilizzante del privilegio di capire o intuire la storia delle vallate, delle montagne e dei terremoti. SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA FORMAZIONE Quanto Vale la Mia Ricerca? [A]QR - Un Modello di Auto-Valutazione della Qualità della Ricerca Universitaria ALESSANDRO MARGHERITA Dipartimento di Ingegneria dell’Innovazione, Università del Salento L a ricerca scientiica ha l’obiettivo di accrescere le conoscenze umane scoprendo, interpretando, formalizzando o innovando teorie, fenomeni, eventi e comportamenti relativi alla natura, all’uomo e alla società. Contribuendo al progresso dei modelli, dei metodi, delle tecniche e delle tecnologie in tutti gli ambiti del sapere, la ricerca (di base e applicata) è uno dei fattori chiave per la risoluzione dei problemi dell’umanità e un insostituibile motore per l’innovazione e lo sviluppo economico di un paese. Gli obiettivi, le attività e le tipologie di risultati del processo di ricerca variano notevolmente a seconda del settore di riferimento. A livello internazionale, la classiicazione prevalente dei settori della ricerca scientiica è quella ERC – European Research Council basata sulle tre macro-aree SH - Social Sciences and Humanities (include 6 sotto-aree), PE - Mathematics, physical sciences, information and communication, engineering, universe and earth sciences (10 sotto-aree) ed LS - Life Sciences (9 sotto-aree). A livello nazionale, i settori scientiico-disciplinari sono strutturati in 14 aree relative alle scienze matematiche e informatiche (1), isiche (2), chimiche (3), della terra (4), biologiche (5), mediche (6), agrarie e veterinarie (7), dell’antichità, ilologico-letterarie e storico-artistiche (10), storiche, ilosoiche, pedagogiche e psicologiche (11), giuridiche (12), economiche e statistiche (13), politiche e sociali (14), oltre ai settori dell’ingegneria civile e architettura (8) e ingegneria industriale e dell’informazione (9). Indipendentemente dal contesto scientiico, il generico processo di ricerca inizia con l’identiicazione del tema e dell’unità d’analisi su cui concentrare gli sforzi investigativi. Il secondo passo è quello dello studio dell’esistente al ine di capire quali sono i risultati già raggiunti in quell’ambito del sapere e quali invece i gap di conoscenza da colmare. Il terzo passo è volto a deinire, in base alle domande di ricerca poste, il metodo di acquisizione dei dati e di analisi degli stessi. Le metodologie che possono essere adottate variano in funzione dell’obiettivo della ricerca e possono includere tipologie quali case study, grounded theory, action research, design science, ricerca sperimentale e analisi econometrica. Segue la conduzione dell’analisi vera e propria, applicando i metodi precedentemente deiniti. In seguito, i risultati ottenuti vengono formalizzati, validati e discussi. L’ultimo passo è quello della divulgazione del lavoro realizzato e dei risultati raggiunti all’interno della comunità scientiica di riferimento. Nel caso di ricerca applicata, il processo includerà anche delle componenti di progettazione, prototipazione e test volti allo sviluppo di prodotti, servizi e processi di rilevanza industriale. L’Università e gli enti di ricerca rappresentano l’ambito privilegiato in cui il processo di ricerca scientiica viene condotto. Nel nostro paese, circa 50.000 tra docenti e ricercatori di ruolo (quasi il 20% in meno rispetto al 2009!) conducono attività di 9 SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 ricerca in tutti gli ambiti e i settori scientiico-disciplinari, con diversi livelli di qualità, di rilevanza dei risultati raggiunti e di impatto complessivo sul sistema scientiico e sociale. Ma cosa si deve intendere per qualità della ricerca e come deve valutarsi la qualità dell’attività di ricerca ed il merito di chi la conduce? Il tema della valutazione della ricerca scientiica è vecchio quanto la stessa scienza e le prime accademie Europee del ‘600 si svilupparono soprattutto per valutare la rilevanza in termini tecnici e di progresso della conoscenza (ma anche politici e militari) dei risultati delle ricerche. L’importanza della valutazione dell’attività e dei prodotti della ricerca scientiica è oggi ancora maggiore, per tre motivi principali. Primo, la valutazione della qualità della ricerca è strettamente connessa all’ottimizzazione delle risorse inanziarie destinate alle istituzioni universitarie. Negli ultimi decenni, la crescita della ricerca scientiica ha superato infatti la disponibilità delle risorse pubbliche disponibili, generando il problema della eficiente ed eficace ripartizione da parte degli enti politici e di inanziamento. L’esigenza di rispondere direttamente alla società ha portato così le Università a confrontarsi, anche in una logica di reciproca competizione, con forme di valutazione dei loro risultati. In tale logica, sono state introdotte iniziative di valutazione dell’intero sistema universitario e della ricerca da parte dell’ANVUR (Agenzia Nazionale di Valutazione del Sistema Universitario e della Ricerca), con la VQR (Valutazione della Qualità della Ricerca) per i periodi 2004-2010 e 2011-2014. Secondo, il contesto competitivo nel quale le Università operano è sempre più ancorato a logiche customer-driven e di focalizzazione sulle risorse immateriali quale chiave di successo per un’organizzazione knowledge-based. La crescente importanza dell’economia della conoscenza ha così generato, soprattutto nei paesi avanzati, una vera e propria “febbre” della valutazione, portando a deinire ranking mondiali e report di benchmarking delle istituzioni di ricerca e dei prodotti scientiici dalle stesse create. Terzo, lo scenario di trasformazione normativa e di crisi del sistema universitario pone importanti interrogativi sul ruolo stesso dei ricercatori e sulla complessiva innovatività e utilità dei risultati dagli stessi raggiunti. Il termine “ri-cerca” può indicare, con accezione negativa, cercare di nuovo, cercare cose già cercate, alludendo quindi ad un contributo innovativo potenzialmente limitato. Parallelamente, l’accezione positiva di “ri-cerca” è quella di attività senza ine, di iterazione volta alla perfezione del sapere ed alla continua apertura al nuovo. Poiché il sistema di valutazione deve anche orientare le decisioni accademiche in termini di carriera e premialità, occorre introdurre concetti quali utilità, knowledge transfer, beneici e rilevanza al ine di misurare il “ritorno” sociale, culturale, ambientale ed economico della ricerca inanziata con fondi pubblici. Riconosciuta la grande importanza di valutare qualità e impatto dell’attività scientiica, il processo di valutazione è però particolarmente complesso e l’introduzione di qualsiasi metodo o sistema di valutazione richiede un’attenta rilessio10 ne sulle caratteristiche del sistema istituzionale e organizzativo che lo applica e sugli effetti che la valutazione potrebbe produrre sul sistema universitario. L’attività di valutazione deve applicare metodologie, tecniche e strumenti il più possibile rigorosi e oggettivi. Sebbene ampiamente dibattuta, l’analisi bibliometrica è largamente utilizzata per fornire informazioni sulla qualità e impatto della ricerca scientiica, in quanto basata su misure semplici da costruire/ottenere, quali il numero delle pubblicazioni, il numero di citazioni, l’impact factor delle riviste e l’indice “H”. Gli indicatori bibliometrici rappresentano così dei proxy della performance dei ricercatori universitari e rappresentano attualmente la base per orientare decisioni accademiche e di policy. L’utilizzo di valori medi e mediani è inalizzato a supportare uno sforzo di normalizzazione e comparabilità settoriale. Diversi studi sono stati condotti per analizzare modalità di costruzione, interpretazione, applicabilità, ma anche abusi e limiti delle misure bibliometriche. La valutazione basata sulla sola analisi bibliometrica ha alcuni limiti oggettivi. Primo, risulta dificile deinire dei metodi di valutazione standard per tutti i settori e questo comporta che alcuni settori, quali le scienze sociali, non possono essere facilmente (o affatto) soggetti alla valutazione bibliometrica. Secondo, gli indici bibliometrici non sono per deinizione misuratori olistici, ossia non sono in grado di tenere in dovuta considerazione tutte le sfaccettature della complessa attività del docente e ricercatore. Terzo, alcune critiche mosse all’utilità e robustezza dell’indagine bibliometrica derivano da alcuni potenziali fattori di bias quali il fenomeno dei “circoli” o scambio di citazioni, le richieste o suggerimenti di citazioni da parte delle riviste e la deinizione dei criteri per la classiicazione delle stesse riviste in fasce di rilevanza. Queste limitazioni sono alla base del vivace dibattito sulla deinizione e applicazione di ulteriori metodi e sistemi di valutazione della qualità della ricerca. Lasciando ad altri, in altre sedi, questo complesso sforzo di valutazione “esterna”, il presente articolo si focalizza invece sull’importanza del processo di auto-valutazione da parte del ricercatore in relazione alla sua missione, al suo operato ed alla sua performance nel complessivo sistema socio-scientiico. Ogni ricercatore dovrebbe valutare quello che fa, come lo fa e perché lo fa. Come è possibile quindi fornire al ricercatore (inteso in senso allargato e quindi includendo anche il professore associato o ordinario che svolge attività di ricerca) uno strumento completo per valutare “in-process” (e non solo expost) la qualità della ricerca scientiica che conduce? Come è possibile progettare tale strumento in un’ottica di balanced scorecard la cui applicazione possa orientare e guidare scelte, strategie e attività? Inine, più provocatoriamente, in che modo l’utilizzo di uno strumento di auto-valutazione potrebbe complementare i metodi di valutazione “esterni” per ridurre complessità e risorse usate per la valutazione e aumentare invece l’oggettività e gli effetti positivi della valutazione stessa? La prossima sezione fornisce una risposta operativa a tali quesiti, presentando una funzione di auto-valutazione che SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA FORMAZIONE non va intesa come alternativa ai metodi di valutazione su base bibliometrica, essendo la stessa collocabile ad un piano di analisi ben diverso. La funzione può infatti supportare una rilessione più ampia sulla qualità complessiva della ricerca ed un giudizio di merito che non sia solo basato sul numero di citazioni ma su una serie di elementi e di speciiche prerogative dell’attività del singolo ricercatore. La funzione viene inoltre presentata per stimolare, all’interno della comunità accademica, ulteriori rilessioni e contributi volti a migliorare e arricchire la proposta nella prospettiva di costruire in modo condiviso dei sistemi di valutazione più generalizzabili, multi-dimensionali e robusti. FUNZIONE DI AUTO-VALUTAZIONE La qualità della ricerca universitaria (QR) può essere descritta e misurata dal ricercatore come una funzione di sette variabili o parametri signiicativi relativi alla propria attività scientiica, ossia Research Scope (RS), Research Action (RA), Stakeholder Reference (SR), Discipline Bridges (DB), Artifact Value (AV), Resource Usage (RU) e Sustainable Impact (SI). La funzione di auto-valutazione viene riportata di seguito: [A]QR = f (RS, RA, SR, DB, AV, RU, SI) Ciascuno dei 7 parametri include 2 sotto-parametri che determinano il valore della variabile principale e che contribuiscono quindi alla valutazione complessiva della funzione. La Figura 1 fornisce il dettaglio dei parametri e dei sottoparametri. Figura 1 Parametri e sotto-parametri della funzione di autovalutazione RESEARCH SCOPE (RS) Il primo criterio o parametro di auto-valutazione riguarda l’oggetto dell’attività di ricerca, il suo “posizionamento” o ambito di interesse. Il Research Scope fa quindi riferimento all’unità d’analisi, al livello a cui l’investigazione viene effettuata ed al grado di granularità che ne deriva. La ricerca può infatti essere condotta ad un livello variabile di specializzazione o generalizzazione rispetto all’universo di fatti e fenomeni che descrive e studia. Il parametro include due sotto-parametri, ossia Amplitude e Anchoring. Il sotto-parametro Amplitude fa riferimento alla dimensione dello scope ed è descritto da tre opzioni possibili, rappresentate dal sistema, dal sottosistema e dalla componente. La ricerca è condotta sul sistema quando ha ad oggetto e studia il più alto livello di rappresentazione della realtà, nel tentativo di analizzarne le dinamiche generali e le macro-relazioni tra le parti. La ricerca studia invece un sottosistema se si concentra su una parte del tutto, dando per deiniti o lasciando ad investigazioni esterne gli altri sottosistemi. Inine, lo scope è collocato al livello delle componenti se la ricerca studia una o più singole parti del tutto e quindi elementi di dettaglio di un certo sottosistema. Ovviamente, la dimensione dello scope ha un impatto diretto sulle tipologie di domande di ricerca che possono essere poste ed investigate. Il secondo sotto-parametro è Anchoring e fa riferimento al grado di “ancoraggio” della ricerca al livello sistemico, ossia al livello a cui l’esplorazione è guidata, riferita o inluenzata dal sistema complessivo. Mentre nel caso di scope sistemico ciò avviene per deinizione, per la ricerca al livello di sottosistema o componente il parametro fa riferimento al grado a cui l’investigazione tiene conto del livello di sistema nelle assunzioni e nelle conclusioni della ricerca. Le alternative possibili di valorizzazione di questo sotto-parametro sono rappresentate da ricerca indipendente (ancoraggio al sistema minimo o assente), ricerca guidata (ancoraggio medio al sistema, ancorché con vita propria) e ricerca basata sul sistema (ancoraggio elevato nelle assunzioni e nelle conclusioni). RESEARCH ACTION (RA) Le sezioni seguenti descrivono ogni parametro e sottoparametro, con le rispettive possibili valorizzazioni ai ini dell’applicazione della funzione. In relazione ad un certo scope, l’attività di ricerca può esercitare diverse tipologie di azioni, ossia di attività volte ad un diverso obiettivo in relazione all’unità di ricerca. Il parametro Research Action fa quindi genericamente riferimento al processo attivato dal ricercatore per agire sull’unità d’analisi identiicata. Il parametro include due sotto-parametri, ossia Type e Method. Il sotto-parametro Type fa riferimento al tipo di azione eseguibile ed è descritto da tre opzioni possibili, ossia interpretazione, revisione e innovazione dell’unità d’analisi. L’interpretazione è un’attività a basso impatto sulla realtà esistente ed ha come obiettivo quello di rileggere, secondo una lente o prospettiva diversa, l’oggetto della ricerca. Se associata ad elementi molto di dettaglio, l’attività di ricerca diventa piuttosto di speculazione ilosoica. Al secondo grado dell’azio11 SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 ne, la ricerca non si limita alla semplice rilettura dell’oggetto ma deinisce o stimola una revisione sullo stesso, in alcuni casi generando una rimodulazione del sottosistema. Inine, il più profondo livello di azione della ricerca è quello dell’innovazione, in cui il processo di ricerca determina un sostanziale cambiamento del sistema o di una sua parte o componente. Al limite, tale attività genera una nuova visione, un paradigm shift o una rivoluzione del sistema. La tipologia di azione è ovviamente strettamente dipendente dall’ambito scientiico della ricerca e non identiica un livello di nobiltà o utilità della stessa ma solo un parametro di impatto più o meno tangibile. Il secondo sotto-parametro è Method e fa riferimento alla modalità di ricerca, ossia al metodo scientiico adottato per l’investigazione al ine di ottenere gli speciici obiettivi legati al tipo di azione di ricerca. Il metodo è quindi strettamente dipendente dall’unità d’analisi, dagli obiettivi di ricerca e dall’azione da esercitare. Le opzioni includono tre possibili classi di metodologia scientiica, ossia la ricerca basata su metodo qualitativo (include osservazioni, interviste e casi di studio), la ricerca basata su metodo quantitativo (utilizza soprattutto metodi statistici ed econometrici) e la ricerca basata su metodo misto (una combinazione di componenti qualitative e quantitative). Un elemento cruciale nelle considerazioni relative al metodo di ricerca è quello dell’etica (accademica e sociale) con cui la ricerca stessa viene condotta e che riguarda ovviamente, in modo trasversale, qualsiasi azione di ricerca e qualsiasi metodo applicato per condurla. 12 STAKEHOLDER REFERENCE (SR) L’attività di ricerca è realizzata all’interno di un ecosistema di individui e istituzioni che rappresentano diverse categorie di “clienti” del processo di investigazione scientiica. Ai ini della valutazione della qualità della ricerca è necessario, quindi, considerare tali attori e le speciiche istanze espresse dagli stessi deinendo un parametro appropriato. Lo Stakeholder Reference deinisce il grado variabile di inclusione di attori e relativi vincoli, norme, richieste esplicite e aspettative nel raggio d’azione della ricerca. Il parametro include due sotto-parametri, ossia Degree e Adherence. Il sotto-parametro Degree fa riferimento all’estensione dell’unità di riferimento, con tre livelli possibili. Il primo livello è rappresentato dall’individuo, ossia il ricercatore stesso, il quale conduce l’attività di ricerca sulla base dei suoi interessi, della sua formazione ed esperienza, delle sue aspettative e visione del mondo. Con riferimento alla dimensione individuale, l’attività di ricerca mira quindi all’appagamento e realizzazione del “self”. Il soggetto non opera però in modo isolato ma piuttosto all’interno di un gruppo di lavoro in cui diverse forze agiscono con complementarietà e sinergie, ma anche con conlittualità e idiosincrasie determinate da personalità indipendenti ed un patrimonio culturale condiviso. Il team o gruppo può ovviamente essere più o meno ampio, interdisciplinare e internazionale. Ad un terzo livello, l’attività di ricerca si confronta con una comunità scientiica che deinisce obiettivi, direttive e veri e propri requisiti per l’ope- SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA FORMAZIONE rato ed il riconoscimento scientiico del singolo e del gruppo. Ovviamente, l’individuo, il gruppo e la comunità agiscono nel mondo sociale, in cui trend, bisogni e aspettative, disponibilità inanziarie, policy, vincoli e altri fattori deiniscono una serie di condizioni che inluiscono sull’attività di ricerca. Il sotto-parametro Adherence fa riferimento al livello a cui l’attività di ricerca ingloba le prospettive crescenti degli stakeholder descritti in precedenza, soddisfacendo le rispettive istanze. Se il livello di aderenza è basso, la conduzione dell’attività di ricerca è svincolata dall’esistenza, dall’operato e dalle aspettative dello stakeholder. La ricerca si conigura sostanzialmente come libera e autonoma. Ad un secondo grado, il livello di aderenza è medio e la ricerca è inluenzata dall’esistenza, dall’operato e dalle aspettative di un certo tipo di stakeholder. Inine, al livello superiore l’aderenza è massima e la ricerca è customizzata, ossia ritagliata sull’esistenza, l’operato e le speciiche istanze di un certo stakeholder. DISCIPLINE BRIDGES (DB) La ricerca scientiica è spesso inalizzata alla soluzione di problemi e i problemi richiedono per deinizione approcci interdisciplinari. In tal senso, un ulteriore elemento di valutazione della ricerca è relativo alla sua capacità di creare dei “ponti” culturali che si rilettono in un più robusto risultato e impatto dell’attività scientiica. Il parametro di riferimento è Discipline Bridges e include due sotto-parametri, ossia Connections e Scheme. Il sotto-parametro Connections fa riferimento al livello a cui le interconnessioni con altri mondi scientiici sono sviluppate, con tre possibili opzioni. Ad un primo livello, il collegamento può essere stabilito tra il focus della ricerca ed altri elementi intra-settoriali. In tal caso, il ponte è costruito tra l’unità d’analisi e altre unità d’analisi appartenenti allo stesso settore di ricerca. Secondo, il livello di connessione può essere deinito in termini di collegamenti tra l’unità di ricerca ed altre unità non appartenenti allo stesso settore ma a settori della stessa area. Terzo, al livello più elevato la ricerca diventa davvero interdisciplinare nella misura in cui le connessioni vengono stabilite tra la ricerca in oggetto ed unità d’analisi di aree disciplinari completamente staccate (inter-area). Il secondo sotto-parametro è Scheme e fa riferimento alle modalità operative concrete con cui le interconnessioni vengono progettate e costruite. La valorizzazione viene deinita da tre possibili opzioni. Lo schema d’azione è di tipo desk, se le connessioni con altri settori o aree sono unicamente basate su ricerca e studio di letteratura di riferimento e sullo studio di evidenza empirica presente su fonti testuali. Lo schema è ield, se le connessioni intra-settore, inter-settore ed interarea sono generate dalla capacità del ricercatore di sperimentare sul campo le azioni necessarie. Inine, lo schema di connessione sarà misto se la creazione dei ponti culturali si basa sull’adozione sia di strumenti e tecniche desk sia su modalità operative di tipo ield. ARTIFACT VALUE (AV) L’attività di ricerca dovrebbe produrre risultati tangibili la cui natura varia ovviamente a seconda del settore di riferimento. La valutazione dell’attività deve essere quindi anche basata sul parametro Artifact Value, ossia sulla capacità di generare artefatti di valore e riutilizzabili dalla comunità scientiica e dalla società civile. L’attività di ricerca deve compiere la sua missione di knowledge coding, ossia di codiica del corpo di conoscenze e di costruzione dell’enciclopedia e delle pratiche da utilizzare per il progresso di quel settore e della società in generale. Con il termine artefatto si fa riferimento non solo alle pubblicazioni scientiiche quali libri, articoli, manuali, codici e simili ma anche a brevetti, prototipi di prodotto, servizi, speciiche tecniche, progetti di sviluppo e simili. Il parametro include due sotto-parametri, ossia Score e Adoption. Il sotto-parametro Score fa riferimento al range ed alla qualità degli artefatti prodotti e include un continuum di soluzioni legate a criteri comparabili a quelli usati in metodi di valutazione tradizionali. Ai ini della parametrizzazione del modello, un primo grado dello score è eccellenza globale, se gli artefatti sono stati pubblicati e/o valutati ai più elevati livelli della comunità scientiica internazionale. Il secondo grado di score è internazionale, se gli artefatti sono stati pubblicati e/o valutati a livello internazionale ma non sono riconosciuti tra le eccellenze del settore. Inine, lo score è nazionale, se gli artefatti sono stati pubblicati e/o valutati a livello esclusivamente nazionale. La valutazione dello score, ove attinente, può beneiciare dell’utilizzo di criteri di valutazione di tipo bibliometrico, quali il ranking della venue di pubblicazione, il suo impact factor e parametri simili. Il parametro Adoption fa riferimento al grado di utilizzo effettivo dell’artefatto a livello scientiico ed extra-scientiico nel contesto di riferimento. Maggiore sarà il grado di adozione ed effettivo utilizzo dell’artefatto e degli output diversi dell’attività di ricerca, maggiore sarà il grado di valorizzazione di questo sotto-parametro. Per le pubblicazioni scientiiche, il numero di citazioni è un valore espressivo del livello di adozione e utilizzo di un certo lavoro scientiico da parte di altri studiosi. Il sotto-parametro potrà assumere un livello trascurabile (nel caso in cui vi è un basso livello di adozione o utilizzo dell’artefatto), usato (medio livello di adozione per un artefatto noto e condiviso) e seminale (per un artefatto caratterizzato da un elevato livello di adozione che lo rende un risultato di assoluto riferimento nel settore). RESOURCE USAGE (RU) Lo svolgimento di attività di ricerca richiede l’utilizzo di risorse di vario tipo e la cui dimensione cambia sostanzialmente a seconda dell’attività di ricerca, del metodo utilizzato, dello scope e di tutti gli altri elementi considerati inora. La valutazione della qualità della ricerca deve quindi considerare un parametro del tipo Resource Usage, al ine di deinire il grado di eficienza del processo investigativo, 13 SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 ossia di utilizzo delle risorse a parità di obiettivi raggiunti e di output generato. Questo aspetto è particolarmente importante, soprattutto nel caso di ridotte disponibilità per il inanziamento della ricerca. Il parametro in oggetto include due sotto-parametri, ossia Nature e Scale. Il sotto-parametro Nature fa riferimento al tipo di risorse utilizzate per condurre l’attività di ricerca. Le tre opzioni possibili sono rappresentate dall’utilizzo di risorse intangibili (risorse umane, servizi di terzi, conoscenza esplicita e codiicata), risorse tangibili (risorse inanziarie, attrezzature, tecnologie e risorse consumabili come materie prime, semilavorati o prodotti initi), e risorse miste (se l’esecuzione delle attività di ricerca richiede un mix di risorse tangibili e intangibili). Il secondo sotto-parametro è Scale e fa riferimento al livello di utilizzo e consumo delle risorse tangibili e intangibili. Le tre possibili valorizzazioni della scala di consumo sono rappresentate dalla ricerca eficiente, se il processo di ricerca utilizza una quantità di risorse molto bassa rispetto alla mole di lavoro condotta ed al volume di risultati ottenuti, bilanciata, se il processo di ricerca utilizza una quantità di risorse proporzionata rispetto alla mole di lavoro condotta ed al volume di risultati ottenuti e dispersiva, se il processo di ricerca utilizza una quantità di risorse eccessiva rispetto alla mole di lavoro condotta ed al volume di risultati ottenuti. SUSTAINABLE IMPACT (SI) La ricerca scientiica produce un impatto per chi la conduce e per chi la utilizza, anche indirettamente. In linea di massima, l’impatto è di tipo socio-tecnico e dovrebbe essere sostenibile nel medio e lungo termine. Il parametro Sustainable Impact include due sotto-parametri, ossia Form e Beneits. Il sotto-parametro Form fa riferimento alla natura dell’impatto che la ricerca genera, indicando così anche un valore di performance complessiva della stessa. Il sotto-parametro può essere valorizzato in termini di impatto accademico, set- toriale e sociale. Ad un primo livello di impatto, l’attività di ricerca genera effetti sulla sola sfera universitaria di chi la conduce ed in termini di riconoscimenti o premi ottenuti in ambito esclusivamente accademico. Ad un livello più elevato, l’impatto è settoriale ed è misurabile in termini di esternalità positive dell’attività di ricerca per il mondo extraaccademico, all’interno del meta-settore di riferimento. Inine, l’impatto più ampio dell’attività di ricerca è misurabile come impatto sociale in termini di vantaggi e risultati per la più ampia comunità civile, con più largo respiro rispetto alla sola attività tecnico-scientiica. Il sotto-parametro Beneits fa riferimento al grado di impatto che l’attività di ricerca genera per l’individuo, il settore di riferimento o il mondo. Il beneicio può essere trascurabile qualora l’attività di ricerca non produce effetti visibili o degni di nota, medio se l’impatto dei risultati raggiunti è valutabile ed evidente se l’impatto è considerevole e direttamente associabile all’attività di ricerca condotta. SINTESI E UTILIZZO DELLA FUNZIONE La tabella 1 sintetizza la funzione di auto-valutazione riportando i parametri, i sotto-parametri e le rispettive opzioni di valorizzazione analizzati nella sezione precedente. Va sottolineato che, se per alcuni dei sotto-parametri i valori stabiliscono un’oggettiva “scala” di importanza (es. per lo Score è oggettivo affermare che Eccellenza sia più rilevante di Nazionale), per altri non è possibile deinire una classiica di importanza e le valorizzazioni del parametro vanno prese semplicemente come opzioni possibili (es. Qualitativo e Quantitativo vanno considerati, fermi restando altri criteri, sullo stesso piano di rilevanza in relazione al Method). La funzione di auto-valutazione può supportare la formulazione di un giudizio sulla qualità e sull’impatto dell’attività di ricerca svolta e sul “posizionamento” qualitativo del ricercatore nella sua comunità scientiica e sociale. In tal senso, la funzione guida un percorso di auto-analisi su elementi o Tabella 1 Parametri, sotto-parametri e valori della funzione di auto-valutazione Parametro 14 RS Research Scope RA Research Action SR Stakeholder Reference DB Discipline Bridges AV Artifact Value RU Resource Usage Sotto-Parametro [1] Amplitude [2] Anchoring [1] Type [2] Method [1] Degree [2] Adherence [1] Connections [2] Scheme [1] Score [2] Adoption [1] Nature [2] Scale SI Sustainable Impact [1] Form [A] Accademico [B] Settoriale [C] Sociale [2] Beneits [A] Trascurabile [B] Medio [C] Evidente [A] Componente [A] Indipendente [A] Interpretazione [A] Qualitativo [A] Individuo [A] Autonoma [A] Settore [A] Field [A] Nazionale [A] Trascurabile [A] Intangibili [A] Eficiente Valori [B] Sottosistema [B] Guidata [B] Revisione [B] Quantitativo [B] Gruppo [B] Inluenzata [B] Area [B] Desk [B] Internazionale [B] Usato [B] Tangibili [B] Bilanciata [C] Sistema [C] Basata [C] Innovazione [C] Misto [C] Comunità [C] Customizzata [C] Inter-area [C] Misto [C] Eccellenza [C] Seminale [C] Mista [C] Dispersiva SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA FORMAZIONE attributi cruciali rappresentati dalle 7 dimensioni espresse dai parametri identiicati. Ogni ricercatore può utilizzare le componenti e le scale di valutazione con le priorità che reputa più opportune, traendo le dovute conclusioni. In tal senso, l’applicazione della funzione di auto-valutazione porta semplicemente ad ottenere un “vettore” di attributi dell’attività di ricerca (es. Research Scope: Componente, Indipendente; Research Action: Revisione, Misto; etc.) Il modello potrebbe però anche rappresentare la base per un’applicazione di tipo quantitativo. In tal caso, è suficiente deinire dei valori numerici ed eventuali “pesi” per i 7 parametri, i 14 sotto-parametri e i rispettivi valori. Si potrebbe, in tal modo, costruire un vero e proprio algoritmo di calcolo basato sulla funzione di auto-valutazione. Se tale algoritmo viene adottato da una certa comunità scientiica o da un certo settore scientiico-disciplinare, la comunità o il settore deiniranno, in ragione delle proprie speciiche istanze e caratteristiche, le scale e le priorità relative alle componenti della funzione di auto-valutazione. Ovviamente, essendo la ratio originaria del modello proposto quella di supportare delle rilessioni individuali (qualitative), il giudizio basato su (arbitrarie o comunque esogene) attribuzioni di valori e priorità dei parametri potrebbe indebolire la forza e/o il senso della funzione. CONCLUSIONI La ricerca universitaria è un’attività strategica per lo sviluppo culturale e socio-economico di un paese. La igura del ricercatore è cruciale nelle sue attività volte all’accrescimento delle conoscenze relative alla natura ed alla società, allo sviluppo di progetti e sperimentazioni, alla creazione di virtuose interrelazioni tra istituzioni, imprese e cittadini, all’innovazione e trasferimento tecnologico. Ogni ricercatore contribuisce a rinforzare l’impianto culturale e produttivo del suo paese. La valutazione dell’attività e dei prodotti della ricerca scientiica, oggi di massima rilevanza, è un processo molto delicato che può inluire sulle dinamiche di crescita e sullo status di singoli e istituzioni. Valutare signiica esprimere giudizi di qualità, impatto, eficacia, eficienza e rilevanza sulla base di regole e criteri adatti agli scopi preissati. Le circostanze e l’oggetto della valutazione della ricerca possono però essere molto differenziati e la valutazione può quindi richiedere approcci e tecniche ad-hoc. La maggior parte delle attività di valutazione si basa oggi su metodi bibliometrici che presentano però dei limiti legati al fatto che non sono applicabili in modo generalizzato a tutti i settori scientiici, colgono solo alcuni aspetti della complessa attività del ricercatore e sono soggetti ad alcuni fattori di condizionamento. Occorre, quindi, deinire nuovi sistemi e nuovi metodi di valutazione maggiormente integrativi, robusti e multi-dimensionali. Questo articolo si pone ortogonalmente rispetto a questa esigenza e presenta una funzione di auto-valutazione olistica, una sorta di balanced scorecard del ricercatore. Il contributo, oltre a fornire un modello applicabile ed operazionalizzabile anche attraverso un algoritmo di calcolo, sottolinea implicitamente l’importanza che ogni ricercatore sviluppi un mindset di auto-valutazione e di rilessione volta a costruire strategie, scelte e attività di ricerca più performanti. La funzione di auto-valutazione è un primo tentativo di fornire una checklist di base per una rilessione sulla natura, la qualità e la rilevanza dell’attività di investigazione scientiica per l’individuo, la comunità ed il mondo. BIBLIOGRAFIA Baccini A. (2010) Valutare la Ricerca Scientiica. Uso e Abuso degli Indicatori Bibliometrici, Il Mulino, Bologna. Baldissera A. (2009) La Valutazione della Ricerca nelle Scienze Sociali, Bonanno, Roma. Barnabè F. (2010) La Cultura della Valutazione nelle Università, Cedam, Padova. Binetti P. e Cinque M. (2015) Valutare l’Università & Valutare in Università. Per una “Cultura della Valutazione”, Franco Angeli, Milano. Bornmann L. (2012) “Measuring the societal impact of research”, EMBO Reports, 13(8): 673-676. Bornmann L. (2013) “What is societal impact of research and how can it be assessed? A literature survey”, Journal of the American Society of Information Science and Technology, 64(2), 217-233. Galimberti P. (2012) “Qualità e quantità: stato dell’arte della valutazione della ricerca nelle scienze umane in Italia”, Italian Journal of Library and Information Science, 3(1): 1-25. Holbrook J.B. and Hrotic S. (2013) “Blue skies, impacts, and peer review”, Roars Transactions, a Journal on Research Policy and Evaluation (RT), 1(1): 1-24 Kaplan S. e Norton D.P. (1992) The Balanced Scorecard, HBS Press, Boston, MA. Labini F.S. e Zapperi S. (2010) I Ricercatori non Crescono sugli Alberi, Laterza, Bari. Minelli E., Rebora G. e Turri M. (2002) Il Valore dell’Università. La Valutazione della Didattica, della Ricerca, dei Servizi negli Atenei, Guerini, Milano. Turri M. (2005) La Valutazione dell’Università. Un’Analisi dell’Impatto Istituzionale e Organizzativo, Guerini e Associati, Milano. 15 AMBIENTE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 Il ruolo degli zoo nella conservazione delle specie a rischio di estinzione SILVIA AROSSA Plymouth University, Ecotoxicology Laboratory S i deve tornare indietro di più di 200 anni per risalire alla data di nascita degli zoo, in particolare, nel 1752 a Vienna, anche se in realtà il termine zoo fu utilizzato per la prima volta per indicare lo storico zoo di Londra, da un’abbreviazione di zoological garden. Queste strutture si sono nel tempo modiicate, trasformandosi da semplici ménageries, esposizioni di animali, a veri e propri parchi zoologici, all’interno dei quali gli animali vivono in habitat del tutto simili a quelli naturali e in cui il benessere degli animali viene prima di tutto. Gli animali inoltre non vengono più catturati dalla natura, ma arrivano bensì da altre strutture zoologiche. Già dal 1973, grazie alla fondazione della CITES, è stato possibile controllare e regolamentare il commercio di animali e specie minacciate di estinzione. I parchi zoologici attualmente si stanno pian piano evolvendo in centri di educazione e conservazione. Tenendo conto che il 10 % della popolazione mondiale visita ogni anno 16 gli zoo, l’educazione e la sensibilizzazione del pubblico rappresentano uno dei principali obiettivi di queste strutture che riescono dunque a raggiungere un vasto numero di persone. Inoltre, queste strutture sono regolamentate da direttive e leggi che stabiliscono i punti chiave salienti che permettono agli zoo di diventare veri e propri centri di conservazione e di ricerca. Essi infatti fanno parte di un network mondiale, la World Association of Zoo and Aquaria, che collabora fra gli altri con WWF, IUCN e Nature Conservacy. Grazie a queste organizzazioni, gli zoo stanno diventando parte attiva dei programmi di conservazione e reintroduzione degli animali in natura. IL DIBATTITO SUGLI ZOO TRA SENTIMENTALISMO E SCIENZA Sentimentalismo e moralismo sono spesso causa di problemi e incomprensioni riguardo al dibattito sugli zoo per- SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | AMBIENTE ché spesso sfociano in animalismo estremo, perdendo però di vista alcuni fattori fondamentali. In primis è necessario discernere scienza da morale, conservazione da animalismo ed etica morale. A livello globale, la tendenza è quella di trasformare gli zoo da strutture legate al semplice divertimento e al commercio, a centri di ricerca scientiica sul benessere animale, con il ine di preservare e conservare le specie a rischio di estinzione, riprodurre gli animali per poterli reintrodurre in ambiente naturale e sensibilizzare il pubblico. Nel 1980 è stata redatta la Strategia Mondiale degli Zoo, nella quale vengono indicati i principali obiettivi delle strutture zoologiche in quanto tali. Innanzitutto, uno zoo deve sostenere attivamente la conservazione delle specie a rischio, quindi offrire supporto alla ricerca scientiica e sensibilizzare il pubblico riguardo alla necessità di conservare la natura e le specie in pericolo. Nel 1999, invece, la Direttiva 1999/22/CE deinisce gli zoo come strutture all’interno delle quali gli animali vengono detenuti a scopi didattici, di ricerca, di ripopolamento e allevamento, con l’obiettivo di partecipare a programmi di conservazione, promuovere l’istruzione e rispettare le esigenze biologiche e comportamentali degli animali ospitati. In particolare, gli zoo hanno l’obbligo di tenere registri aggiornati riguardanti gli animali presenti in struttura. In Italia esiste anche l’Unione Italiana degli Zoo e degli Acquari (UIZA) che ha come obiettivo “quello di favorire la cooperazione all’interno della comunità degli Zoo e degli Acquari italiani al ine di promuovere la loro capacità di gestione degli animali allevati a scopo educativo, per la ricerca scientiica e per contribuire alla conservazione della biodiversità globale. Questi obiettivi sono raggiunti grazie alla collaborazione e coordinazione degli sforzi della comunità nell’educazione, conservazione e ricerca scientiica attraverso un incremento di cooperazione fra tutte le relative organizzazioni e nel rispetto delle legislazioni interne dell’EU”. A livello europeo, l’European Association of Zoos and Aquaria (EAZA) svolge un ruolo molto simile. I membri dell’associazione devono svolgere le proprie attività seguendo le linee guida emesse da EAZA stessa, che sono in accordo con la IUCN e le direttive europee. Da questi documenti e da codice morale emesso da questa associazione se ne deduce la centralità della conservazione e della partecipazione a progetti di salvaguardia, ma soprattutto la trasparenza e la correttezza con la quale il lavoro deve essere svolto all’interno delle strutture zoologiche. La conservazione ex-situ come strategia per la salvaguardia delle specie minacciate Nel caso in cui una specie sia fortemente minacciata o il numero di individui è molto ridotto, subentra un nuovo tipo di conservazione, quella ex-situ. Essa rappresenta una strategia non alternativa a quella in-situ, cioè quella attuata in natura, ma complementare, che viene messa in atto quando individui di una popolazione vengono ospitati in aree delimitate, le cui condizioni sono un qualche modo manipolate dall’uomo. Grazie alla presenza di popolazioni negli zoo gestite in maniera adeguata, diventa possibile la creazione di riserve genetiche essenziali per la sopravvivenza delle specie in natura. Le popolazioni presenti in natura e quelle in cattività devono essere gestite come metapopolazioni, e la sopravvivenza della specie stessa dipenderà da entrambe le parti, ex-situ e in-situ. Lo svantaggio di questa tecnica è la possibilità di conservare solo una porzione della variabilità genetica delle specie, con l’eventualità di essere sottoposta a deriva genetica. Quando la conservazione in-situ non è più possibile, è importante dunque la cooperazione tra centri di conservazione ex-situ e centri di sperimentazione in-situ. La IUCN ha redatto nel 2014 delle linee guida per l’uso della conservazione ex-situ nella conservazione delle specie, da cui emerge l’importanza della collaborazione tra questi due programmi 17 AMBIENTE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 ex-situ e in-situ e la necessità di pianiicare nei dettagli il progetto. CNR, MIPA e Ministero dell’Ambiente si occupano di gestire al meglio questa collaborazione. I programmi di reintroduzione delle specie in natura sono coordinati dalla Captive Breeding Specialist Group (CBSG) che facilita il coordinamento di tali attività a livello globale. In aiuto di questi progetti, subentrano la crioconservazione e le tecniche di riproduzione artiiciale, che hanno dimostrato la loro potenzialità nel mantenimento della variabilità genetica e di conseguenza la loro capacità di conservare le specie minacciate. Inoltre le strutture zoologiche cercano di mantenere i contatti con i centri di sperimentazione e conservazione in-situ, non solo attraverso collaborazioni indirette, ma anche dirette. Infatti, vengono spesso organizzate raccolte fondi destinate a programmi di conservazione in natura. Esempi di reintroduzione di animali a rischio di estinzione che hanno coinvolto gli zoo La gazzella di Mohr o Nager dama (Pallas, 1766) è stata classiicata dalla IUCN come critically endangered già nel 2006. Questa specie infatti ha subito una drastica riduzione del proprio habitat e una caccia incontrollata nell’arco degli ultimi decenni. Essa era originaria del Chad, Mali e Nigeria e attualmente estinta a livello regionale in aree molto estese. È stato però possibile la sua reintroduzione in Senegal che ora ospita una piccola popolazione di circa una decina di individui. Il ripopolamento di quest’area è stato possibile grazie alla Almeria Breeding Facility in Spagna e allo Zoo 18 di Monaco. Altro esempio è la tigre o Panthera tigris (Linnaeus, 1758), la quale è classiicata come endangered dalla IUCN ed è minacciata da diversi fattori. Innanzitutto, la tigre viene cacciata per la sua pelliccia, le sue ossa e diverse altre parti del corpo. Esse infatti vengono utilizzate nella medicina tradizionale asiatica come rimedi contro diversi malanni. Inoltre, le zone un cui è localizzata vengono continuamente convertite in campi coltivabili o aree adatte ad uso umano. Nel 2010, a San Pietroburgo, in Russia, è stato redatto il Global Tiger Recovery Program (GTRP 2010) che ha come obiettivo quello di preservare e proteggere le tigri, limitando il commercio illegale attraverso la collaborazione con le popolazioni locali. Questo prevede anche il coinvolgimento dell’ European Breeding Program dell’EAZA che coinvolge anche strutture zoologiche nella reintroduzione dell’animale. Tutto questo è volto al raddoppiare il numero delle tigri presenti attualmente in natura, che si aggira intorno a 2154 entro il 2020. Si evince dunque da quanto appena descritto nel dettaglio che le strutture zoologiche devono essere oggigiorno considerate uno strumento della conservazione, che può realmente aiutare le specie a rischio di estinzione presenti in natura. Le dificoltà e le possibilità di errore sono molte, in primis la riduzione della variabilità genetica, ma se ben gestite, le popolazioni presenti in cattività possono rappresentare una essenziale riserva genetica in grado di salvaguardare le specie presenti in natura. SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | CHIMICA Dal vino di Noè alla chimica verde ANTONIO TRINCONE Istituto di Chimica Biomolecolare, Consiglio Nazionale delle Ricerche DAL VINO DI NOÈ... S o di qualche contadino che all’appellativo “biotecnologico” riferito al vino di Noè perlomeno riderebbe di me e non solo in relazione agli antichi metodi di conservazione della bevanda ma proprio relativamente al suo processo produttivo. Però, che le biotecnologie affondino le loro radici più o meno profondamente nel nostro passato è cosa nota e indiscutibile. La fermentazione dello zucchero ad etanolo è un bioprocesso che era noto ai Babilonesi e per più di settemila anni i microorganismi sono stati alla base della produzione di pane, yoghurt, formaggi e aceto. Del tutto inconsapevolmente per i nostri antenati, questi bioprocessi erano attivati e sostenuti in condizioni ideali per la fermentazione che interessava, a scapito di altri microorganismi in competizione. Il consumo dell’alcol nell’antico Egitto era già diffuso con la presenza di leggi contro l’abuso che regolavano la vendita di tale prodotto. L’uso di bevande alcoliche negli aspetti conviviali era più che noto, basti citare per la Grecia e a Roma la mitologia di Dioniso e di Bacco ai quali erano dedicate apposite feste religiose. Nell’Iliade e nell’Odissea, poemi scritti circa sette secoli prima di Cristo ci sono riferimenti all’uso del caglio per la produzione del formaggio e il lievito madre è apparso in Europa all’incirca nello stesso periodo. Ma nessuno capiva cosa accadeva. A volerlo comprendere per primi furono i commercianti di vino e birra del diciannovesimo secolo. Erano alla ricerca di un modo per evitare la degradazione dei loro prodotti quando questi venivano trasportati per lunghe distanze. Del problema si interessò Louis Pasteur che scoprì che era il lievito a sostenere la fermentazione e che il deterioramento era dovuto ad altri microorganismi presenti che convertivano l’etanolo ad aceto. E’ a queste ricerche che si fa risalire l’interesse di Pasteur per la microbiologia. Lo scienziato era convinto che l’azione chimica del processo di fermentazione fosse una caratteristica particolare dell’organismo nel mosto. Ci furono dispute con altri scienziati dell’epoca, in particolare con Justus von Liebig il quale pensava che il processo non era connesso con gli organismi viventi ma che la fermentazione non fosse altro che un processo di natura chimica. In un certo senso i due scienziati avevano ragione entrambi ma erano già scomparsi prima della ine della disputa quando, nel 1897, i fratelli Buchner scoprirono che l’estratto del lievito, senza nessun organismo vivente presente, era capace di convertire il glucosio ad etanolo e anidride carbonica. Fu William Kühne che usò per la prima volta la parola “enzima” per gli agenti responsabili di tali reazioni. Benchè chiariicatrici di alcuni aspetti, tali sistematizzazioni concettuali e l’uso di nuovi termini non aiutavano molto: la parola enzima signiica solo letteralmente, dal greco, all’interno del lievito. Ad ogni modo, benchè la disputa con Liebig costò a Pasteur il mancato riconoscimento delle sue ricerche in vita, l’impatto di tali studi sull’industrializzazione dei processi fermentativi fu elevato e portò ad una migliore comprensione degli aspetti biologici alla base di tali processi1. Anche un altro scienziato, Takamine, stava sviluppando un processo fermentativo per la produzione di enzimi dal fungo Aspergillus oryzae; il suo prodotto era noto come Takadiastase (si tratta di una miscela di amilasi e di altri enzimi glicolitici). Il prodotto era diffuso nell’America degli anni ‘50 e può essere ancora acquistato come aiuto per la digestione in alcuni paesi orientali. Jokichi Takamine era un chimico giapponese; durante alcuni viaggi di lavoro a New Orleans conobbe la sua futura moglie americana stabilendosi negli Stati Uniti. La sua vita fu dedicata alla ricerca con importanti scoperte che lo hanno reso uno dei padri della biotecnologia. Takamine ha tra l’altro inventato e brevettato un metodo per la cristallizzazione dell’adrenalina oltre ad altre importanti scoperte nel campo agro-biotecnologico. E’ morto a New 1 Michael K. Turner Biocatalysis in organic chemistry (Part I): past and present, TIBTECH 1995, 13, 173-177 19 CHIMICA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 nelle reazioni chimiche. A York nel 1922 all’età di 67 tale richiesta di prodotti deianni. Ed è proprio all’inizio niti strutturalmente potevano del ventesimo secolo che pertanto far fronte i catalizla parola “biotecnologie” zatori biologici e la biocataapparve per la prima volta lisi moderna poteva mano a nello Yorkshire. A Leeds mano venire alla ribalta con fu creato un uficio, il “Buuna popolarità sempre crereau of Biotechnology” che scente negli ultimi trent’angià a partire dal 1899 fornini. Tale ribalta deve anche va consulenze in chimica e essere riconosciuta all’ingemicrobiologia alle industrie, gneria proteica e agli studi di per gli aspetti fermentativi genetica che hanno permesso dei processi dell’epoca2. Dal 1940 al 1960 gli svinegli ultimi anni del venteluppi delle biotecnologie simo secolo di modiicare furono molto strettamente le proprietà degli enzimi e connessi all’industria fardi facilitarne la produzione. maceutica, a parte aspetti inLa tecnologia enzimatica è teressanti di alcuni processi ancora oggi in questa fase di biotecnologici durante il enorme sviluppo. ventesimo secolo legati alle due guerre. Il primo ceppo Science Direct è un dadi Penicillium produceva tabase di ricerca di articoli soltanto 2 milligrammi di Fig. 1 Hits su Science Direct (Elsevier) per ricerca prodotti scientiici di tutto scientiici che ospita più di temporale coperto dal database usando la parola “biocatal*” per ALL penicillina per litro di coltu- l’arco dieci milioni di articoli da FIELD e “Italy” per l’afiliazione degli autori di origine italiana. Analisi condotta ra. Il confronto con la stessa nel Luglio del 2016 per cui i dati di tale anno non sono completi. L’asterisco 3500 riviste scientiiche e rappresenta un metacarattere (jolly) utilizzato per rappresentare nelle ricerche misura odierna (20 grammi/ una qualsiasi sequenza di caratteri. Il totale degli hits è di 1388, (in confronto 34.000 e-books. Una ricerca Germany = 1974, USA = 2943). litro) è chiariicatore degli in questo archivio professiosviluppi più di ogni altro nale del termine “biocatal*” commento. in articoli scientiici con l’afiliation degli autori a istituzioni La deinizione delle biotecnologie: “applicazioni di natura di ricerca italiane produce dei risultati interessanti (Figura 1). tecnologica che si servono dei sistemi biologici, degli orgaA parte il periodo iniziale dal 1981 al 1995 i cui dati nismi viventi o di derivati di questi per produrre o modiicare possono essere certamente inluenzati dalla nascita e dalla prodotti o processi per un ine speciico” ruota intorno ad un strutturazione del database stesso, a partire dal 1996 ino ad punto centrale poco evidente ai non addetti ai lavori, gli enzi- oggi la produzione scientiica di tali articoli appare relativami. Gli enzimi sono i catalizzatori biologici di natura protei- mente costante nel nostro paese, assestandosi su un numero ca che rendono possibile la vita in tutti gli organismi viventi. di prodotti/anno che oscilla tra 50 e 80 pubblicati da gruppi Gli enzimi sono state le prime biomolecole ad essere studiate di ricerca in tutto il territorio nazionale, appartenenti sia al nei primordiali sviluppi della chimica biologica del novecen- contesto universitario che a quello degli enti di ricerca, in to, lasciando il posto ai componenti e alla struttura del DNA special modo al Consiglio Nazionale delle Ricerche. Al di a partire dalla seconda metà del secolo e alla complessità del là di questi aspetti generali è l’analisi dettagliata che appare mondo dei carboidrati di oggi. Accanto agli studi biochimici più interessante. Il metodo di ricerca adottato sul database dei processi enzimatici del novecento, nei laboratori di chi- non consente di stabilire con assoluta certezza l’afferenza mica organica i successi della sintesi chimica permettevano del totale dei prodotti ad istituzioni italiane per la possibile la produzione di una serie di sostanze prima sconosciute e la presenza di articoli derivanti da collaborazioni scientiiche conferma della struttura delle sostanze naturali scoperte. La di ricercatori italiani di laboratori stranieri. Un’analisi visiva richiesta di tali prodotti puri dal punto di vista stereochimico sui risultati così ottenuti assicura però che i prodotti frutto per l’analisi precisa dell’inluenza che la disposizione degli di istituzioni straniere non superano il 5% del totale. D’altro atomi in una molecola apporta alle caratteristiche chimiche canto il confronto con la stessa ricerca eseguita per afiliazioe all’attività biologica era una delle dificoltà cui i chimici ni di altri paesi come USA e Germania ci rivela un dato per non riuscivano pienamente a far fronte. La creazione di tali l’Italia del tutto ragguardevole. Prendendo in considerazione le riviste su cui tali articoli molecole in maniera selettiva è molto facilitata con l’utilizzo degli enzimi al posto dei catalizzatori inorganici, in uso sono pubblicati ci si accorge che accanto alla rivista Journal Molecular Catalysis B:Enzymatic, che può essere classiicata come quella più generica e che accoglie il maggior numero 2 Joseph H. Hulse Biotechnologies: past history, present state and future prospects, Trends in Food Science & Technology 15 (2004) 3–18 di articoli, quasi a pari merito c’è una rivista più speciica pre20 SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | CHIMICA Scheda 1. Sintesi degli “About this Journal” dai relativi siti web delle riviste. Journal Molecular Catalysis B:Enzymatic Forum internazionale per ricercatori e sviluppatori di prodotto nelle applicazioni delle cellule intere o di enzimi liberi come catalizzatori nella sintesi organica. L’enfasi è data agli aspetti meccanistici e sintetici delle trasformazioni biocatalitiche. Gli articoli pubblicati devono riportare avanzamenti signiicativi nelle conoscenze relative agli aspetti di ricerca di base o applicata sugli enzimi usati nella biocatalisi, sulle applicazioni industriali di tali processi enzimatici, sulle trasformazioni stereoselettive, sullo screening di nuovi biocatalizzatori, etc. Tetrahedron: Asymmetry La rivista Tetrahedron: Asymmetry pubblica ricerche sperimentali o teoriche sugli aspetti dell’asimmetria nella chimica organica, inorganica, organo-metallica e nella chimica-isica o bioorganica. Argomenti di interesse particolari riguardano gli aspetti chimico-isici e le proprietà biologiche degli enantiomeri, le strategie e i metodi della sintesi asimmetrica, la risoluzione e le tecniche analitiche per determinare la purezza enantiomerica. Enzyme and Microbial Technology La rivista Enzyme and Microbial Technology pubblica ricerche relative a novità di natura biotecnologica signiicative sugli aspetti di base ed appllicativi delle scienze e tecnologie dei processi con uso di enzimi, microorganismi, cellule animali e vegetali. Process Biochemistry Process Biochemistry è un giornale orientato alla pubblicazione di ricerche applicate su avanzamenti nel settore delle scienze e tecnologie dei processi che coinvolgono molecole bioattive e organismi viventi. Tali processi interessano la produzione di metaboliti o materiali utili, la rimozione di composti tossici con le tecniche della biologia e della bioingegneria. Le aree più signiicative sono i nuovi bioprocessi e le tecnologie abilitanti di applicazione in nutraceutica, nel settore della salute, dell’energia, dell’ambiente e nelle biorafinerie. Biochemical Engineering Journal Il Biochemical Engineering Journal pubblica ricerche sulla promozione degli aspetti di ingegneria chimica dello sviluppo dei processi biologici associati a materiali grezzi, preparazione di prodotti nei settori medico, industriale, e ambientale. Particolare enfasi è data alla biocatalisi, ai biosensori , alle bioseparazioni, bioreattoristica, etc. valentemente rivolta alla chimica organica e in special modo al settore stereochimico: Tetrahedron: Asymmetry, insieme ad altre più generiche (Tetrahedron e Tetrahedron Lett.) o speciiche con uno sguardo più rivolto al settore della chimica bioorganica e farmaceutica (Bioorganic & Medicinal Chemistry e Bioorganic & Medicinal Chemistry Lett.). Di poco sotto si trovano altre riviste di natura differente le quali accolgono pure un cospicuo numero di articoli come è il caso di Enzyme and Microbial Technology, Process Biochemistry e Biochemical Engineering Journal che pubblicano lavori di prevalente natura biologica (bioprospecting, biomasse) o più direttamente applicativa (Scheda 1). ...ALLA CHIMICA VERDE Credo sia dificile anche per un profano pensare all’appellativo “chimica verde” come ad un settore della chimica paragonabile alla chimica organica o alla chimica-isica3. Più che altro il colore potrebbe richiamare una moda verso le iridescenze cui nemmeno le biotecnologie si sono potute sottrarre4 anche se non è così. Infatti, il concetto di chimica verde “la progettazione di prodotti chimici e dei processi per la loro produzione, che riduce o elimina del tutto la co-produzione di sostanze pericolose all’uomo” emerse circa venti anni fa5 con l’introduzione dei 12 principi della green chemistry. Il campo è ancora in speciale evoluzione nel nostro paese. La chimica verde è rivolta allo studio di metodi atti ad ottenere la massima conversione dei reagenti in un determinato prodotto e la minima produzione di residui attraverso un design razionale del processo di insieme. Dopo venti anni dalla loro pubblicazione i 12 principi sono più che mai attuali con l’aumento della sensibilità dell’opinione pubblica relativamente a questi temi. Invece di riportare l’elenco come tale di questi principi, facilmente reperibile in qualsiasi pubblicazione sul 3 http://www.chimicare.org/blog/filosofia/la-chimica-verde-principi-ecriteri-etici-nonche-economici-applicati-alla-produzione-industriale/ 4 A. Trincone Come è profondo il mare... Scienze e Ricerche n. 24, Marzo 2016, pp. 47-52 5 Anastas , P. T. and Kirchoff , M. M. 2002 . Origins, current status, and future challenges of green chemistry. Accounts of Chemical Research , 35 , 686 – 694 tema, sembra interessante sottolineare che l’attrazione che tali tematiche esercitano in questi settori può anche dare luogo ad incomprensioni su ciò che effettivamente è “verde”. E’ quindi di importanza fondamentale evitare distorsioni del signiicato originario della chimica verde: una chimica più sicura. Per esempio evitare di considerare semplici sostituzioni di componenti delle formulazioni solo per sopperire ad una performance poco “verde” di qualche ingrediente o cercare di deinire in maniera globale la vera sostenibilità di alcuni prodotti chimici bio-derivati, etc. D’altro canto insieme ad uno dei principi più importanti della green chemistry (atom economy: i metodi di sintesi dovrebbero essere ideati per incorporare il più possibile nel prodotto inale tutti i materiali usati nel processo) si sono sviluppati nel corso degli anni numerosi altri (step economy, redox economy, pot economy e la carbon eficiency) i cui nomi lasciano intendere che un signiicato addizionale si deve aggiungere a quello originario della chimica verde: una chimica più sicura e più economica, per massimizzare l’eficienza dei processi. In questo ambito è interessante un esame dettagliato degli aspetti relativi alla chimica verde all’interno degli articoli scientiici sotto esame nella Figura 1. Solo a titolo di esempio: Sergio Riva del CNR di Milano mette in evidenza l’utilizzo delle laccasi nel campo tessile, della carta e nei settori dell’industria alimentare come veri biocatalizzatori green che utilizzano l’ossigeno producendo acqua come prodotto collaterale6. Altri interessanti articoli mettono in evidenza l’utilizzo di microalghe come materia prima per la produzione di biodiesel studiando processi per l’ottimizzazione dell’estrazione delle sostanze di interesse7 o ancora l’utilizzo di materiali ligno-cellulosici per l’ottenimento di prodotti utili8. 6 Sergio Riva, Laccases: blue enzymes for green chemistry, Trends in Biotechnology, Volume 24, Issue 5, May 2006, Pages 219-226 7 Vincenzo Piemonte, Luisa Di Paola, Gaetano Iaquaniello, Marina Prisciandaro, Biodiesel production from microalgae: ionic liquid process simulation, Journal of Cleaner Production, Volume 111, Part A, 16 January 2016, Pages 62-68 8 Alessandra Piscitelli, Claudia Del Vecchio, Vincenza Faraco, Paola Giardina, Gemma Macellaro, Annalisa Miele, Cinzia Pezzella, Giovanni Sannia, Fungal laccases: Versatile tools for lignocellulose transformation, Comptes Rendus Biologies, Volume 334, Issue 11, November 2011, Pages 789-794 21 CHIMICA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 alla biocatalisi hanno moAppare di ulteriore interesse dulato la loro produzione proprio in quest’ultimo contesto lo studio di biocatalizscientiica (derivante dai inanziamenti ricevuti), zatori da organismi estremoili per una migliorata produriversandola sui temi della zione di prodotti interessanti green chemistry in modi dall’emicellulosa ottenuta del tutto paragonabili a dai rizomi di Arundo donax, quelli di altri paesi. pianta coltivata in terreni Appare interessante in esausti che alla ine del ciquesto contesto citare inine un editoriale apparso clo di raccolta si ritrovano sulla rivista New Bioin presenza di una quantità technology nel 2013 che di rizomi da poter utilizzare riporta i contributi precome biomassa9. Al di là però di questa anasentati ad una conferenza lisi nel dettaglio dei singoli internazionale, ‘‘Enviarticoli scientiici, che non ronmental Microbiology è possibile approfondire in and Biotechnology in the questo contesto, si può tentaFrame of the Knowledgere un approccio più generale Based Bio and Green EcoFig. 2 Presenza delle keywords più diffuse (e relativi controlli) nella letteratura prendendo in considerazione relativa alla green chemistry negli abstract dei prodotti di ricerca della Figura 1. nomy’’ (EMB2012) tenudieci termini comuni presentasi a Bologna nel 2012. ti nella letteratura scientiica I temi di ricerca sotto i relativa alla green chemistry. quali tali contributi sono Tale insieme di keywords è da poter ricercare negli abstract stati raccolti spaziano dalla produzione di biofuel e prodotti del totale dei prodotti risultanti dall’analisi in Figura 1. La chimci utilizzando biowaste alla ricerca sull’interazione miFigura 2 presenta i risultati di tale analisi per keywords. E’ crobica e la simbiosi e dallo sviluppo di ricerche sulle biodeinnanzitutto interessante la presenza della keyword di con- gradazioni e bioremediation ino alle applicazioni più recenti trollo “biocatalysis” usata per confrontare i risultati numerici di temi più strettamente legati alle biotecnologie marine10. delle altre keywords presenti. Il rapporto col valore di questa E’ di ulteriore interesse, proprio relativamente al’importankeyword trovato negli stessi prodotti con afiliation “USA” za speciica delle biotecnologie marine nel contesto della è analogo a quello dei totali dei prodotti (v. Figura 1) e ciò chimica verde, una frase contenuta nelle raccomandazioni corrobora in primo luogo l’analisi così condotta su questi emesse da un gruppo di lavoro europeo11 con la quale si indati. Inoltre, rispetto al valore di controllo per “biocatalysis” tende chiudere questo articolo: “...there is a common interest nei dati italiani (122), appare che il valore medio di presen- in developing all aspects of this ield in co-operations betweza di concetti relativi ad altre keywords è attestabile intorno en academic and industrial stakeholders, to accelerate the alla metà o poco meno (crop 50, biofuel 52, sustainable 60 transition to green chemistry, nutrition and pharmaceuticals e lo stesso green 32); presenze di tutto valore rispetto al ri- based on marine biodiversity”. scontro con le stesse keywords nei dati USA (greenUSA 74, sustainableUSA 88). Ciò ci fa concludere che l’onda “green” che ha investito altri paesi non è stata certamente assente nel nostro, nel quale i gruppi di ricerca tradizionalmente legati 10 Spiros N. Agathos, Fabio Fava, Alberto Scoma, Biotechnology for the 9 Lama L, Tramice A, Finore I, Anzelmo G, Calandrelli V, Pagnotta E, Tommonaro G, Poli A, Di Donato P, Nicolaus B, Fagnano M, Mori M, Impagliazzo A, Trincone A AMB Express. 2014 Jul 9;4:55 22 Bio- and Green Economy, New Biotechnology, Volume 30, Issue 6, 25 September 2013, Pages 581-584 11 Background and recommendations on future actions for integrated marine biotechnology R&D in Europe, KBBE-net partners of the Collaborative Working Group on Marine Biotechnology, October 2009. SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | INTERMEZZO Moebius in love. Una favola origamico-freudiana FRANCO BAGNOLI Dipartimento di Fisica e Astronomia e CSDC, Università di Firenze A mille ce n’è... Non serve l’ombrello, il cappottino rosso o la cartella bella per venire con me... [1] Bastano dei fogli di carta, del nastro adesivo e un paio di forbici. Se vi chiedessero di disegnare la vostra vita, che igura traccereste? Se siete ottimisti, una retta con pendenza positiva, o forse addirittura una parabola concava. Se siete pessimisti, l’opposto. O magari una curva che prima scende e poi sale (o viceversa). Forse un albero ramiicato, che mostra tutte le opportunità che non avete seguito? Ma sicuramente, se andate più in dettaglio, avremo una curva periodica, tipo sinusoidale. Perché la vita è in primo luogo ripetitiva: i giorni si ripetono con un ritmo sempre simile, e così fanno gli anni. Forse meglio quindi disegnare la vita non su un foglio di carta piano, ma su un cilindro. Ecco, il cilindro (o magari un tronco di cono) rappresenta meglio il ritmo della vita perché è una supericie intrinsecamente periodica: se tracciamo una linea “orizzontale” otteniamo, senza sforzo, un cerchio, una volta che arrotoliamo la carta. Prendiamo quindi una striscia di carta, che qui mostro con una torsione (è comodo distinguere le due facce, conviene usare i fogli a due colori per origami). Arrotoliamola, incollando il bordo. Abbiamo così un cilindro. Notiamo subito che questa igura ha un interno e un esterno, che si possono facilmente far corrispondere a quello che proviamo dentro e a come appariamo fuori. Ma questi due aspetti sono completamente separati... non è proprio così nella realtà. Inoltre, sia per la vita interiore che per quella esteriore, ci sono sempre più contesti, per esempio il lavoro e la famiglia o gli amici. Proviamo a separare i diversi contesti: facciamo un piccolo taglietto per inilare la punta delle forbici e poi seguiamo la linea mediana. 23 INTERMEZZO | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 Il cilindro si separerà in due cilindri più piccoli, completamente scorrelati tra loro. Vorrebbe dire che la nostra vita è divisa in compartimenti stagni, una cosa che può portare facilmente alla schizofrenia. Anche se non sembra, questo è dovuto alla completa separazione tra dentro e fuori. Per dimostrarlo, riprendiamo la nostra striscia di carta, e incolliamola facendole fare un mezzo giro. Abbiamo così un nastro di Moebius. Anche se localmente il nastro di Moebius è molto simile ad un cilindro, le sue proprietà sono molto diverse. Tanto per cominciare non c’è un dentro e un fuori. Se usiamo una carta con due colori diversi sulle due facce, vediamo che il “dentro” e il “fuori” si susseguono. Se tracciamo una “circonferenza” con un pennarello, vediamo che si inisce per “attraversare” entrambi i lati della striscia di carta, inendo dove abbiamo cominciato dopo aver percorso tutta la supericie (unica) della striscia. Questo ci rappresenta meglio: non esiste una distinzione netta tra il cielo stellato sopra di noi e la legge morale dentro di noi [2]. 24 SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | INTERMEZZO Ripetiamo l’esperimento di prima: facciamo un piccolo taglietto, iniliamo le forbici e poi proseguiamo lungo il segno del pennarello. Tagliando l’ultimo lembo di carta scopriamo con piacere che il nastro non si divide in due: semplicemente si converte un in nastro più lungo. La carta questa volta fa quattro mezzi giri (ovvero due giri completi) prima di richiudersi: ogni volta che tagliamo a metà un “mezzo giro”, questo raddoppia, e poi abbiamo un altro “giro” completo quando rigiriamo la striscia in alto. Questo è consistente con la nostra metafora: tagliando in due una vita (per esempio: prendendo un amante e facendo due lavori) otteniamo una vita più complicata... Il nastro tagliato adesso ha due superici: un dentro e un fuori, ma intrecciati tra loro. E se proviamo a tagliare ancora (magari perché divorziamo e ci risposiamo) otteniamo due anelli separati, pieni di nodi e inestricabilmente intrecciati. Una bella similitudine, non c’è che dire! Adesso però analizziamo il caso della coppia, dato che gran parte delle nostre decisioni coinvolgono altre persone. Prima o poi incontriamo l’anima gemella (o una sua approssimazione) e i due cerchi della vita entrano in contatto. Possiamo simboleggiare questo avvenimento per mezzo di una croce di carta, che poi arrotoleremo in vari modi. Per ricavare la croce, invece di impazzire con la colla o il nastro adesivo, conviene prendere un foglio di carta, e piegarlo in diagonale (portando il lato corto su quello lungo). Pieghiamo ancora una volta: otteniamo una specie di tenda (il sogno di tutte le neo-coppie?). Pieghiamo ancora, ottenendo un piccolo triangolo rettangolo, e poi tagliamo vicino all’ipotenusa. Magicamente, svolgendo la carta apparirà una croce. 25 INTERMEZZO | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 Una possibilità per i due partner della coppia sotto osservazione è quella di seguire percorsi di vita indipendenti. Nella nostra simbologia, questo consiste nel ripiegare i rami della croce a formare due cilindri uniti ma perpendicolari.. non proprio la descrizione di un idillio. Se adesso tagliamo i due cilindri cosa otteniamo? Al primo taglio appaiono... un bel paio di manette! Ahi, ahi, la cosa sta diventando minacciosa! Forse il mutuo che abbiamo fatto per la nostra casetta è stato un azzardo? O non avevamo considerato l’invadenza della suocera? E infatti, puntualmente, al secondo taglio ecco che si manifesta... una bella prigione quadrata! 26 SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | INTERMEZZO Ammaestrati però dalla nostra esperienza precedente, intuiamo che la ragione profonda di questo smacco è stata la separazione troppo netta tra interno ed esterno: tutte le case diventano delle prigioni se ci rinchiudiamo dentro! Proviamo a “aprirci” all’esterno. Questa volta, prima di incollare i rami della croce, diamo una mezza torsione. Attenzione però! In uno dei rami diamo una torsione in senso orario, nell’altro in senso antiorario: ci vuole una certa diversità nella coppia. A questo punto possiamo procedere con il taglio! Dopo il primo non si capisce molto, forse l’oggetto ricorda un tanga (per rammentarci che esistono le tentazioni)? 27 INTERMEZZO | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 ma appena inito il secondo taglio.... magicamente appaiono due cuori intrecciati! Cercando su YouTube per “Moebius hearts” si trovano molti video che mostrano il procedimento da seguire. Una versione in spagnolo di questo articolo è stata pubblicata su Revista C2: http://www. revistac2. com/http://www.revistac2.com/moebius-enamorado/ RIFERIMENTI [1] https://it.wikipedia.org/wiki/Fiabe_sonore [2] E. Kant, Critica della ragion pratica (1788) https://it.wikipedia.org/wiki/Critica_della_ragion_ pratica 28 SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | FILOSOFIA The Uncertainty Principle. Arguments and Implications for Philosophy of Science FILIPPO MARIA SPOSINI Department of Philosophy, Sociology, Pedagogy and Applied Psychology (FISPPA), University of Padua, Italy After the so called “scientiic revolution” science evolved through the application of logical reasoning to veriiable facts and data. According to a Galilean vision of science nothing in the universe happens randomly. Science must reveal order and predictability. During the irsts three decades of the twentieth century all the certainties about nature, science and reality have been revolutionized. By the time Heisenberg announced his uncertainty principle he presented an argument that was ready to shake the core of science, technology and philosophy. It marked an unsuspected weakness in the ediice of knowledge presenting the world with new challenges in the possibilities of understanding. The aim of the present paper is to analyze main arguments proposed by the uncertainty principle considering signiicant implications for the philosophy of science. INTRODUCTION O ur understanding of natural phenomena after the so called “scientiic revolution” evolved through the application of logical reasoning to veriiable facts and data. Starting with Galileo and then Newton, scientiic theories relied on the rigorous language of mathematics that provided a precise and thorough system able to replace mystery with reason. According to a Galilean vision of science, nothing in the universe happens randomly: there is no room for spontaneity. Nature might be extremely complicated but at bottom, science must reveal order and predictability. The trick is to deine the object of knowledge in terms of precise observation and then ind mathematical laws able to present an inescapable and reliable explanatory system. This classical picture of knowledge engages all natural sciences (and not only) in a reductionist project. «Reductionism» is a philosophical position which holds that a complex system is nothing but the sum of its parts. To better understand it, the proposal is to analyze the system in its individual constituents (Bunge, 1967). It assumes and takes for granted that all minimal aspects of nature can be deined with limitless precision and all interactions can be exactly understood. For centuries, this approach showed its massive potential and the project of a complete understanding of the world seemed realizable. Nature in fact: «Was considered knowable, and if it was knowable then one day, necessarily it would be known» (Lindley, 2007). If absolute comprehension was unavailable, it was because of scientists’ inability to deal with the task, not because nature itself was intractable. During the irsts three decades of the twentieth century all these certainties about nature, science and reality have been revolutionized. By the time Heisenberg announced his uncertainty principle, he presented an argument that was ready to shake the core of science, technology and philosophy. It marked an unsuspected weakness in the ediice of knowledge presenting the world with new challenges in the possibilities of understanding. The aim of the present paper is to analyze main arguments proposed by the uncertainty principle considering signiicant implications in philosophy of science. THE PRINCIPLE In March 1927 a twenty-ive years old physicist, Werner Heisenberg, published a breakthrough paper that offered a simple, and at the same time startling principle that established a new approach in our understanding of the world. The uncertainty principle represents a great achievement in the ield of quantum mechanics that at the time, was consistently growing as a fundamental framework for understanding and describing nature at the smallest length-scales (Kragh, 1999). According to this theory atoms can be found only in a certain «quantum state» described as: «The form an atom assumes when it is left alone to adjust itself to the conditions at low energies» (Weisskopf, 1979). The responsible of a certain quantum state are electrons, and the study of these tiny particles has occupied scientists’ mind for a long time. In 29 FILOSOFIA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 the atomic world we observe signiicant changes when going from one number of electrons to another as one more or less may lead to a complete change of the atomic state and its interaction capabilities. Since the early experiments it was recognized that electrons and other atomic particles behave in unexpected way. The surprising event was the electrons’ ability to exhibit both wave and particle properties. This phenomenon takes the name of «wave-particle duality» and illustrates a general characteris- Galileo Galilei tic of the atomic world where the properties of a quantum system depend on the nature of the observation performed (Reichenbach, 1946). Light for example, is a phenomenon that presents this duality. It can be a wave when passing through a pair of slits, but it can be a stream of photons when it strikes a detector or a photographic ilm (Rae, 1986). Thus, one of the main consequences of wave-particle duality is that it sets limits on the amount of information that can ever be obtained about a quantum. Heisenberg realized that this type of phenomena could be conceived in a different way. He pointed out that a better understanding can be drawn from a measurement of the position of an electron (Δx) and its momentum (Δp) by shooting a photon at it (Heisenberg, 1927). But, as he performed the experiment, he faced a terriic issue. The more precisely the position of the electron was determined, the less precisely its momentum could be known, and vice versa. In the experiment photons were used to identify position and momentum. In order to successfully locate the position of the electron, we must use a photon with a short wavelength. In this way the position can be measured accurately but, because of the characteristics of our measurement system, the photon used transfers a large amount of energy to the electron altering signiicantly the quantum state and therefore the momentum. If, on the other hand, we want to understand the momentum of the electron, we must use a photon with a long wavelength. In this case the collision does not disturb signiicantly the electron’s momentum, but the position can only be determined vaguely. This intimate partiality in the possibility of knowledge was shocking for newtonian and einsteinian physics, but Heisenberg’s provocative description was entirely supported by the mathematical framework applied. Conident about the quality of his researches, the german physicist established a new 30 fundamental principle: «No matter what photon wavelength is used, the product of the uncertainty in measured position and measured momentum is greater than or equal to a lower limit, which is Planck’s constant» (Tipler, 1978). This expression asserts that there is a minimum amount of unavoidable disturbance caused by any measurement. The very act of measurement in fact, involves a strong interaction that produces a signiicant disturbance from which we cannot escape. The uncertainty principle presents us with the groundbreaking idea that the act of measurement introduces in the object of our analysis a substantial change which cannot be precisely controlled. The world could not be conceived anymore as an independent constellation of objects. And at the same time, the conception of knowledge as a mirroring enterprise was forever gone. THE PROBLEM OF MEASUREMENT Following the arguments proposed by the uncertainty principle, the act of measurement becomes a central problem. Measurement is standardly described and performed in the following way. The object of our study is brought into contact with an apparatus, with the result that the apparatus indicates the value in a physical quantity after they have suficiently interacted (Goldstein & Goldstein, 1980). This procedure lies over the solid assumption that the object of our knowledge exists for itself and constitutes a phenomenon de facto (Bunge, 1967). To this conception of nature, the act of measurement must provide precise and accurate data that represent the “real” and “objective fact”. No interference with the phenomenon under investigation is allowed. It is in the interest of science to not modify the object, otherwise the physical quantity indicated by the measurement system would be characterized by a systematic error producing unreliable knowledge. Scientist’s task is to intervene as little as possible in order to allow an “ordinary manifestation of reality”. In this frame it is clear that the observer-observed relationship relies on the implicit possibility to neatly differentiate the two parts (Curd & Cover, 2012). In other words, if the observer pays necessary attention, he can grasp the SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | FILOSOFIA reality from a separate and privileged position. But here is the issue that comes from the uncertainty principle: To what extent our intervention is irrelevant for the purpose of measurement? According to Heisenberg’s researches, the apparatus used for measuring the momentum deprives us of knowledge of the position of the electron and the more accurately we learn how fast it is moving, the less we know where it is (Heisenberg, 1979). We cannot know both position and speed at the same time, so we Werner Heisenberg are forced to choose: «The very act of measuring changes the system in unpredictable ways» (Goldstein & Goldstein, 1980). No matter how the measurement system is accurate and precise, the uncertainty principle tells us that some kind of interference is unavoidable. By measuring we necessarily change the object of our study. In other words, the observer can only change the observed. POTENTIALITY AND ACTUALITY This dichotomy represents a central concept that has been developed in ancient times mainly by the contribution of Aristotle. The idea proposed by the the irst teacher becomes extremely relevant in the discussion of the philosophical implication of the uncertainty principle. Potentiality refers to any possibility that a thing can be said to have, while actuality represents a situation where a possibility becomes real in the fullest sense (Jaeger, 2013). In the experiment performed by Heisenberg we noticed how the comprehensive knowledge of a certain quantum state is impossible to acquire at the same time. The understanding of the observed object relies upon the observer’s choice, whether he prefers to accurately know one aspect or another. In this sense, the observer faces a world of coexistence potentialities or possibilities rather than one of determined things or objects (Bohr, 1958). To the new perspective advanced by quantum physics, for each potentiality there is a corresponding probability. In this range of options, measurement can only probabilistically induce a single outcome among a set of potential outcomes (Reichenbach, 1946). The position embraced by a consistent group of physicists indicates an indeterministic conception of the quantum world. Since the properties under investigation have no deinite value before the act of measurement, the only act of knowledge is responsible for speciic characteristics or reality. This understanding thus, is fundamentally different from the view adopted in classical physics centered over a deterministic and mechanistic approach. But Heisenberg himself, conscious of the important consequences of his opinions, took a precise position and irmly stated that: «The transition from the possible to the actual takes place as soon as the interaction between the object and the measuring device, and thereby with the rest of the world, has come into play» (Heisenberg, 1958). This state of affaires challenges us with puzzling implications. If the entire human knowledge relies on the act of observing, and if this act not only changes irreversibly the object of our investigation but sets the condition for a speciic manifestation of reality, then, what is the nature of our knowledge? Is the world we are experiencing and we are trying to understand just one of the many possible worlds? These questions have given the chance for the development of a striking debate to which several answers have been proposed (Rae, 1986; Greene, 2010). One of the most interesting contribution to the discussion has been presented just after the publication of the uncertainty principle by Heisenberg himself and Niels Bohr. This interpretation of quantum mechanics takes the name of the «Copenhagen interpretation» as they both conducted their researches in the danish capital. COMPLEMENTARITY AND THE COPENHAGEN INTERPRETATION The Copenhagen interpretation of quantum mechanics states that no objective reality can be described in quantum systems (Plotnitsky, 2012). The only possible analysis relies on probabilistic methods. It rejects the objective reality and denies that an electron has a well-deined position and a well-deined momentum. In the absence of an actual observation neither its position or its momentum can be considered as part of the knowledgeable phenomena as the observations alone create the reality of the electron. «A measurement of an electron’s position creates an electron-with-a-position; a measurement of its momentum creates an electron-with-a-momentum. But neither entity can be considered already to be in existence prior to the measurement being 31 FILOSOFIA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 made» (Heisenberg, 1958). We might wonder how we know that a quantum object exists at all in the absence of any measurement. The answer proposed by the Copenhagen interpretation is that until we have measured some property of a system it is meaningless to talk about its existence, ergo, the reality is in the observation process, not in the electron (Bohr, 1958). But there is more. As stated before, there is no measuring device that can demonstrate at same time two different qualities of a certain quantum state. One experiment can reveal the position of the electron, another the momentum. Both cannot be identiied at once. It is up to the experimenter to decide which facet to expose according to his purposes. Because these properties cannot be outlined together, Niels Bohr proposed the so-called «principle of complementarity» stating that position and momentum are different aspects of a single reality that cannot be simultaneously measured and observed (Katsumori, 2011). The essential ambiguity in the quantum world sets the conditions for which the same system can display apparently contradictory properties where the study of one variable, destroys all available knowledge of some other variable. At the bottom of complementarity there is an indeterministic vision. Reality must be considered as one of many possibilities generated by the characteristics of the observation performed. These considerations were so startling and provocative that even an eccentric igure like Albert Einstein in response to this interpretation pronounced the famous expression: «God does not play dice!». Indeed, the Copenhagen interpretation of quantum mechanics and Heisenberg’s uncertainty principle were seen as twin targets by detractors who believed in an underlying determinism and a dogmatic realism (Lindley, 2007). UNCERTAINTY, LANGUAGE AND LOGIC The uncertainty principle represents a great achievement that has been possible with the rigorous application of logic and mathematics. Without these formal languages there would have been any possible knowledge in quantum physics and in most all other sciences. In the exploration of the quantum world though, even the most powerful system of knowledge faces an enormous issue. Let’s ask a simple question: What is an electron? According to classical logic it is assumed that if a statement has any meaning at all, either the statement (A = A) or the negation of the statement (A ≠ not A) must be correct. Translated to the atomic world, the electron must be a wave or a particle, it cannot be both at the same time. A third option is not allowed: tertium non datur. However, we know from experiments that an electron can be both a wave or a particle depending on the characteristics of the measurement system (Levine, 2013). What we recognize as normal, ordinary and logic in the macroscopical world does not it with microscopical level. This brings us to another problem related to the language used in our understanding of the basic features of the world. The measuring devices we use have been constructed by the observer according to certain conventions. It is important to remind that «what we 32 observe is not nature in itself but nature exposed to our method of questioning» (Heisenberg, 1958). Our scientiic work consists in asking questions about nature in our language and trying to get an answer from observation and measurement by means that are comprehensible to us. The issue suggested by the uncertainty principle tells us that nature does not speak our language. Or to be more speciic, that the use of formal and logical reasoning does not imply that nature is actually textured by mathematical language as Galileo thought. In this sense, the uncertainty principle poses a limit in traditional logical reasoning as we face phenomena that go beyond our capacity of description and representation. Heisenberg even stated that we cannot attribute any material properties to the concept of atom and: «Whatever image our mind can conceive about the atom is eo ipso incorrect. A irst kind understanding of the atom world is – I would say for deinition – impossible» (Heisenberg, 1979). CONCLUSIONS AND CONSIDERATIONS The Heisenberg’s uncertainty principle warns us that the ability to describe the object of study is circumscribed and intrinsically related to our intervention. When journalists admit that their own views can inluence the stories they are reporting, when translators assert that their activity is more hermeneutical rather than interpretational, when anthropologists lament how their presence disrupts the cultural dynamics they are examining, when psychologists say that their role is strongly intrusive in an interview session, when psychiatrists confess that the diagnosis provided is affected by subjective and contextual elements, in all these cases Heisenberg’s principle is not far away. A pure and untainted knowledge that does not imply any intrusion seems impossible to achieve. Even if it would be possible, there will always be some contamination as the inquirer consciously choose what to observe and how to perform the investigation. So far we have discussed about the limitations posed by the uncertainty principle. Now we have to talk about the opportunities. A part from the great advancements that quantum mechanics is achieving, there are also other ields in which the uncertainty principle can represent a signiicant starting point for new and fruitful discussions in epistemology and methodology. Here the reference is to the so-called “social sciences”, a broad category that includes several disciplines concerned with the dynamics that take place among members of our specie. In this ield, the old fashioned deterministic approach has been widely applied with scarce results (Harré & Gillet, 1994). For decades the main purpose of social scientist was to “look and not touch” assuming that an objective knowledge of human interactions could be easily grasped by adopting the well-developed scientiic method of natural sciences. As the cases above reported testify, the study of social dynamics requires a strong intervention by the observer. Starting from the basic idea that the researcher signiicantly modiies the thing observed, here there is a great opportunity for theorists in social sciences. Social events SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | FILOSOFIA could be addressed just like nuclear physicists approach the study of quantum states. Since the observation performed inevitably changes the object of investigation, it is completely misleading discussing on how to achieve a greater experimental neutrality. Taking into account the condition of the observer the new perspective may lead to other questions. For example, how can a social scientist proitably use his inluential role? How can we manage changes in a social environment? How can we animate a different of representation of the living context? How can we invite actors and stakeholders to a new and desirable coniguration of reality? In order to harbor this shift it is paramount to consider and give importance to the implications proposed. This shift requires a radical turn in the epistemological and methodological assumptions but it can represent a proliic ground in deining a new «interactionist paradigm» for social sciences (Turchi & Orrù, 2014). REFERENCES Bohr, N. (1958). Atomic physics and human knowledge. New York: Wiley. Bunge, M. (1967). Studies in the Foundations Methodology and Philosophy of Science. New York, USA: Springer-Verlag. Curd, M., & Cover, J. A. (2012). Philosophy of science: The central issues. New York: W.W. Norton & Co. Goldstein, M., & Goldstein, I. (1980). How we know. New York, USA: Da Capo Press. Greene, B. (2010). The elegant universe: Superstrings, hidden dimensions, and the quest for the ultimate theory. New York, USA: W. W. Norton & Co. Harré, R., & Gillett, G. (1994). The discursive mind. Thousand Oaks, CA: Sage Publications. Heisenberg, W. (1927). Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik. Zeitschrift für Physik, 43(3-4), 172-198 Heisenberg, W. (1958). Physics and philosophy: The revolution in modern science. New York, USA: Harper & Row. Heisenberg, W. (1979). Philosophical problems of quantum physics. Woodbridge, CT: Ox Bow Press. Katsumori, M. (2011). Niels Bohr’s complementarity: Its structure, history, and intersections with hermeneutics and deconstruction. Dordrecht: Springer. Kragh, H. (1999). Quantum generations: A history of physics in the twentieth century. Princeton, NJ: Princeton University Press. Jaeger, G. (2013). Quantum objects: Non-local correlation, causality and objective indeiniteness in the quantum world. New York, USA: Springer. Levine, M. (2013, December 12). Double-Slit Science: How Light Can Be Both a Particle and a Wave. Scientiic American. Retrieved from http://www.scientiicamerican. com/article/bring-science-home-light-wave-particle/. Accessed 6 August 2016. Lindley, D. (2007). Uncertainty: Einstein, Heisenberg, Bohr, and the struggle for the soul of science. New York, USA: Doubleday. Plotnitsky, A. (2012). Niels Bohr and complementarity: An introduction. New York, USA: Springer. Rae, A. I. (1986). Quantum physics, illusion or reality?. Cambridge: Cambridge University Press. Reichenbach, H. (1944). Philosophic Foundations of Quantum Mechanics. Berkeley: University of California Press. Tipler, P. A. (1978). Modern physics. New York, USA: Worth Publishers. Turchi, G. P., & Orrù, L. (2014). Metodologia per l’analisi dei dati informatizzati testuali: Fondamenti di teoria della misura per la scienza dialogica. Napoli: Edises Weisskopf, V. F. (1979). Knowledge and wonder: The natural world as man knows it. Cambridge, Mass: MIT Press. 33 SCIENZE FISICHE E AMBIENTALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 Un’introduzione ai modelli meteorologici e climatici CLAUDIO CASSARDO1, NAIMA VELA2-3 E VALENTINA ANDREOLI2 1 Dipartimento di Fisica, Università di Torino “Alma Universitas Taurinorum” - Ewha Womans Univerity, Department of Atmospheric Science and Engineering, Seoul, Korea - CINFAI, Consorzio Interuniversitario Nazionale per la Fisica dell’Atmosfera e dell’Idrosfera 2 Dipartimento di Fisica, Università di Torino “Alma Universitas Taurinorum” 3 Agenzia Regionale per la Protezione Ambientale (Piemonte), Dipartimento sistemi previsionali (Torino) La meteorologia ed il clima hanno assunto un ruolo sempre più importante nella vita quotidiana negli ultimi anni. A questo ha sicuramente contribuito il continuo sviluppo della ricerca scientiica, che ha reso disponibili strumenti numerici più accurati e soisticati in grado di coadiuvare i previsori e gli scienziati nell’interpretazione del tempo meteorologico presente e futuro, e nella comprensione dei fattori che determinano il clima terrestre. Contemporaneamente, lo sviluppo quasi esponenziale del web, dei social network e di tutte le tecnologie di comunicazione moderne ha avuto l’effetto di inondare di prodotti il pubblico. Tuttavia, non è ancora cresciuta di pari passo la consapevolezza necessaria, da parte del pubblico, per sapersi districare nell’offerta eccessiva di prodotti, discriminando tra le informazioni utili e quelle accessorie, o talora anche dannose. Il problema principale risiede nell’incapacità, in generale, di sapere interpretare le potenzialità ed i limiti di tale informazione. Il presente articolo vuole essere una sorta di miniguida in tal senso che, partendo dalla letteratura più recente, si propone di dare una spiegazione minimale utile per valutare l’informazione meteorologica e climatica ormai onnipresente nel mondo di internet. 1. METEOROLOGIA E CLIMA: CHE CONFUSIONE! Non passa settimana che, parlando con la gente o sui media, non si senta affermare che fa freddo, o caldo, o piove troppo, o troppo poco, e che il clima è cambiato. Regna una gran confusione sull’uso dei termini meteorologia e climatologia, e dei concetti ad essi collegati, per cui è opportuno fare chiarezza in dall’inizio sulla differenza tra meteorologia e climatologia. Meteorologia è una parola di origine greca (μετεωρολογικά, meteorologhica) coniata da Aristotele intorno al 340 a.C., usata come titolo di un suo libro che presenta osservazioni miste a speculazioni sull’origine 34 dei fenomeni atmosferici e celesti. La parola greca μετέωρος (meteoros) indica infatti genericamente oggetti “alti nel cielo”, cioè situati tra l’atmosfera e le stelle isse, mentre il sufisso λογία (loghìa) indica che è un trattato. Nelle epoche successive, il sostantivo meteorologia ha assunto il signiicato dell’insieme delle condizioni atmosferiche (quello che noi isici chiamiamo lo stato del sistema), date ad esempio dai valori delle grandezze come temperatura, umidità, velocità e direzione del vento, precipitazione, ecc. osservate in un preciso istante ed in una determinata località. La parola clima, invece, deriva anch’essa dal greco (χλιμα) e signiica inclinazione e tendenza, in quanto originariamente era collegata all’inclinazione dei raggi solari rispetto alla verticale e, per estrapolazione, agli effetti di questo fenomeno sulle temperature. Oggigiorno, il clima rappresenta la statistica condotta sul tempo meteorologico osservato in una data regione ed è riferito ad un intervallo di tempo che escluda le ciclicità più evidenti che caratterizzano le variazioni del tempo meteorologico. Le normative dell’Organizzazione Meteorologica Mondiale (WMO) hanno suggerito come intervallo di tempo un periodo di trent’anni, che rappresenta una sorta SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE FISICHE E AMBIENTALI di compromesso tra la richiesta di un tempo molto lungo, che tenda a mediare il più possibile le luttuazioni, ed il fatto che - soltanto da poco più di un secolo - sono disponibili serie di osservazioni meteorologiche complete che possano permettere la ricostruzione del clima. Spesso si sente dire che, parlando di meteorologia e clima, anche se l’oggetto di studio delle due discipline è lo stesso (l’atmosfera terrestre), sono le differenti scale temporali a differenziare le due discipline. Questo è in realtà solo parzialmente vero, in quanto il tempo meteorologico dipende prevalentemente dalle caratteristiche attuali dell’atmosfera (temperatura, umidità, vento, composizione, ecc.), alcune delle quali possono essere ipotizzate costanti o quasi nel breve periodo di una previsione meteorologica (alcuni giorni), mentre il clima risente anche di fattori esterni all’atmosfera (distanza Terra-Sole, deriva dei continenti, circolazione oceanica, la variazione dello stato della supericie terrestre, la composizione dell’atmosfera, ecc.) che, sui tempi lunghi del clima, possono variare anche in modo consistente, e le cui variazioni debbono quindi necessariamente essere tenute in considerazione. 2. LE SIMULAZIONI MODELLISTICHE IN METEOROLOGIA Il concetto di modello riveste oggi una grande importanza in tutte le discipline scientiiche, non solo nella isica. Il signiicato originario di modello è quello di riproduzione materiale di un sistema isico a una determinata scala di riduzione o espansione. Un modello matematico è costituito generalmente da una o più equazioni in cui le singole variabili rappresentano le proprietà dei singoli elementi del sistema reale in studio. In questa prospettiva, il sistema reale può essere scomposto in processi e interazioni fondamentali che possono essere descritte da singole equazioni che vengono inserite nel modello. In questo modo, la previsione numerica del tempo può essere considerata come un’applicazione del metodo sperimentale galileiano (Pasini, 2005) e, a causa della complessità e dell’unicità dell’atmosfera terrestre, e quindi dell’impossibilità di condurre esperimenti reali, il computer può essere visto come un laboratorio virtuale. In esso, lo scienziato ha il controllo completo del sistema virtuale che simula quello reale, e può effettuare o ripetere esperimenti numerici, e modiicare con estrema facilità gli elementi teorici del modello e le situazioni degli esperimenti stessi, per esempio cambiando i valori delle variabili. Premesse queste considerazioni, si può affermare che la stessa dicotomia, di cui si è parlato prima, tra meteorologia e clima, la si ritrova pari pari nei modelli meteorologici e climatici. I modelli meteorologici standard sono sostanzialmente caratterizzati da un trattamento dinamico del solo sistema atmosferico, all’interno del più vasto sistema terrestre; questo signiica che le loro equazioni riguardano solamente la dinamica dell’atmosfera, mentre l’interazione con gli altri sottosistemi viene normalmente fornita tramite forzanti e condizioni al contorno. Nei modelli climatici, invece, visti i tempi scala molto maggiori, è necessario simulare in modo esplicito non solo il sistema atmosferico, ma anche gli altri sistemi; per questo motivo, tali modelli vengono ora chiamati “modelli del sistema Terra”. In ognuno dei due casi, è possibile sviluppare modelli numerici costituiti da uno o più sistemi accoppiati di equazioni differenziali. Le variabili di queste equazioni hanno una corrispondenza nel sistema reale in grandezze misurabili. Così, dando alcuni valori iniziali realistici a ciascuna variabile del modello e impostando le condizioni al contorno, si possono risolvere numericamente queste equazioni, ottenendo una stima dei parametri termodinamici e dinamici più rilevanti in atmosfera o nel sistema terrestre. Questo approccio fu utilizzato per la prima volta – con poco successo e grande fatica, visto che i calcolatori elettronici non esistevano ancora – da Richardson (1922), e successivamente ripreso da Charney et al. (1950). Il successo di questo ultimo tentativo aprì la strada all’uso del computer elettronico per le previsioni meteorologiche. Un modello meteorologico1 è costituito da una serie di equazioni differenziali prognostiche per le principali variabili meteorologiche (velocità del vento, temperatura, umidità e pressione), che includono le equazioni della conservazione di quantità di moto, energia e acqua, e l’equazione di stato, alle quali si aggiungono delle equazioni sempliicate che tengono conto di tutta una serie di fenomeni che avvengono a scale troppo piccole rispetto alla risoluzione del modello. Inoltre, con il continuo aumento della potenza dei computer, le equazioni utilizzate sono diventate via-via più complete nel tempo, ed anche la loro risoluzione è gradualmente aumentata. Solo per illustrare un esempio, nel 1979, anno in cui fu creato il Centro europeo per le previsioni meteorologiche a medio termine (ECMWF) a Reading, la risoluzione tipica delle uscite del primo modello era di circa 120 km, mentre attualmente si aggira sui 10 - 11 km. Un altro componente molto importante della catena previsionale modellistica che è notevolmente migliorata nel tempo è l’inizializzazione dei dati necessaria al modello per il suo funzionamento. Non c’è pertanto da stupirsi se, conseguentemente, l’errore quadratico medio tra i campi previsti e le osservazioni meteorologiche è diminuito progressivamente, con valori di correlazione che ormai arrivano al 95-97% per il terzo giorno di previsione (CSAEOS, 2008). Modelli come l’IFS (Integrated Forecasting System) che gira all’ECMWF, o il GFS (Global Forecasting System) sviluppato dal National Weather Service (NWS) della National Oceanic and Atmospheric Administration (NOAA), sono chiamati globali, e sono noti in gergo come General (o Global) Circulation Models (GCM), in quanto “girano” sull’intero globo terrestre. La conigurazione corrente dell’IFS è O1280L137, che corrisponde ad 1 Qui si fornisce una sintetica disamina delle principali caratteristiche dei modelli numerici di uso in meteorologia e nelle scienze del clima. Per una discussione più completa, si rimanda ad esempio ad alcuni blog tematici, come “Che cosa sono i modelli meteorologici?”, “Le misure necessarie per l’inizializzazione dei modelli per la previsione del tempo” e “L’interpretazione dei prodotti dei modelli meteorologici” (reperibili su https:// claudiocassardo.wordpress.com/). 35 SCIENZE FISICHE E AMBIENTALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 una distanza orizzontale tra punti griglia di 0.1° di risoluzione orizzontale in latitudine e longitudine (pari a circa 10 km alle nostre latitudini) e 137 livelli verticali. Questo signiica che, sul globo, ci sono circa ottocentoottantotto milioni di punti griglia. Su ognuno di tali punti griglia vengono risolte tutte le equazioni ad ogni time step (normalmente di qualche secondo), le quali necessitano di dati di input che debbono essere forniti anch’essi su ogni punto griglia, a partire dalle osservazioni (ci sono meno di mille stazioni di radiosondaggio verticale che Fig. 1 – Esempio di una catena modellistica: per avere una previsione a scala locale, per esempio relativa operano due volte al giorno, e qualche ad una o più province, si usano le uscite di un GCM per inizializzare un LAM, e a cascata eventualmente altri LAM ino ad arrivare al dettaglio desiderato. decina di migliaia di stazioni meteo che inviano regolarmente i loro dati alla rete meteorologica mondiale), con opportuni algoritmi interpo- analiticamente non risolvibili – i sistemi non lineari mostrano spesso un comportamento straordinariamente complesso lativi. Non tutti i modelli meteorologici considerano l’intera at- e caotico. Tale fenomeno è attualmente ben noto (Lorenz, mosfera terrestre. Per ottenere una risoluzione maggiore, 1972) e caratterizza tutti i GCM, rendendo di fatto imposesistono altri modelli, detti ad area limitata (Limited Area sibile l’effettuazione di previsioni meteorologiche precise Models, o LAM) oppure alla mesoscala, che studiano soltan- a lungo termine. Si noti che uno può sempre eseguire una to una porzione di atmosfera, normalmente limitata ai bordi simulazione che duri diversi mesi ed analizzarne i risultalaterali. Il vantaggio di questi modelli è che possono, a parità ti; il problema è che tali risultati diventano completamente di risorse di calcolo, dettagliare maggiormente la previsione, svincolati dall’andamento reale dopo alcuni giorni, per cui risolvendo anche processi a scala più piccola del grigliato dei non hanno alcuna utilità dal punto di vista della previsione modelli globali. Il calcolo è presto fatto: partendo dal numero del tempo. L’impossibilità di stabilire, a priori, l’esattezza di una predi punti griglia del modello globale GFS e immaginando di farlo girare su un’area comprendente l’Europa (per esempio visione afidandosi ad un’unica previsione deterministica ha nel “rettangolo” compreso tra le latitudini 30°N e 75°N, e portato a sviluppare una nuova tecnica di previsione nella le longitudini 30°O e 45°E), si ottiene che, imponendo lo quale si integrano simultaneamente più stati dell’atmosfera stesso numero di punti griglia del modello globale, essi ri- caratterizzati da condizioni iniziali che differiscono di poco sulterebbero spaziati di poco più di due chilometri. E infat- l’una dall’altra. Con questa nuova tecnica, nota con il nome ti i LAM più risoluti oggigiorno ormai hanno proprio passi di ensemble predictions (previsioni di insieme), lo scenario griglia dell’ordine di 1 km, o anche meno. Naturalmente, meteorologico previsto è quindi legato alla frequenza con cui i LAM necessitano dei dati al contorno sui loro bordi, per il pattern atmosferico ricorre nella gamma di tutte le previcui debbono essere fatti “girare” dopo i GCM per usarne le sioni calcolate. Tale sistema diventa particolarmente utile nei loro uscite. Con la disponibilità di questo tipo di prodotti, è casi in cui si veriichino transizioni nei regimi meteorologici possibile avere previsioni meteorologiche di alta precisione a che i modelli prevedono con maggiore dificoltà. In pratica, si eseguono diverse simulazioni con i GCM pergrande scala e anche previsioni accurate alla mesoscala e alla scala locale (Fig. 1). Pertanto, in linea di principio, può esse- turbando le condizioni iniziali di una corsa di riferimento, e re possibile fornire alcune segnalazioni nel caso in cui alcuni si analizzano gli andamenti risultanti. Indagando lo spazio eventi estremi o pericolosi siano previsti a medio termine. dei possibili risultati a partire da un dato stato iniziale (incerto), le previsioni di insieme permettono quindi ai previsori di Torneremo a breve su questo tema. valutare i possibili risultati stimandone le possibilità di acca3. QUANTO SONO ATTENDIBILI LE PREVISIONI DEI dimento, e quindi di comunicare i possibili rischi agli utenti. MODELLI METEOROLOGICI? Sottolineiamo qui la frase “permettono ai previsori di …“: il ruolo degli esperti nell’interpretare le previsioni e spiegarLe equazioni che regolano la dinamica atmosferica o dei ne gli eventuali rischi correlati rimane fondamentale anche luidi sono non lineari. In un sistema non lineare, non è sod- nell’epoca dei modelli numerici, in cui si potrebbe credere di disfatto il principio di sovrapposizione: cioè, non è vero che essere in grado di realizzare un centro meteo, o addirittura un l’output sia proporzionale all’input. Oltre che a essere difi- servizio meteorologico, semplicemente assemblando le uscicili da risolvere – nel caso delle equazioni che regolano la te dei modelli fatti girare da altri, senza la necessità di persodinamica atmosferica, basate sulle equazioni di Navier-Sto- ne qualiicate che ne interpretino le uscite. Al giorno d’oggi, kes per il lusso del luido atmosferico, esse sono addirittura i vari centri meteorologici fanno ampio uso delle previsioni 36 SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE FISICHE E AMBIENTALI nee rosse così come la previsione deterministica, ma siano “distanti” tra loro. Normalmente i risultati delle previsioni di insieme sono sintetizzati in graici (Fig. 2) o mappe bidimensionali (Fig. 3), che in gergo vengono chiamati “spaghetti plot”. L’analisi della Fig. 3 mostra già chiaramente da sola come debbano poi interpretarsi le mapFig. 2 – Esempio di una serie temporale delle integrazioni numeriche relative alle previsioni di insieme del modello IFS pe previsionali alla luce dell’ECMWF per la temperatura supericiale su Londra. Le due mappe si riferiscono esattamente a un anno di distanza l’una dall’altra. In ogni mappa, la linea continua nera spessa indica la previsione deterministica del modello, mentre la tratteggiata delle informazioni aggiunblu indica le osservazioni. In rosso sono invece indicate le previsioni dei vari run ottenuti perturbando le condizioni iniziali (previsioni di ensemble). Graico adattato dalle previsioni fornite dall’ECMWF. tive fornite dagli spaghetti plot. È importante capire, in primo luogo, che le predi insieme, che vengono afiancate alle previsioni determini- visioni non hanno dappertutto lo stesso grado di attendibilità. stiche. La tecnica è stata applicata per la prima volta nel 1992 Ad esempio, guardando gli spaghetti plot di Fig. 3, il tempo sulla Groenlandia occidentale appare incerto già dal martesia all’ECMWF, sia al NCEP. A titolo di esempio, mostriamo (Fig. 2) due previsioni del- dì 22 (secondo giorno di validità della previsione), mentre la temperatura a 2 metri dal suolo per Londra, a partire dal 26 sul Regno Unito si comincia a notare una divergenza delle giugno di due anni consecutivi, 1994 e 1995. Le curve rosse isoipse soltanto nel giorno di venerdì 25 (quinto giorno). È sottili mostrano i singoli membri di una previsione di insie- comunque chiaro che la signiicatività delle tre ultime mapme. La diffusione delle previsioni appare molto diversa nei pe, relative ai giorni da domenica 27 aprile (settimo giorno) due casi, pur trattandosi dello stesso giorno dell’anno (quindi in poi, è assolutamente nulla e non consente alcun tipo di stessa stagione, nella stessa località). Questo dimostra che previsione oggettiva. Dovrebbe quindi apparire abbastanza alcune condizioni iniziali sono più prevedibili di altre: in un chiaro, a questo punto, come gli spaghetti plot e, in generale, caso si ha una dispersione delle previsioni del modello molto i prodotti delle previsioni di insieme, possano consentire di elevata, nell’altro no. Si nota anche come, in entrambi i casi, attribuire un indice di afidabilità alla previsione. È infatti le osservazioni reali si trovino all’interno del fascio delle li- importante essere a conoscenza del fatto che una previsione meteorologica non è mai, e non potrebbe mai neppure esserlo, assimilabile ad una certezza, ma rappresenta uno scenario evolutivo più o meno probabile, a seconda di quanto lontano si va nel tempo, allo stesso modo di come un dottore che fa una diagnosi dello stato di un paziente, emette poi una prognosi relativa all’evoluzione più probabile (ma mai certa) della sua patologia. Da ultimo, vorrei aggiungere che la discussione precedente ha riguardato i modelli globali, poiché normalmente sono questi ad essere fatti girare per lungo tempo (ino a 15 giorni). Si potrebbe pensare che un modello a mesoscala o locale, avendo un grigliato più itto, possa consentire una notevole riduzione degli errori e quindi possa superare questo problema. La realtà dimostra che non è così, in quanto gli errori dovuti all’interpolazione delle uscite del GCM sui bordi del grigliato del LAM si propagano rapidamente all’interno nel tempo, ed è questo il motivo per cui raramente le corse dei modelli alla mesoscaFig. 3 – Esempio di spaghetti plot relativi alle altezze di geopotenziale a 500 hPa previste dalle previsioni di ensemble del modello GFS girato il 20 aprile 2014 alle 06 UTC. Fonte: wetterzentrale.de. la o LAM si estendono oltre i 3-5 giorni. 37 SCIENZE FISICHE E AMBIENTALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 4. I MODELLI CLIMATICI modelli, in modo da arrivare ad una determinazione delle caratteristiche climatiche di quella zona. In questo nuovo contesto, quindi, il caos deterministico che afligge le previsioni meteorologiche non è più un problema. Al contrario, esso descrive quella variabilità che rende possibile il realizzarsi di una statistica di stati diversi, e dunque permette di poter determinare il clima. Naturalmente, diventa necessario veriicare se effettivamente uno o più modelli riescono a ricostruire le caratteristiche principali del clima: questo lo si può ovviamente fare soltanto con il clima passato e presente, in quanto si possono usare i dati osservati, ed è stato effettivamente fatto per i GCM e anche alcuni modelli a scala regionale sul passato recente (generalmente gli ultimi 150 anni: Fig. 4). Inoltre, dal momento che è possibile effettuare esperimenti alterando a piacere i dati di ingresso di tali modelli, sono state anche eseguite delle analisi di causalità, in modo da valutare le forzanti più importanti del recente cambiamento climatico (Fig. 4). Una volta appurato che i risultati di tali controlli sono soddisfacenti, il modello può essere applicato alla previsione sul futuro, ovviamente fornendo i valori delle forzanti e delle condizioni al contorno sul periodo di interesse. Dal momento che le concentrazioni future di gas serra sono il prodotto di sistemi dinamici molto complessi, determinati da forze motrici come l’espansione demograica, lo sviluppo economico delle varie nazioni, lo sviluppo tecnologico, la disponibilità di materie prime e risorse, e tante altre, che determinano le emissioni future, è evidente che la loro evoluzione futura è molto incerta. A partire dall’ultimo decennio dello scorso secolo, i climatologi hanno quindi sviluppato dei modelli che prevedessero valori realistici delle emissioni di gas serra, in modo da po- Come abbiamo visto, nei modelli meteorologici il sistema che viene descritto dinamicamente è l’atmosfera, mentre nei modelli climatici o del sistema Terra, che hanno lo scopo di prevedere le condizioni climatiche su un periodo molto più lungo (da un trentennio a un secolo, o ancor più), tutto ciò che sta alla sua interfaccia, e che può inluenzarne il comportamento, non può essere considerato costante, in quanto i sottosistemi hanno delle loro dinamiche che interagiscono con la dinamica dell’atmosfera in modo complesso; un esempio tipico è l’interazione atmosfera-oceano. In questi modelli climatici, i vari sottosistemi vengono descritti nelle loro dinamiche interne e nelle reciproche interazioni mediante sistemi di equazioni accoppiate. La tendenza nello sviluppo di questi modelli, che sono curiosamente anch’essi noti con l’acronimo di GCM (Global Climate Model), è quella di inserire il maggior numero di sottosistemi nella descrizione dinamica interagente, in modo da riprodurre realisticamente i maggiori feedback. I modelli climatici attuali riescono a descrivere le dinamiche accoppiate di atmosfera, oceani, ghiacci, litosfera, vegetazione, e anche le principali reazioni chimiche, mentre le inluenze umane sono ancora in gran parte considerate come fattori esterni. Una domanda che spesso si sente porre è la seguente: dal momento che il disegno di questi modelli climatici ricalca lo schema deterministico dei modelli meteorologici, e che si è visto come questi ultimi non sono in grado di fornire soluzioni deterministiche valide per più di 10-15 giorni, come si può pretendere di ricostruire o prevedere il clima di un trentennio o più? La risposta a questa domanda risiede nella deinizione statistica di clima. Come detto sopra, il clima di una determinata zona comprende l’insieme delle condizioni isiche e meteorologiche che si veriicano in un certo arco di tempo (almeno 30 anni, come prescrive l’Organizzazione Meteorologica Mondiale). Più precisamente, per deinire il clima occorre valutare i valori medi e la variabilità (ad esempio, in termini di deviazioni standard ed eventi estremi) di una serie di grandezze, come la temperatura e le precipitazioni. Il clima, dunque, è descritto dall’analisi statistica dei dati che si possono estrarre dall’insieme delle realizzazioni degli stati del tempo meteorologico in una data zona e in un certo periodo. Per questo motivo, anche se i modelli climatici forniscono delle uscite, per quanto riguarda l’atmosfera, assimilabili a quelle di un modello meteorologico, è il modo di utilizzarle che cambia: non si deve più guardare ai singoli valori previsti, che corrispondono allo stato del tempo in un determinato Fig. 4 – Validazione ed analisi di causalità a livello globale e continentale mediante l’integrazione di diversi modelli climatici sull’ultimo secolo. La linee nere mostrano gli andamenti osservati istante ed in una certa zona, perché tanto si sa delle temperature nell’ultimo secolo; le fasce rosa indicano le ricostruzioni ottenute dalle corse di vari modelli che utilizzano solo le variazioni reali delle forzanti naturali, mentre le che essi non sono deterministicamente attendi- fasce azzurre indicano le ricostruzioni ottenute utilizzando anche i dati reali delle forzanti I risultati mostrano come le sole forzanti naturali non riescano a spiegare il bili, ma si deve valutare la statistica, in termini antropogeniche. comportamento reale delle temperature e come, pertanto, le cause antropogeniche siano state nel determinare l’andamento termico dell’ultimo secolo, in modo particolare di medie e variabilità per grandezze rilevanti dal fondamentali in relazione all’ultimo trentennio del secolo (igura tratta dal Summary for Policymakers del Working Group I dell’IPCC: disponibile online al sito www.ipcc.ch). punto di vista climatico, sulle uscite di uno o più 38 SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE FISICHE E AMBIENTALI ter valutare le concentrazioni risultanti in atmosfera e poter conseguentemente inizializzare i modelli climatici. Hanno scelto di ipotizzare diverse famiglie di scenari di emissioni corrispondenti a diversi gradi di sviluppo, denotati con delle lettere (A1, A2, B1, B2, ecc.). Tali scenari sono immagini alternative di come il futuro potrebbe svolgersi e sono uno strumento adeguato con cui analizzare come le summenzionate forze motrici potrebbero inluenzare le emissioni future; essi sono pertanto strumenti indispensabili per le analisi sul cambiamento climatico, compresa la modellistica del clima, per valutarne le incertezze associate e gli impatti, e per impostare le strategie di adattamento e mitigazione più opportune. Più recentemente, i climatologi hanno preso in considerazione, tra tutti gli scenari possibili, una famiglia di curve, denotate con il nome di “percorsi di concentrazione rappresentativi” (RCP, acronimo di Representative Concentration Pathways), che rappresentano andamenti possibili delle concentrazioni (non emissioni) di gas serra nel XXI secolo che, alla luce delle simulazioni dei principali modelli climatici attualmente disponibili, potrebbero comportare valori speciici della forzante radiativa da gas serra. Tali valori, adottati poi anche dall’IPCC nella quinta relazione di valutazione (IPCC, 2013), sono stati chiamati RCP2.6, RCP4.5, RCP6 e RCP8.5 (Weyant et al., 2009) in quanto richiamano quattro possibili valori di forzante radiativa nel 2100 rispetto ai livelli preindustriali: valori (2.6, 4.5, 6.0, e 8.5 W m-2, rispettivamente). Sono questi gli scenari usati nell’ultimo rapporto IPCC (2013). 5. LA GESTIONE DEL RISCHIO Oggi, il più delle volte, le persone ritengono poco probabili gli eventi estremi (ondate di caldo e freddo, alluvioni e siccità, ma anche cicloni tropicali, grandinate, tempeste di vento, ecc.), e la percezione di questo rischio è piuttosto debole. Tuttavia, l’evidenza recente e le prospettive future fanno paventare una crescita della loro intensità e frequenza, per effetto dei cambiamenti climatici in corso e previsti. Una conseguenza possibile potrebbe essere la diffusione di un senso di panico, di ansia sociale, che non aiuterebbe certo a compiere azioni razionali. L’opzione contraria, però, ovvero sottovalutare i rischi, potrebbe avere d’altra parte conseguenze ancora più tragiche o quantomeno onerose in termini economici e di fatalità. Come trovare un giusto equilibrio tra I due stati opposti di ottimismo ingiustiicato e ansia perenne? La strada maestra consiste nella preparazione di un sistema che possa rendere i cittadini pronti e nello stesso tempo iduciosi nelle proprie capacità di reagire agli eventi, poiché questo circolo virtuoso aumenterebbe la sensazione di controllo sugli stessi e ridurrebbe l’incertezza cognitiva. Infatti, pur conidando in un miglioramento futuro dei sistemi di previsione, la complessità e non linearità del sistema atmosferico lascerà sempre un margine di incertezza non eliminabile: le previsioni saranno, intrinsecamente, di tipo probabilistico sia per quanto concerne la localizzazione spazio-temporale degli eventi che per la loro intensità. Il rischio di mancati o falsi allarmi non è azzerabile, ma si potrà superare realizzando e condividendo procedure di gestione delle allerte molto chiare, che tengano conto delle incertezze. Cosa fare o cosa non fare dovrà essere invece dedotto dal risultato di analisi costi/beneici, e non sulla base di azioni improvvisate o dettate “dalla pancia”. Nello speciico e per quanto riguarda speciicatamente il nostro Paese, considerato l’attuale rischio idrogeologico, già di per sé molto elevato, e la minaccia di un suo ulteriore innalzamento a causa dei cambiamenti climatici, occorrerà quindi predisporre e attivare piani di protezione civile o di emergenza, nazionali e decentrati, con procedure chiare e deinite anche nel processo di comunicazione, che è assolutamente complementare a tutta la gestione operativa, come confermato più volte dalle recenti esperienze di eventi estremi in Italia2. 6. BIBLIOGRAFIA CHARNEY J.G., FJORTOFT R., and VON NEUMANN J., “Numerical integration of the barotropic vorticity equation”, Tellus, 2, pp. 237-254, 1950. CSAEOS (Committee on Scientiic Accomplishments of Earth Observations from Space), Earth Observations from Space: The First 50 Years of Scientiic Achievements, The National Academies Press, Washington D.C., 144 pp., 2008. IPCC, Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)], Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA, 1535 pp, doi:10.1017/CBO9781107415324, 2013. LORENZ E.N. (1972). Predictability: does the lap of a butterly’s wings in Brazil set off a tornado in Texas? 139th Annual Meeting of the American Association for the Advancement of Science (29 Dec 1972), in Essence of Chaos (1995), Appendix 1, 181. PASINI A., From Observations to Simulations. A Conceptual Introduction to Weather and Climate Modelling, World Scientiic Publishers, Singapore, 216 pp., 2005. RICHARDSON L.F., “Weather Prediction by Numerical Process”,Cambridge Univ. Press, Cambridge, 236 pp., 1922. WEYANT J., AZAR C., KAINUMA M., KEJUN J., NAKICENOVIC N., SHUKLA P.R., LA ROVERE E., YOHE G., Report of 2.6 Versus 2.9 Watts/m2 RCPP Evaluation Panel, Geneva, Switzerland, IPCC Secretariat, 81 pp., 2009. 2 Si suggerisce, a questo proposito, la lettura del blog “La gestione dei rischi in un clima mutato – parte III – le criticità” (su www.climalteranti.it), da cui sono anche tratte alcune informazioni riportate in questo paragrafo. 39 SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 L’Educazione alla Teatralità: le nuove indicazioni ministeriali GAETANO OLIVA Facoltà di Scienze della Formazione. Dipartimento di Italianistica e Comparatistica, Università Cattolica del Sacro Cuore di Milano INDICAZIONI MINISTERIALI rispondere ai bisogni educativi dei giovani in modo adeguato alla realtà nella quale dovranno inserirsi […]. Per la prima volta nel panorama L e nuove indicazioni strategiche per l’utilizzo didattico delle attività teatrali a scuola a.s. 2016-2017 presentate a Roma il 16 marzo 2016 in relazione alla Legge 13 luglio 2015, n. 107, la c.d. “Buona Scuola” crea l’occasione storica per ri-pensare all’educazione teatrale e al suo rapporto con la scuola di ogni ordine e grado. La prima grande novità sono appunto le indicazioni strategiche nelle quali il legislatore pone l’accento sul rapporto tra l’attività didattica e quella teatrale: della legislazione scolastica il legislatore ha introdotto una norma di rango primario afferente le attività didattiche comunque connesse al Teatro. In particolare, il comma 180 ribadisce il ruolo del MIUR nel fornire alle scuole indicazioni per introdurre il Teatro a Scuola.2 La connessione tra due realtà speciiche quali la scuola ed il teatro costituisce una spinta verso un rinnovamento nel modo di realizzare l’insegnamento e l’apprendimento per quello che riguarda l’ambito scolastico, in cui si ritrova una costante tendenza alla chiusura ed alla settorialità delle materie e degli studi, e contemporaneamente si propone di favorire una diffusione della cultura teatrale che troppo spesso appare sconosciuta o lontana dalla maggior parte delle persone.1 Con le nuove indicazioni ministeriali l’Educazione alla Teatralità entra deinitivamente a far parte dell’offerta didattica delle scuole italiane di ogni ordine e grado facendogli ottenere piena cittadinanza nel bagaglio formativo degli studenti. Il valore educativo delle esperienze didattiche con gli spettacoli artistici, fatto valere dagli studi della Facoltà delle Scienze dell’Educazione, e gli obiettivi deiniti dalle Conferenze mondiali sull’Educazione L’Educazione alla Teatralità esce per la prima volta dalla sperimentazione estemporanea, sia pure creativa, culturalmente interessante e diventa a tutti gli effetti parte integrante del curricolo senza peraltro escludere le possibilità in orario extrascolastico ma svolte in ambiente scolastico. Questa necessità era ormai da qualche tempo affermata da pedagogisti, insegnanti, educatori alla teatralità e pedagogisti teatrali; come afferma Cristiano Zappa: artistica, promosse dall’UNESCO, ha impegnato gli Stati membri, e quindi l’Italia, a progettare ed eseguire programmi di alto livello per 1 Gaetano Oliva, Il teatro nella scuola, Milano, LED, 1999, p. 13. 40 2 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle attività teatrali. a.s. 2016-2017. Parte prima. Paragrafo 1. Cfr., Legge 13 luglio 2015, n. 107, la c.d. “Buona Scuola”. SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA FORMAZIONE Il teatro che entra – e deve entrare – oggi nella storia, lo fa a pieno arricchire i suoi metodi e le formule, ed è indiscusso ormai che l’arte titolo, non è un riempitivo o un’aggiunta a quelle che sono le attività drammatica, il teatro di per sé, costituisca un eficace mezzo d’edu- proprie del curricolo scolastico, né può essere ricondotto ad una visio- cazione perché fa appello all’individuo intero, alla sua profondità e ne di disciplinarietà settoriale o tanto meno può essere assimilabile ad ai suoi valori. Gli indirizzi pedagogici dell’ultimo cinquantennio si un’occasione di spettacolarizzazione.3 sono orientati verso una più approfondita conoscenza del ragazzo e dell’adolescente, prendendo in considerazione la libera espressione La stesse indicazioni riconoscono l’importanza degli studi delle Facoltà di Scienze dell’Educazione nell’aver contribuito a dimostrare l’importante valore pedagogico e didattico del teatro. A questo proposito è indicativo il paragrafo 4 in cui si esplicita il valore pedagogico e didattico del teatro: della loro carica di fantasia, di emotività e di sensibilità in determinate forme di ricreazione. La rappresentazione teatrale svolta da ragazzi e per i ragazzi, si è dimostrata come quella più ricca di indicazioni per psicologi, pedagogisti e per gli educatori. Essa consente di seguire il ragazzo nelle manifestazioni e diversi sviluppi della sua personalità, e consente di offrire ai ragazzi mezzi di espressione più completi a La scuola ha un indiscusso ruolo chiave per lo sviluppo delle giovani vantaggio della formazione del loro carattere e del loro senso sociale, generazioni. L’istituzione scolastica ha la responsabilità di formare culturale e artistico. Se si vuole creare un ambiente favorevole allo persone responsabili, ricche sul piano culturale e umano, capaci di sviluppo di queste tendenze, si deve proporre ai ragazzi delle attività rinnovare e sviluppare nuove alleanze tra l’uomo e l’ambiente, nella che corrispondano ai loro interessi, desideri e bisogni. L’arte dram- prospettiva di un cambiamento sostenibile. Il proilo formativo delle matica in questo senso è l’attività più adatta all’esprimersi dell’in- giovani generazioni è una variabile dalla quale dipende la qualità del dividuo, poiché risponde alle manifestazioni spontanee dell’anima futuro. L’arte, è una delle forme più complesse e autentiche con cui infantile ed è quella che meglio può aiutarlo. Si deve riconoscere al l’uomo, in ogni epoca, in dai primordi, si è espresso e ha cercato teatro la titolarità di luogo educativo.5 risposte. Le arti dello spettacolo, dunque, data la loro rilevanza pedagogica, se utilizzate in funzione didattico-educativa, sono tanto più eficaci quanto più le scuole saranno consapevoli delle ragioni di que- Le indicazioni ministeriali mettono tutto ciò in perfetta evidenza. sta scelta rispetto all’evoluzione storica e ai nuovi bisogni educativi. I ragazzi, oggi più che mai, hanno bisogno di scoprire e condividere Inoltre, ci si aspetta che le esperienze artistiche, condotte in modo valori e di interagire con i coetanei e con gli adulti, e hanno altresì bi- mirato ai bisogni degli allievi, favoriscano lo sviluppo della loro per- sogno di sentire gli altri, anche se diversi, come una risorsa. Un senti- sonalità e contribuiscano alla soluzione o contenimento o prevenzione re, questo, possibile se essi accolgono e riconoscono le differenze e le di conlitti personali e di gruppo. In questa prospettiva è più probabile speciicità dell’altro, in termini di cultura, censo, religione... Si tratta che si possa realizzare quell’ideale di un sapere costruito nell’interre- di uno spazio educativo che deve essere opportunamente costruito e lazione teoria/prassi/teoria che può rendere la scuola un luogo privile- 4 valorizzato. L’attività teatrale, infatti, rivela attitudini potenziali degli individui, li accomuna, lì conduce all’aiuto reciproco, promuove il senso sociale; essa favorisce la libera espressione della persona e soprattutto, le capacità di rispondere in modo creativo agli stimoli prodotti dall’ambiente culturale in cui vive. È importante che i ragazzi a scuola siano messi in grado di comprendere il linguaggio teatrale, poiché si ritiene l’Educazione alla Teatralità, un elemento indispensabile alla formazione di una libera e armonica personalità umana; esso, infatti, può aiutare gruppi e persone a riscoprire il piacere di agire, di sperimentare forme diverse di comunicazione favorendo una crescita della propria personalità. Il teatro, nel deinirsi educativo: […] vuole recuperare la dimensione di rito e di spazio per la ricerca della propria identità, afinché diventi occasione per la conquista di sé giato della Ricerca-Azione.6 Le indicazioni ministeriali riprendono e superano i precedenti protocolli e le vecchie linee istituzionali e normative portando a compimento il lavoro svolto dagli anni Settanta in poi e culminato nel primo Protocollo d’intesa stipulato il 6 settembre 1995 tra il Ministero della Pubblica Istruzione, la Presidenza del Consiglio dei Ministri – Dipartimento dello Spettacolo e l’Ente Teatrale Italiano. Attraverso questo primo documento si era riconosciuta “l’educazione al teatro come un elemento fondamentale nella formazione dei giovani”; ma senza farlo entrare a pieno titolo nell’apprendimento educativo. In questo senso le indicazioni sono innovative: esse collocano il teatro nella scuola riconoscendo in modo deinitivo la relazione tra dinamiche espressivo-teatrali e processo di apprendimento e di crescita della persona. Sull’importanza dell’educare al teatro nella scuola Cesare Scurati afferma: e per la costruzione di relazioni; si tratta di un percorso individuale in un lavoro di gruppo. L’educazione ha costantemente bisogno di - rappresenta un’opportunità rilevazione e rivelazione del potenziale espressivo dei ragazzi; 3 Enrico M. Salati, Cristiano Zappa, La pedagogia della maschera. Educazione alla teatralità nella scuola, Arona, Editore XY.IT, 2011, p. 20. 4 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle attività teatrali. a.s. 2016-2017. Parte prima. Paragrafo 4: Valore pedagogico e didattico del teatro 5 Gaetano Oliva, La funzione educativa del teatro, in “Scienze e Ricerche”, n. 21, 15 gennaio 2016, pp. 53-54. 6 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle attività teatrali. a.s. 2016-2017. Parte prima. Paragrafo 3: Effetti dell’attuazione delle linee guida. 41 SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 - consente un’esplorazione approfondita dei testi in vista della loro rappresentazione; didattica in modo da garantire un reale accesso formativo al ragazzo che lo incontri a scuola. - è un laboratorio spontaneo di ricerca centrato sui processi di lavori resi signiicativi in vista del prodotto conclusivo (congruenza motivazio- La scuola non può più essere soltanto considerata un soggetto che nale tra prodotto e processo); si occupa esclusivamente della trasmissione di contenuti, ma si deve - modiica la strutturazione usuale dei rapporti di devianza e alterità, far carico di altre responsabilità di ordine etico-sociale, insieme allo valorizza anche coloro che non hanno altre opportunità per aver suc- sviluppo delle abilità e delle competenze cognitive e alla formazione cesso e rendersi visibili; - rende evidenti caratteri di disponibilità degli adulti al di là delle competenze disciplinari formai; - attenua i conlitti, fa sperimentare la solidarietà, riduce la competitività; integrale degli alunni (non puramente intellettuale, ma anche isica, emotiva, razionale, spirituale), quella valorizzazione della dimensione sociale ed educativa, quella formazione dell’uomo e del cittadino che costituiscono un fondamentale riferimento della Costituzione repubblicana.10 - evidenzia territori linguistici non stereotipati, può modiicare il clima istituzionale, consente la veriica immediata degli sforzi e dei processi; - può aiutare a scoprire il proprio io, suscita la questione dell’unità del progetto, è sensibile alle problematiche dei valori educativi; - è una vera e propria palestra delle emozioni, un luogo della costruzione dell’immagine di sé di fronte a se stesso e agli altri, che consente di Si è riscontrato come la fruizione e la pratica teatrale possano contribuire fortemente allo sviluppo e al rinforzo delle capacità intellettive e critiche dell’individuo, all’arricchimento delle sue emozioni, offrendo nuove occasioni che stimolano il suo bisogno espressivo in situazioni di partecipazione e di collaborazione sociale. socializzare (modulare e controllare) il proprio mondo emotivo; - soddisfa la necessità di ricomporre la frammentazione del sociale con- L’ESPERIENZA TEATRALE sentendone l’autorappresentazione e diventando quindi uno spazio forte delle relazione profonde fra i soggetti.7 Per garantire queste numerose e complesse possibilità, però, è necessario che la scienza dell’educazione interagisca a stretto contatto con il teatro deinendo che “cosa” e “come” quest’ultimo debba interagire nella scuola riguardo ai percorsi formativi: La scuola nella sua ricerca continua della qualità dell’istruzione deve porsi al centro di un processo culturale. Da un punto di vista didattico – anche grazie alle arti espressive, essa deve porre «al centro del processo di apprendimento l’allievo ovverosia il suo talento, il suo pensiero, le sue emozioni. In sintesi: la sua individualità»11; in quest’ottica il teatro non deve essere considerato ine a se stesso, ma deve svilup- Con l’introduzione del nuovo dettato normativo, l’attività teatrale pare un’attività che si ponga come ine ultimo uno scopo educativo di abbandona deinitivamente il carattere di offerta extracurricolare ag- formazione umana e di orientamento, credendo incondizionatamente giuntiva e si eleva a scelta didattica complementare, inalizzata a un nelle potenzialità di ogni individuo: si tratta, in sostanza, di supportare più eficace perseguimento sia dei ini istituzionali sia degli obiettivi la persona nella presa di coscienza della propria individualità e nella curricolari [...]. È dunque il teatro che deve essere adattato alla scuola riscoperta del bisogno di esprimersi di là delle forme stereotipate.12 e non viceversa. Infatti, diversamente opinando si correrebbe il rischio di perdere di vista il suo valore didattico, pedagogico ed educativo che consiste e contribuisce a mettere in atto un processo di apprendimento che coniuga intelletto ed emozione, ragione e sentimento, pensiero logico e pensiero simbolico.8 Se il teatro è pedagogia9 è necessario che questo connubio sia ancor più studiato delineando nella sua scientiicità, il campo d’azione e l’applicabilità pratica in relazione alla Da un punto di vista sociale la scuola deve, inoltre, saper proporre un miglioramento del rapporto scuola/territorio coinvolgendo gli attori sociali afinché sostengano i progetti di educazione artistica. In deinitiva si propone una ricerca scientiica intorno al rapporto Teatro-Pedagogica al ine di garantire la creazione di condizioni ottimali per lo sviluppo di una Pedagogia degli spettacoli artistici che dal piano teorico si sviluppa nella prassi 7 AA.VV, Educare al teatro, Brescia, Editrice La Scuola, 1998, p. 8. 8 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle attività teatrali. a.s. 2016-2017. Parte seconda. Paragrafo 1: L’attività teatrale come parte integrante dell’offerta formativa. 9 Cfr. Gaetano Oliva, L’educazione alla teatralità e la formazione. Dai fondamenti del movimento creativo alla form-a-zione, Milano, LED, 2005. Inoltre cfr., Serena Pilotto (a cura di), Scuola, teatro e danza. Trasversalità delle arti del corpo nella didattica scolastica, Atti del Convegno 17 e 18 febbraio 2005, Teatro “Giuditta Pasta” Saronno, Milano, I.S.U., 2006. Oppure cfr. Serena Pilotto (a cura di), Creatività e crescita personale attraverso l’educazione alla arti: danza, teatro, musica, arti visive. Idee, percorsi, metodi per l’esperienza pedagogica dell’arte nella formazione della persona, Atti del Convegno 13 e 14 febbraio 2006, Teatro “Giuditta Pasta” Saronno, Piacenza, L.I.R., 2007. 42 vissuta nei contesti reali, alimentandosi con una varietà e variabilità dei problemi degli allievi, ai quali dà risposte, nonché con il loro contesto culturale. Una Pedagogia, dunque che va oltre il corpus teorico accademico, non certo contrapponendosi ad esso bensì integrandole 10 Enrico M. Salati, Cristiano Zappa, La pedagogia della maschera. Educazione alla teatralità nella scuola, cit., p. 35. 11 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle attività teatrali. a.s. 2016-2017. Parte prima. Paragrafo 2: Finalità e scopi delle linee guida. 12 Cfr. Gaetano Oliva, L’Educazione alla Teatralità nella scuola, in “Scienze e Ricerche”, n. 13, 15 settembre 2015, p. 34. SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA FORMAZIONE alla luce della pras- atrale, è quello di favo- si. Inoltre, ci si rire positive interazioni aspetta che le espe- tra i membri del grup- rienze artistiche, po; un altro importante condotte in modo compito è di abilitare il mirato ai bisogni gruppo a prendere deci- degli allievi, favo- sioni: arrivare a una de- riscano lo sviluppo cisione comporta la fati- della loro persona- ca di trovare un accordo lità e contribuisca- che non sia frutto di un no alla soluzione atteggiamento competi- o contenimento tivo ma cooperativo, in o prevenzione di cui tutti sono considerati conlitti decisori. persona- li e di gruppo. In L’insegnante-attore questa prospettiva deve offrirsi con totale è più probabile che disponibilità alle esi- si possa realizzare genze quell’ideale di un del gruppo; per fare ciò sapere deve costruito comunicative possedere delle particolari motivazioni nell’interrelazione teoria/prassi/teoria che può rendere la scuola un luogo privilegiato 13 della Ricerca-Azione. al comunicare quali: - il profondo valore di una comunicazione bidirezionale; - la convinzione riguardo all’importanza della solidarietà attiva di un A tale proposito diventa necessaria la formazione «degli educatori e dei docenti in possesso di speciiche abilitazioni»14. La formazione della igura professionale del maestro-insegnante-educatore alla teatralità deve avvenire a diversi livelli: gruppo di persone; - la iducia e il forte sentimento di empatia verso ogni singola persona. Il conduttore del laboratorio teatrale deve rivolgersi al gruppo nella sua totalità, effettuando degli interventi ricchi di stimoli atti a permettere un processo di liberazione, di potenzialità e di creatività: egli deve fare in modo che i membri del gruppo prendano […] tecnico, per possedere le conoscenze teorico pratiche necessa- coscienza delle loro capacità latenti, spronandoli a vivere e a lavorare rie ad adempiere la sua funzione; personale, al ine di raggiungere un insieme, perché solo in questo modo la sua funzione sarà adempiuta certo grado di maturità ed equilibrio individuale; relazionale, volto a eficacemente.15 facilitare le possibilità di espressione, comunicazione e scambio. Lo strumento principale di cui l’insegnante-attore dispone e di cui non può fare a meno è la relazione, in altre parole la gestione sapiente del processo comunicativo che egli instaura con il gruppo e i suoi elementi; egli, per sfruttare al meglio quest’importantissima risorsa, In questa prospettiva è più probabile che si possa realizzare un sapere costruito nell’interrelazione teoria/prassi/teoria che rende la scuola, un luogo privilegiato della RicercaAzione. deve però possedere alcuni valori personali che guidino il suo comportamento: INDICAZIONI OPERATIVE - capacità di accogliere incondizionatamente ogni persona; - capacità di cogliere la profonda originalità che ogni individuo mette in gioco; - capacità di vivere la complessità multidimensionale e la disparità esistente tra conduttore e allievo della relazione educativa che ha luogo nel laboratorio. La igura dell’insegnante-attore si caratterizza per un insieme di compiti e funzioni che egli svolge in modo privilegiato, seppur non esclusivo. Uno dei principali compiti educativi per chi conduce un laboratorio te- 13 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle attività teatrali. a.s. 2016-2017. Parte prima. Paragrafo 3: Effetti dell’attuazione delle linee guida. 14 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle attività teatrali. a.s. 2016-2017. Parte prima. Paragrafo 1. Cfr., Legge 13 luglio 2015, n. 107, la c.d. “Buona Scuola” Se la prima parte del documento deinisce le “indicazioni teoriche per la promozione delle attività teatrali”, la seconda parte si concentra sulle “indicazioni operative per la gestione di esperienze teatrali. Le indicazioni operative indicano che le attività teatrali possono svilupparsi in differenti direzioni ampliando l’offerta formativa per lo studente sia come protagonista (laboratorio teatrale) sia come spettatore attivo nell’incontro con lo spettacolo. Il laboratorio teatrale è dunque un momento deinito e uno spazio protetto in cui si manifesta un intento educativo […]. Gli allievi, opportu- 15 Cfr. Gaetano Oliva, L’Educazione alla Teatralità nella scuola, cit., p. 37. 43 SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 namente guidati, affrontano un percorso individuale attraverso il quale rio teatrale, il “fare teatro”, con l’intendo di: si pongono in ascolto di loro stessi e, eseguendo esercizi mirati, giungono alla scoperta dei propri limiti e delle proprie capacità, appren- […] promuovere lo sviluppo della qualità dell’istruzione, intesa dal dono possibilità nuove, utili ad esprimere in modo eficace il proprio punto di vista sia dell’apprendimento sia della vita sociale: pensiero e i propri sentimenti. Laboratorio quindi non signiica tanto - il punto di vista dell’apprendimento, deve essere inteso non come un luogo quanto un lavoro, dal momento che costituisce un’occasione somma di conoscenze ma come interpretazione integrata di elementi per crescere, per imparare facendo, nella convinzione che l’aspetto più cognitivi affettivi e psicomotori; importante di questa esperienza sia da individuare nel processo e non - il punto di vista sociale deve essere inteso come “clima dell’ambien- nel punto d’arrivo.16 te” che, nelle indicazioni dell’OCSE, è una delle variabili della valutazione del livello di organizzazione nei sistemi scolastici dai quali Indicazioni già stabilite dal decreto ministeriale “Promozione del teatro in classe anno scolastico 2015/2016”: dipende la qualità dei loro risultati. - le esperienze artistiche, ove possibile, vanno socializzate, essendo importante dare visibilità ai ragazzi attraverso i loro prodotti artisti- a) Educazione alla teatralità - Promuovere lo sviluppo della consape- ci.19 volezza di sé e delle capacità di relazione e comunicazione, attraverso tutte le arti espressive e tutti i linguaggi artistici. L’arte e le arti intese come strumenti per la formazione della persona, nelle sue dimensioni legate alla creatività, all’affettività e al riconoscimento della sfera emozionale. b) La scatola creativa - Il teatro vissuto in una dimensione di laboratorio, per percorsi di apprendimenti non formali, che possa ampliare il campo delle esperienze attraverso la sperimentazione di situazioni di vita. Con particolare attenzione al superamento delle situazioni di disagio e per favorire una vera inclusione sociale, interculturale e per la valorizzazione delle differenze. c) Teatro e socialità - educazione teatrale nell’ambito dei Centri Provinciali per l’istruzione degli adulti che, d’intesa con gli Istituti penitenziari, realizzano attività di educazione degli adulti nelle carceri. Tale attività ha l’obiettivo di favorire altri spazi di socializzazione e di stimolare la sfera affettiva e artistica di ciascuno. d) Studenti in prima ila - Il teatro a scuola - La scuola a teatro. At- Attraverso la realizzazione di questi due obiettivi è necessario che le esperienze artistiche esistenti oggi nella scuola assumano il valore pedagogico educativo. Lo stesso documento apre a spiragli interdisciplinari tra arti espressive differenti e afferma la necessità di promuovere la conoscenza del teatro attraverso la celebrazione della “Giornata Mondiale del Teatro”20 e la creazione di una Piattaforma Multimediale21, che avrà il compito di rendere condivisibili e omogenei gli obiettivi strategici e metodologici del teatro nella scuola, salvaguardando e valorizzando la speciicità delle singole esperienze. La documentazione e il confronto attivato dalle scuole tramite la piattaforma servirà da un lato a creare una mappatura delle proposte artistiche presenti sul territorio e dall’altro a implementare il sistema delle buone pratiche promuovendo il confronto critico e lo scambio di informazioni. traverso spettacoli dal vivo, incontri con autori/ attori, rassegne. Far conoscere l’importanza del teatro come elemento fondante della cul- BIBLIOGRAFIA tura. Approfondire conoscenze e costruire saperi letterari e artistici mediante opere teatrali. e) Teatro e linguaggi innovativi - Il teatro come forma artistica e metodo per percorsi sperimentali, che favoriscano le relazioni tra pari e educhino all’uso consapevole degli strumenti tecnologici di comunicazione, attraverso la realizzazione di forme espressive artistiche innovative, con di linguaggi diversiicati (video, social-network, spot ecc.).17 Le nuove indicazioni ministeriali confermano queste prime indicazioni del 2015 individuando due macro obiettivi: il primo è quello di promuovere “La fruizione di spettacoli artistici come opportunità didattica (secondo modalità pedagogiche e didattiche funzionali alla scuola)” con l’obiettivo – attraverso un accompagnamento critico e consapevole alla visione – di incoraggiare l’ascolto attivo; la capacità di osservazione e la capacità di lettura dei linguaggi e dei segni simbolici;18 il secondo di proporre l’esperienza del laborato16 Gaetano Oliva, Il laboratorio teatrale, Milano, LED, 1999, pp. 21-22. 17 Cfr.“Promozione del teatro in classe anno scolastico 2015/2016” MIUR. REGISTRO DECRETI DIPARTIMENTALI del 30-09-2015. Articolo 1. 18 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle 44 M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle attività teatrali. a.s. 2016-2017. MIUR. REGISTRO DECRETI DIPARTIMENTALI del 30-09-2015.“Promozione del teatro in classe anno scolastico 2015/2016”. Gaetano Oliva, L’Educazione alla Teatralità nella scuola, in “Scienze e Ricerche”, n. 13, 15 settembre 2015. Enrico M. Salati, Cristiano Zappa, La pedagogia della maschera. Educazione alla teatralità nella scuola, Arona, Editore XY.IT, 2011 attività teatrali. a.s. 2016-2017. Parte seconda. Paragrafo 2: Inserimento degli spettacoli artistici: obiettivi, strategie, azioni. Comma a) La fruizione di spettacoli artistici. 19 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle attività teatrali. a.s. 2016-2017. Parte seconda. Paragrafo 2: Inserimento degli spettacoli artistici: obiettivi, strategie, azioni. Comma b) L progettazione e la realizzazione di spettacoli teatrali. Paragrafo 3: I laboratori teatrali. 20 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle attività teatrali. a.s. 2016-2017. Parte seconda. Paragrafo 7: Incentivi e agevolazioni 21 Cfr. M.I.U.R. Indicazioni strategiche per l’utilizzo didattico delle attività teatrali. a.s. 2016-2017. Parte seconda. Paragrafo 6: Piattaforma Multimediale. SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI Diritti umani in carcere e politiche pubbliche. Verso un nuovo paradigma della responsabilità PATRIZIA CIARDIELLO Dottore di ricerca in Istituzioni e Politiche pubbliche, Dipartimento della Giustizia Minorile e di Comunità N el discorso pubblico sulle carceri, parole quali crisi, emergenza, sovraffollamento, diritti umani vengono da sempre correlati, e, in tal senso, è noto come, nella storia dei sistemi penitenziari, i progetti di riforma del carcere risultino coevi dell’avvento del carcere stesso e la discrasia fra funzioni dichiarate e funzioni svolte, l’inadeguatezza qualitativa e quantitativa delle risorse assegnate, la centralità egemone della pena detentiva, pur in presenza di apparati ordinamentali aperti a forme alternative di punizione legale, si conigurano quali elementi stabili del sistema, e non solo nel nostro paese. Non è possibile, per converso, sottacere come il sovraffollamento costituisca elemento di esponenziale ampliicazione dei fattori della crisi di legittimazione dell’istituzione penitenziaria - da più parti e con diversi argomenti deinita perenne - generando condizioni di cui solo in parte le descrizioni che se ne possono fare, se ne fanno e se ne faranno possono e potranno dare compiutamente conto. E’ noto, in tal senso, come i racconti degli operatori e delle persone detenute risultino accomunati, con grande frequenza, dal presentare come una sida il solo non rassegnarsi alla pura gestione della coabitazione coatta, allo scopo di mitigare l’umiliazione della dignità ed umanità di chi, a vario titolo, vive in carcere anche solo per una parte della giornata. A partire dalla cennata correlazione fra carcere (per deinizione, in crisi/emergenza) e diritti umani (nel carcere per deinizione in crisi, insuficientemente rispettati), si offriranno di seguito alcune considerazioni sui processi che, in presenza di provvedimenti di un’autorità pubblica che contemplino la limitazione/privazione della libertà personale, possono generarsi quando tale limitazione/privazione si coniughi con quelli che il diritto e le convenzioni internazionali deinisco- no “trattamenti inumani e degradanti” equiparandoli a forme di tortura. Si anticipa che il perno delle argomentazioni che si offriranno risiede nella delineazione degli elementi che supportano la necessità di un cambiamento paradigmatico nell’analisi di tali processi e nella correlata deinizione degli interventi da porre in essere per anticipare le criticità in grado di costituire ambienti favorevoli alla commissione di atti contrari al rispetto dei diritti umani e per orientare l’azione pubblica complessivamente dispiegata verso la condivisione delle responsabilità sottese alla trattazione di questioni di pubblica rilevanza. In tal senso, appare opportuno prendere le mosse dall’intrinseca aflittività della pena. La pena, qualunque pena, compendia, in ogni caso, e in qualunque condizione, anche aflizione, e dunque, come accade per qualunque pharmakon (insieme medicamento e veleno), essa può “curare” solo “avvelenando”, può pretendere di emendare solo a patto di inliggere sofferenza (Curi 2002:409-410). Secondo Renè Girard (1980), alla radice dello stesso diritto di inliggere una punizione c’è, al di là dell’enunciato 45 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 intendimento di eliminare il rischio di vendetta, una “violenza senza rischio di vendetta” che rimane il terreno archetipico da cui la pena giuridicamente formalizzata trae continuamente alimento e forza (CaCCiari 2002:252). È in tal senso che una punizione «che non sia comunque - per quanto astrattamente ed eventualmente - in grado di ridurre o minacciare lo status sociale del violatore, non sia cioè «degradante», non è riconosciuta né riconoscibile neppure come pena…e che le stesse ricerche empiriche condotte in materia confermano che l’idea socialmente costruita e diffusa è quella che identiica come penale il solo diritto criminale arcaico e come pena quelle sole sofferenze legali socialmente avvertite come degradanti e quindi stigmatizzanti» (Pavarini 2002:286). Pertanto, anche il carcere, castigo legale ed egualitario pur introdotto per punire umanamente senza suppliziare e uccidere, e dunque per porre deinitivamente al bando la pena di morte non è mai stato contemplato potesse/ dovesse perdere ogni aflittività, pena la perdita di ogni residua funzione deterrente. A partire da Jeremy Bentham, padre con Beccaria dell’illuminismo penale, che sostenne che se le carceri non devono essere luoghi dove si aspetta la morte, se le sofferenze corporali devono essere bandite, ciò non signiica che il cibo non debba essere “scadente”, la disciplina “severa”, l’abbigliamento “umiliante”. Anche Erving Goffman, in “Asylums” (1961:34), indicava, tra le “istituzioni totali”, un “(terzo) tipo di istituzioni totali (che) serve a proteggere la società da ciò che si rivela come un pericolo intenzionale nei suoi confronti, nel qual caso il benessere delle persone segregate non risulta la inalità immediata dell’istituzione che li segrega (prigioni, penitenziari, campi per prigionieri di guerra, campi di concentramento).” Un decennio dopo, in “Crimini di pace”, Stanley Cohen (1975:441-442), nell’introduzione al saggio dal titolo “Uno scenario per il sistema carcerario futuro”, scriveva: Ogni scenario che presento si basa sull’assunto fondamentale che il nucleo del sistema carcerario - la reclusione a scopo punitivo dei delinquenti in ediici separati dal resto della società - non può essere cambiato. ... Non metto qui in discussione l’opportunità di queste lo, si interessa del carcere e della sua (ir)riformabilità.Vi si preconizzavano il trasformarsi progressivo delle carceri in depositi umani; la crescente attenzione per la classiicazione dei detenuti come strumento di elezione per il governo degli istituti di pena, ma anche per l’attuazione dei programmi di riabilitazione; il concentrarsi delle “voci dominanti provenienti dall’esterno” sull’appoggio delle critiche provenienti dall’interno del sistema stesso. Proseguendo nella metafora cinematograica, Cohen scriveva ... Quelli che conoscono la situazione - amministratori e tecnici - leggendo articoli di fondo, manifesti politici dei partiti, relazioni annuali e ascoltando i discorsi alle conferenze riconosceranno annoiati le seguenti «richieste»: maggiori disponibilità inanziarie, personale più qualiicato, ediici più moderni, salari più elevati, maggiore prestigio per i professionisti, status più elevato per gli agenti penitenziari, migliori sistemi di classiicazione, più ampie possibilità di aiuto dopo la scarcerazione, migliore comprensione da parte del pubblico, eccetera. Per converso, non risulta ancora empiricamente confermata l’ulteriore anticipazione dell’autore secondo la quale Data la generale tendenza storica diretta contro l’istituzionalizzazione, le prigioni non potranno più operare una selezione. Accoglieranno soltanto quelli che sono al di là delle possibilità di recupero, i casi limite che devono essere rimossi dalla società. Infatti, la generale tendenza storica – con alcune mitigazioni generate dalla constatazione dell’insostenibilità sul lungo periodo dei costi inanziari e umani indotti dal ricorso massiccio al carcere - risulta a tutt’oggi connotata da un incerto quanto intermittente procedere verso il contrasto dell’istituzionalizzazione, che in Italia ha visto il governo impegnato nella riduzione al sovraffollamento delle prigioni (-17,8% tra il 2013 e il 2014) e nel varo di alcune iniziative inalizzate sia all’ampliamento delle opportunità di accesso alle misure alternative alla detenzione sia all’introduzione di forme di probation fruibili anche dagli autori di reato adulti come risposta ai pronunciamenti della Corte Europea dei Diritti dell’Uomo.1 riforme (eccetto che non vengano impropriamente presentate sotto l’alibi della riabilitazione), né dubito della sincerità di chi le auspica; ciò che intendo affermare è che dal momento che le riforme sono tese, secondo la deinizione esatta, a «migliorare un’istituzione eliminando o abbandonando le imperfezioni, i difetti o gli errori», esse non portano a una vera ri-formazione dell’istituzione stessa. La forma del sistema carcerario - nel senso in cui io uso questo termine - è simile a una forma d’arte come il cinema: si possono eliminare le imperfezioni (usando ad esempio attrezzature più complesse), si possono apportare innovazioni tecniche (il colore o la tridimensionalità), è possibile anche compiere certe esperienze estetiche radicali (come il surrealismo o il cinema-verità), ma la forma rimane intatta. Chi volesse rileggere questo saggio potrebbe ritrovare mutatis mutandis - il nocciolo duro di molte delle criticità a tutt’oggi alla ribalta con cui si confronta chi, a vario tito46 1 STRASBURGO - Il Consiglio d’Europa promuove l’Italia sul fronte delle carceri. Le misure adottate, i risultati ottenuti sinora, e gli impegni assunti dal governo “di continuare a lottare contro il sovraffollamento carcerario in modo da ottenere una soluzione definitiva del problema” ricevono il plauso del comitato dei ministri del Consiglio d’Europa. L’esecutivo dell’organizzazione europea ha quindi deciso di dichiarare chiuso il fascicolo che aveva aperto nei confronti dell’Italia dopo le condanne al nostro Paese da parte della Corte europea dei diritti umani per lo spazio inadeguato in cui erano costretti una parte dei detenuti - meno di tre metri quadrati a testa. E che i risultati siano buoni lo dimostrano anche i dati pubblicati oggi nel rapporto ‘Space’ in cui viene fotografata ogni anno la situazione del sistema penitenziario dei paesi membri del Consiglio d’Europa. La ricerca ha evidenziato che tra il 2013 e il 2014, anche se l’Italia aveva ancora un problema di sovraffollamento, la popolazione carceraria italiana ha avuto un calo record del 17,8%, e che questa diminuzione è la più grande registrata nei 47 paesi monitorati. “Questo risultato è l’effetto delle leggi introdotte in Italia tra il 2013 e il 2014” spiega all’Ansa Marcelo Aebe, responsabile del progetto Space. E sono proprio le leggi SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI È noto come, nel luglio 2009, il sistema penitenziario italiano abbia ricevuto dalla Corte Europea dei Diritti dell’Uomo quella che Tullio Padovani ha deinito “una sorta di certiicazione di indegnità”, attraverso una condanna dell’Italia riferita allo “spazio” in cui una persona era stata detenuta, meno di 3 mq.2 È noto, inoltre, come quella condannata non si sia conigurata quale condizione eccezionale, essendosi quest’ultima a lungo estesa alla maggioranza degli istituti di pena italiani e a tutti gli aspetti fondamentali della detenzione: permanenza in cella 20 ore su 24, qualità e quantità del cibo, servizi igienici, assistenza sanitaria.3 È noto, ancora, come la Corte Europea dei Diritti dell’Uomo si sia nuovamente pronunciata in materia l’8 gennaio 20134 reiterando la condanna nei confronti dell’Italia per violazione dell’art. 3 della Convenzione Europea dei Diritti dell’Uomo e imponendo al governo italiano di procedere entro un anno a decorrere dalla data in cui la sentenza fosse divenuta deinitiva all’istituzione di «[...] un ricorso o un insieme di ricorsi interni effettivi idonei ad offrire una riparazione adeguata e suficiente in caso di sovraffollamento carcerario [...]» e all’allestimento delle condizioni necessarie a un più ampio ricorso alle sanzioni e misure di comunità. Pertanto - considerando anche il monito della CEDU a procedere sulla strada delle riforme - rimane importante non dimenticare i quesiti posti a suo tempo (2009) al riguardo da Tullio Padovani: la risultante di una serie articolata e ripartita di passaggi che tende a rendere ogni soggetto agente “cieco” al prima e al dopo: rotella di un ingranaggio. C’è chi ordina, chi assegna, chi ammette, chi dispone e chi organizza. Posso io - dirà il pubblico ministero - non emettere l’ordine di carcerazione imposto dalla legge? Posso io - dirà il funzionario dell’amministrazione - non assegnare il detenuto? Posso io - dirà il direttore - non accoglierlo in carcere? Posso io - dirà il magistrato di sorveglianza - liberare il detenuto maltrattato? E così ciascuno avrà alle proprie spalle il rassicurante sostegno di un dovere funzionale che lo estrania dall’esito inale e lo rende istituzionalmente indifferente alla riduzione di un uomo in belva carcerata. È con questi meccanismi che le istituzioni immunizzano i propri agenti: l’esito criminoso si nutre di frammenti sparsi di legalità. E mentre questi dispensano giustiicazioni personali, il crimine che ne risulta perde l’autore, e si colloca nelle placide secche della politica, dove la deplorazione per quanto accade si condisce di propositi sempre rinnovati e sempre vani. In tali considerazioni è possibile rinvenire una stretta consonanza con quanto a suo tempo scritto da Antonio Cassese (1994:130), Presidente dal 1989 al 1993 del Comitato per la prevenzione della tortura istituito presso il Consiglio d’Europa: ...le prigioni sono mondi enormi e complicati. Mondi in cui la responsabilità per la gestione dell’istituzione, per le decisioni e le misure A fronte di situazioni che fanno della carcerazione un trattamento con- concrete concernenti la sua vita interna, sono diluite tra numerosissi- trario al senso di umanità e in positiva contraddizione con le regole me persone, e spesso dipendono da autorità che vivono lontano nella internazionali e la legislazione interna, si proila o non si proila una capitale”. responsabilità personale? Dovrà farsene carico qualcuno? Subito si staglia all’orizzonte il tipico E ancora (Cassese op. cit.:56): meccanismo giustiicativo delle organizzazioni burocratiche complesse che mira a sgretolare la colpa e a farla morir fanciulla. Il procedi- le situazioni inumane e degradanti sono il risultato di tante azioni e mento destinato a sfociare nel trattamento inumano e degradante è circostanze: spesso esse costituiscono la concrezione dei comportamenti più svariati di numerose persone […] Spesso (i trattamenti, ndr) varate ad aver convinto il comitato dei ministri del Consiglio d’Europa che l’Italia è sulla strada giusta. Anche se questo non toglie che l’esecutivo dell’organizzazione ricordi al governo che c’è ancora della strada da fare e esprime la propria fiducia nel fatto che le autorità “continueranno gli sforzi per assicurare condizioni di detenzione in conformità con quanto stabilito dalla Convenzione europea dei diritti umani e dal Comitato per la prevenzione per la tortura”: http://www.ansa.it/europa/notizie/rubriche/altrenews/2016/03/08/carceri-consiglio-deuropa-promuove-riformeitalia_468e4614-cba9-4b1e-af73-e95c242f76df.html 2 Occorre, peraltro, segnalare che tale spazio risulta inferiore a quello cui l’Amministrazione penitenziaria aveva sino a quella data fatto riferimento, indicato in un paio di decreti del Ministero della Salute concernenti i requisiti minimi per l’abitabilità (ovvero 9 mq per una cella singola e 14 per una cella multipla). La sentenza della CEDU inerente il ricorso “Sulejmanovic contro Italia” è rinvenibile nella sua versione integrale al seguente link: http://www.giustizia.it/giustizia/it/mg_1_20_1.wp?previsiousPage=mg_1 _20&contentId=SDU151219 3 È opportuno segnalare che, soprattutto dal 2013, circa la riduzione della durata della permanenza delle persone detenute in quelli che l’ordinamento penitenziario definisce “locali di pernottamento” sono state assunte dall’amministrazione penitenziaria varie iniziative tese all’adozione generalizzata di misure di contrasto. 4 Si fa riferimento alla sentenza inerente la “Causa Torreggiani e altri contro Italia”, consultabile nella sua versione integrale al seguente link: http://www.giustizia.it/giustizia/it/mg_1_20_1.wp?previsiousPage=mg_1 _20&contentId=SDU810042 sono oggettivamente contrari al senso di umanità, senza che si possa necessariamente discernere un’intenzione malvagia in chi li inligge. Avvicinandosi al nucleo del presente contributo, si prendono le mosse proprio dall’affermazione di Cassese secondo cui “l’esito criminoso si nutre di frammenti sparsi di legalità”: ritenere che i trattamenti inumani e degradanti, che talora assumono i connotati della violenza, isica e psicologica, siano/possano essere appannaggio esclusivo di alcuni, che, per il rendersene autori e a differenza di altri, recherebbero le stimmate di una originaria capacità di inliggere intenzionalmente sofferenza o di rimanere indifferenti alla sofferenza denota, con una certa ingenuità scientiica, una sorta di superstizione che induce, de plano, l’assunzione di un approccio fatalistico e una generale deresponsabilizzazione. Nel “secolo breve” che ci siamo appena lasciati alle spalle si è creduto si fossero concentrati l’orrore dei regimi totalitari e delle “soluzioni inali” che hanno portato alla morte, complessivamente, di 150 milioni di esseri umani. Ma ci si è dovuti ricredere: nelle carceri di Abu Ghraib e di Guantana47 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 mo volute dall’occidente “democratico” per difendere i valori di cui si fa araldo, “normali” soldati hanno assunto l’identità di ruolo che l’appartenere a un’istituzione legittimante e il sentirsi servitori di una buona causa richiedeva secondo le deinizioni di “buona causa” disponibili nel contesto. “Normali” soldati che hanno accolto quasi con stupore l’orrore planetario che le loro gesta hanno suscitato, coerentemente con la persuasione di non aver fatto che “il proprio lavoro”, come a suo tempo la moltitudine di “lavoratori” - molti dei quali nemmeno sostenitori attivi del nazionalsocialismo o antisemiti - che consentirono, anche attraverso la delazione, lo sterminio di ebrei, disabili, nomadi, omosessuali dentro e fuori ai campi di concentramento. E un “normale” soldato si deiniva anche Paul Tibbets, il pilota dell’Enola Gay, l’aereo B-29 che sganciò la bomba atomica su Hiroshima e che, intervistato nel 1975, rilasciò, fra le altre la seguente dichiarazione: caratteriale, patologica, fors’anche etnica e che, pertanto, i trasgressori - secondo un’espressione molto usata, le mele marce - si possano, si debbano estirpare come cellule cancerogene (esCobar 2008:XI-XI). Gli autori dell’esperimento allestirono una piccola sezione carceraria nei sotterranei nel dipartimento di psicologia della Stanford University e la popolarono di studenti volontari “in piena salute, intelligenti e di ceto medio, senza trascorsi di consumo di alcol o droga, senza pendenze penali“, reclutati attraverso un annuncio sul giornale e divisi arbitrariamente a sorte fra i ruoli di detenuto e di sorvegliante. Gli agenti non ricevettero alcuno speciico addestramento. Erano liberi di fare tutto ciò che ritenevano fosse utile a far osservare la legge, a mantenere l’ordine e a farsi rispettare dai prigionieri. Crearono così le loro regole e le applicarono sotto la supervisione del direttore David Jaffe, uno studente della Stanford University. Al pari di chi nella vita sceglie un lavoro così rischioso, anche i nostri agenti vennero I’m not proud that I killed 80,000 people, but I’m proud that I was able informati dell’importanza della loro mansione e dei possibili rischi to start with nothing, plan it and have it work as perfectly as it did..5 connessi alla situazione. Come i veri detenuti, i nostri prigionieri sapevano che avrebbero avu- e che, interrogato su quello che avesse provato in quell’istante, rispose: «Nothing. That was my job». Non diversamente, anche nelle carceri, e in tutte le situazioni in cui qualcuno che appartiene a un’istituzione legittimante si sente investito di un potere ritenuto, tautologicamente, per le stesse ragioni, legittimato, il rischio che le persone sottoposte a quel potere vengano deumanizzate in nome di un mandato identiicato come “bene assoluto” è elevato, e non perché gli operatori cui sono afidate le persone cui si decide di sottrarre la libertà siano o, peggio, vengano selezionati fra i più inclini alla violenza. Per tale ragione si incorrerebbe in errore ove si considerasse fondato ritenere che a tale rischio siano sottratti coloro che non indossano una uniforme, ovvero i non appartenenti ai corpi di polizia e alle forze dell’ordine. Il celebre esperimento carcerario condotto nel 1971 nei sotterranei della Stanford University da Philip Zimbardo, professore emerito di psicologia sociale, riguardante la dinamica delle relazioni interpersonali in una prigione simulata, ha fornito ragguardevoli elementi a sostegno della necessità di considerare la “deontologia professionale” degli operatori penitenziari (tutti) suscettibile di assumere differenti signiicati per ciascuno dei soggetti coinvolti in relazione ai repertori discorsivi giudicati maggiormente pregnanti in quel determinato contesto. In altri termini, l’esperimento carcerario di Stanford avrebbe dovuto confutare irreversibilmente quella persuasione di senso comune secondo cui condotte contrarie alle leggi – siano poste in essere da comuni cittadini deiniti devianti o da cittadini dotati di pubblica autorità – costituirebbero la prova che i trasgressori condividono una essenza che non si sa se considerare uno stigma morale, un marchio indelebile, o anche e insieme una orrida necessità 5 in Peter J. Kuznick, Defending the Indefensible: A Meditation on the Life of Hiroshima Pilot Paul Tibbets, Jr., in http://apjjf.org/-Peter-J.Kuznick/2642/article.html 48 to delle razioni alimentari ridotte, che avrebbero subìto qualche torto, una certa violazione della loro privacy e dei loro diritti civili – di tutto questo erano stati informati prima di prendere parte all’esperimento, e avevano fornito il loro consenso.6 I risultati dell’esperimento furono tali da condurre alla sua interruzione dopo solo sei giorni, anziché dopo i quindici previsti in quanto cinque ‘detenuti’ avevano mostrato segni di grave sofferenza, mentre i ‘sorveglianti’ avevano adottato, di giorno in giorno, atteggiamenti sempre più punitivi, e avevano interpretato come privilegi da concedere secondo il loro arbitrio anche quelli che erano stati chiaramente deiniti, all’inizio dell’esperimento, come diritti dei detenuti. Ma anche i componenti dello staff dirigente della prigione simulata assunsero una identità di ruolo che rapidamente si allontanò da quella propria dei ricercatori spingendosi ino all’ignorare la manifesta sofferenza dei detenuti e i comportamenti illegali degli agenti, altrettanto manifesti, per riservare tutta la propria attenzione alla costruzione di un piano per sventare con ogni mezzo il tentativo di evasione di cui erano venuti a conoscenza. Nella prefazione al libro in cui rilette su quell’esperienza a distanza di trent’anni - per giunta alla luce dello studio approfondito degli abusi e delle torture di Abu Ghraib7 condotto in qualità di consulente tecnico per la difesa di una delle agenti penitenziarie appartenente alla polizia militare - Zimbardo scrive: 6 www.prisonexp.org 7 Nel 2004 l’agenzia di stampa Associated Press pubblicò un reportage – poi ripreso con clamore mediatico mondiale da una trasmissione della rete televisiva CBS (visionabile al seguente link http://www.cbsnews.com/ news/abuse-at-abu-ghraib/)- in cui alcuni ex prigionieri del carcere militare situato nella città irachena di Abu Ghraib raccontavano di essere stati umiliati, abusati e torturati dagli agenti della polizia militare americana nel corso della reclusione subìta al tempo della seconda guerra del Golfo, nel 2003, dopo il rovesciamento di Saddam Hussein. SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI …Il tempo aveva afievolito in me il ricordo… di quanto io fossi stato passivo nel permettere che gli abusi si protraessero così a lungo: un peccato di inerzia. Fu Cristina Maslach, divenuta successivamente la più importante studiosa della cd. “sindrome del burnout”, all’epoca dottoranda in sociologia, che, nella ricostruzione di Zimbardo, venuta ad intervistare guardie e prigionieri, mostrò tutto il suo dissenso nel vedere questi ragazzi in ila per il bagno coi sacchetti in testa, con le gambe incatenate, con le mani l’uno sulla spalla dell’altro. Risentita disse “È terribile quello che state facendo!”. Su oltre 50 estranei ad aver visitato la nostra prigione, lei fu l’unica a contestarne l’eticità. Divenne chiaro che l’esperimento doveva essere terminato.8 Al cospetto delle considerazioni rese possibili da quanto sin qui argomentato, diventa più visibile la debolezza dell’assunto di base che accomuna sia i sostenitori della punizione esemplare dei “cattivi semi” della società sia quanti, criticando tale posizione, attribuiscono a inclinazioni violente dei custodi la fonte di ogni male: l’ipotesi disposizionale, secondo la quale la violenza costuirebbe l’esito di proprietà psicologiche o morali che sarebbero tipiche dei violenti, e, per giunta, di essi soli. 8 www.prisonexp.org Nello scenario che si dischiude distogliendosi da tale assunto, la violenza – verbale e non – si conigura, per converso, come un processo la cui generazione si realizza attraverso la mediazione del linguaggio ordinariamente usato dai parlanti attraverso l’interazione discorsiva e nel quale l’identità di ruolo e il coerente esercizio delle correlate responsabilità vengono ad essere soppiantati dalle teorie di senso comune impiegate dai differenti ruoli implicati nell’amministrazione della privazione o limitazione della libertà. Anticipare la generazione di processi interattivi in cui la violenza venga accettata e tollerata come legittima – o, tutt’al più, in alcune circostanze, surrettiziamente ammessa come inevitabile – deve, pertanto, implicare uno scarto dal paradigma della responsabilità semplice verso quello della responsabilità complessa, che deinita come responsabilità sociale condivisa è, peraltro, da tempo al centro dell’elaborazione politica e culturale delle istituzioni europee e dei correlati programmi d’azione. Recentemente (2014), la condivisione delle responsabilità sociali è diventata l’oggetto di una Carta d’Europa dedicata che si è tradotta in una raccomandazione indirizzata ai paesi membri dal Comitato del Ministri. Tale documento provvede, ai sensi dell’art. 15 dello Statuto del Consiglio d’Europa, alla costruzione di un articolato quadro argomentativo a supporto della necessità di proporre l’attuazione del principio di responsabilità sociale condivisa per «stimolare un clima di iducia nel futuro, rafforzare la democrazia e sviluppare le risorse sociali e morali necessarie per permettere 49 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 ai cittadini europei di agire insieme per promuovere la tutela universale dei diritti, il benessere di tutti, la coesione sociale, lo sviluppo sostenibile e l’interazione tra le culture» (dal preambolo). A tal ine, all’art. 1 della Carta europea della responsabilità sociale condivisa, quest’ultima viene deinita operando una sua distinzione dalla responsabilità e dalla responsabilità sociale: a. la responsabilità è deinita come una condizione in cui gli individui e le istituzioni pubbliche e private sono tenuti (a) o sono in grado di rendere conto delle conseguenze delle loro azioni o omissioni in tutti nione Europea di indagare le ragioni della difidenza del pubblico nei confronti dell’innovazione tecno-scientiica. «I propositi della Commissione si riassumono in questa frase: “[...] We must take shared responsibility, without being forced to lay blame nor claim full control” (p.16). Condividere la responsabilità, abbandonare il criterio sanzionatorio della colpa e la pretesa di avere il pieno controllo sulle conseguenze delle nostre azioni sono i tre criteri che devono comporre il nuovo sistema dell’innovazione responsabile». La problematizzazione della responsabilità prende avvio, secondo Foddai (2008:3), quando i campi della vita pubblica e privata, nel rispetto di norme o obbligazioni morali, sociali e giuridiche applicabili; dopo Hiroshima e Nagasaki, col grande tema del nucleare, e successi- b. la responsabilità sociale è deinita come una condizione in cui gli vamente con l’avvento delle biotecnologie, il dubbio inquietante che individui e le istituzioni pubbliche e private sono tenuti (a) o sono anche lo scienziato nel suo lavoro non sia al riparo dai giudizi morali in grado di essere responsabili delle conseguenze delle loro azioni o ha cominciato a insinuarsi nelle coscienze un tempo tranquille degli omissioni nel campo del benessere sociale e della protezione della studiosi della natura. Mentre scopriamo che il nostro corredo etico dignità umana, dell’ambiente e dei beni comuni, nella lotta contro la è del tutto inadeguato alle nuove side, emerge un nuovo orizzonte povertà e la discriminazione, e nella ricerca della giustizia e della co- concettuale della responsabilità: al concetto di punizione si afianca esione sociale, mostrando rispetto democratico delle diversità e delle quello di cura e di relazione, alla rigida idea di reciprocità si contrap- regole o obbligazioni morali, sociali e giuridiche applicabili; pone quella di asimmetria e vulnerabilità, all’orizzonte temporale del c. la responsabilità sociale condivisa, è deinita come la condizione passato si sovrappone la dimensione del futuro, allo scopo di sanzio- in cui gli individui e le istituzioni pubbliche e private sono tenute (a) nare comportamenti che compromettono l’equilibrio sociale, si afian- o sono in grado di essere responsabili delle conseguenze delle loro ca prepotente quello di prevenire danni irreversibili, di conservare un azioni o omissioni, nel contesto degli impegni reciproci assunti in equilibrio naturale che garantisca la sopravvivenza della specie uma- modo consensuale, accordandosi su diritti e obblighi reciproci nel na. La responsabilità diventa un progetto di azione condiviso. campo della protezione sociale e della dignità umana, dell’ambiente e dei beni comuni, della lotta contro la povertà e la discriminazione, del perseguimento della giustizia e della coesione sociale, nel rispetto democratico della diversità. Quanto al campo di applicazione, la Carta precisa che la responsabilità sociale condivisa non si sostituisce alle responsabilità speciiche «piuttosto le completa e le migliora incoraggiando le parti sociali e gli individui a impegnarsi in trasparenza e ad essere responsabili delle loro azioni in un contesto di conoscenza e di processi decisionali costruiti attraverso il dialogo e l’interazione». In ordine alla necessità di uno spostamento paradigmatico in tema di responsabilità,9 Maria Antonietta Foddai, ilosofa del diritto da tempo interessata al tema, scrive di nuove prospettive nel saggio Sulle tracce della responsabilità - Idee e norme dell’agire responsabile (2005). In una intervista sul tema a cura della redazione della Fondazione Giovannino Bassetti (2008),10 la studiosa prende le mosse da un passaggio del report «Taking European Knowledge Society Seriously» (2007)11, elaborato dal Gruppo di esperti incaricati dall’U- In relazione a questo passaggio, l’autrice sostiene che si possano considerare due differenti modelli di responsabilità: uno semplice ed uno complesso. Il primo modello è relativo al signiicato tradizionale, secondo il quale se si dice che una persona è responsabile, si intende che ha un forte senso del dovere, è degna di iducia e prudente: tale modello si rivela oggi inadeguato, in quanto «una persona coscienziosa e ligia al dovere può arrivare a comportarsi in modo altamente irresponsabile, quando ignora le conseguenze negative che possono derivare dall’osservanza del dovere». La responsabilità sembra assumere il suo signiicato più adeguato, secondo Foddai (ivi:4), «proprio quando ci spingiamo nel territorio sconosciuto, privo dei cartelli indicatori dell’etica comune»: È qui che si avverte la necessità di un nuovo modello, deinibile come complesso o rilessivo, perché richiede un insieme di capacità critiche che da un lato esaltano la nostra autonomia individuale e dall’altro mostrano la nostra solitudine morale. Essere responsabili in tal senso, dice Davis, signiica essere capaci di prevedere le conseguenze dei propri atti; saper valutare quando è il caso di consultare altre persone o assumere le decisioni in modo del 9 Si vedano, al riguardo, anche C. Offe (2011), “La responsabilité sociale partagé. Reflexions sur les modèles d’action sociale «responsables»: besoins et offre”, e i saggi di autori vari presenti in Vers une Europe des responsabilités sociale partagées, Editions du Conseil de l’Europe: Strasbourg. 10 www.fondazionebassetti.org/it/pagine/2008/07/maria_antonietta_ foddai.html 11 Il report è stato pubblicato in Italia nel 2008 col titolo Scienza e governance. La società europea della conoscenza presa sul serio, editore Rubbettino. 50 tutto autonomo; avere la capacità di modiicare i propri progetti verso altri obiettivi ugualmente apprezzabili, avere inine la volontà di dare un resoconto veritiero delle proprie azioni. Occorre, pertanto, accettando anche le apparenti contraddizioni della responsabilità, spostarsi «da un sistema governato dalla certezza sui fatti e sulle norme, verticistico, basato sul concetto di autorità, ad uno disegnato dalla cornice con- SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI cettuale dell’incertezza, orizzontale, basato sulla partecipazione e sulla condivisione». In questo senso, l’autrice sostiene che occorra andare oltre l’idea di una shared–responsibility assegnata o assunta, come tale reiicata, in favore di un’accezione che ne esalti la conigurazione processuale e la correlata incessante costruzione a cura del nuovo soggetto plurale della responsabilità: Infatti questa implica che la responsabilità sia qualcosa di preesistente che, come un carico pesante, viene divisa tra gli esploratori; ma io credo che non sia un carico da portare sulle spalle, ma un progetto che ogni sera si costruisce intorno al fuoco. Per uscire dalla metafora, bisogna abbandonare il sistema verticistico che “assegna” la responsabilità, ma anche quello concettuale basato sull’”assunzione”, per inventare quello della costruzione della responsabilità» (ibidem). Se anche la responsabilità, come la violenza, non sono conigurabili come contenuti dal signiicato univoco, ma come esito di processi di costruzione sociale e culturale mediati dal linguaggio, occorre dotarsi di strumenti adeguati allo statuto epistemologico degli oggetti di conoscenza e di intervento, e come tali scientiicamente fondati, che consentano di generare obiettivi e strategie condivisi da tutti i soggetti presenti nei contesti interessati. In altri termini, occorre disporre di parametri per l’azione cui afidare la generazione di contesti sociali e istituzionali in cui la responsabilità del rispetto della legalità e dei diritti umani venga descritta come appannaggio di tutti e di ciascuno dei membri della comunità. Pertanto, per le scienze che fondano nel logos, al contempo, il proprio presupposto epistemologico e il proprio oggetto di indagine12 diventa necessario collocare i dati testuali – ovvero, con riferimento all’oggetto della presente trattazione, le conigurazioni di realtà sul rispetto dei diritti umani generati e generabili nei contesti interessati attraverso l’interazione dialogica– entro «un alveo di conoscenza che offra la possibilità di valutare come l’obiettivo di una ricerca o di un intervento operativo siano stati perseguiti in maniera eficace e [...] quali ricadute possano avere nell’ambito più ampio della comunità civile» (Turchi 2009:21). In altri termini, per generare una conoscenza dei fenomeni sociali fondata sul senso scientiico – come tale antinomica rispetto a quella fondata sul senso comune13 – occorre che i fenomeni sociali stessi 12 Le scienze -logos a cui si fa riferimento sono in particolare: sociologia, politologia, antropologia, psicologia, ossia tutte quelle scienze che hanno un oggetto di indagine non indipendente (non connesso all’uso) dallo strumento conoscitivo su cui si fondano, ossia il logos stesso (quindi non la biologia, fisiologia, neurologia, ecc.), cfr. Turchi 2009:24. 13 Per senso comune si intende in questa sede «[…] preposizioni di qualsiasi natura e tipologia che definiscono e sanciscono qual è la realtà: lo statuto di realtà è l’affermazione della stessa (realtà) ed è conferito dalla forza retorica dell’argomentazione a prescindere dall’esplicitazione delle categorie conoscitive poste (come posto per l’asserzione). Il senso comune è auto-referenziale in quanto si legittima eludendo il fondamento delle proprie affermazioni ed è ‘comune in quanto c’è concordanza sul “modo” in cui si afferma che qualcosa è reale (non tanto su ciò che si afferma di per sé che può essere opinabile e dunque differente): proprio perché tale condivisione resta implicita, la modalità si impone come dato di fatto nel suo produrre realtà. Cionondimeno esso rappresenta una modalità di conoscen- vengano compresi e studiati come realtà costruite attraverso processi eminentemente dialogici. Se i fondamenti teorici di tale opzione si collocano eminentemente nel costruzionismo sociale di Berger e Luckmann, dal punto di vista metateorico ci si colloca nell’alveo della svolta linguistica affermatasi nella ilosoia della seconda metà del Novecento – cui si deve l’idea di linguaggio come costitutivo dell’universo sociale e dell’azione come fenomeno profondamente radicato nell’uso ordinario del linguaggio (cfr. Hughes, Sharrock 2005:186) – e, segnatamente, della tarda opera di Wittgenstein.14 A tale autore soprattutto si deve la ricostruzione dalle fondamenta delle modalità secondo le quali le parole ottengono dallo stesso linguaggio il loro signiicato nel senso che «[...] il signiicato di un termine è dato dalla sua posizione nel complesso, e dal ruolo che esso può assumere in combinazione con altri termini e con le azioni che compiamo» (Hughes, Sharrock ivi:190). Usando le parole stesse di Wittgenstein:15 Parliamo del fenomeno spazio–temporale del linguaggio [...] Ma ne parliamo come parliamo dei pezzi degli scacchi quando enunciamo le regole del gioco, e non come quando descriviamo le loro proprietà isiche. La domanda “che cos’è, propriamente, una parola?” è analoga alla domanda “Che cos’è un pezzo degli scacchi?”. L’essenza è espressa nella grammatica (Wittgenstein 1967, § 108, 371). Assumendo – nel solco tracciato, in particolare, da Wittgenstein e del modo di conoscere proprio del realismo concettuale16– che le interazioni vengono generate e governate za, genera infatti conoscenza con implicazioni in termini di ‘realtà’, ma in base a presupposti e criteri diversi dal senso scientifico» (Turchi 2009: 33). 14 Si fa riferimento a tale discontinuità nel pensiero dell’autore con la locuzione “secondo Wittgenstein” indicando i testi delle “Ricerche filosofiche”, il “libro marrone” e il “libro blu”, successivi al “Tractatus”. 15 L. Colaianni, P. Ciardiello (a cura di) (2012), Cambiamo discorso. Diagnosi e counselling nell’intervento sociale secondo la scienza dialogica, p. 35. 16 Attualmente, la riflessione epistemologica consente di individuare tre livelli di realismo, corrispondenti ad altrettanti modi di conoscere che «[…] non devono essere confusi con quanto si assume, in termini di senso comune, come “reale”. I tre livelli di realismo esemplificano infatti le differenti relazioni che è possibile riscontrare fra l’“osservatore” (le categorie che consentono e su cui si basa la conoscenza) e l’ “osservato” (ciò che scaturisce dalla conoscenza in quanto astrazione categoriale) e non già con quanto viene definito, appunto, per senso comune, come “reale”» (Turchi 2009:26). In quanto riferito epistemologicamente all’ontologia, il realismo monista conferisce priorità all’ente osservato, piuttosto che alle modalità utilizzate per conoscere. Per il realismo ipotetico la realtà è ancora concepita come ontologicamente data, ma non può essere conosciuta, potendosi, al più, produrre su essa delle teorie (teoreticismo). Quanto al realismo concettuale, esso non contempla ‘fatti in sé’ ma costruzioni di realtà, “artefatti” (configurazioni appunto), così che - nella metafora - se si sottrae la ‘mappa’ non rimane alcun territorio conoscibile (e da conoscere). La configurazione è dunque costruita per mezzo di sistemi simbolici, tra cui il linguaggio (sia esso formale oppure ordinario) utilizzato come modalità di conoscenza, perciò non separabile (anzi, ne costituisce proprio il fondamento) dalle produzioni discorsive che nominano e descrivono le configurazioni stesse. Non ci si pone in termini di “scoperta” e di spiegazione della realtà, ma di descrizione dei processi che costruiscono e configurano una realtà come tale. Ciò che si conosce è il processo stesso del conoscere, di conseguenza il dato ontologico viene completamente a mancare e il fondamento è puramente conoscitivo (gnoseologico come detto precedentemen51 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 attraverso l’uso del linguaggio ordinario, diventa, pertanto, indispensabile afiancare alla conoscenza del cosa viene detto (i differenti contenuti ovvero i pezzi degli scacchi) la conoscenza delle modalità con cui i contenuti medesimi vengono utilizzati (il come viene detto qualcosa ovvero le regole del gioco degli scacchi). In tal senso, avendo formalizzato le regole d’uso del linguaggio comunemente utilizzato dai parlanti, la scienza dialogica (Turchi 2007, 2009, 2010, 2012) rende possibile conoscere il collocarsi delle conigurazioni discorsive generate nelle interazioni su modalità di conoscenza proprie del senso scientiico o, antinomicamente, del senso comune ovvero ciò che “ciascuno crede che tutti credano” all’interno di una cerchia sociale e considerato ovvio dai suoi membri (Schütz 1979).17 Pertanto, la scienza dialogica si conigura come approccio del tutto pertinente con l’obiettivo di enfatizzare le implicazioni dell’impiego di tutte le “voci” di una comunità o di una organizzazione posto al centro delle raccomandazioni internazionali in materia come di qualsiasi politica pubblica che si intenda inalizzata alla generazione della responsabilità sociale condivisa e del suo esercizio. Collocandosi nell’alveo della scienza dialogica, pertanto, la tradizione di pensiero del “sé sostanziale” viene sostituite): il criterio è il configurarsi della realtà, non l’avvicinamento ad essa. La realtà dunque non è data e fattuale, ma è costruita nel processo, quindi nel momento in cui viene ‘nominata’ (configurata discorsivamente) in quanto tale (Turchi 2009:29-30). 17 Nell’ambito della scienza dialogica in cui l’oggetto è prodotto dalla conoscenza che si genera attraverso l’interazione e l’uso del linguaggio ordinario, il senso comune si definisce come un ‘modo’ di conoscere la cui forma di conoscenza è differente dal senso scientifico: il senso comune procede per affermazioni, ovvero si afferma quando si stabilisce che ciò che è portato nella argomentazione è di per sé indipendente dalle categorie o dai criteri usati (per quanto questo procedere resti comunque un modo). La forma che tale modo usa è una forma che rileva le “cose” come indipendenti dai “modi” stessi. Il senso scientifico, di converso, procede per asserzioni. L’asserzione è una particolare forma di affermazione, ovvero una affermazione che esplicita le categorie conoscitive dell’osservatore, cfr. G. P. Turchi, R. Fumagalli, M. Paita (a cura di) (2010), La promozione della cittadinanza come responsabilità condivisa. L’esperienza pilota di mediazione civica sul territorio della Valle del Chiampo. 52 ta dall’analisi del “sé contestuale”. Nei termini di Goffman, non siamo in presenza di persone e dei loro momenti, piuttosto di momenti e delle loro persone (Zamperini 2004:49). Dunque, come nella messinscena di un dramma i ruoli esistono a prescindere da qualsiasi attore, anche nell’istituzione penitenziaria i ruoli sono script che prescrivono una certa condotta, ponendosi come proprietà collettiva che richiede per il suo esercizio la presenza di almeno due persone. In tal senso, i ruoli sono sempre sia costruiti sia assunti, prendendo forma e legittimazione dalle istituzioni sociali in cui sono contemplati. “… le organizzazioni distribuendo ruoli elargiscono identità. Quel tipo di identità ospitata da particolari palcoscenici dell’azione. E la parte scritta dell’organizzazione punta al dissolvimento dell’identità biograica”.18 Come le più o meno recenti cronache suggeriscono, le responsabilità di violenze e delle conseguenze di tali violenze che, in alcuni casi, sono state correlate alla morte di cittadini arrestati o detenuti in carcere, si collocano di frequente lungo una iliera che include un gran numero di soggetti, una iliera che arriva ad includere, con gli autori materiali delle violenze, i colleghi di tali autori, i loro superiori gerarchici, i medici che hanno visitato le persone detenute, i magistrati che li hanno interrogati. È in tale scia che, in uno dei commenti riferiti ai maltrattamenti che avrebbero cagionato la morte di una persona detenuta in un reparto ospedaliero dedicato, si è potuto leggere, in uno dei numerosi articoli di stampa scritti a commento, “sarà dificile individuare i non colpevoli”. Ancora, durante il processo celebrato per indagare sulla morte di un giovane per la quale sono stati poi condannati quattro agenti della Polizia di Stato, un ispettore del medesimo corpo di Polizia ha dichiarato, non testualmente: “A. era incensurato e dunque (enfasi aggiunta, ndr) non c’era alcuna ragione di animosità nei suoi confronti”.19 Tale affermazione 18 A. Zamperini, op. cit., p. 63. 19 Dalla trasmissione televisiva “Un giorno in pretura” mandata in onda il 22 novembre 2009 da RAI 3. SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI è stata accolta dal silenzio dei più: del presidente della Corte, del Pubblico Ministero, ma anche del legale delle parti civili, accomunati dal non aver utilizzato l’affermazione stessa come occasione per raccogliere dall’ispettore considerazioni ulteriori circa il rapporto fra certiicato penale di un cittadino e il trattamento del cittadino che le forze dell’ordine reputano di essere legittimate a praticare. Nel caso in esame, tale rapporto è stato presentato come necessitato attraverso quel e dunque, che conigura un legame esclusivamente retorico fra il primo contenuto (la condizione di incensurato del cittadino fermato) e il secondo (l’assenza di animosità), dato per ovvio dall’ispettore e non confutato da nessuno dei presenti aventi titolo. Per converso, conferire attenzione - avvalendosi degli assunti teorici e metodologici della scienza dialogica - al come sono stati usati i contenuti consente di asserire che tale affermazione ha sottratto all’implicito che, perlomeno all’interno del gruppo di agenti alle dipendenze di quell’ispettore durante la notte in cui F.A. è morto, fosse presente una teoria personale secondo la quale era considerato coerente col mandato conferito alla Polizia di Stato provare “animosità” (dal dizionario Zanichelli: ostilità, malanimo, faziosità) nei confronti di un cittadino con precedenti penali, il cui status di “pregiudicato” si riteneva, di conseguenza, fosse lecito pregiudicasse il suo status di titolare di diritti. Nel suo libro “L’effetto Lucifero. Cattivi si diventa?” Zimbardo, nell’offrire il resoconto dell’accesso a fonti e testimonianze di prima mano di cui si è avvalso in qualità di perito per la difesa nel processo intentato contro i soldati “torturatori” del carcere iracheno di Abu Ghraib, coglie l’occasione per ripercorrere il suo esperimento carcerario di trent’anni prima e delineare, anche alla luce di alcune repliche del medesimo in contesti differenti,20 il paradigma del cattivo cestino. Qualunque atto che un essere umano abbia commesso, per quanto orrendo sia, può commetterlo chiunque di noi, nelle circostanze situazionali giuste o sbagliate. Saperlo non giustiica il male; piuttosto, lo democraticizza, dividendone la colpa fra agenti normali invece di dichiararlo ambito esclusivo di devianti e despoti: loro ma non noi.21 Come l’autore sottolinea in più passaggi richiamandosi anche al celebre costrutto della banalità del male coniato da Hanna Arendt, assumere questa diversa prospettiva non 20 Le Repliche e applicazioni dell’esperimento sono descritte da p. 371 a p. 379 del citato volume. Come scrive Clelia Bartoli (10:2010), “Tutte queste, ad eccezione di un reality show della BBC – il cui setting era chiaramente poco scientifico – hanno dato risultati analoghi. […] Molto interessante anche l’esperienza prodottasi nella Cubberley High School di Palo Alto nel 1967, in seguito ad una sorta di gioco di ruolo scolastico, prodotto dal prof. Ron Jones per rispondere all’interrogativo di uno studente “Il nazismo potrebbe riaccadere?”. Il gioco rapidamente degenerò e i ragazzi finirono per sentirsi davvero parte di una setta di eletti: the Third Wave […] che ha ispirato le opere di numerosi scrittori e registi, cfr. http://www.ronjoneswriter.com”)”. Fra queste, il film distribuito nel nostro paese con il titolo “La Terza Onda”, diretto da Anders Nilson (ndr). C. Bartoli, La responsabilità di sistema e le ‘mele’ di Abu Ghraib, in Diritto & questioni pubbliche, n.10/2010, www.dirittoequestionipubbliche.org/ page/2010.../a02_studi_C_Bartoli.pdf. 21 P. Zimbardo, op. cit., p. 318. implica l’assoluzione delle persone coinvolte dalle responsabilità delle azioni compiute e nemmeno una sia pur larvata giustiicazione delle medesime. Sostenere la necessità di abbandonare il paradigma della esclusività della responsabilità personale in favore di un paradigma che assume la responsabilità di sistema non costituisce “un pericoloso attentato alla libertà individuale, perno della gran parte delle teorie etiche e giuridiche dell’Occidente” (bartoli cit.:3). Assumere tale prospettiva può consentire di costruire “un discorso più complesso sulla libertà dell’uomo e sulla sua vulnerabilità” (bartoli cit.:4) senza per questo decretare “un determinismo assolutorio e rassegnato” (bartoli 17:2010) quanto piuttosto “… adottare un approccio di salute pubblica invece dell’approccio clinico standard inteso a curare mali e danni individuali” (Zimbardo 2008:XXV), spostando il focus dell’attenzione dal singolo ai processi attivati dall’interazione del singolo con il sistema di riferimento attraverso il linguaggio ordinario. Ebbene, più continua ad apparire dificile ritenere che siano il caso o la cattiva volontà (tamburino 2000:170) i responsabili del nocciolo aflittivo del carcere e della opacità che spesso si oppone alla comprensione di quanto è accaduto (e dunque può nuovamente accadere) nelle circostanze in cui convivono persone limitate nella libertà e persone che di tali persone sono chiamate ad occuparsi, maggiore occorre diventi l’impegno per mettere in campo aprocci conoscitivi e convergenti strategie inalizzati alla realizzazione di una incessante vigilanza sulle richieste poste ai ruoli attivi nei diversi snodi della matrice istituzionale ed organizzativa e sulle modalità di interazione fra tali richieste e coloro che sono chiamate ad assolverle. Se le istituzioni, nonostante la loro frequente mediocrità, rendono possibile per una collettività umana riconoscere la società come mondo comune; se il carcere è deinibile, come tutte le istituzioni, un artefatto umano; se anche il carcere è fra le istituzioni cui è afidato il compito di tutelare i diritti e di amministrare la giustizia in nome dei cittadini, anche dal carcere e da come il carcere attua tale mandato dipende la qualità della convivenza civile, dipende cioè l’intelligenza collettiva impiegata nella elaborazione, nella discussione e nelle scelte su quale società vogliamo e costruiamo (cfr. de leonardis 2001) Se le istituzioni sono artefatti umani e non enti di natura metaisica e astorica, è indispensabile, dunque, proprio per quanto sinora argomentato, porre al centro dell’azione volta all’assunzione del paradigma della responsabilità condivisa la conoscenza del come gli uomini e le donne che abitano le istituzioni descrivono il mandato loro attribuito dai precetti costituzionali e del come essi descrivono tale mandato con riferimento alle deinizioni che di tale mandato vengono utilizzate nelle istituzioni stesse. In tal senso, nessuna responsabilità può essere attribuita, fondatamente - per comportamenti inerti o manifestamente contrari al rispetto che si deve anche a ogni persona umana la cui libertà sia limitata in virtù di provvedimento di una pubblica autorità - a presunte tare disposizionali dei pubblici agenti a vario titolo coinvolti senza incorrere in un errore epistemologico dalle nefaste implicazioni proprio per il rispetto dei diritti umani e per la 53 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 legalità costituzionale. In tal senso, focalizzarsi, anziché sulle mele marce sui cattivi cestini consente di mettere l’accento anche su una maggiore responsabilizzazione dei vertici delle organizzazioni ossia “gli architetti di sistema”. È rilevante notare, a tal proposito, che la commissione indipendente incaricata dal Ministero della Difesa statunitense di far luce su 300 incidenti occorsi a persone detenute a Guantanamo, in Afghanistan e in Iraq ha concluso: “L’eventualità potenziale di trattamenti abusanti nei confronti dei detenuti durante la Guerra Globale al Terrorismo era assolutamente prevedibile avendo conoscenza dei principi basilari della psicologia sociale, insieme ad una consapevolezza dei numerosi ben noti fattori di rischio ambientale. Molti leader non erano a conoscenza di questi fattori di rischio e, pertanto, hanno fallito nell’adottare le misure necessarie a ridurre la possibilità che abusi di diverso tipo si veriicassero durante le operazioni di detenzione” (bartoli 2010:20). Proseguendo in tale scia, occorre sottrarre all’implicito che di frequente il processo di legittimazione dei ruoli istituzionali collocati ai vertici di tali organizzazioni si impernia prevalentemente sulla affermazione e riaffermazione simbolica delle gerarchie e dei gradi e che, al contrario, possono promuovere una adeguata legittimazione, sia del proprio ruolo sia di quello dei collaboratori stessi, quei dirigenti che declinino il proprio status attraverso l’incessante vigilanza sull’aderenza propria e dei propri collaboratori al testo costituzionale attraverso una lettura integrata dell’art. 27 con gli articoli della Carta riferiti ai principi fondamentali della dignità dell’uomo e del diritto al libero sviluppo della sua personalità. Pur condividendo con Bartoli che “questione aperta è se e in che modo si possa rendere obbligatoria la trasformazione di un sistema che cronicizza la devianza, la discriminazione o l’illecito” (2010:22)22, è comunque indispensabile sostenere a tutti i livelli delle istituzioni la costruzione e l’esercizio di competenze di ruolo che consentano di anticipare le criticità che possono veriicarsi e di gestire le medesime elidendo gli spazi per attribuzioni di signiicato personali al mandato proprio del ruolo rivestito ove tali attribuzioni contemplino la possibilità di cedimenti al venir meno del rispetto dovuto ad ogni persona umana, con le connesse ricadute deontologiche, organizzative e gestionali. Si tratta di far convergere ogni singolo atto o provvedimento verso l’adozione di repertori discorsivi istituzionali e professionali che non contemplino attribuzioni identitarie tipizzanti. Si fa riferimento, nella fattispecie, a quei repertori che, organizzando deinizioni di senso comune disponibili nel contesto e da tale contesto implicitamente o esplicitamente avvalorate, consentono la reiterazione di copioni (si torna alla metafora delle rappresentazioni teatrali o cinematograiche risalente a Goffman) all’interno dei quali viene contemplato come “naturale” e, dunque, necessitato il conlitto fra i diversi attori della rappresentazione: fra chi arresta e chi è arrestato, fra chi detiene e chi è detenuto, fra chi è detenuto per reati deiniti “comuni” e chi lo è per reati che vengono diversamente deiniti, fra chi esercita un ruolo orientato a sostenere i processi di attenuazione dell’aflittività e chi deve assicurare le condizioni per rendere possibili tali processi, fra chi chiede la tutela dei diritti di chi è detenuto e chi è chiamato a dare esecuzione ai provvedimenti della pubblica autorità che sono all’origine dell’arresto e della detenzione. Occorre, in tal senso, con speciico riferimento al carcere, che le strategie di intervento impiegate per l’adempimento della missione istituzionale prescindano dall’attribuire centralità a domande che conferiscono statuto ontologico al conlitto (Chi ha generato il conlitto? Quali sono le sue caratteristiche?) in favore di approcci che consentano di intervenire sul come i conlitti vengano generati attraverso l’uso del linguaggio adottato dalle parti per dichiarare il conlitto, indipendentemente dalle caratteristiche che le parti si attribuiscono reciprocamente. Si pensi al permanere, nei rispettivi repertori discorsivi di (talune) persone detenute e di (taluni) agenti di polizia penitenziaria (ma gli esempi possono essere riferiti a qualsiasi contrapposizione fra un noi e gli altri, quali quelle fra comunità autoctone e immigrati) di deinizioni identitarie che, stabilendo la sussunzione di alcune caratteristiche nelle quali si compendia in modo esaustivo e compiuto il proilo dell’altro, stabiliscono contestualmente le premesse del “conlitto”. Si tratta di un conlitto che riduce a scarni stereotipi le identità delle parti e che trascura la possibilità di impiegare repertori discorsivi nuovi, in cui assumano centralità non i ruoli tipizzati in cui le parti si sono reciprocamente coninate, ma la generazione di regole che possono consentire nuove forme di dialogo, in cui l’altro non venga identiicato con una astrazione categoriale e le sue parole non vengano utilizzate esclusivamente per confermare la teoria di senso comune costruita dall’interlocutore facendo riferimento esclusivamente alle conigurazioni validate dall’uso (il detenuto, per deinizione, inafidabile e manipolatore; l’agente di polizia penitenziaria, per deinizione, indifferente e arrogante et similia). Circa l’importanza di abbandonare deinizioni tipizzanti dell’altro (sia gli agenti sia i detenuti cd. protetti) per approdare ad una diversa qualità delle relazioni Silvano Lanzutti (2010), detenuto presso la Casa di reclusione di Bollate, scrive: Devi intanto sconinare da quel vecchio luogo comune che i detenuti fanno i detenuti e gli agenti gli agenti. Devi comunicare con loro, instaurare un rapporto di iducia, ma, ancor prima, di socializzazione. … Il “Progetto Bollate” sarà concluso quando un detenuto comune, ristretto per reati di droga o rapine, accoglierà a braccia aperte, accompagnandolo nell’inserimento in reparto, il sex offender o colui che venga trasferito da un reparto di “protetti”. 22 Questione posta dall’autrice anche attraverso la domanda “Vi è un modo per rendere giuridicamente vincolante sostituire o aggiustare il cestino che fa marcire le mele?”, p.22. 54 Nel dare conto delle criticità incontrate nel costruire il proprio ruolo, un agente di Polizia penitenziaria riferisce, con SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI argomenti e modalità d’uso del linguaggio simili, del fare riferimento al “sono solo carcerati” per “sbrogliare la matassa e fugare ogni dubbio” (fonte: repubblica on line, 6 gennaio 2010): raggiungere in modo eficace tale scopo. 91. Le autorità penitenziarie devono sostenere un programma di ricerca e di valutazione sulle inalità della detenzione, sul suo ruolo in una società democratica e sul raggiungimento della missione da parte del Il primo giorno pensi di essere preparato e forte - scrive un agente - sistema penitenziario. ma quando entri in sezione nessuno può sapere cosa succederà perché ogni giorno è diverso da tutti gli altri... Quello che non capisci è quale sia il tuo ruolo all’interno di questo ingranaggio. Non c’è libro che ti spieghi come ti devi comportare, se sia meglio essere duri oppure comprensivi e tolleranti... Tu decidi se ascoltare o essere ascoltato, se fare o non fare, se rivolgerti a un superiore o fare di testa tua. Per sbrogliare la matassa e fugare ogni dubbio scegli il ragionamento più semplice e dici a te stesso: ‘Sì ma tanto sono solo carcerati’. In entrambe le porzioni di testo considerate è possibile rilevare, pertanto, pur nella differenza dei ruoli considerati (il detenuto e l’agente di Polizia penitenziaria), la constatazione del ricorrere nel contesto istituzionale di repertori discorsivi che assolutizzano e circoscrivono la deinizione del ruolo dei detenuti e di quello del personale di polizia penitenziaria, e che assurgono surrettiziamente al rango di paradigmi per l’azione cui i diversi ruoli sono sollecitati, anche loro malgrado, a fare riferimento: «[...] i detenuti fanno i detenuti e gli agenti gli agenti» – «Sì ma tanto sono solo carcerati». È possibile, pertanto, anticipare che, ove non vengano posti in essere dai vertici delle istituzioni interventi inalizzati alla generazione di condivisione della responsabilità circa il rispetto della legalità, l’opposizione e il conlitto fra ruoli tenderanno a perpetuarsi e a esacerbarsi, con i connessi gravami: climi istituzionali tesi e alto contenzioso disciplinare in primo luogo, con il corteo di trasferimenti e di compromissione dei percorsi riabilitativi posti in essere e, dunque, del prolungarsi dei periodi di detenzione, con esiti del tutto antinomici rispetto al mandato conferito al sistema dell’esecuzione penale. Sempre con riferimento al carcere, appare pertinente ricordare che le Regole Penitenziarie Europee sintetizzano le condizioni in grado di contrastare la cristallizzazione ed opposizione fra ruoli con indicazioni che enfatizzano l’inluenza delle “autorità penitenziarie”, sottolineando che particolare rilievo deve essere conferito al contesto in cui devono svilupparsi le trame relazionali, la chiarezza degli scopi perseguiti dall’intero sistema penitenziario e la necessità di gestire le controversie e i conlitti fra le persone detenute e fra queste e il personale anche attraverso forme di mediazione e riparazione: 56. Per quanto possibile, le autorità penitenziarie devono ricorrere a Ancora, la Raccomandazione Rec (2012)5 del Comitato dei Ministri agli Stati membri sul Codice Europeo di Etica per il personale penitenziario23 messa a punto dal Comitato Europeo per i Problemi Criminali (CDPC) presso il Consiglio d’Europa, precisa che se ciascun operatore penitenziario «deve essere responsabile dei propri atti» nondimeno gli atti e le omissioni di un funzionario devono «in tutti i casi» essere inseriti «in una catena gerarchica chiaramente deinita»: A.12. Il personale penitenziario deve essere, a tutti i livelli della gerarchia, personalmente responsabile dei propri atti, delle proprie omissioni o degli ordini dati ai propri subordinati; esso deve sistematicamente veriicare la legalità delle operazioni che essi si propongono di condurre. A.13. L’amministrazione penitenziaria deve comportare una catena gerarchica chiaramente deinita in seno ai servizi penitenziari. Deve essere possibile in tutti i casi determinare il superiore responsabile in ultima istanza degli atti o omissioni di un funzionario penitenziario. Senza dubbio, in tal senso, grande rilievo può assumere l’apporto della formazione, iniziale e successiva, con alcune avvertenze: - la formazione in grado di consentire la collocazione ed eventuale ri-collocazione nel ruolo non può che essere imperniata sull’assunto che tutti i ruoli si generano nell’interazione (sociale), in un contesto culturalmente e socialmente connotato da cui l’attore attinge modi di vedere, che tale interazione si svolge in riferimento a simboli culturalmente condivisi, principalmente il linguaggio e che il linguaggio proietta sulle situazioni, attraverso i ruoli e le organizzazioni, mappe già costruite (Ciardiello 2008a); - la formazione che persegua il cambiamento intervenendo solo su una componente del sistema trascurando le altre è destinata all’irrilevanza (verde 1989: 26); - la formazione può concorrere al cambiamento solo se vi sono, sullo sfondo, scelte politiche convergenti e risorse umane ed economiche destinate alla soluzione dei problemi. Là dove questo non sia presente come minimo comune denominatore di partenza, le eventuali “buone intenzioni” individuali sono destinate alla deriva, alla frustrazione e – come ultima sponda - al disimpegno” (PePa 1992:31). dei meccanismi di riparazione e di mediazione per risolvere le vertenze con i detenuti e le dispute fra questi ultimi. 72. 1. Gli istituti penitenziari devono essere gestiti in un contesto etico che sottolinei l’obbligo di trattare tutti i detenuti con umanità e di rispettare la dignità inerente ad ogni essere umano. Dunque, nonostante il carcere e il dibattito sulla sua (im) possibile riforma siano praticamente coevi, rimane fondamentale interrogarsi sul senso e sull’eficacia del mantenere la centralità della pena detentiva e, ove si giudichi che essa debba comunque essere inlitta, chiedersi quale pena 2. Il personale deve avere un’idea chiara dello scopo perseguito dal sistema penitenziario. La direzione deve indicare la via da seguire per 23 http://www.coe.int. 55 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 possa assolvere al mandato conferito dai padri costituenti. “Il dramma delle prigioni ha implicazioni che vanno molto al di là della scena su cui viene rappresentato”, scriveva Cohen, che, nell’opera citata in esordio, affermava, continuando con la metafora cinematograica, che i critici possono avere, e hanno, inluenza sul modo in cui il dramma viene rappresentato, e possono, in ultima analisi, decidere anche che venga o non venga rappresentato. Qualcosa di afine ha scritto Mathiesen, descrivendo il ruolo degli intellettuali e dei ricercatori sociali collocati “lungo il conine del sistema carcerario” che, cedendo alle lusinghe della doxa (termine greco usato da Bourdieu per connotare ciò che è posto come insindacabile e dato per scontato in una cultura), scelgano di implicarsi nel solo dibattito ortodosso: Nel dibattito ortodosso i dettagli vengono discussi, ma le premesse basilari del sistema in questione rimangono indiscusse e [dunque] «doxiche». Nel dibattito eterodosso, per contro, le domande fondamentali sulle premesse di base emergono (mathiesen 2002:343). Nella prospettiva del dibattito eterodosso e, dunque, delle domande sulle questioni di base concernenti la questione criminale, le risposte costituzionalmente orientate dovrebbero prendere le mosse dall’assunto che la privazione della libertà non soddisfa nessuna delle esigenze della collettività offesa dai reati: la chiariicazione delle responsabilità; il depotenziamento dei vantaggi che possono venire all’autore dalla commissione del reato; l’incidenza effettiva sul futu56 ro dell’autore in termini di supporto al mutamento del suo percorso biograico; l’affermazione della negatività della violazione. Ancora, occorre sostenere l’elevazione dell’umanizzazione della pena e del inalismo rieducativo24 al rango di scopi preminenti della pena in ogni momento della sua esistenza e, dunque, sollecitare l’inversione del processo di polarizzazione delle istanze di umanizzazione e di individualizzazione del trattamento sanzionatorio esclusivamente sul versante esecutivo della pena. In tal senso, il recupero del inalismo rieducativo oltre la sola fase dell’esecuzione della pena si conigura come pienamente compatibile con l’obiettivo di minimizzazione del diritto penale, “da sempre invocata dai giuristi come punto di equilibrio di una società moderna che sappia rispondere con sanzioni differenziate, e per questo maggiormente eficaci, a comportamenti dotati di disvalore contenuto e comunque tali da non meritare una reazione criminalistica” (roia: 2003). Tesa alla minimizzazione della violenza dei delitti, ma anche delle reazioni ai delitti, la riduzione dell’area di incidenza del diritto penale si tradurrebbe, sotto il proilo normativo, nella deinizione di un arsenale sanzionatorio diversiicato, lessibile quanto capace di cogliere le speciiche esigenze sanzionatorie sottese alla 24 Il principio di umanizzazione della pena deve considerarsi come limite della funzione rieducativa: quanto detto è attestato dal fatto che l’originaria formulazione dell’art. 27 co. 3 proposta dal Comitato di Redazione della Costituzione italiana, su proposta dell’on. Aldo Moro, optò per l’anteposizione alla “rieducazione del condannato” del “senso di umanità” (M. Ruotolo, Diritti dei detenuti e Costituzione, Giappichelli, Torino, 2002). SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI commissione di un particolare illecito penale. Poiché, memori della parola di Alessandro Baratta, nel trattamento della questione criminale si intersecano differenti policy (politica sociale, economica, occupazionale, urbanistica ecc.), occorre intervenire sulle categorie giuridiche fondative del vigente sistema sanzionatorio, risalente al 1930 e, nel suo nucleo essenziale, come ha scritto Carlo Fiorio (2008), «espressione di una nomenklatura sabauda, maschile e padronale di un’Italia contadina». Nella scia della copiosa produzione dottrinaria degli ultimi decenni e delle diverse bozze approntate dalle Commissioni incaricate nel corso delle ultime legislature di procedere alla revisione del Codice penale, si ribadiscono in questa sede le direttrici fondamentali di tale intervento nella riconsiderazione del numero e della fattispecie dei comportamenti cui attribuire la qualiica di reato; nella riduzione del numero dei reati da punire con la privazione della libertà, tenendo conto dei reati che, nel concreto, sono produttori del progressivo aumento del ricorso al carcere; nella riduzione della cd. “forbice” sanzionatoria tra il minimo e il massimo edittale; nell’introduzione della previsione di forme alternative di gestione dei conlitti secondo il paradigma proprio della restorative justice, che punta alla restituzione alle parti e alla comunità della responsabilità di costruire una diversa visione del conlitto (Ciardiello 2009b). Come il rouge, il riferimento ad una diversa accezione alla “certezza della pena”, da intendersi non in senso retributivo come inlessibilità della durata e della natura della medesima, ma come certezza che lo stato, in presenza di un reato, perseguirà l’autore e lo chiamerà a rispondere del suo comportamento. In tale accezione, la certezza della pena non dovrebbe tradursi in una prevenzione speciale sottratta a qualsiasi limite garantistico e, dunque, conliggente con il principio costituzionale della rieducazione del condannato. Né, di conseguenza, potrebbe declinarsi attraverso la postulazione di una sorta di “colpevolezza per la condotta di vita” espressa da quella tendenza alla conigurazione normativa per “tipi d’autore” che ha ispirato tempo fa la riforma della recidiva25 - deinita «preoccupante» dalla Corte costituzionale già nel 1993 (sentenza n. 306) - per i quali la rieducazione non sarebbe possibile o non potrebbe essere perseguita. Pene prescrittive, ablative, interdittive, para-detentive, ossia reazioni sanzionatorie diversiicate, per un verso in grado di restituire alla pena quella sua ineliminabile funzione di prevenzione generale (negativa e positiva) e per un altro verso contestualmente atte a supportare l’inclusione sociale dell’autore di reato, proprio in virtù della loro spiccata prossimità contenutistica con le note di disvalore tipico recate dal fatto di reato per il quale è pronunciata condanna. Ma quel che più conta: forme di punizione edittali non più e non solo devolute alla fase della esecuzione, e quindi fruibili dal giudi- 25 E. Dolcini, Rieducazione del condannato e rischi di involuzione, in Rassegna penitenziaria e criminologica, n. 2-3, a.2005, Roma, Istituto Poligrafico e Zecca dello stato, Roma, p. 78. ce della cognizione, ossia da applicarsi in esito al processo26, che si aggiungano alle misure alternative alla detenzione e al probation giudiziale di recente introdotto con la sospensione del procedimento con messa alla prova, dal 2014 applicabile, con modalità peculiari, anche ad imputati adulti. Si tratta di una prospettiva all’interno della quale diventerebbe indispensabile deinire i criteri di minimizzazione, allo scopo di perseguire non solo la riduzione del numero dei reati in astratto, ma anche di quelli che, nel concreto, risultano produttori del progressivo aumento del ricorso al carcere, sostenendo, al contempo, lo sviluppo di un sistema extra-penale in grado di ridurre la domanda sociale di penalità e, al suo interno, di punizione attraverso il carcere. In tal senso, occorre considerare che le leggi all’origine del sovraffollamento esponenziale cui si è assistito negli ultimi anni hanno prodotto, solo nel 2007, l’arresto di 94 mila persone, di cui 70 mila uscite nei nove mesi successivi (35 mila entro 11 giorni, 29 mila entro 3 giorni, pari al 32% del totale); che una elevata percentuale delle condanne inlitte in nome della città ostile (Margara 2002-2015) implica una elevata quantità di reclusioni brevi, per reati a vario titolo connessi con condizioni di grave marginalità sociale inlitte a quelli che un ex magistrato di sorveglianza deinì, già molti anni fa, “gli avanzi della giustizia” (Cappelli 1988); che le pene detentive, specie se brevi, enfatizzando le proprietà veneiche del pharmakon, si risolvono in un grave danno per quella collettività che attraverso la segregazione, pur sempre temporanea, si pretende di voler proteggere (Dolcini-Paliero 1989). Assunto che una pena certa in quanto inlessibile risulta troppo vicina all’antica dimensione vendicativa della pura retribuzione, per eludere il rischio che una pena lessibile, per essere tale, debba nutrirsi di discrezionalità suscettibili di essere valutate come prive di fondamento giuridico e scientiico (Ciardiello 2004c:20) occorre divergere dall’attuale contrapporsi di prospettive dicotomiche, per aprirsi all’esame di soluzioni rimaste ai margini del dibattito nonostante il loro ricorrere nell’analisi della dottrina e degli stake holders.27 In ogni caso, risulta indispensabile la ri-considerazione delle implicazioni di una declinazione operativa del costrutto di “rieducazione” che di frequente non appare supportata da teorie adeguate all’oggetto di indagine e di intervento. Occorre, dunque, rivisitare criticamente gli assunti impliciti utilizzati nella valutazione della progressione compiuta dai condannati nel corso del trattamento, termine che, ancorché presente nel vigente ordinamento penitenziario e nel relativo 26 P.Emanuele,“La funzione rieducativa della pena e l’esecuzione penale” in http://gruppodipisa.uniud.it/Benvenuto_files/emanuele.pdf. 27 Per una rassegna non esaustiva circa le modalità esperibili per salvaguardare le garanzie individuali ed il supporto ai processi di reinserimento sociale eludendo i rischi connessi al neoretribuzionismo e all’illimitato esercizio della discrezionalità giudiziaria, si vedano E. Dolcini, La “rieducazione” del condannato tra mito e realtà in Rivista italiana di diritto e procedura penale, 1979; L. Eusebi, Può nascere dalla crisi della pena una politica criminale?, in Dei delitti e delle pene, Edizioni Gruppo Abele, 1994; P. Ciardiello (a cura di), Quale pena. Problemi e riflessioni sull’esercizio della punizione legale in Italia, Unicopli, Milano, 2004.; G. De Cataldo, Minima criminalia, il manifesto libri, Roma, 2006. 57 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 regolamento di esecuzione, favorisce il surrettizio soggiacere degli interventi realizzati a supporto dell’inclusione sociale degli autori di reato alle perduranti inluenze del positivismo scientiico e giuridico che si traducono in valutazioni del cosiddetto “ravvedimento” effettuate, sotto mentite spoglie, sulla scorta di criteri propri del paradigma positivistico e del correlato modello clinico. Nell’esprimersi al riguardo e riprendendo alcuni temi centrali della sua genealogia dei sistemi disciplinari, Michel Foucault indicò nella“medicalizzazione della giustizia” l’origine del cedimento del soggetto di diritto allo psicopatico e, per tale via, dell’eclissi del diritto penale:28 La medicalizzazione della giustizia conduce a poco a poco a un’evizione del diritto penale, delle pratiche giudiziarie. Il soggetto di diritto cede il posto al nevrotico o allo psicopatico, più o meno irresponsabile, la cui condotta sarà determinata da fattori psico-biologici. A questa concezione alcuni penalisti oppongono un ritorno al concetto di punizione che si concili meglio con il rispetto della libertà e della dignità dell’individuo. Non si tratta di ritornare a un sistema di punizione brutale e meccanica… ma di trovare una coerenza concettuale e di fare una netta distinzione tra ciò che compete al diritto e ciò che compete alla medicina. … Ciò signiica che gli individui che fanno parte di questa società devono riconoscersi come soggetti di diritto che in quanto tali possono essere puniti e castigati se infrangono qualche regola. Non vi è in questo, credo, niente di scandaloso. Ma è dovere della società fare in modo che gli individui possano effettivamente riconoscersi come soggetti di diritto. Come l’assunto di base comune ai sostenitori e ai detrattori della spiegazione “identitaria” dei comportamenti di abuso dell’autorità (sia che si tratti di azioni sia di omissioni o negligenze), il paradigma positivistico si caratterizza per un orientamento marcatamente disposizionale, dunque imperniato sull’individuo, che trascura i processi interattivi e contestuali in cui si forma e modiica incessantemente l’identità personale. Occorre perseguire tale obiettivo di modiicazione degli assunti teorici che, di frequente, vengono posti alla base del cd. trattamento rieducativo29 perché é anche chiedendo e/o consentendo il perpetuarsi del ricorso al modello eziologico-disposizionale – caratterizzante tuttora quella parte dei saperi sull’uomo rimasta indifferente all’affermarsi dei paradigmi interazionistici (Ciardiello - Turchi 2008) che si perpetua e si magniica l’idea dell’homo criminalis che altrove si enuncia scientiicamente ed eticamente inaccettabile. Per tale via si pongono, pertanto, le premesse per la costruzione e la stabilizzazione dell’identità deviante che si dovrebbe contrastare, per la sanzione di ineficacia degli in28 http://www.24sette.it/contenuto.php?idcont=537 29 In tale direzione si pronunciano anche le “Linee guida per l’inclusione delle persone sottoposte a provvedimenti dell’autorità giudiziaria” - Ministero della Giustizia - Commissione consultiva e di coordinamento con le Regioni e gli Enti locali presso il Dipartimento dell’Amministrazione penitenziaria (2008), nelle quali si dà per assunta l’adozione di un approccio laico al trattamento rieducativo. 58 terventi in materia e per la cristallizzazione dei repertori culturali e delle rappresentazioni sociali concernenti gli autori di reato e dei soggetti devianti, nell’accezione di senso comune che tali deinisce individui o gruppi che si siano allontanati dal rispetto delle norme condivise all’interno di ogni speciico contesto sociale (Berzano - Prina 1995: 9). Le pratiche connesse a tali assunti teorici meritano, peraltro, accorta considerazione in quanto, pur esterne all’orbita dei trattamenti “inumani e degradanti”, esercitano una decisiva inluenza sull’entità e sulla qualità dell’esecuzione della pena intra ed extramuraria, sulle relative policy e, dunque, sulla possibilità che le reazioni ai reati e il reinserimento sociale dei relativi autori diventino questioni di rango pienamente pubblico con riferimento all’impatto di tali policy sulle questioni all’origine della loro predisposizione. Decisamente poco esplorata a tutt’oggi, infatti, risulta la messa in opera delle politiche pubbliche che si intersecano nella concreta gestione e trattamento degli autori di reato e del contributo che esse offrono alla delineazione del perdurante scarto fra le inalità riabilitative enunciate nei testi normativi e gli esiti di tali politiche, e ciò anche prescindendo dalle più che ampiamente dibattute implicazioni dell’ormai tendenzialmente endemico sovraffollamento.30 Anche in tal caso, gli assunti teorici e metodologici della scienza dialogica, coniugati con quelli dell’analisi delle politiche pubbliche consentono di asserire che occorre conferire ben maggiore attenzione al come si realizzi la messa in opera dei principi inscritti nelle leggi e alle strategie in tal senso utilizzate, a supporto della pubblica controllabilità dell’eficacia di quanto viene compiuto “in nome del popolo italiano”. In tal senso, si registra come la descritta, frequente torsione in senso clinico della valutazione del grado di rieducazione conseguito e la mancata valutazione dell’impatto dei programmi riabilitativi a vario titolo posti in essere - con riferimento sia ai singoli autori di reato sia ai raggruppamenti di essi realizzati con riferimento ai reati ascritti (v. sex offenders) o a condizioni soggettive (quali la presenza di una diagnosi di alcol-tossicodipendenza o di malattia psichiatrica) - si prestano agevolmente ad un impiego in chiave disciplinare/premiale di quegli elementi del trattamento (istruzione, formazione professionale, lavoro, coltivazioni delle relazioni familiari) che dovrebbero, per converso, essere considerati – nella prospettiva che si addice ad una democrazia costituzionale e alla separazione fra diritto e morale che ne costituisce il fondamento positivo – come diritti effettivamente esigibili. Pertanto, anche nel caso si consideri plausibile che la prigione continui a lungo a conigurarsi come la detestabile soluzione di cui sembra non potersi fare a meno (Foucault) occorre – oltre 30 Non è superluo aggiungere che, con rare eccezioni, risulta parimenti poco frequente anche l’esplorazione dell’impatto delle misure di welfare penale assunte a supporto delle persone in misura alternativa alla detenzione o soggette a misure di probation, inanziate, in alcune regioni del paese, da Regioni ed Enti locali attraverso dispositivi (dalle leggi di settore al Fondo Sociale Europeo) che accomunano le due popolazioni target (soggetti in esecuzione penale intramuraria e soggetti in esecuzione penale esterna). SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI che farvi ricorso con la parsimonia intrinseca al frame delineato – rovesciare la prospettiva: dalla necessità di giustiicare l’utilità della pena privativa della libertà alla doverosità (per governi che vogliono tener conto dei diritti fondamentali della persona umana) di limitare la dannosità della privazione della libertà (Eusebi 1990:124 - Daga 1990). In tale prospettiva, focalizzare il complesso degli interventi sul progressivo impiego da parte di tutti i ruoli attivi nel contesto e dei detenuti stessi di usi del linguaggio che escludano la coincidenza tout court fra persona e autore di reato renderebbe possibile fare ricorso al citato approccio di salute pubblica indicato da Zimbardo come il più adeguato ad affrontare in modo organico il supporto ai comportamenti rispettosi della dignità umana, comportamenti che, nelle situazioni in cui convivono persone private della libertà e persone che, per motivi professionali, tale privazione devono gestire, risultano spesso a rischio. Peraltro, considerato che, secondo la nota sentenza n. 204 emanata dalla Corte costituzionale nel 1974, “sorge il diritto per il condannato a che, veriicandosi le condizioni poste dalla norma di diritto sostanziale, il protrarsi della realizzazione della pretesa punitiva venga riesaminato al ine di accertare se in effetti la quantità di pena espiata abbia o meno assolto positivamente al suo ine rieducativo”,31 occorre considerare con rinnovata attenzione le implicazioni del conigurarsi del corrispettivo “obbligo tassativo posto in capo allo Stato di predisporre i mezzi idonei e le forme atte a garantirle”.32 Si osserva, al riguardo, che tale obbligo tassativo possa opportunamente imperniarsi (anche) su quanto prescritto dal Regolamento di Esecuzione dell’Ordinamento penitenziario (art.115 co.5): “L’idoneità dei programmi di trattamento a perseguire le inalità della rieducazione è veriicata attraverso appropriati metodi di ricerca qualitativa”33 (la cui assertività è espressa attraverso il ricorso all’impiego della forma verbale “è veriicata”) e su come tale prescrizione trovi concreta declinazione nelle programmazioni elaborate dalle singole direzioni degli istituti di pena e degli Ufici per l’Esecuzione Penale Esterna nonché nei programmi di trattamento che la legge penitenziaria dispone debbano essere predisposti con riguardo a ciascuna persona condannata. Il mutamento di prospettiva in argomento deve, dunque, poter includere nel proprio orizzonte la progressiva perequazione sul territorio nazionale della quantità e qualità dei servizi intesi secondo l’accezione sopra indicata, inclusi quelli deputati all’offerta alla Magistratura di Sorveglianza di elementi di conoscenza pertinenti con l’obiettivo di promuovere il reinserimento sociale degli autori di reato. E tale perequazione deve essere realizzata - oltre che attraverso l’emanazione di linee di indirizzo convenute attra31 Tali principi sono stati confermati nelle successive sentenze nn. 343 del 1987, 282 del 1989 e 125 del 1992 (rispettivamente ai nn. 7, 8 e 4 della motivazione in diritto. 32 Sentenza della Corte costituzionale n. 306 del 1993, p. 5. 33 L’inquadramento sistematico del comma citato in un articolo del Regolamento di Esecuzione riservato alla Distribuzione dei detenuti ed internati negli istituti non preclude la possibilità di considerare tale prescrizione della valutazione dell’efficacia estensibile all’intera gamma degli interventi individualizzati a supporto del “trattamento” dell’autore di reato. verso la Conferenza Stato-Regioni preparate da preliminari intese interistituzionali - anche attraverso la promozione del ricorso ad approcci teorici e a strumenti metodologici coerenti con la diversa rilevanza che si propone di conferire all’interazione dialogica fra persona condannata e il più ampio contesto nel quale la persona sta espiando la condanna in esecuzione nonché alla condivisione della responsabilità fra i soggetti a vario titolo implicati nell’esecuzione della pena, comprese le comunità locali. In tal senso, qualunque ruolo chiamato a concorrere al perseguimento degli obiettivi assegnati al sistema dell’esecuzione penale deve essere parimenti chiamato ad assumersi la responsabilità di esprimere pareri fondati su elementi obiettivabili, condivisibili, comprensibili da chiunque debba avvalersene e non su affermazioni di fatto non falsiicabili, e dunque, da Popper in poi, estranee alla prospettiva del metodo scientiico. Si tratta di un mutamento di prospettiva che implica, insieme obiettivo e strategia di azione, una politica che, nel tradursi in policy, sia in grado di coniugare il minimo malessere necessario per i devianti con il massimo benessere per i non criminali (Ferrajoli 1989a:325), di amministrare e governare il disordine (Mosconi 2004:318) senza sottoscrivere l’opzione di attribuire al diritto una funzione pedagogica, di non accogliere senza riserve le fallacie argomentative su cui fondano le posizioni della cosiddetta opinione pubblica ovvero quel senso comune34 che costruisce i modi di guardare alla realtà facendo ricorso alla creazione e alla conservazione degli stereotipi favorita, secondo la feconda lezione di Lippmann (1921:XVIII), da una informazione che …ha a che fare con una società in cui le forze dominanti sono assai imperfettamente documentate… e che normalmente può documentare solo quello che è stato documentato per lei dalle istituzioni nel corso del loro funzionamento. Nel transito verso il paradigma della responsabilità sociale condivisa, anche il ruolo dell’informazione nella democrazia moderna si conigura, dunque, di importanza cruciale, assieme alla trasparenza delle istituzioni e dei processi politici, soprattutto nel dibattito sui temi collettivi che della formazione delle opinioni (suscettibili di tradursi in orientamenti politici e, dunque, nella scelta dei propri rappresentanti) dovrebbe costituire la fondante premessa.35 La chiave di volta per il 34 Nell’ambito della scienza dialogica in cui l’oggetto è prodotto dalla conoscenza che si genera attraverso l’interazione e l’uso del linguaggio ordinario, il senso comune” si definisce come un ‘modo’ di conoscere la cui forma di conoscenza è differente dal “senso scientifico”: il senso comune procede per affermazioni, ovvero si afferma quando si stabilisce che ciò che è portato nella argomentazione è di per sé indipendente dalle categorie o dai criteri usati (per quanto questo procedere resti comunque un modo). La forma che tale modo usa è una forma che rileva le “cose” come indipendenti dai “modi” stessi. Il senso scientifico, di converso, procede per asserzioni. L’asserzione è una particolare forma di affermazione, ovvero una affermazione che esplicita le categorie conoscitive dell’osservatore. (G. P. Turchi, R. Fumagalli, M. Paita 2010). 35 Si consideri, al riguardo, che già nella democrazia ateniese del IV secolo avanti Cristo si assumeva come centrale l’idea che la legittimazione di un ordinamento dipende dalla capacità dei cittadini di discutere gli affari 59 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 cambiamento in tale direzione può essere costituita dalla convergenza dei contributi delle istituzioni, del sapere scientiico e delle attività di comunicazione verso la moltiplicazione delle opportunità di confronto dialogico sulle questioni di rilevanza pubblica, fra le quali certamente si annovera l’impiego delle risorse collettive a supporto dell’inclusione sociale degli ex autori di reato. Si tratta, attraverso tale confronto, di favorire lo sviluppo di una democrazia discorsiva in cui venga deinitivamente archiviato il mito di una volontà autentica del cittadino che preesisterebbe alla discussione pubblica e quello della presunta coincidenza fra doxa ed episteme, ovvero fra quanto si afferma come reale e i criteri sulla scorta dei quali tale affermazione viene effettuata, dunque fra senso scientiico e senso comune. In tal senso, concepire la comunità politica come spazio di interazione discorsiva implica l’allestimento di un contesto in cui le diverse posizioni possano essere valutate e confrontate; al contempo, tale conigurazione di comunità politica esige un ambiente normativo e culturale che riconosca appieno il ruolo e la responsabilità dei media e della comunicazione istituzionale nella formazione dell’agenda pubblica. Presupposto fondante della democrazia discorsiva rimane un’intelaiatura istituzionale (quella propria dello Stato costituzionale di diritto) in grado di proteggere i canali della comunicazione sociale e della formazione dialogica dell’opinione e della volontà, fornendo la garanzia dell’autonomia individuale e di relazioni simmetriche di riconoscimento reciproco, espressione dell’eguale dignità di tutti i soggetti. Fondato sull’assunto che “non abbiamo un linguaggio, ma siamo linguaggio” (volli 2005: 68), l’approccio in questione – che nella scienza dialogica trova adeguato supporto teorico e metodologico – si delinea come adeguato sia alla trattazione delle singolarità sia alla considerazione della polifonia delle voci che si intrecciano nei contesti in cui la questione criminale si articola. Se il linguaggio non esercita un ruolo passivo di mera registrazione di un senso prodotto altrove, occorre, dunque, fare dell’attenzione alla costruzione discorsiva della realtà la strategia di elezione per la generazione di conoscenza e per la sollecitazione del cambiamento culturale di cui in queste pagine si propone l’avvento, a partire dalla decostruzione progressiva dei repertori che nello spazio discorsivo pubblico – inclusivo delle istituzioni e di chi nelle istituzioni opera – costruiscono e mantengono le deinizioni correlate a costrutti quali (in)sicurezza, devianza, trasgressione, pena, immigrazione, identità culturale. Tale decostruzione si palesa come indispensabile in quanto le relative modalità di costruzione della conoscenza, pur avvalendosi del senso comune che attribuisce statuto ontologico a fenomeni socialmente e culturalmente connotati, diventano le premesse apparentemente necessitate di molte delle scelte comuni alle società globalizzate. E si tratta di scelte cruciali in quanto, perpetuando pregiudizi e stereotipi, alimentano “architetture” in cui le responsabilità pubblici e una visione generale della società che attribuiva perciò grande peso alla loro dotazione di informazioni e argomenti, alla loro partecipazione alla vita politica e alla loro autonomia morale. 60 di sistema – e dunque la condivisione delle responsabilità che, ai diversi livelli e soggetti, competono – vengono minimizzate, se non sottaciute. Pur in assenza dei sondaggi deliberativi e dei deliberation days auspicati da alcuni dei più noti sostenitori della democrazia deliberativa,36 si tratta di obiettivi perseguibili anche attraverso alcuni passaggi strategici che si conigurano già, qui e ora, come interni allo spazio discorsivo pubblico italiano ed europeo in quanto connessi sia alla compiuta declinazione degli obiettivi indicati dal legislatore costituente nazionale sia all’implementazione di raccomandazioni internazionali e dell’Unione Europea in materia di tutela dei diritti umani e di promozione della coesione sociale. Si fa riferimento alle implicazioni della recente ratiica37 da parte dell’Italia del Protocollo opzionale alla Convenzione ONU del 1984 (sottoscritta dall’Italia nel 2003) che all’articolo 1 esplicita l’obiettivo «di creare un sistema di visite regolari in tutti i luoghi di privazione della libertà effettuate da organismi indipendenti internazionali e nazionali, al ine di prevenire la tortura e altri trattamenti o pene crudeli, inumani o degradanti».38 In tal senso si conigura suscettibile di rilevanti implicazioni la recente istituzione di un’autorità nazionale e indipendente competente per la vigilanza sui luoghi in cui più intensi sono i rischi di violazione dei diritti umani39, un’autorità che dovrà essere in grado di esercitare, come ha scritto Antonio Cassese, «un controllo minuto ed eficace sul modo in cui la macchina dello stato funziona all’interno di luoghi che sono ancora troppo spesso nell’ombra». E per esercitare tale controllo “minuto ed eficace” occorrerà che tale autorità si avvalga opportunamente degli apporti dei Garanti istituiti da comuni, province e regioni40, secondo un as- 36 James Fishkin e Bruce Ackerman, rispettivamente, professore di comunicazione internazionale e scienze politiche presso la Stanford University e Sterling Professor di diritto e scienze politiche alla Yale Law School. Secondo la concezione anglosassone, per “deliberazione” si intende una attività di riflessione, argomentazione e ponderazione sulle questioni di pubblico interesse prima di prendere una decisione promossa da istituzioni interessate a creare le condizioni ideali per consentire all’opinione pubblica di esercitare un potere che, in assenza di tale ponderazione, corre gli opposti e altrettanto temibili rischi rappresentati dalla tirannia della maggioranza o dalla democrazia elitaria. 37 Con L.195/2012 il Parlamento ha autorizzato la ratifica del Protocollo e l’adozione dell’ordine di esecuzione. 38 È noto che per completare l’adeguamento dell’Italia alle convenzioni internazionali dovrebbe essere introdotta nel codice penale una specifica previsione del reato di tortura, non riducibile alla somma di altre fattispecie generiche. 39 Tra tali luoghi, con le carceri, i Centri di identificazione ed espulsione per persone prive di permesso di soggiorno, le camere di sicurezza annesse alle caserme delle polizie locali e statali e dei Carabinieri, ma anche le strutture deputate alla cura e alla riabilitazione delle persone consumatrici di sostanze psicotrope illegali e/o nei cui confronti sia stata formulata una diagnosi concernente sindromi definite di competenza della psichiatria. Si vedano al riguardo le competenze attribuite al Controleur Genéral des lieux de privation de liberté francese, in http://www.cglpl.fr/ 40 Per una disamina di punti di forza e di debolezza dell’esperienza dei Garanti italiani si vedano le Relazioni sull’attività svolta nel 2007 e nel 2008 dal Garante dei diritti delle persone limitate nella libertà della Provincia di Milano consultabili presso il sito istituzionale del citato Ente e, più in generale, le Relazioni che documentano l’attività esercitata dai Garanti finora istituiti. SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI setto in grado di coniugare l’esercizio dei poteri attribuito al Garante nazionale con la vicinanza ai luoghi in cui è più intenso il rischio di violazione dei diritti.41 Si noti, in tal senso, anche il pronunciamento del Parlamento Europeo nella Relazione 2013-2014 sui diritti fondamentali nell’Unione Europea che, nella annessa Proposta di Risoluzione, al punto 151, “ricorda che i diritti fondamentali dei detenuti devono essere garantiti dalle autorità nazionali; deplora le condizioni di detenzione nelle carceri e in altri istituti di custodia di numerosi Stati, tra cui igurano il sovraffollamento delle carceri e il maltrattamento dei detenuti; ritiene indispensabile l’adozione, da parte dell’UE, di uno strumento che garantisca l’attuazione delle raccomandazioni del Comitato europeo per la prevenzione della tortura e delle pene o trattamenti inumani o degradanti (CPT) e delle sentenze della CEDU”. Legittimata, peraltro, dalla previsione di una autonoma fattispecie di reato relativa alla tortura non ancora introdotta nella legislazione italiana, tale authority - grazie alla sua terzietà ed indipendenza dal potere politico e alla isionomia peculiare delle sue attribuzioni, connotata dalla anticipazione delle criticità e dall’esercizio della moral suasion - si conigurerà quale snodo cruciale per il cambiamento progressivo sia delle conigurazioni di realtà (discorsivamente intese) della pubblica opinione in materia di amministrazione della giustizia e di uso della pubblica autorità sia di quelle connotanti il mutamento culturale al centro della presente elaborazione: un mutamento in grado di favorire la progressiva sedimentazione nel senso comune che quanto attiene all’anticipazione e gestione dei comportamenti antigiuridici e delle relative implicazioni implica l’esercizio di una responsabilità da condividere socialmente, come tale non delegabile esclusivamente agli attori istituzionali. In tal senso, il trattamento dei cittadini destinatari di provvedimenti dell’autorità giudiziaria non può che conigurarsi come l’insieme delle modalità di interazione tra i membri delle istituzioni a vario titolo interessate, i cittadini che cooperano all’attuazione dei ini istituzionali e gli stessi cittadini destinatari di provvedimenti dell’autorità giudiziaria, interazioni che devono essere tali da consentire di anticipare e gestire le criticità che possono presentarsi all’interno dei contesti interessati secondo criteri di coerenza con i principi costituzionali. Implicazione e corollario dell’assunzione di tale diverso paradigma della respon41 Circa le possibili declinazioni dell’articolazione fra livello nazionale e livello locale e le relative implicazioni, si veda la ricerca promossa dal Comune di Roma sulla figura del Garante in Europa nell’ambito di un programma finanziato dalla Commissione Europea in http://www.ristretti. it/areestudio/giuridici/garante/garante_europa.pdf. Si segnala che va affermandosi l’avviso secondo il quale sarebbe opportuno estendere la tutela anche agli interessi legittimi, in base alla considerazione che, nell’istituzione penitenziaria, “alla distinzione tra diritti e interessi non corrisponde necessariamente dal punto di vista sostanziale una simmetrica graduatoria: è difficile negare, ad esempio, che il trasferimento del detenuto in una struttura lontana dal luogo di residenza dei suoi familiari possiede una carica di afflittività ben maggiore della mancata corresponsione della «mercede» relativa ad un giorno di lavoro.” F. Della Casa, intervento al Convegno Tra custodi e custoditi (5 novembre 2002) in www.abuondiritto.it, citato da G. Santoro, in Diritti dei detenuti in Portogallo e in Italia. Esperienze a confronto, consultabile nello citato sito web. sabilità è l’impossibilità di una deinizione del “bene” che esuli dalla condivisione sopra delineata e che possa tradursi, in assenza di tale condivisione, in inlizione di sofferenza esercitata sia in modo intenzionale sia in modo non intenzionale e indiretto, attraverso quei trattamenti inumani e degradanti che, anche senza integrare forme di tortura, si conigurano come la risultanza di una serie di comportamenti e circostanze che, di fatto, violano i diritti umani come sanciti dalla Costituzione e dalle Convenzioni internazionali in materia. Ancora, occorre che, ovunque collocati, quanti nella comunità scientiica42 e in quella civile, nei sistemi esperti e nelle agenzie di welfare, nelle regioni, negli enti locali, in Parlamento sono coinvolti, direttamente e indirettamente, nella trattazione di questioni di rilevanza pubblica (e, dunque, concernenti i diritti, il diritto e la giustizia),43 assumano che l’esclusione sociale, la devianza, i conlitti non hanno esistenza indipendente dai modi socialmente istituiti di deinirli e trattarli. A corollario di tale posizionamento culturale ed epistemologico si pone il conferimento della massima attenzione ai processi interattivi di generazione della conoscenza mediati dal linguaggio e il ruolo che gli attori coinvolti vi svolgono, tenendo conto del mutamento dei processi di controllo e della correlata nuova retorica che vanno prendendo forma nell’alveo della crisi del welfare (PitCh 2006:115). In tal senso, la modiicazione di quei repertori che nello spazio discorsivo pubblico si conigurano come esito ed insieme origine di quella che è stata deinita la costruzione sociale della paura - e, con essa, della richiesta di sempre maggiore penalità - implica la delineazione di policy trasversali a tutti gli ambiti dell’intervento sociale quanto convergenti verso la condivisione di una sicurezza declinata come produzione di maggiore “sicurezza dei diritti per tutti” (baratta Pavarini 2006b:58). In altri termini, si tratta di collocare il complessivo policy making nel solco della ragione sociale dello stato italiano delineata dal testo costituzionale attraverso norme che stabiliscono, con il principio della pace, i diritti fondamentali, individuali e sociali, e individuano le relative garanzie (Ferrajoli 2007b:898). In tale accezione, la sicurezza si conigura come l’esito dell’assunzione della cittadinanza come ricerca e come responsabilità condivisa fra tutti coloro che abitano un territorio. Si tratta di una prospettiva conso42 «Lo scienziato sociale acquisterà dignità e forza solo quando avrà elaborato il suo metodo. Ci riuscirà se sarà capace di tramutare in concrete possibilità il bisogno dei dirigenti della Grande Società di possedere strumenti di analisi che rendano intelligibile un ambiente invisibile e formidabilmente difficile. (…) Questi studiosi della vita pratica sono i veri pionieri di una nuova scienza sociale. Sono «ingranati nelle ruote motrici» e sia la scienza che l’azione si avvantaggeranno in modo radicale da questo loro connubio operativo: l’azione trarrà benefici dalla chiarificazione dei suoi presupposti; i presupposti la trarranno dalla continua verifica dei fatti.» W. Lippmann, op. cit., p. 270. 43 Paul Ricoeur, “La giustizia è un concetto che non appartiene né alla morale né al diritto positivo, ma ai “principi generali del diritto”, che si trovano nelle dichiarazioni universali dei diritti come per esempio nella Dichiarazione d’indipendenza della Rivoluzione americana, nella Dichiarazione dei diritti dell’uomo e del cittadino della Rivoluzione francese e nel preambolo di molte costituzioni, che spesso contengono principi più giusti rispetto al contenuto determinato delle leggi che seguono.”, in http://www.emsf.rai.it/articoli/articoli/.asp?d=17. 61 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 nante con quella bachtiniana dell’«exotopia»: una sorta di extralocalizzazione, «una tensione dialogica dominata dal continuo ricostituire l’altro come portatore di una prospettiva autonoma, altrettanto sensata della nostra e non riducibile alla nostra», a prescindere da deinizioni identitarie che, in quanto tali, fossilizzano le possibilità di dialogo e di convivenza, cristallizzando in copioni predeiniti i ruoli di tutti e di ciascuno (sClavi 2003:31).44 Corrispettivamente, assumere anche la cittadinanza come responsabilità condivisa implica la progressiva estensione della qualità e della quantità dei soggetti che si considerino co-responsabili in materie a lungo considerate di esclusiva pertinenza dell’autorità statuale quali la giustizia e la sicurezza, implicanti forme di partecipazione alla vita pubblica esigenti per tutti, compresi i cittadini, attraverso forme della democrazia che, integrando le tradizionali espressioni della democrazia rappresentativa, promuovano la costruzione di regole volte a garantire non tanto l’effettività di una partecipazione quale che sia quanto piuttosto l’effettività di una partecipazione di qualità (arena 2010, valastro 2010)45. Corollario di tale declinazione della cittadinanza risulta la formulazione di politiche pubbliche e progetti di intervento pertinenti con l’obiettivo di ridurre, in prospettiva, il numero e l’offensività dei reati e quello delle persone direttamente e indirettamente offese da tali reati come parte di una più ampia strategia di supporto della coesione sociale. In tal senso, in quanto coerente con tale prospettiva e con quanto va affermandosi da tempo negli orientamenti del Consiglio d’Europa,46 occorre perseguire l’ade44 «Nell’empatia il ricercatore (e l’operatore) isola e decontestualizza alcuni tratti della esperienza dell’altro per comprenderla in base alla propria esperienza, quindi mantenendo valido il proprio contesto. Finge di mettersi nelle scarpe dell’altro, ma in realtà, all’ultimo momento, mette l’altro nelle proprie scarpe. Nell’exotopia invece la ricerca inizia quando, avendo cercato di mettersi nelle scarpe dell’altro, ci si accorge che non gli vanno bene. Ma per accorgersi bisogna «esporsi», non si può usare né i questionari né le interviste rigidamente strutturate». M. Sclavi, Arte di ascoltare e mondi possibili, Bruno Mondadori, Milano, 2003, p. 31. 45 Per la trattazione delle implicazioni per la coesione sociale dell’assunzione della cittadinanza e dell’azione pubblica secondo il paradigma della responsabilità condivisa v. P. Ciardiello, Il terzo luogo. Coesione sociale e azione pubblica. Generare e valutare processi partecipativi, Aracne, Roma, 2016. 46 Si vedano, al riguardo, la Carta Sociale europea, la nuova Strategia di coesione sociale e la dichiarazione di Helsinki. Ad esemplificazione di tale orientamento, si riportano di seguito alcuni brani tratti dal libro “L’approccio alla sicurezza attraverso la coesione sociale. Decostruire la paura (degli altri) andando al di là degli stereotipi” edito a cura del Consiglio d’Europa (www.coe.int.; pp. 31-34): Sauvegarder la cohérence entre droits fondamentaux et sécurité La crédibilité de la justice est un préalable auquel aucune société ne devrait vouloir renoncer…face aux illégalismes qui s’opposent à une vie sociale bien réglée, les autorités publiques doivent répondre avec détermination mais d’une manière qui soit cohérente avec la substance des droits et des libertés qu’elles sont finalement chargées d’assurer pour tous. … cela impose avant tout de sauvegarder son indépendance face aux pressions éventuelles d’autres institutions et agences, de développer son accessibilité, d’assurer que son exercice soit égal pour tous. (Palidda a souligné) l’exigence de ne pas donner aux pouvoirs discrétionnaires des polices l’occasion de se déployer: en contrôler démocratiquement l’activité et en réprimer les abus est aussi une bonne méthode pour dénoncer toute exception aux normes juridiques et au respect des droits fondamentaux. 62 sione al paradigma riparativo per l’anticipazione dei conlitti e non solo per la gestione delle implicazioni dei conlitti scaturiti dalla violazione della legge penale. La progressiva adozione del paradigma della responsabilità sociale condivisa delineata in questa sede, in quanto fondata sul garantismo quale principio ordinatore di tutti gli interventi relativi alla res publica, implica la vigilanza sull’adeguatezza dei contenuti normativi delle leggi ai contenuti normativi dei patti fondativi delle comunità. Inoltre, conigurandosi come il rouge dell’azione pubblica e come volano dell’integrazione delle diverse politiche di settore, consente di tenere all’interno della stessa trama discorsiva la riduzione della sfera degli illeciti penali e del ricorso alla privazione della libertà, il contrasto delle teorie di senso comune che affermano e perpetuano sia la presunta diversità ontologica dell’autore di reato sia quella dell’agente chiamato a gestirne l’arresto e la detenzione nonché la costruzione di uno spazio discorsivo pubblico in cui non trovino legittimazione i repertori della violenza e della costruzione della categoria del nemico e dello straniero, la generazione di forme di vita democratica non imperniate esclusivamente intorno all’aggregazione delle preferenze, ma anche alla loro trasformazione. Ancora, si tratta di una prospettiva che, non fondandosi sul carattere meramente formale del principio di legalità, può consentire di coniugare le questioni connesse alle tutele giurisdizionali e quelle relative al modello di sviluppo in grado di garantire e inanziare i diritti.47 Per tale via, diventa, peraltro, plausibile che la politics maturi l’intendimento a – e diventi competente nel - generalizzare la promozione di nuove forme di esercizio della democrazia nella corroborata certezza che senza il recupero della capacità di costruire una visione condivisa del futuro essa è destinata a rimanere muta e a perdere progressivamente legittimazione …des nouveaux parcours de citoyenneté devraient être ouverts pour contrer durablement la déviance, la désaffiliation, la discrimination des groupes sociaux vulnérables. Rouvrir les parcours de la citoyenneté, de l’utilité et de la valorisation de tous pour déconstruire la peur Des larges concertations qui se veulent efficaces à long terme devraient développer une perspective plus ample et diversifiée, à partir d’un rééquilibrage des tâches et des poids relatifs entre élus locaux, membres d’associations et d’organisations civiles, entrepreneurs responsables de l’insertion, professionnels de police, agents des services sociaux et experts en médiation des conflits et empowerment des relations de solidarité. Développer un usage plus critique et participatif des médias Si essentielles qu’elles soient dans une société démocratique sûre, une information plurielle et une communication participative ne se développent pas spontanément: elles doivent devenir l’objet d’un intérêt collectif, voire d’un développement proactif qui concerne à la fois les autorités publiques, nationales et locales, les organisations et les mouvements de la société civile, les professionnels du secteur, les structures de l’éducation et de la formation aux différents niveaux et, finalement, tout citoyen en tant que client des réseaux médiatiques. 47 S. Holmes, C.R. Sunstein, The Costs of Rights. Why Liberty Depends on Taxes, W.W. Norton, New York 1999, trad. it. Il costo dei diritti. Perché la libertà dipende dalle tasse, Il Mulino, Bologna 2000. In tale volume, gli autori mettono in evidenza che si discute dei diritti non tenendo in adeguata considerazione che le pretese individuali o collettive elevate al rango di diritti possono ricevere effettiva soddisfazione solo nella misura in cui l’ordinamento non solo dà loro riconoscimento e tutela, ma destina loro anche specifiche risorse. In altri termini, i diritti hanno dei costi. SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE POLITICHE E SOCIALI e consenso. Ed è all’interno di una tale visione del futuro che anche gli interrogativi sul se, sul come e sul quanto punire possano inalmente divenire questioni di rango pienamente pubblico e, con essi, quelli inerenti le concrete modalità di esercizio della limitazione della libertà personale dei cittadini. RIFERIMENTI BIBLIOGRAFICI Arena G., Tre regole per le nuove forme della democrazia, in www.labsus.org Bartoli C., La responsabilità di sistema e le mele di Abu Ghraib, in www.dirittoequestionipubbliche.org/page/2010.../ a02_studi_C_Bartoli.pdf Berzano L., Prina F., Sociologia della devianza, NIS, Torino, 1995. Bosetti G., Maffettone S. (a cura di), Democrazia deliberativa. Cosa è, LUISS University Press, Roma, 2004. Cacciari M., Due passi all’inferno. Brevi note sul mito della pena, in U. Curi e G. Palombarini (a cura di), Diritto penale minimo, Donzelli Editore, Roma, 2002. Cappelli I., Gli avanzi della giustizia. Diario del giudice di sorveglianza, Editori Riuniti, Roma, 1988. Cassese A., Umano-disumano. Commissariati e prigioni nell’Europa di oggi, Laterza, Bari, 1994. Ciardiello P. (a), Formazione e sviluppo organizzativo nel sistema dell’esecuzione penale, in Rassegna penitenziaria e criminologica, Istituto Poligraico e Zecca dello Stato, Roma, n.3, 2008. Ciardiello P. (b), Giustizia riparativa, diritti e welfare plurale, in Giustizia riparativa, comunità, diritto, Studi sulla questione criminale, Carocci Editore, Roma, anno IV, n. 1, 2009. Ciardiello P., Il terzo luogo. Coesione sociale e azione pubblica. Generare e valutare processi partecipativi, Aracne, Roma, 2016. Ciardiello P., Introduzione, in P. Ciardiello (a cura di), Quale pena. Problemi e rilessioni sull’esercizio della punizione legale in Italia (1992-2004), Unicopli, Milano, 2004. Ciardiello P., Turchi G.P., Paradigma narrativistico, osservazione scientiica della personalità e trattamento degli autori di reato in L. Colaianni, P. Ciardiello (a cura di) Cambiamo discorso. Diagnosi e counselling nell’intervento sociale secondo il paradigma narrativistico, Carocci Editore, Roma, 2008. Cohen S., Uno scenario per il sistema carcerario futuro in F. Basaglia, F. Basaglia Ongaro (a cura di), Crimini di pace, Einaudi, 1975. Consiglio d’Europa, L’approccio alla sicurezza attraverso la coesione sociale. Decostruire la paura (degli altri) andando al di là degli stereotipi in www.coe.int. Curi U., Il paradosso della pena, in U. Curi e G. Palombarini (a cura di), Diritto penale minimo, Donzelli Editore, Roma, 2002. Daga L., Sistemi penitenziari, (lemma), Enciclopedia del diritto, XLII, Giuffrè, 1990. de Leonardis O., Le istituzioni. Come e perchè parlarne, Carocci, Roma, 2004. Dolcini C., Paliero E., Il carcere ha alternative? Le sanzioni sostitutive della detenzione breve nell’esperienza europea, Giuffrè, Milano, 1989. Dolcini E., Rieducazione del condannato e rischi di involuzione, in Rassegna penitenziaria e criminologica, n. 2-3, Roma, Istituto Poligraico e Zecca dello stato, Roma, 2005. Emanuele P., La funzione rieducativa della pena e l’esecuzione penale in http://gruppodipisa.uniud.it/Benvenuto_iles/emanuele.pdf. Escobar R., Il bene e la sua ombra, prefazione all’edizione italiana a P. Zimbardo, L’effetto Lucifero. Cattivi si diventa?, Raffaello Cortina, Milano, 2008. Eusebi L., La pena “in crisi”. Il recente dibattito sulla funzione della pena, Editrice Morcelliana, Brescia, 1990. Ferrajoli L. (a), Diritto e ragione. Teoria del garantismo penale, Laterza, Roma-Bari, 1989. Ferrajoli L. (b), Principia juris. Teoria del diritto e della democrazia, vol. 1. Teoria del diritto, Laterza, Bari, 2007. Fiorio C., Mediazione e processo penale, in Mediare non punire, Quaderni di “Antigone”, anno III, n.2, Edizioni L’Harmattan, Torino, 2008. Foucault M., Che cosa vuol dire punire, in http://www. gianfrancobertagni.it/materiali/filosofiacritica/direpunire. htm Girard R., La violenza e il sacro, tr. it. Adelphi, Milano 1980. Goffman E., Asylums, Einaudi, Torino, 1961. Grande E., Il terzo strike. La prigione in America, Sellerio, Palermo, 2007. Holmes S., Sunstein C.R., The Costs of Rights. Why Liberty Depends on Taxes, W.W. Norton, New York 1999, trad. it. Il costo dei diritti. Perché la libertà dipende dalle tasse, Il Mulino, Bologna 2000 Lanzutti S., Quella difidenza che inquina i rapporti, in carte Bollate, aprile-marzo 2010, p. 10. Lippmann W., L’opinione pubblica, Donzelli, Roma, 2000. Margara A., Quale giustizia? Repetita non iuvant: Ancora sulla pena e sul carcere, in http://www.questionegiustizia.it/ rivista/2015/2/quale-giustizia_repetita-non-iuvant_ancorasulla-pena-e-sul-carcere_243.php Mathiesen T., Verso il XXI secolo. Abolizione: un sogno impossibile?, in U. Curi e Palombarini G. (a cura di), Diritto penale minimo, Donzelli Editore, Roma, 2002. Mori L., Il consenso. Indagine critica sul concetto e sulle pratiche, ETS, Pisa 2009. Mosconi G., La crisi postmoderna del diritto penale, in U. Curi e G. Palombarini (a cura di), Diritto penale minimo, Donzelli Editore, Roma, 2002. Mosconi G., Tre domande a Giuseppe Mosconi, in P. Ciardiello (a cura di), Quale pena. Problemi e rilessioni sull’esercizio della punizione legale in Italia (1992-2004), Unicopli, Milano, 2004. Padovani T., Se i detenuti sono vittime del reato di maltrat63 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 tamenti, www.radiocarcere.com, 30 settembre 2009. Pavarini M. (b), Introduzione. “L’aria della città rende (ancora) liberi”? Dieci anni di politiche locali di sicurezza, in M. Pavarini (a cura di), L’amministrazione locale della paura. Ricerche tematiche sulle politiche di sicurezza urbana in Italia, Carocci, Roma, 2006. Pavarini M., Il grottesco della penologia contemporanea, in U. Curi e G. Palombarini (a cura di), Diritto penale minimo, Donzelli Editore, Roma, 2002. Pavarini M., Processi di ricarcerizzazione e nuove teorie giustiicative della pena in Rassegna penitenziaria e criminologica, Istituto Poligraico e Zecca dello Stato, Roma, n. 1-3, 2000. Pepa L., La risorsa umana nei servizi, in L. Pepa (a cura di), La nostra Bastiglia. La sida della formazione fra repressione e presa in carico della devianza, Edizioni Gruppo Abele, Torino, 1992. Pitch T., La società della prevenzione, Carocci, Roma, 2006. Re L., Carcere e globalizzazione. Il boom penitenziario negli Stati Uniti e in Europa, Laterza, Roma-Bari, 2006. Ricoeur P., L’idea di giustizia, in http://www.emsf.rai.it/ articoli/articoli/.asp?d=17. Roia F., La giustizia penale fra riforme processuali e riforme ordinamentali in http://www.diritto.it/osservatori/giustizia_costituzione/ver_giustizia/proc_pen_03.html. 64 Ruotolo M., Diritti dei detenuti e Costituzione, Giappichelli, Torino, 2002. Sclavi M., Arte di ascoltare e mondi possibili, Bruno Mondadori, Milano, 2003. Tamburino G., Conoscere il carcere, in Micromega, n. 1-2000, Gruppo editoriale “L’Espresso”, Roma. Turchi G.P., Fumagalli R., Paita M. (a cura di), La promozione della cittadinanza come responsabilità condivisa. L’esperienza pilota di mediazione civica sul territorio della Valle del Chiampo, Domeneghini, Padova, 2010. Valastro A., Una nuova sida: qualità ed effettività della democrazia partecipativa. Generare nuove forme di abitudine alla democrazia, in www.labsus.org Verde A. (a cura di), I contributi teorici nel campo della formazione del personale penitenziario, in La formazione e l’aggiornamento del personale penitenziario, Quaderni dell’Uficio Studi, Ricerche e Documentazione della Direzione Generale per gli gli Istituti di Prevenzione e Pena, n. 23, Istituto Poligraico e Zecca dello Stato, Roma, 1989. Volli U., Manuale di semiotica, Laterza, Roma-Bari, 2005. Zamperini A., Le prigioni della mente. Relazioni di oppressione e resistenza, Einaudi, torino, 2004. Zimbardo P., The Lucifer effect. How good people turn evil, Edizione italiana, L’effetto Lucifero. Cattivi si diventa?, Raffaello Cortina, Milano, 2008. SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | STORIA DELLA SCIENZA La metodologia costruttivista e l’uniicazione culturale a livello di formazione sono fattori indispensabili per la conoscenza FRANCESCO GIULIANO N el nostro tempo, quando la Scienza, iglia del pensiero dialettico, sta facendo passi da gigante – è recente la notizia scientiica sulla produzione per la prima volta di un fascio di atomi di antidrogeno al CERN di Ginevra: una scoperta che apre le porte alla risoluzione dell’annoso problema della ‘prevalenza della materia rispetto all’antimateria del cosmo’ – penso che uno dei mali peggiori ai ini educativi e formativi sia il dogmatismo, ovvero un insegnamento di stampo catechetico che insegna ad obbedire, a eseguire ciò che ci viene ‘comandato’ e che, quindi, ‘impedisce’ di pensare e di elaborare in modo autonomo e creativo. Il dogmatismo porta l’individuo, di fatto, ad acquisire sin dalla tenera età insegnamenti e precetti che gli vengono ‘imposti’ come verità assolute, indiscutibili, inconfutabili. Ciò, di conseguenza, lo condiziona e gli chiude la mente rispetto al raggiungimento di nuove prospettive, a causa della categorizzazione del lavoro in un determinato settore, dove l’individuo è costretto a ‘ripetere’, anche se apparentemente diversiicato, per l’intera esistenza tutto ciò che gli è stato insegnato. Oggi, stiamo vivendo una delle peggiori crisi economiche che, secondo alcuni studiosi, ha prodotto, sta producendo e ancora produrrà, nel mondo occidentale, danni peggiori di quelli generati dalla seconda guerra mondiale: perdita del posto di lavoro con il conseguente aumento della disoccupazione, incapacità di adattarsi ad nuovo lavoro, suicidi, crescita della disoccupazione giovanile, incremento della povertà, impossibilità di inventarsi nuove attività lavorative, ma soprattutto precarietà non solo di chi è giovane ma anche di chi, già adulto ( un cinquantenne ancora lontano dal pensionamento) lavorando perde il lavoro per sempre. Per cercare di scongiurare tutto questo, la scuola dovrebbe avere il compito di educare alla creatività e all’adattamento a nuove situazioni, evitando o riducendo nel contempo l’insegnamento dogmatico in tutte le discipline. Si consideri pure il dificile rapporto asimmetrico tra le scienze umane e le scienze propriamente dette. Le prime, infatti, proiettate ad indagare sul passato e ad interpretarlo, sono arroccate in un mondo isolato fatto di sapienza nonempirica che dà della realtà una visione pessimistica. Le seconde, invece, grazie a tutte le straordinarie scoperte che hanno permesso e permettono continuamente di progredire, e al conseguente ampliamento della conoscenza e alla relativa diffusione di essa tramite internet e i social network, stanno immettendo l’umanità nel futuro con una visione ottimistica. Una rivoluzione in atto, dunque, che sta portando l’uomo sia a ‘vedere’ non solo il macrocosmo in cui vive ma anche il microcosmo di cui è costituito, e a cambiare continuamente il modo di intendere la vita e di interpretare il mondo e l’universo. Le vecchie entità e i loro mezzi che governavano l’umanità sono in crisi. Nel 1991, John Brockman, presidente della Edge Foundation, in un saggio dal titolo The Emerging Third Culture, scriveva: Negli ultimi anni il campo di gioco della vita intellettuale americana si è spostato e l’intellettuale tradizionale ha assunto un ruolo sempre più marginale. Un’istruzione in stile anni Cinquanta, basata su Freud, Marx e il modernismo, non è una qualiica suficiente per una testa pensante del giorno d’oggi. Di fatto gli intellettuali tradizionali americani sono in un certo senso sempre più reazionari e spesso ieramente (e perversamente) ignoranti di molti signiicativi conseguimenti intellettuali della nostra epoca. La loro cultura, che disdegna la scienza, è spesso non empirica. Utilizza un proprio gergo e lava in casa i propri panni (più o meno sporchi). È perlopiù caratterizzata da commenti di commenti, e la spirale di commenti si dilata ino a raggiungere il punto in cui si smarrisce il mondo reale. Per questi intellettuali tradizionali che, oltre che in America, si trovano anche dalle nostre parti, tutto ruota attorno alla parola, che spesso è priva di fondamento. Si prospetta necessariamente, per questo, l’avvento di una terza cultura, in cui gli umanisti pensino come gli scienziati e gli scienziati come gli umanisti, perché in fondo ciò che accomuna gli uni agli altri sono i sentimenti che esprimono e la passione che mettono nel loro lavoro. Cambia l’essenza della ricerca, ma ciò che 65 STORIA DELLA SCIENZA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 opera è sempre e soltanto l’uomo con la sua mano e la sua mente. Emotività e razionalità vanno di pari passo. Si propone, allora, con la terza cultura la concretizzazione di un nuovo umanesimo! La terza cultura, infatti, non evidenzia tra la cultura umanistica e quella scientiica alcuna separazione, quella separazione che ha creato e crea dei compartimenti stagni culturali dannosi, che costituiscono un freno sia allo sviluppo della conoscenza a livello individuale che alla risoluzione dei problemi collettivi. Chiediamoci, allora, perché oggi non si riesce ad affrontare e risolvere i problemi sociali ed economici che assillano l’umanità progredita così come è stato sottolineato in premessa? Oggi, mentre la scienza, grazie alla razionalità di cui è satura (non è un caso che il metodo scientiico, dopo un letargo di circa diciotto secoli, abbia ripreso il suo cammino a partire dal ‘600 grazie non solo al metodo scientiico galileiano e al razionalismo cartesiano ma anche al ripristino della ilosoia epicurea, fautrice della libertà di pensiero, che subentrò prepotentemente alla ilosoia aristotelica che invece ne era stata inibitrice), stia progredendo in maniera esponenziale, penso che una delle principali cause che generano l’allontanamento della gente dalla ‘conoscenza’ sia l’uso latente del dogmatismo in tutti gli ambiti culturali e la divisione culturale a livello formativo appena accennata. A sostegno di ciò, risulta necessario citare l’interessante saggio “Gödel, Escher, Bach: Un’Eterna Ghirlanda Brillante”, pubblicato nel 1979, del ilosofo statunitense Douglas Richard Hofstadter (1945) secondo cui tutto ruota attorno alla seguente domanda: Le parole e i pensieri seguono regole formali o no? Nel saggio vi si intrecciano, infatti, le opere del matematico e logico austriaco Kurt Gödel, quelle dell’incisore e graico olandese Maurits Cornelis Escher, e la musica del grande e creativo compositore tedesco Johann Sebastian Bach. Dal loro confronto emerge, appunto, la ricerca di un 66 ilo comune, di un meccanismo neurologico latente, che unisca le loro opere dell’uomo a settori culturalmente giudicati molto diversi tra di essi, come la logica, la graica, e la musica, ovvero come le idee, la manualità e le emozioni e i sentimenti espressi dal linguaggio musicale. Allora siamo indotti a porci le seguenti domande: Il nostro cervello funziona allo stesso modo sia quando si risolve un problema matematico o si scrive una proposizione o si dipinge un quadro o si compila un brano musicale? Non è il pensiero che ci guida in ogni cosa? Non è il pensiero che guida la mano esperta in qualunque settore dello scibile umano? La Cultura può essere ‘compartimentata’ ai ini educativi? La compartimentazione culturale è uno stereotipo? La separazione della Cultura in umanistica e scientiica è utile ai ini educativi e formativi? È bene, a questo punto, fare una miscellanea di semplici considerazioni di carattere storico ai ini esplicativi ma anche didattici. A scuola si insegna fondamentalmente che 2 + 2 è sempre uguale a 4 nell’insieme dei numeri naturali {0,1,2,3, 4, 5, … … … , n}, ma raramente si insegna che il risultato potrebbe essere diverso se si operasse in un insieme diverso come, ad esempio, in {0,1,2,3} dove 2 + 2 = 0 oppure in quello dell’orologio {1,2,3,4,5,6,7,8,9,10,11,12} dove 12 + 2 = 2. Da ciò deriva, dunque, che il risultato di un’operazione, in questo caso l’addizione, non è scontato, ma è relativo all’insieme numerico in cui si sta lavorando. Questo signiica che l’insegnamento basato su un procedimento assiomatico, cioè costruito su determinati postulati convenzionali ma variabili, creerebbe nell’individuo degli strumenti mentali lessibili che lo porterebbero ad essere creativo e a sfondare la ‘gabbia’in cui il dogmatismo lo vincola mentalmente per sempre. Eppure la storia ci ha fatto conoscere grandi ilosoi come Talete di Mileto (640 – 547 a.C.), secondo cui ‘la ragione governa il mondo’, o come Pitagora (570 – 495 a.C.), secondo il SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | STORIA DELLA SCIENZA quale ‘la matematica è l’essenza della natura’, i quali sono stati, in epoche diverse, i fautori della prima grande rivoluzione del pensiero scientiico. Essi scoprirono la potenza del lógos, che in sé racchiude i signiicati di pensiero, di parola, di concetto, di ragione. Grazie al lógos dopo il superamento del mýthos, l’umanità considerò i fenomeni naturali non più espressione arbitraria assegnata dall’uomo ad una qualsivoglia divinità, ma piuttosto espressione coerente e dialettica di una divinità logica e matematica. Ciò determinò il passaggio dall’incertezza alla certezza, tant’è che Aristotele (384- 322 a.C.) enunciò il principio di non-contraddizione secondo cui è ‘impossibile che il medesimo attributo, nel medesimo tempo, appartenga e non appartenga al medesimo oggetto e sotto il medesimo riguardo’, che si esprime più semplicemente con la proposizione ‘P è anche non-P’ è falsa. Molto tempo prima di lui, anche Parmenide, il ilosofo eleatico vissuto nel VI secolo a.C., sosteneva che la legge formale della non-contraddizione è la legge dell’Essere, a cui il pensiero risulta vincolato in modo necessario per dargli compiutezza e validità. Pensiero questo che si riscontra pure in Platone, secondo il quale la logica è la costruzione matematica delle connessioni delle idee, le quali costituiscono la base della realtà e confutano gli errori e i paradossi applicando il principio di non contraddizione. Sin da allora, l’uomo pensante, dunque, si è posto di fronte alla logica, sostantivo che deriva appunto da lógos, che permette di discernere ciò che è valido da ciò che non è valido; in deinitiva ciò che è coerente da ciò che è incoerente, ciò che contraddice un concetto ritenuto valido, nel contempo e nel contesto. Da allora sia la logica che il principio di non-contraddizione, concetti inscindibili della coerenza, sono stati basilari per la costruzione del pensiero e del ragionamento congruente al ine della risoluzione di un problema qualsiasi. Circa ventidue secoli dopo, Galileo Galilei (1564 – 1642) scriveva nel “Il Saggiatore” che ‘La ilosoia è scritta in questo grandissimo libro che continuamente ci sta aperto innanzi a gli occhi (io dico l’universo), ma non si può intendere se prima non s’impara a intender la lingua, e conoscer i caratteri, ne’ quali è scritto. Egli è scritto in lingua matematica, e i caratteri son triangoli, cerchi, ed altre igure geometriche, senza i quali mezzi è impossibile a intenderne umanamente parola; senza questi è un aggirarsi vanamente per un oscuro laberinto’. Tuttavia, con l’avvento della meccanica quantistica (1925-1926), basata sul concetto di quanto introdotto nel 1900 da Max Planck (1858 – 1947), grazie ai isici Werner Karl Heisenberg (1901 -1976 ) e Erwin Schrödinger (1887 – 1961), si è passati al concetto di indeterminatezza, perché l’elettrone - con la teoria del 1924, sul dualismo onda-corpuscolo, fatta dal isico Louis De Broglie (1892 – 1987) -, oltre a comportarsi come un’entità materiale ha il carattere di un’onda, in quanto manifesta proprietà ondulatorie, cioè l’elettrone risulta al tempo stesso corpuscolo (essere) e onda (non-essere). In questo modo, si è passati sponte sua dalla dialettica aristotelica a quella antidialettica o di Eraclito (535 – 475), che si può esprimere con le seguenti semplici citazioni, ‘negli stessi iumi scendiamo e non scendiamo’ a causa dello scorrere dell’acqua, o ancora ‘il mare è l’acqua più pura e impura: per i pesci è bevibile e vitale, per gli uomini è imbevibile e mortale’. Ciò ha comportato, allora, il passaggio ad un’altra logica dove possono risultare ‘vere un’affermazione e la sua negazione’, cioè, come si diceva in latino, ‘ex falso (sequitur) quod libet’, dal falso (segue) una qualsiasi cosa a piacere. In deinitiva, il principio di non contraddizione viene sostituito dal principio di complementare contraddittorietà, che equivale a quello che si chiama più semplicemente “principio di esplosione” secondo cui ‘data una proposizione possono risultare vere tutte le proposizioni che la negano’, cioè ‘P è anche non-P’ è possibilmente vera. Se nel passato, non ci fossero stati matematici dotati di strumenti mentali di elevata creatività, oggi non avremmo l’informatica basata sull’algebra di Boole (1815 – 1864), che utilizza l’insieme {0,1}, né avremmo la già accennata meccanica quantistica (che studia l’ininitamente piccolo), né la teoria della relatività generale di Einstein (che si occupa dell’ininitamente grande). Tutto ciò grazie alla modiica del quinto postulato della geometria piana o euclidea (III secolo a.C.) che è quella che si studia normalmente a scuola. Il quinto postulato di Euclide è quello relativo al parallelismo di due rette: ‘data una retta e un punto esterno ad essa esiste un’unica retta parallela passante per detto punto’. Modiicando tale postulato sono sorte due geometrie, dette appunto non euclidee: la geometria ellittica o geometria di Bernhard Riemann (1826 –1866) e la geometria iperbolica o geometria di Nikolaj Ivanovič Lobachevskij (1792 -1856). Queste geometrie, a differenza della geometria piana euclidea, non sono intuitive, ma importanti ai ini di scandagliare la realtà più approfonditamente. Per rendere più accessibili questi concetti e per favorire lo sviluppo di capacità creative, nell’insegnamento si potrebbe usare l’approccio ‘metodologico costruttivista, che considera il sapere come qualcosa che non può essere ricevuto in modo passivo (come affezione del mondo esterno) dal soggetto, ma che risulta dalla relazione fra un soggetto attivo e la realtà. La realtà, in quanto oggetto della nostra conoscenza, sarebbe dunque creata dal nostro continuo “fare esperienza” di essa’. Esso si basa, dunque, sul processo di costruzione individuale dei signiicati concettuali i quali, attraverso la comunicazione e il confronto, diventano anche sociali. Ciò comporterebbe uno stravolgimento educativo rivoluzionario che trasformerebbe l’insegnamento ‘versativo’ e ‘passivo’ attualmente usato in ‘attivo’ con tutti i vantaggi educativi che ne deriverebbero. Un insegnamento creativo sarebbe altamente democratico perché permetterebbe, appunto, la comprensione di concetti scientiici non comuni, ma presenti in diversi settori culturali. Alcuni di essi vengono applicati al comportamento umano per comprenderlo meglio, come l’isomorismo (dal greco isos, uguale, e morfé, forma, signiica uguale forma), un concetto algebrico fondamentale tra due oggetti ‘indistinguibili per la loro struttura’. Nel linguaggio algebrico, l’isomorismo corrisponde a due strutture algebriche che hanno lo stesso numero e tipo di operazioni e che tra di esse vige 67 STORIA DELLA SCIENZA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 la corrispondenza biunivoca. Usando, ad esempio, la tavola pitagorica di moltiplicazione dei segni positivo + e negativo -, e quella di addizione dei numeri pari P e numeri dispari D: + x + = + P + P = P + x - = - P + D = D - x + = - D + P = D - x - = + D + D = P si scopre che sono la stessa cosa, in quanto la differenza tra queste due tavole è soltanto una differenza di nomi degli oggetti (+,– in una e P,D nell’altra) e delle operazioni (moltiplicazione nella prima e addizione nella seconda). Insomma, tra le due tavole basta un cambiamento di nome che tra di esse esiste una corrispondenza biunivoca. I seguenti esempi pratici risulteranno utili per la comprensione del concetto: a) Una sferetta di vetro e una sferetta di marmo sono entrambe palline dense: anche se sono fatte di sostanze diverse, le loro strutture geometriche sono isomorfe. b) Un normale mazzo di 40 carte da gioco siciliane e un normale mazzo di 40 carte da gioco piacentine: anche se le igure sono differenti, i mazzi hanno la stessa struttura, cioè sono isomori e le regole di gioco sono identiche indipendentemente dal mazzo che si utilizza. Il concetto di isomorismo si trova anche in contesti considerati culturalmente diversi. Sostiene, infatti, Douglas Hofstadter nel citato saggio “Godel, Escher, Bach: Un’eterna ghirlanda brillante” che ‘si parla di isomorismo quando due strutture complesse si possono applicare l’una sull’altra, cioè far corrispondere l’una all’altra, in modo tale che per ogni parte di una delle strutture ci sia una parte corrispondente nell’altra struttura; in questo contesto diciamo che due parti sono corrispondenti se hanno un ruolo simile nelle rispettive strutture’. In mineralogia l’isomorismo è il fenomeno secondo il quale due o più sostanze aventi composizione chimica simile cristallizzano nello stesso sistema in forme analoghe, come la magnesite (o carbonato di magnesio) MgCO3 e la siderite (o carbonato di ferro II) FeCO3. Anche qui tra le due strutture chimiche esiste una corrispondenza biunivoca. In natura, l’isomorismo è un fenomeno molto comune. In psicologia esiste “Il postulato dell’isomorismo della Gestalt (o Psicologia della forma o rappresentazione)”, il quale sancisce che ‘i processi astratti del pensiero (i processi della memoria, dell’apprendimento, del comportamento, ecc.) hanno un preciso supporto materiale. L’isomorismo indica un’identità strutturale tra il piano dell’esperienza diretta e quello dei processi isiologici ad esso sottostanti. Qualsiasi manifestazione del livello sensibile, dalla semplice percezione di un oggetto alla più complessa forma di pensiero, trova un corrispettivo in processi che a livello cerebrale presentano caratteristiche funzionali identiche.’ Prediamo, per fare un esempio, la transumanza, cioè la migrazione stagionale dalle zone collinari e montane, verso le pianure e viceversa, delle greggi alla ricerca di pascoli 68 ad opera dei pastori, ovvero il passaggio da un pascolo ad un altro, come ha scritto Gabriele D’Annunzio nella poesia “I pastori”: Settembre, andiamo. È tempo di migrare./ Ora in terra d’Abruzzi i miei pastori/ lascian gli stazzi e vanno verso il mare:/ scendono all’Adriatico selvaggio/ che verde è come i pascoli dei monti. .... Un fenomeno tipicamente italiano quello della transumanza data la conformazione geograica dell’Italia – i monti sulla dorsale appenninica e la pianura che si stende verso il mare -, dettato da un’esigenza utilitaristica e necessaria per il sostentamento degli animali. La transumanza è uno spostamento da un luogo ad un altro che ha inciso nella psiche di molti italiani facendoli diventare trasformisti. I comportamenti dei transumanti e dei trasformisti, a dirla con Hofstadter, costituiscono ‘due strutture complesse che si possono applicare l’una sull’altra, cioè far corrispondere l’una all’altra, in modo tale che per ogni parte di una delle strutture ci sia una parte corrispondente nell’altra struttura; in questo contesto le due parti sono corrispondenti perché hanno un ruolo simile nelle rispettive strutture.’ Conseguentemente, risultano isomori i comportamenti dei transumanti e quelli dei trasformisti, anche se i primi sono encomiabili dal punto di vista sociale ed economico, mentre i secondi, al contrario, sono immorali e deprecabili. Come i transumanti che passano da un pascolo ad un altro, così i trasformisti passano da una ideologia ad un’altra ideologia però secondo i loro bisogni e le loro necessità e non secondo i bisogni e le necessità della collettività. L’operazione, in ambedue i casi, presuppone ‘processi che a livello cerebrale presentano caratteristiche funzionali identiche’ anche se cambia solo il ine. Senza entrare nel merito, c’è isomorismo anche tra verità e falsità, tra reale e virtuale come, ad esempio, tra noi e la nostra immagine rilessa da uno specchio, e così via. Passando ora ad un altro settore scientiico, quello della meccanica quantistica, si prenda come riferimento il citato principio di indeterminatezza di Heisenberg, formulato nel 1927. Esso esprime i limiti riguardo la determinazione dei valori delle grandezze isiche osservabili in un dato sistema isico. Quando due di tali grandezze non possono essere determinate contemporaneamente esse risultano incompatibili, quali possono essere la velocità, o l’energia o l’impulso e la posizione di un elettrone all’interno di un atomo: ‘È impossibile la determinazione simultanea della velocità, o di qualsiasi proprietà afine, per esempio l’energia o l’impulso, e della posizione di una particella’. Ebbene, questo principio si può applicare anche al comportamento umano. Infatti, considerando l’essere umano vivente come sistema isico, quando gli si presenta un certo evento che lo coinvolge e lo perturba, esso userà per la valutazione di quell’evento sia la ragione che il sentimento. Ragione e sentimento risulteranno le due grandezze incompatibili di tale sistema isico. Ad esempio, quando un uomo sposato, incontrando una bella donna se ne invaghisce, subisce il famoso colpo di fulmine. Esso nel caso che si lascerà trasportare dal sentimento non terrà conto della ragione e, viceversa, se si lascerà trasportare SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | STORIA DELLA SCIENZA dalla ragione comprometterà il sentimento. Cioè l’una prevarrà sull’altro o viceversa. Applicando, allora, il principio di indeterminatezza alle relazioni umane (amore, amicizia, rapporti commerciali o inanziari, interessi politici, ecc.) si potrebbe azzardare la seguente formulazione per l’analogia testé considerata: ‘È impossibile la deinizione simultanea della ragione e del sentimento di una persona in uno stato di perturbazione’. In Chimica esiste un principio, noto come principio dell’equilibrio mobile, che venne scoperto dal chimico francese H. Le Châtelier nel 1884 e, un anno dopo ma autonomamente, dal chimico tedesco F. Braun. Questo principio, che si trova in tutti i testi di ‘Chimica generale’ per la sua fondamentale importanza, sancisce che ‘se un ad sistema chimico (reazione chimica) in equilibrio viene apportato dall’esterno una variazione ad uno dei fattori che lo ‘governano’, il sistema viene perturbato e tende a controbilanciare la variazione apportata al ine di ripristinare l’equilibrio’. In altre parole, tale concetto esprime in chimica quello che è il terzo principio della dinamica in isica. Secondo il chimico-isico americano Walter John Moore (1918 – 2001), docente all’Università dell’Indiana, questo principio addirittura è universale, in quanto si può applicare anche alla psicologia, alle scienze sociali, all’economia. E, quindi, anche alla politica sia nazionale che internazionale. Orbene, sulla base di ciò, partendo dal presupposto che ogni Stato del mondo, dal punto di vista socio-politico, sia fondato su una qualsiasi forma di governo sia essa democratica, o totalitaria, o monarchica costituzionale, o altro, questa ne determina l’instaurarsi di una condizione d’equilibrio e che questo equilibrio si riletta anche a livello planetario. Se si intervenisse dall’esterno a modiicare, in un qualsiasi Stato, l’equilibrio socio-politico esistente, si creerebbe in esso uno stato di perturbazione che avrebbe rilessi non solo sull’equilibrio interno ma anche su quello esterno con risvolti imprevedibili. Tenendo conto di tutto questo, rivolgendo lo sguardo alla storia recente, sia l’intervento in Iraq con la cosiddetta ‘guerra preventiva’ ideata nel 2003 dal presidente americano Bush sia, successivamente, l’ingerenza in Libia che ha portato all’eliminazione isica di Gheddai, sono stati i fattori esterni che hanno apportato perturbazioni sconvolgendo gli equilibri esistenti in questi Paesi con rilessi negativi anche a livello internazionale. Infatti, in concomitanza con la guerra civile in Siria, tutto ciò ha posto le basi della nascita dell’ISIS (Stato Islamico dell’Iraq e della Siria) che sta diffondendo terrore e morte in ogni parte del mondo. Gli attentati continuamente rivendicati da questa crudele organizzazione, sia quelli passati che quelli recentissimi di Parigi, di Bagdad, di Dacca, dell’abbattimento dell’aereo russo sul Sinai e di tanti altri ancora, che hanno prodotto centinaia di morti e feriti innocenti e inermi, sono atti a creare, mediante la trasmissione di paura e panico tra la gente, modiiche all’equilibrio esistente e quindi al sistema politico occidentale vigente, basato sui valori rispettosi della dignità umana e fondanti della democrazia, tra cui la fratellanza, l’uguaglianza e la legalità, e sono inalizzati a porre il predomino dello stato islamico sul mondo occidentale, socialmente progredito. La simmetria (Dal greco συμμετρία, che proviene da σύν “con” e μέτρον “misura”), un concetto geometrico e algebrico, è ‘un’ordinata distribuzione delle parti di un oggetto (di un ediicio, di una struttura, di un’opera d’arte, ecc.) tale che si possa individuare un elemento geometrico (un punto, una linea, una supericie) in modo che a ogni punto dell’oggetto posto da una parte di esso corrisponda, a uguale distanza, un punto dall’altra parte’: la simmetria di una piazza; la simmetria in pianta, o in alzato, di un ediicio; una facciata che manca di simmetria. ‘In questo senso, si parla di simmetria con riferimento, per es., al viso o al corpo umano, oppure al corpo di un insetto, o ad una foglia vegetale, ecc., idealmente divisi longitudinalmente da un piano (piano di simmetria) che li separa in due parti specularmente uguali. … presso gli antichi Greci, (ha il signiicato di) intimo e armonico rapporto di proporzioni e di ritmi dell’opera d’arte …’. Da ciò scaturisce anche la profonda e intima connessione tra simmetria e ordine. Tant’è che il pakistano Abdus Salam, premio Nobel per la Fisica 1979, afferma che ‘Una tavola apparecchiata ove ogni commensale ha una posata alla sua destra e una alla sinistra è perfettamente simmetrica. Ma non appena il primo commensale sceglie la posata con cui cominciare a mangiare, questa simmetria viene infranta: subentra un ordine, che consente a tutti di cibarsi senza usare le mani.’ Nel linguaggio comune, ordine e simmetria sono spesso usati come equivalenti, ma non appena si passa al disordine si crea un nuovo ordine che crea un dinamismo tale da permettere al sistema (nel nostro caso la tavola apparecchiata con i commensali) di evolversi. Ogni commensale è libero di mangiare come vuole, anche se rimane soggetto ad alcune regole e in un continuo interscambio con gli altri, soprattutto con i vicini. Ma anche nella ‘psicologia del comportamento, … (con la simmetria) si qualiica il tipo di rapporto interpersonale (e i relativi comportamenti) nel quale entrambi i soggetti tendono a esercitare un dominio sull’altro, riiutando di assumere un ruolo subalterno e instaurando così una situazione di costante competitività, da cui può scaturire un equilibrio di tipo simmetrico.’ Il che si traduce, nei rapporti di amore, di amicizia, di lavoro, di interessi vari, in uno scambio, un do ut des continuo, una biiezione tra i sentimenti dell’uno e dell’altro, tra gli interessi dell’uno e dell’altro, cioè una corrispondenza biunivoca tra l’uno e l’altro. Bisogna evitare, però, di comportarsi come Narciso che, innamoratosi della sua immagine rilessa dallo specchio d’acqua, la vuole abbracciare, ma cade nell’acqua rompendo deinitivamente la corrispondenza biunivoca tra sé e la sua immagine. In altre parole, quando nei rapporti interpersonali tra due soggetti, in uno di questi prevalgono l’amore di sé, l’egoismo, l’ipocrisia, il cinismo, ecc., viene meno la simmetria. In mancanza di questa interrelazione, ne consegue che tutto viene a cessare, non c’è più simmetria, e il dinamismo tra i due soggetti scompare deinitivamente. In geometria, tra tutte le igure geometriche piane, quella 69 STORIA DELLA SCIENZA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 più simmetrica è il cerchio dotato di ininiti elementi di simmetria mentre tra tutte le igure geometriche solide è la sfera. Questa concezione se fosse conosciuta da alcuni politici non gli farebbe fare banali errori così come è avvenuto qualche anno fa nella presentazione alla stampa del simbolo di un nuovo partito. Ne fu giustiicata, infatti, la scelta del quadrato perché esso richiama l’idea di uguaglianza dato che questo poligono ha quattro lati “uguali” e quattro angoli “uguali”. Compromettere la geometria con la politica è sembrato azzardato e avventato perché, quando un matematico sente la parola “uguale”, si pone subito la domanda Uguale in che senso? Ciò presuppone contestualmente una relazione di equivalenza tra due entità o elementi o oggetti o cose o persone. Sosteneva il matematico Lucio Lombardo Radice che ‘Il concetto di relazione di equivalenza è talmente importante in matematica (e non solo in matematica) da giustiicare ogni sforzo’ perché esso venga compreso dalla maggior parte delle persone. Basta, infatti, l’affermazione ‘due oggetti o elementi o entità o cose o persone sono uguali’ che sorge subito la domanda’Uguali in che senso?’. Due persone possono essere uguali per il colore della pelle, o per il sesso, o per l’età, o per la statura, o per la cittadinanza, o per la razza, ecc.. Oppure due oggetti possono essere uguali per la forma, oppure perché hanno la stessa distanza da uno stesso punto, cioè sono equidistanti, e così via. Per questo, quando si parla di uguaglianza bisogna sempre chiedersi in che senso?, cioè bisogna deinire una relazione, o meglio una relazione di equivalenza. In termini matematici, quando in un dato insieme (come quello corrispondente ai cittadini X, Y, Z, … di uno Stato) si veriicano le seguenti relazioni: se X è uguale ad X (si ha una relazione rilessiva), se X è uguale a Y, allora Y è uguale ad X (si ha relazione simmetrica), se X è uguale a Y e Y è uguale a Z, allora X è uguale a Z (si ha una relazione transitiva), si ha una relazione è detta di equivalenza. In questo contesto, allora, si può dire che ‘i igli sono uguali di fronte ai genitori’, ‘i cittadini sono uguali di fronte alla legge’, ecc. e, conseguentemente, risulta che il concetto di uguaglianza è relativo e non assoluto, dinamico e non statico, dialettico e non dogmatico. Orbene, ritornando al simbolo quadrato del partito politico, ci si chiede se tutti i punti che costituiscono i lati di un quadrato sono equidistanti dal centro del quadrato ottenuto dall’intersezione delle due diagonali (baricentro), cioè godono della relazione di equivalenza. La risposta è negativa, in quanto, ad esempio ogni punto chiamato vertice è più distante dal predetto centro di un altro qualsiasi punto che sta su un lato del quadrato (la distanza dal predetto centro diminuisce man mano che il punto si avvicina al punto medio del lato). Questo vuol dire che i punti del perimetro del quadrato non godono della relazione di equivalenza, in quanto non è rispettata la relazione transitiva. Né quella simmetrica. A titolo di esempio, supponendo che il quadrato fosse il simbolo dell’uguaglianza, e il suo centro rafigurasse il Partito come un’entità astratta, oppure la Legge, o lo Stato, e i punti che costituiscono il perimetro del quadrato rappresentassero 70 i cittadini, ne conseguirebbe che non tutti i cittadini fossero uguali di fronte al Partito, o di fronte alla Legge o allo Stato. Ora, se si immagina sul piano di ruotare di 360° il quadrato, attorno al suo centro ottenuto dall’intersecazione delle sue due diagonali, la sua forma si mostrerà all’osservatore invariata per ben quattro volte: questo vuol dire che il quadrato ha un centro di simmetria di ordine quattro, in cui si intersecano quattro assi di simmetria. In una rotazione pari ad un angolo giro, dunque, la simmetria infranta viene ricomposta per ben quattro volte. Come detto precedentemente, citando il premio Nobel Abdus Salam, quando la simmetria infranta si ricompone in una nuova simmetria si ha dinamismo e creatività. Da ciò si deduce che, data un’ipotetica igura geometrica in cui il centro di simmetria è di ordine ‘n’, in una rotazione completa la simmetria infranta sarà ricomposta ‘n’ volte, e quindi si avrà più dinamismo e più creatività per valori di ‘n’ via via crescenti, (che in un contesto sociale signiica più libertà e quindi più democrazia). E per quel centro passeranno ‘n’ assi di simmetria. Per ‘n’ ininito, tale igura piana sarà il cerchio il cui centro è un centro di simmetria, in cui si intersecano ininiti assi di simmetria. Non solo. Tutti i punti della circonferenza sono equidistanti dal centro del cerchio. Quel partito politico, allora, avrebbe fatto bene, a mio parere, per esprimere la relazione di uguaglianza e per porre tutti i suoi elettori uguali nei confronti del partito a scegliere, al posto del quadrato, il cerchio, igura ininitamente democratica. BIBLIOGRAFIA C.I.D.I. di Firenze (a cura di), Storicità e attualità della Cultura scientiica e insegnamento delle scienze, MariettiManzuoli, Firenze 1986 J. Brockman, I nuovi umanisti – Perché (e come) l’arte, la politica, la storia e la ilosoia devono tener conto delle moderne scoperte scientiiche, Garzanti, Milano 2005 V. Lingiardi e Nicla Vassallo (a cura di ), Terza Cultura – Idee per un futuro sostenibile, Il Saggiatore, Milano 2011 L. Campedelli, Fantasia e logica nella matematica, Feltrinelli, Milano 1973 N. Abbagnano, Storia della ilosoia – Il pensiero greco e cristiano: dai Presocratici alla scuola di Chartres, Gruppo Ed.le L’Espresso, 2005 S. Glasstone, Trattato di Chimica-Fisica, Carlo Manfredi Ed., Milano 1963 E. Ribaldone e G. Bioanucci, I principi della Chimica, A. Mondadori Ed., Milano 1980 G. Catalano e L. Lombardo-Radice, Minialgebra,Feltrinelli, Milano 1972 D. R. Hofstadter, Gödel, Escher, Bach: Un’Eterna Ghirlanda Brillante, Adelphi, 1990 www.treccani.it> Vocabolario F. Prattico, Dal caos … alla coscienza, Ed. Laterza, Bari 1998. SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE Trattamento Manipolativo Osteopatico in pazienti affetti da disordini dello sviluppo psicomotorio: studio pilota GIUSEPPE DELLA VECCHIA1-3, CLAUDIO CIVITILLO1, TIZIANA FORTINO2 1 (AEMO) Accademia Europea Medicina Osteopatica - Dipartimento Ricerca & Tesi, Aversa (Italy) 2 (AEMO) Accademia Europea Medicina Osteopatica, Aversa (Italy) 3 (AIRRI) Associazione Italiana Riabilitazione e Reinserimento Invalidi, Aversa (Italy) Objective - Valutare l’uso del Trattamento Manipolativo Osteopatico (OMT) in associazione alla Cura Standard (CS) (OMT + CS) nel trattamento dei disordini dello sviluppo psicomotorio (DSPS) e determinare se il OMT + CS possa apportare ulteriori miglioramenti in pazienti pediatrici con DSPS. Design - Studio pilota che per convenienza di campionamento ha reclutato casi consecutivi. Lo studio è stato condotto presso un Centro di Riabilitazione Neuromotoria di cura primaria convenzionato con il Servizio Sanitario Nazionale Italiano. I pazienti valutati convenzionalmente con diagnosi deinitiva di DSPS dall’Azienda Sanitaria Locale (ASL) di appartenenza e soddisfacenti i criteri di inclusione sono stati ammessi a partecipare volontariamente. Intervention and measures - La popolazione ha ricevuto da uno studente iscritto al 6 anno di formazione accademica in osteopatia idoneo per la tesi, la valutazione osteopatica (VO) pre/post trattamento e 1 sessione di OMT + CS a settimana per una durata complessiva di 8 settimane in un periodo compreso da Marzo 2014 ad Aprile 2014. Le tecniche osteopatiche utilizzate erano limitate al rilascio mio-fasciale ed a energia muscolare indirizzate alle disfunzioni somatiche generali e cranio sacrali. La valutazione dell’ outcome primario ovvero cognitiva comportamentale è stata effettuata con la registrazione della Denver Development Screening Test (DDST II) pre-post OMT + CS. Results - Dei 25 soggetti di etnia caucasica arruolati al baseline un totale di 16 soggetti (64% [11M-5F]) con età cronologica media al basale di 4 anni e 7 mesi (ds± 2,15) hanno terminato lo studio. Il Test t per la veriica della varianza media pre-post OMT + CS registra una differenza di −2.07 punti % associata ad un miglioramento statisticamente signiicativo (p<0,00). Conclusions - I dati pilota suggeriscono che il OMT + CS può essere una modalità di trattamento non farmacologico con effetti non inferiori alla CS in pazienti affetti da DSPS INTRODUCTION I disordini dello sviluppo psicomotorio (DSPS) sono caratterizzati da variegate caratteristiche cliniche1 ad eziologia multifattoriale2. In alcuni casi3 si calcola una prevalenza nei bambini che va dal 2,6% al 11,4%. L’approccio medico comprende combinazioni di terapia comportamentale4 e farmacologica5. In letteratura biomedica si evidenziano studi condotti atti a valutare l’eficacia della Medicina Complementare e Alternativa (CAM) in bambini con disordini psicomotori6, alcuni studi in particolare hanno valutato l’eficacia del trattamento manipolativo osteopatico7 (OMT). OBJECTIVE Valutazione cognitiva comportamentale mediante il Development Screening Test (DDST II8) pre-post OMT + CMS. MATERIALS AND METHODS Standard of care La valutazione e il trattamento della DSPS comporta un approccio medico multimodale comprese combinazioni di terapia comportamentale e farmacologica, e nello speciico il gruppo di studio era stato sottoposto a diagnosi medico specialistica neuropsichiatrica di ritardo/disturbo psicomotorio ed era in trattamento sanitario neuropsicomotorio e/o logopedico per DSPS. Setting and research procedures Lo studio è stato presentato in sessione plenaria alla direzione sanitaria e alla presenza dei tutori legali volontari di pazienti pediatrici affetti da DSPS presso un centro di riabilitazione neuromotoria di cura primaria convenzionato con il Servizio Sanitario Nazionale Italiano (SSNI). Un consenso informato scritto dedicato per la descrizione dello studio, la 71 SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 points clinici registrati al basale tempo zero (t0) sono stati rapportati ai punteggi ottenuti all’end points tempo uno (t1). Le procedure dello studio sono presentate nella Figura N1. pubblicazione dei dati e le procedure di Valutazione Osteopatica (VO) e OMT + CS da somministrare è stato ottenuto dai tutori legali dei pazienti. Data la natura pilota di questo studio e la sua enfasi sul dimostrare l’effetto del OMT + CS, per convenienza di campionamento è stato utilizzato un unico gruppo di trattamento, che in tal modo precludeva un gruppo di controllo sottoposto a OMT sham. Un totale di 25 pazienti con DSPS sono stati arruolati in questo studio pilota, i pazienti che non hanno aderito allo studio hanno continuato la cura standard per il DSPS. I soggetti inclusi nello studio con età Cronologica (EC) non superiore 6 anni, avevano ricevuto diagnosi medico specialistica di ritardo/disturbo psicomotorio, ed erano sottoposti a trattamento sanitario neuropsicomotorio e/o logopedico. Nessun soggetto con trauma cranico da meno di mesi 6, patologia di natura neoplastica o qualsiasi controindicazione al OMT (stabilito dalla direzione sanitaria) è stato incluso nello studio. Un operatore al 6 anno di formazione e idoneo per la tesi in Osteopatia presso l’Accademia Europea Medicina Osteopatica (AEMO), previo training verbale e pratico ricevuto per lo studio, ha effettuato la VO utilizzando il modulo SOAP9 per la registrazione delle disfunzioni somatiche evidenziate. E’ stata programmata 1 sessione di OMT a settimana test dipendente per una durata complessiva di 8 settimane da (Marzo2014 -Aprile 2014) senza sospendere o interferire con la CS. Le tecniche da utilizzare erano limitate al rilascio miofasciale, energia muscolare e cranio sacrali delle disfunzioni rilevate adattate alle esigenze del singolo paziente evidenziate durante lo svolgimento della sessione di trattamento. Zone di particolare interesse rilevate mediante i parametri TART10 erano riconducibili ai distretti cranico e cervicale. L’intera sessione durava complessivamente 30 minuti,10 minuti per la VO e ±20 minuti per il OMT in setting familiare ai pazienti nei decubiti supino, prono e laterale (su lettino adeguato); non è stato limitato l’accesso ai genitori o ai tutori legali nel setting di trattamento. Il DSPS è stato valutato con il questionario DDST II (end points clinico primario) pre-post OMT + CS somministrato da personale sanitario della struttura di riabilitazione in cieco rispetto alle procedure di VO e OMT. I dati di valutazione per gli end 72 Tutti i dati sono stati analizzati con il software statistico per discipline biomediche versione 6.011 da un operatore esterno in cieco. E’ stato utilizzando il Test t per campioni appaiati per la veriica della varianza media prodotta dal trattamento con intervallo di conidenza 95% e p<0,05. Nell’ultima sessione di trattamento è stato considerato anche il follow-up per la somministrazione della DDSTII da personale esperto del centro di riabilitazione RESULTS Caratteristiche principali dei pazienti Dei 25 pazienti di etnia caucasica arruolati al baseline un drop out di 9 (36%[4m-5f]) pazienti è avvenuto per motivi non dichiarati e non riconducibili a motivi particolari o ad aventi avversi riferiti dalla direzione sanitaria e tutori legali. Le registrazioni dei 9 pazienti usciti dallo studio non sono state prese in considerazione per l’analisi dei dati. Sono stati raccolti e registrati i dati tra basale/end points (t0 – t1)di un totale di 16pazienti(64%[11m-5f]) range di età compresa tra (2-5,5 anni),EC media a t0 4 A e 7 mesi (ds ± 2,15 ) con età sviluppo psicomotorio medio 2 A e 3 M (ds ±15,14). Dei 16 pazienti la distribuzione per classi di età e sesso era f=N5(3;60%) classe di età 4,5-5,5 anni, (2;40%) classe di età 3-4 anni. Per il sesso m=N11 (4;36,36%) classe di età 5-6 anni, (2;18,18%)classe di età 4,5-5 anni, (3;27,27%) classe di età 3-4 anni, (2;18,18%) classe di età 2-3 anni. I dati della distribuzione per classi di età del campione in studio sono sintetizzati in Tabella N1. Tabella N1. Distribuzione delle classi di età del campione in studio Femmine Classi di età n Maschi % 5-6 n % 4 36,36 4,5-5,5 3 60 2 18,18 3-4 2 40 3 27,27 2 18,18 11 100 2-3 Totale 5 100 SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE End points clinico Test t per la veriica della varianza media DDST II prodotta nel campione (t0=27.34 [Dev. Std. 10.84; IC 95%: 21.56 - 33.11]), (t1=29.69[Dev. Std. 11.9; IC 95%: 25.56 - 35.81]), differenza(–2.078punti %[Dev. Std. 1.997]). Intervallo di conidenza della differenza al 95% da (–3.142 a –1.104), t= –4.162 con 15 gradi di libertà; p<0,00. I dati del Test t sono sintetizzati nella Tabella N2 Tabella N2. Test t per dati appaiati DDST II N Media (±ds) IC 95% t0 16 27.34 (10.84) 21.56 - 33.11 t1 16 29.42 (11.9) 25.96 - 35.81 –2.078 (1.997) –3.142 a –1.104 Differenza P <0,00 Legenda: ds = deviazione standard; IC = intervallo di conidenza; P= p-value DISCUSSIONS In questo gruppo di bambini con DSPS il OMT associato al CMS ha avuto un effetto tendenzialmente positivo in quanto associato ad un miglioramento statisticamente signiicativo come segnalato dalla DDST-II con un progresso dello sviluppo psicomotorio dei bambini quantiicabile in circa 2,1 mesi. La DDST-II12 (1992) è una revisione aggiornata del test di screening DDST13 del (1967), entrambi sono stati progettati per l’utilizzo da parte del personale sanitario utile nel monitorare lo sviluppo di neonati e bambini in età prescolare. Seppur con le dovute limitazioni la scala di misura permette agli operatori sanitari di individuare soggetti il cui sviluppo psicomotorio si discosta signiicativamente da quello ritenuto isiologicamente compatibile con l’età, tale da giustiicare eventuali ed ulteriori indagini cliniche. II test è indirizzato a quattro funzioni generali come oggetto di prove che vanno dalla nascita ino ai sei anni: 1. comportamento personale e contatto sociale (come sorride, imitazioni); 2. attività motorie inalizzate (come prese manuali da seduto, scarabocchiare); 3. linguaggio (come parole oltre mamma e papà); 4. movimenti basilari/attività motoria grossolana (come lanciare la palla, salire le scale con appoggio) . Il DDST-II risulta quindi un test ideale per visualizzare il progresso dello sviluppo dei bambini con caratteristiche uniche per la sua facilità di somministrazione . Sulla base di questi risultati, si può ipotizzare che il OMT abbia avuto una inluenza positiva nel breve termine in questa popolazione di pazienti. La ricerca condotta nel campo della medicina osteopatica sui DSPS è molto limitata, è quindi dificile interpretare e confrontare i risultati pilota ricavati da questo studio con quelli di altri ricercatori. Frymann e colleghi hanno stu- diato l’applicazione di cure osteopatiche14 per i bambini con problemi di apprendimento15,16. Lassovetskaia17 ha effettuato uno studio su bambini con problemi di linguaggio e di apprendimento. Tra 96 i bambini con il rendimento scolastico di ritardo, i bambini che hanno ricevuto il OMT segnalano punteggi signiicativamente più elevati in quasi tutte le categorie di rendimento scolastico dopo 6 a 12 settimane rispetto ai bambini che non hanno ricevuto il OMT. Limitations Dato la natura pilota dello studio e considerato il piccolo campione che precludeva il confronto e l’analisi statistica con un gruppo di controllo i dati sono ancora aperti a interpretazione. In particolare le dificoltà incontrate nel determinare le disfunzioni nella popolazione esaminata per la scarsa compliance rilevata nella fase iniziale dai pazienti ha limitato il protocollo di trattamento. La pianiicazione futura di nuovi studi indica di coinvolgere più operatori osteopati, con maggior training di formazione nella fase diagnostica e nella fase terapeutica, utilizzando anche strategie di familiarizzazione precedenti con i pazienti nel setting di trattamento. Il dropout avvenuto è stato del 36% riscontrando interesse da parte dei familiari di pazienti non arruolati al baseline che sono stati arruolati in corso di studio. Future directions Questo studio è stato un primo tentativo di dimostrare che il OMT + CS può inluenzare positivamente l’andamento clinico dei pazienti pediatrici affetti da DSPS e per dimostrare che ci può essere una base biologica per quanto riguarda l’eficacia del OMT. La speranza per il futuro è quella di condurre un studio controllato randomizzato nel DSPS dove i pazienti ricevano il OMT+ CS e solo CS, questo ci permetterebbe di trarre dati più chiari da interpretare. CONCLUSIONS I dati pilota di questo studio suggeriscono che il OMT può essere una modalità di trattamento aggiuntiva, non invasiva, con effetti positivi, non farmacologico associabile alle CS privo di particolari reazioni al trattamento per la cura dei DSPS in reparti di cura primaria di riabilitazione dell’età evolutiva. Conlitti di interesse Gli autori non dichiarano conlitti di interesse per il manoscritto. Presentazione del manoscritto Gli autori sono in accordo sul testo del presente manoscritto. Ringraziamenti Si ringraziano M.Pagano, N.Pagano, V.Pagano per l’accoglienza e per l’accesso alla struttura riabilitativa. Si ringrazia De Franchis F. per raccolta dati, coordinamento sommini73 SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 strazione CS e OMT. Si ringrazia l’amministrazione, la direzione sanitaria e il personale di neuro psicomotricità del centro di riabilitazione AIRRI di Aversa (CE) per l’assistenza ricevuta durante il lavoro. Contributo degli autori della Vecchia G. Protocollo, testo, interpretazione dati; Civitillo C. Protocollo, testo, interpretazione dati, raccolta dati, tabelle, igure; Fortino T. Raccolta dati e somministrazione OMT. Lista abbreviazioni DSPS=disturbo sviluppo psicomotorio; CS=usual care; OMT=Osteopathic manipulative treatment; DDST=Denver Development Screening Test; t0=tempo zero; t1=tempo uno; VO=valutazione osteopatica REFERENCES 1. BarkleyR. Advances in the diagnosis and subtyping of attention deicit hyperactivitydisorder: whatmaylieahead for DSM-V. Rev Neurol 2009; 48 (supl.2): 101-106 2. Millichap JG. Etiologic classiication of attention-deicit/hyperactivitydisorder. Pediatrics 2008; 121(2): 358-365 3. Alcantara J, Davis J. The chiropractic care of children with attention-deicit/hyperactivitydisorder: a retrospective case series. Explore (NY) 2010 May-Jun; 6(3):173-82 4. Karpouzis F, Pollard H, Bonello R.A. Randomised controlled trial of the Neuro EmotionalTechnique (NET) for childhood Attention Deicit Hyperactivity Disorder (ADHD): a protocol Trials. 2009 Jan27;10:6 5. Mulas F, Gandía R, Roca P, Etchepareborda MC, Abad L. Pharmacologicalupdate in attention deicit hyperactivitydisorder: models of intervention and new drugs.Rev Neurol. 2012 May 21;54 (3): 41-53 6. Galicia-Connolly E1, Shamseer L, Vohra S. Complementary, holistic, and integrative medicine: therapies for neurodevelopment in preterm infants. Pediatr Rev. 2012 Jun;33(6):276-8 7. Accorsi A .Lucci C. Di Mattia L. et al. Effect of osteopathic manipulative therapy in the attentive performance of children with attention-deicit / hyperactivity disorder. J Am 74 Osteopath Assoc. 2014 May;114(5):374-81 8. Frankenburg WK, Ker CY, Engelke S, Schaefer ES, Thornton SM. Validation of key Denver Development Screening test items: a preliminary study. J Pediatr.1988 Apr;112(4):560-6 9. Sandra L. Sleszynski,Thomas Glonek. Outpatient Osteopathic SOAP Note Form: preliminary results in osteopathic outcomes-based research.J Am Osteopath. Assoc. April 2005 105: 181-205 10. Sandra L. Sleszynski,Thomas Glonek. Outpatient Osteopathic SOAP Note Form: preliminary results in osteopathic outcomes-based research.J Am Osteopath. Assoc. April 2005 105: 181-205 11. Stanton A Glantz. Statistica per discipline biomediche 6 edizione. Edizione italiana a cura di Adriano De Carli.Versione 6.0 IBSN 978-88-386-3925-8.McGraw-Hill 12. Frankenburg, WK, Dodds, J., Archer, P. et al . Il DENVER II: una revisione importante e restandardization dei Denver Developmental Screening Test. Pediatria, 89: 9197, 1992 13. Frankenburg WK e Dodds JB. Il Denver Developmental Screening Test. J. Pediat, 71: 181 1967 14. Frymann VM, Carney RE, Springall P. Effect of osteopathic medical managemet on neurologic development in children. J Am Osteopath Assoc. 1992;;92(6):729-744. VM. The osteopathic appro15. Frymann ach to the child with a seizure. In: King HH,ed. Proceedings of International Research Conference: Osteopathy in Pediatrics at the Osteopathic Center for Children in San Diego, CA 2002. Indianapolis, IN: American Academy of Osteopathy; 2005:8996 16. Frymann VM: Learning dificulties of children viewed in the ligth of the osteopthic concept. J Am Osteopath Assoc.1976;76(1):46-61 17. Lassovetskaia L. Applications of the osteopathic approach to school children with delayed psychic development of cerebro-organic origin. In King HH, ed Proceedings of International Research Conference: Osteopathy in Pediatrics at the Osteopathic Center for Children in San Diego, CA 2002. Indianapolis, In: American Academy of Osteopathy; 2005:52-59 SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELL’ANTICHITÀ Anecdota Punica ENRICO ACQUARO È dato noto in letteratura, scientiica e non, che la storia punica sia per massima parte dipendente dalle fonti greche e latine. Meno noto è l’apporto che le opere storiche in lingua volgare nel XVII secolo hanno portato a determinati aspetti di questa storia, soprattutto nelle sue ricadute annibaliche. Solitamente ignorato a questi riguardi è lo scritto di Girolamo Briani, Dell’istoria d’Italia dalla venuta d’Annibale Cartaginese in Italia ino a gli anni di Christo N. Signore 1527 libri diciotto. Edito a Venezia, presso Giovanni Guerigli, nel 1623-24, in due volumi e messo in rete in https://books.google.it/b (Briani 1623-24). L’opera, che attinge per il periodo antico a Livio (ripreso per gran parte da Jacopo Nardi [Nardi 1562], a Plutarco ed a Polibio, è redatta in «una prosa scialba e greve», come ebbe a deinirla Gaspare De Caro (Gaspare De Caro 1972), in un italiano in divenire, dove il latino è piegato in un volgare spesso pesante e ripetitivo. Tuttavia, a leggere i primi due libri, emerge una considerazione non banale sulle conseguenza della discesa annibalica in Italia (Brizzi 2011; Acquaro 2015, 37-44; Baker 2016): «…La venuta d’Annibale Cartaginese in Italia, la mossa de’ Romani contro di lui; le mutazioni de’ governi, la varietà de’ pensieri, i tumulti, le ribellioni, i saccheggiamenti, & l’ altre cose, che seguirono, diedero molto bene à conoscere tutte le cose humane reggersi con certa varietà, e mutatione in modo, che con perpetuo giro qualhora crescere, e qualhora diminuire si veggano» (Briani 1623, 2). Nella prospettiva di questa ilosoica considerazione, che Briani condivide con l’erudizione italiana del Cinquecento (basti pensare alla storia veneziana di Paolo Paruta) (Paruta 1523). si pongono le origini della stessa identità italiana: la discesa di Annibale Barca (Cornell 1966), la reazione gallica, latina e campana, e la politica del senato di Roma (Eck - Heil 2005). Politica che è costretta a misurarsi con le aspettative italiche che aveva sino a quel momento gestito senza un strategia costruttiva. La stessa dislocazione coloniale romana e latina si misura, d’Annibale in poi, con una meditata valutazione globale delle risorse economiche in grado di dare il massimo reddito alla Penisola italica (Sidebottom 2005, de Ligt 2012). Un avvio a quel processo d’unità che precede di qualche secolo l’Italia di Augusto e smentisce già per l’età annibalica, la celebre frase di Klemens von Metternich, che deiniva «l’Italia un’entità geograica». Poco spazio, fra l’altro, è dato alla memoria delle delitie di Capua (Acquaro 2014, 48-50), che Girolamo Briani relega nella sua opera alle rispettive allocuzioni di Marcello e di Annibale (Briani 1623, 67-69): le aspettative politiche della città campana datasi ad Annibale costituiscono riferimenti costanti nella historia. Del resto, che l’Italia fosse «una provincia da manomettere» lo fa notare Briani quanto riferisce del famoso sogno di Annibale: «…Vogliono, che la seguente notte gli paresse di vedere dormendo un giovane di maraviglioso aspetto, il quale gli diceva essergli da Giove mandato per guida in quella impresa, e che perciò lo seguisse senza volgere altrove gli occhi, e che volgendosi pure si vedesse inalmente venire dietro un grandissimo serpente, che quanto si ritrovava dinanzi, abbatteva; e dopò il serpente una procella d’acqua, e vento tempestosissimo; e che domandando di questo nuovo prodigio, gli fosse risposto, che questa sua andata doveva essere la rovina d’Italia, e che se desiderava di manomettere questa Provincia, andasse pure innanzi senza timore, che di certo vedrebbe l’esito delle cose; Per questa nuova visione, essendo rimasto tutto lieto, passò l’Ibero…» (Briani 1623, 4). Un sogno divino (Acquaro 2016) è all’origine di quell’Italia: non a caso ad esso si rivolge una cospicua letteratura ed anche una stampa di Bartolomeo Pinelli (Acquaro 2014, 56, ig. 35). Sogno che così registra Neponziano, epitomatore del IV secolo di Valerio Massimo: «De somniis [ext. 1] Hannibal somniavit iuvenem humana forma augustiorem, qui se hortaretur in excidium Italiae, auctore Iove secuturum. Deinde post tergum respiciens intueri sibi visus est serpentem vastum cuncta populantem, audire etiam caeli fragorem, nec non et nimbos cum maligna luce visere. Interrogavit iuvenem praeeuntem qui subsequatur. Ille ad haec ‘vides’ inquit ‘vides excidium Italiae: tace et cetera permitte fatis’». Lo stesso autore ricorda il sogno di un altro dux cartaginese, 75 SCIENZE DELL’ANTICHITÀ | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 Amilcare: «[ext. 8] Hamilcar dux Carthaginiensium audissem sibi somnio visus est quod Syracusis, quas obsidebat, alio die cenaturus esset. Pugnavit spe victoriae et in urbem harpagonibus raptus est» (Acquaro - Ferrari). Una volta partito Annibale dall’Italia, l’interesse di Girolamo Briani per Cartagine viene meno: di Annibale riparlerà soltanto per dar conto dell’incontro ad Efeso fra il Barca e Scipione (Brizzi 2007) sulla scorta di quanto riferisce il retore del I secolo a. C. Quinto Claudio Quadrigario, autore di ventitré libri di Annales, perduti ma largamente usati da Livio: «…Scipione Affricano, ch’era il terzo oratore Romano, parimente in Efeso, ove con l’istesso Annibale, come riferisce Quadrigario, hebbe alcuni piacevoli ragionamenti; essendo che l’uno stimava molto l’altro; e come accade, esendo Annibale richiesto da Scipione, qual credesse egli, che fosse stato il miglior Capitano, ch’havesse mai il mondo havuto, rispondesse, che Alessandro Magno, per haver con poche genti, cosi grossi eserciti vinti. E che domandato, à chi havrebbe dopò Alessandro dato il primo luogo, dicesse à Pirro per haver saputo meglio di qual si voglia altro Capitano accampare, e conoscervi il suo vantaggio; Mà quivi non restò pago Scipione, poiche havrebbe voluto arrivare col suo desio à quel di sentir lodare se stesso, onde ricercando Annibale per il terzo oggetto ritrovò, che quando altra consideratione s’avesse de’ nuovi, e buoni Capitani, che Annibale stesso doveva esser posto nel numero, di che sorridendo Scipione, disse, Or che diresti, se tu me vinto havesti; Ed egli à lui, quando fosse succeduto, non ad Alessandro, mà à me stesso avrei dato il primo luogo; Con questa risposta vogliono alcuni, ch’egli dimostrasse l’eccellenza di Scipione non esser da agguagliare à quella d’Alessandro, ne di Pirro; e che egli stesso riputava esser maggior di lui, e che questo istesso pensiero dimostrasse, quando che venendo all’atto del passeggiare, come accenna Plutarco, si pose da man dritta, e Scipione come humanissimo, lo si sofferse, senza dimostrare nel viso segno alcuno di sdegno, ne di pensiero…» (Briani 1623, 205). Un’ultima considerazione sulle antichità puniche di Briani: nell’opera non si pone soverchio accento, come in gran parte della letteratura contemporanea e successiva, sullo stereotipo etnograico negativo dei Cartaginesi, che arriva con i suo caratteri negativi (crudeltà, superstizione, astuzia, in una parola ides punica) sino alla igura di Settimio Severo, il primo imperatore romano ad avere antenati punici. BIBLIOGRAFIA Acquaro, E. 2014 La memoria dei Fenici (= La memoria dei Fenici, 1), Lugano. Acquaro, E. 2015 La memoria di Cartagine nella pittura italiana fra Seicento e Settecento e nelle incisioni della «Istoria romana» di Bartolomeo Pinelli (= La memoria dei Fenici, 2), Lugano. Acquaro, E. 2016 L’oracolo e i sogni di Annibale, in https://lamemoriadeifenici.wordpress.com 2016. Acquaro, E. - Ferrari, D. Una collana per la memoria, in https://lamemoriadeifenici. wordpress. Baker, G.Ph. 2016 Annibale (= Odoya Lirary, 216), Bologna. Briani, G. 1623-24 Dell’istoria d’Italia dalla venuta d’Annibale Cartaginese in Italia ino a gli anni di Christo N. Signore 1527 libri diciotto. Venezia. Brizzi, G. 2007 Scipione e Annibale. La guerra per salvare Roma, Roma Bari. Brizzi, G. 2011 Metus punicus. Studi e ricerche su Annibale in Italia, Imola. Cornell, T.J. Hannibal’s Legacy: The Effects of the Hannibalic War on Italy, in T.J. Cornell - N.B. Rankov - P.A.G. Sabin (edd.), The Second Punic War. A Reappraisal, London 1966. De Caro, G. 1972 s. v. Briani Girolamo, in Dizionario biograico degli Italiani, 14. de Ligt, L. 2012 Peasants, Citizens and Soldiers. Studies in the Demographic History of Roman Italy 225 BC-100 AD, Cambridge. Eck, W. - Heil, M. (edd.) 2005 Senatores populi Romani. Realität und mediale Präsentation einer Führungsschicht, in Kolloquium der Prosopographia Imperii Romani vom 11.13. Juni 2004, Stuttgart. Nardi, J. 1562 Le Deche di Tito Livio Padovano delle Historie tradotte nella lingua toscana, Venezia. Paruta, P. 1545 Istoria Veneziana, Venezia. Sidebottom, H. 2005 Roman Imperialism: The Changed Outward Trajectory of the Roman Empire, in Historia: Zeitschrift für Alte Geschichte, 54. 3, 315 - 30. Bartolomeo Pinelli (1781-1835), Visione misteriosa di Annibale, avanti il suo passaggio sulle Alpi, per scendere nell’Italia (1818). CalcoGrafica, FN46047. 76 N. 38 - 1° OTTOBRE 2016 RICERCHE Le ricerche e gli articoli scientiici sono sottoposti prima della pubblicazione alle procedure di peer review adottate dalla rivista, che prevedono il giudizio in forma anonima di almeno due “blind referees”. 78 SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | ARCHITETTURA Costruire con il legno in area mediterranea ANTONELLA DELLA CIOPPA Dipartimento di Architettura e Disegno Industriale, Seconda Università di Napoli L’idea di costruzione in legno è spesso legata al concetto di temporaneità (costruzioni per l’emergenza), pertinenza (il capanno degli attrezzi) o ricreatività (chalet di montagna), ma le nuove frontiere dell’architettura biocompatibile, energeticamente eficiente e a basso costo stanno sempre più fortemente orientando il mercato verso l’uso di questo materiale. Il legno viene proposto come una valida alternativa ai tradizionali materiali da costruzione (laterizi, cemento, acciaio), generalmente utilizzata nei paesi del nord con clima temperato freddo d’altitudine, dove la diffusione dell’uso di questo materiale è legato all’ampia disponibilità e alle sue caratteristiche isiche termoisolanti. In area mediterranea, l’uso tradizionale del legno è principalmente legato alla costruzione di tetti, solai e initure (pavimenti, inissi, porte), ma raramente è utilizzato per strutture e tamponature, in quanto l’esigenza prevalente è il controllo degli apporti solari gratuiti. Il contributo illustra gli esiti di una ricerca svolta con aziende del settore, tesa ad ottimizzare le prestazioni dell’involucro in legno in zone a clima mediterraneo, integrate a soluzioni tecnologiche come le serre solari, pareti solari ventilate (Muri Trombe), componenti opachi con intercapedine di aria chiusa o aperta fortemente ventilata, elementi solari ventilati, elementi opachi con isolamento trasparente, sistemi di ombreggiatura integrati, ... ma anche soluzioni costruttive e progettuali che scaturiscono da un’analisi climatico/ambientale propria dell’area mediterranea. INTRODUZIONE I l legno è un materiale da sempre utilizzato in edilizia, che negli ultimi anni sta tornando alla ribalta grazie alla maggiore attenzione alla sostenibilità in edilizia e alla forte innovazione tecnologica. Le abitazioni in legno costituiscono un segmento in forte espansione, trainato dalla nuova consapevolezza dei vantaggi legati al costruire in legno in termini di qualità costruttiva, salubrità, sicurezza sismica ed elevato rapporto qualità-prezzo, ma anche perché “Il legno è in grado di fornire una valida risposta alla crescente attenzione ai problemi energetici e ambientali, puntando con decisione ad un ruolo da indiscusso protagonista nella green economy, grazie alla capacità di coniugare comfort abitativo, risparmio energetico e abbattimento di emissioni di CO2 in atmosfera”1. Il contesto delle aree montane con clima freddo risulta particolarmente favorevole alla realizzazione di costruzioni in legno grazie alla maggiore reperibilità della materia prima in loco che ha determinato nel tempo una consolidata tradizione edilizia. Ma il legno può essere una valida alternativa ai tradizionali materiali per le costruzioni (laterizi, cemento, acciaio) anche in paesi del sud con clima temperato caldo mediterraneo e subtropicale. Tradizionalmente nelle aree mediterranee, l’uso del legno è limitato alla costruzione di tetti, solai e initure (pavimenti, inissi, porte) e raramente è utilizzato per strutture e tamponature, in quanto l’esigenza prevalente è il controllo degli apporti solari gratuiti. Infatti, per gli ediici di area mediterranea, il “diritto all’ombra” è prioritario rispetto al “diritto al sole”, in quanto il clima mediterraneo invita a considerare prevalente il controllo tecnologico e progettuale dei parametri correlati alla prestazione energetica per la climatizzazione estiva: fabbisogno energetico per il raffrescamento e per la deumidiicazione2. L’analisi dei consumi energetici nel nostro paese ha dimostrato che si consuma di più per il condizionamento estivo che per il riscaldamento invernale, pertanto, oggi l’attenzione al tema della protezione dal caldo estivo è diventata una questione di estremo interesse per i progettisti. 1 Web: http://knowtransfer.unitn.it/4/edilizia-sostenibile-e-costruzionilegno 2 Violano A. (2012), Cinque livelli di fattibilità per un edificio energeticamente efficiente, In: Cannaviello M., Violano A. (Ed. by), Certificazione e Qualità energetica degli edifici; Milano: Franco Angeli Editore 79 ARCHITETTURA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 Fig. 1 Il lavoro che si presenta mira a deinire le possibili soluzioni tecnologiche, costruttive e progettuali utili ad ottimizzare le prestazioni dell’involucro in legno per le zone a clima mediterraneo. La ricerca, articolata in più fasi, ha visto in primis la raccolta delle informazioni in merito alle caratteristiche climatiche e alle tecniche costruttive tradizionali del mediterraneo, ed anche dei dati tecnici sulle aziende leader di case prefabbricate in legno. Ciò ha permesso di comprendere a fondo il contesto geograico e l’attuale offerta del mercato caratterizzato da diversi sistemi costruttivi dotati di speciiche funzionalità. A seguire, si è proceduto con un’analisi dei requisiti imposti dalla normativa italiana alle aziende produttrici di case prefabbricate in legno, in tema di prestazioni energetico-ambientali degli ediici, così da arrivare a deinire i potenziali requisiti che le case in legno dovrebbero avere se costruite in aree con clima mediterraneo. STRATEGIE PER OTTIMIZZARE LE PRESTAZIONI DELL’INVOLUCRO IN LEGNO Nelle zone con clima mediterraneo (A, B, C e D) l’esigenza principale, connessa al clima, non è tanto ridurre le dispersioni termiche nella stagione invernale quanto controllare gli accumuli termici nella stagione estiva. Un’altro fattore che contribuisce a creare una situazione di discomfort in queste aree nel periodo estivo è l’umidità relativa che raggiunge picchi anche del 90%, aumentando la percezione isica del calore e causando dificoltà respiratorie. Le condizioni climatiche delle aree costiere della penisola italiana sono paragonabili a quelle degli altri lembi di costa che si affacciano sul mediterraneo (Figura 1) dove si riscontrano caratteristiche e soluzioni tecnologiche analoghe in risposta alle condizioni climatiche. Le costruzioni mediterranee hanno infatti una forma diffu80 samente compatta, per garantire il più vantaggioso rapporto tra supericie di involucro e volume riscaldato, eficiente rispetto alle dispersioni termiche in inverno, piccole aperture contrapposte per favorire la ventilazione naturale in estate, con spazi ad assetto variabile (porticati, logge, patii, spazi iltro, serre) il cui comportamento selettivo ottimizza le prestazioni nel corso dell’intero anno3. Negli ediici mediterranei si tende a privilegiare il fronte esposto a sud, in modo da captare i raggi solari attraverso le aperture in inverno, quando il sole è basso, e a schermare le superici vetrate dai raggi solari in estate, quando il sole è alto, con aggetti orizzontali quali ad esempio balconi, logge, vengono, invece, limitate al massimo le aperture sui fronti est e ovest, poiché su tali lati portano scarsa energia in inverno, quando il sole è debole e di durata limitata, poiché il percorso solare d’inverno è breve, e surriscaldamento in estate, quando il sole è basso ed entra in profondità, il percorso solare è più lungo e i raggi sono dificili da schermare. Generalmente, il lato nord, che invece non riceve praticamente mai il sole se non all’alba e al tramonto in estate, è caratterizzato da aperture ridotte, per evitare dispersioni; queste servono solo per innescare la ventilazione naturale durante la stagione calda in modo da “scaricare” durante la notte il calore accumulato dalla parete esposta a sud durante il giorno. Una tipologia mediterranea tipica è la casa a patio, che presenta una struttura compatta con aperture solo verso il patio. Un elemento costruttivo, a cui bisogna prestare molta attenzione in area mediterranea, è la copertura che rappresenta l’attacco al cielo dell’ediicio. Ovviamente questo elemento è quello che più degli altri risente del soleggiamento diretto. Le coperture delle case mediterranee sono comunemente ri3 Capobianco L., Violano A. (2010), Abitare Mediterraneo: un progetto di edilizia residenziale pubblica ecocompatibile. In: “Il Progetto Sostenibile”, Trimestrale - Anno VIII, N° 25 , giugno 2010 pp. 46-51 SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | ARCHITETTURA spondenti a più tipologie di cui le più comuni sono quelle a terrazza, a volta e a cupola. Ognuna di queste tipologie ha alle spalle una tradizione costruttiva su base empirica le cui sperimentazioni hanno portato ad ottenere prestazioni funzionali ottimali. La tradizione costruttiva locale registra, sulla copertura piana, un’ulteriore struttura a telaio (gazebo) che sostiene materiali leggeri come ad esempio dei teli in tessuto o in paglia che assicurano una schermatura dai raggi solari creando un ambiente aperto ai lati e fruibile4. Questa copertura leggera viene rimossa nel periodo invernale così da permettere ai raggi solari di riscaldare la copertura piana garantendo degli apporti solari gratuiti ai locali sottostanti. Le coperture voltate o a cupola, invece, proprio per la loro forma favoriscono la riduzione della supericie di accumulo termico direttamente irradiata dal sole e, di conseguenza, la quantità di energia termica assorbita e trasmessa all’ambiente interno. Inoltre, contribuiscono ad innescare i moti convettivi per la ventilazione interna. Spesso, per migliorare questi lussi di aria, nella parte superiore della volta o della cupola viene praticata un’apertura che favorisce la fuoriuscita dell’aria calda interna. Fattore parimenti importante da controllare nelle costruzioni mediterranee, è il colore. Il “colore” condiziona l’assorbimento supericiale e il trasferimento di energia ricevuta per irraggiamento: i colori scuri hanno un elevato coeficiente di assorbimento, mentre i colori chiari hanno un basso valore di assorbimento. Siccome i colori scuri assorbono maggiormente la radiazione solare sono da evitare nei climi caldi, mentre i colori chiari, che la rilettono, riducono la captazione di energia termica. Tra i requisiti di comfort dettati dal D.M. 26/06/2015 (Allegato 1), emerge espressamente la richiesta di utilizzare cool roof con materiali ad alta rilettanza solare con un valore minimo di 0,65 nel caso di coperture piane e 0,30 nel caso di coperture a falde, per limitare il fabbisogno energetico per la climatizzazione estivo. Infatti “la prassi operativa in architettura è caratterizzata dal tentativo di promuovere un’innovazione tecnologica orientata verso l’ecoeficienza e l’auto-sostenibilità energetica (from net zero energybuildings to plus energybuildings) che sia il frutto di un’innovazione mentale, non solo ecologica e ambientale. A livello di scelte tecnologiche, non basta integrare nella copertura un sistema fotovoltaico o solare termico per far diventare un ediicio energeticamente eficiente [...] Nella scelta di materiali e sistemi costruttivi è da incentivare la valorizzazione delle tecniche e dei materiali tradizionali locali, interpretati progettualmente in modo innovativo, e la scelta di prodotti preferibilmente ecocompatibili e riciclabili. Il legno è, da 4 Violano A., Cannaviello M., De Simone L. (2014), Traditional materials, innovative performance, In: Gambardella C. (Ed. by), Best Practices in heritage, conservation and management. From the world to Pompei, Napoli, La scuola di Pitagora editrice questi punti di vista, un materiale con ottime prestazioni”5. Le soluzioni progettuali che prevedono l’uso di materie prime e modalità attuative di cui sia controllato il costo ambientale ed energetico in tutto il ciclo di vita … e anche oltre! sono la risposta alla crescente sensibilità del settore delle costruzioni che, in linea con il pensiero “ambientalmente consapevole” propone il legno come materiale da costruzione naturale che ha il grande vantaggio di non essere nocivo per la salute dell’uomo, di essere eco-sostenibile e rinnovabile. Dall’altro canto, però, l’utilizzo di materiali completamente naturali nella realizzazione delle case in legno, ha fatto sì che i prezzi risultassero inizialmente più alti rispetto alle costruzioni tradizionali. In effetti, le costruzioni in bioedilizia, pur avendo un costo iniziale più alto, permettono di recuperare questo costo con minori consumi energetici e bassissima manutenzione del fabbricato. Il legno è caratterizzato da un basso valore del coeficiente di conduttività termica, pertanto le strutture realizzate con questo materiale hanno buone prestazioni termo-acustiche che permettono di ridurre al minimo la perdita di calore durante il periodo invernale e il raffrescamento durante il periodo estivo. Si può, in generale, affermare che una parete in legno spessa 25 cm, realizzata con il sistema costruttivo Blockhaus, isola quanto una parete di calcestruzzo spessa 60 cm. Il mercato offre diverse tecniche costruttive per le strutture in legno, di cui le più diffuse sono sostanzialmente quattro: · Blockhaus o “casa in perline”, che consiste nel sovrapporre perline o tronchi direttamente in cantiere per realizzare le pareti autoportanti grazie a delle particolari ammorsature tridimensionali; · Platform frame o “casa a pannelli”, che consiste nell’assemblare in fabbrica le singole pareti con una trama strutturale a telaio bidimensionale, che può essere successivamente rivestito con differenti materiali di initura; · Timber frame o “casa a telaio”, che consiste nell’assemblare direttamente in cantiere la struttura portante dell’intera casa, composta da pilastri e travi in legno collegati fra loro da un complesso sistema di giunti. Anche in questo caso il rivestimento può essere effettuato con differenti materiali di initura. · X-lam, che consiste nell’assemblare in fabbrica le varie 5 VIOLANO, Antonella. BUILDING WITH WOOD: the summer energy performance according the UNITS 11300:2014-I. In: Le Vie dei Mercanti, 2015, p. 1941-1943 [Encouraging the eco-efficient and auto-sustainableoriented technological innovations is the current researching and working conditions’ main feature (from net zero energy buildings to plus energy buildings). They can be the result of a mental innovation, both ecological and environmental. For the technological choices, it is not enough integrated in the cover a photovoltaic or solar thermal system to build an energetically efficient building... When choosing building materials and systems, it is important to incentivize the techniques and local traditional materials appreciation, well translated in an innovative way, and the products’ choice to be ecocompatible and recyclable. From these points of view, wood is a material with a very good performance.] 81 ARCHITETTURA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 pareti realizzate con 3/5/7/9 strati di legno disposti con orditura incrociata e incollati. Rivestite successivamente con diversi materiali di initura. La prima tipologia è la più arcaica e la più rustica, tipica degli ambienti montani con una massa strutturale molto imponente ma con grandi limiti riguardo al dimensionamento dei vani e alla diversità di forma che può assumere l’ediicio, condizionato dalla massima lunghezza delle tavole o tronchi adoperabili. Le altre tre hanno in comune la versatilità delle initure che le rende più simili alle costruzioni tradizionali realizzate con altro materiale. La tipologia timber frame, che viene spesso preferita dai costruttori, permette una grande libertà di design e soluzioni architettoniche. La platform frame, invece, consente una maggior semplicità di progettazione e forse anche un piccolo vantaggio in termini di costi e di tempi di realizzazione. Quest’ultima si presta maggiormente alla standardizzazione di progetto penalizzando il design personalizzato. Gli aspetti costruttivi, tecnici e formali, da considerare per ottimizzare le prestazioni degli ediici in legno realizzati in area mediterranea sono principalmente la ventilazione naturale, le ombre proprie, il coeficiente di assorbimento solare delle initure esterne. Specialmente nei climi caldi e nelle stagioni estive, la ventilazione costituisce un eficace strumento per garantire il raffrescamento passivo degli ediici. Il movimento e il rinnovamento dell’aria, che sono tanto maggiori quanto più consistenti sono le differenze di temperatura e pressione tra l’interno e l’esterno, allontanano il calore in eccesso dalle strutture edilizie per convezione termica, in modo naturale. Ciò assicura beneici refrigerativi e consente anche di migliorare la qualità dell’aria. Anche le ombre contribuiscono fortemente al controllo dell’accumulo termico perché riducono gli apporti termici dovuti all’irraggiamento solare diretto. Per eficientare il sistema possono essere messe in atto alcune strategie progettuali più o meno complesse. La norma in materia di controllo delle prestazioni energetiche degli ediici impone l’adozione di sistemi schermanti per la riduzione dell’apporto di calore per irraggiamento attraverso le superici vetrate. Semplicemente agendo sulla geometria dell’ediicio si possono creare in facciata alternanze di pieni e vuoti o aggetti orizzontali (“corrugamenti”) che, in maniera naturale creano zone d’ombra. Nel periodo estivo i sistemi schermanti devono garantire un ombreggiamento delle superici trasparenti esposte nei quadranti Sud-Ovest/Sud-Est tale da ottenere una percentuale di schermatura pari a 70%, è altresì importante però che i sistemi utilizzati per la riduzione del calore entrante per irraggiamento solare nel periodo estivo non precludano i necessari apporti solari gratuiti nel periodo invernale: i sistemi di protezione devono limitare la radiazione diretta nel periodo estivo, ma permetterla nei mesi invernali. Inoltre, per utilizzare al meglio i materiali da costruzione, bisogna conoscere il comportamento degli stessi a temperature elevate o al variare della temperatura. 82 Tra le proprietà termiche quelle che maggiormente condizionano, per le initure delle superici opache esterne, la scelta di un materiale rispetto ad un altro sono il coeficiente di assorbimento e la emissività. Il coeficiente di assorbimento della radiazione solare (α) indica l’attitudine di un materiale ad assorbire l’energia radiante che incide su di esso; in genere superici scure e rugose si scaldano più di quelle chiare e lisce. La emissività (ε) indica l’attitudine di un materiale a disperdere l’energia radiante che incide su di esso; in genere superici scure e rugose dissipano più calore di quelle chiare e lisce. E’ consigliabile, quindi, utilizzare materiali con basso valore di α ed alto valore di ε cosa non semplice da raggiungere visto che spesso i materiali hanno per questi parametri valori contrapposti6. Questi due parametri termoisici incidono notevolmente sul controllo della temperatura delle superici esterne di un ediicio, in particolare nelle zone mediterranee dove l’energia solare incidente è molto elevata specialmente nel periodo estivo. La temperatura raggiunta dalla supericie di un elemento di involucro opaco esposto al sole determina la quantità di calore che potrà successivamente entrare all’interno dell’ediicio. Pertanto, nelle zone calde come quelle mediterranee, è necessario controllare il più possibile il lusso termico in entrata e in uscita, agendo sulla initura della supericie esterna (tipo di materiale, colore, rugosità) oltre ad utilizzare sistemi schermanti della radiazione solare. Per valutare le prestazioni in maniera comparata, gli elementi costruttivi esaminati nello studio condotto sono la parete esterna (Tab. 1) e la copertura (Tab. 2) perché sono questi gli elementi che costituiscono il conine tra interno ed esterno più signiicativo. La comparazione dei parametri di trasmittanza, sfasamento e attenuazione serve per capire se esiste una soluzione tecnologica appropriata. In effetti, anche se lo spessore delle coperture varia da 22 cm. a 28 cm., i valori della trasmittanza restano quasi uguali per tutte le aziende mentre lo sfasamento ha delle forti variazioni. Infatti per le coperture si passa da un minimo di 5 ore ad un massimo di 13 ore. Questo dato ha una notevole rilevanza per il clima mediterraneo perché, per queste zone, la normativa richiede uno sfasamento di circa 12 ore per garantire, nel periodo estivo, lo smaltimento dei carichi termici diurni durante le ore notturne. Dalle tabelle si evince che le aziende adottano materiali diversi per le strutture, per il rivestimento e per l’isolamento senza che ciò determini una variazione sostanziale dei requisiti cogenti. Per analizzare e confrontare fra loro i sistemi costruttivi più diffusi, è stata redatta una tabella (Tab. 3) nella quale 6 Allen E., Iano J. (2011). Fundamentals of Building Construction: Materials and Methods,.5ª ed. John Wiley&Sons,. p. 1008 SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | ARCHITETTURA Tab. 1 Tab. 2 83 ARCHITETTURA | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 Tab. 3 sono state inserite le classi esigenziali e i requisiti previsti dalle norme UNI per deinire l’organismo edilizio e i sistemi (ambientale e tecnologico) di cui si compone. Nella tabella sono stati inseriti solo i requisiti più signiicativi e caratterizzanti le case in legno rispetto alle condizioni climatiche in regime estivo per le zone a clima mediterraneo. Questa analisi ha evidenziato che, per quanto concerne la sicurezza, i sistemi costruttivi hanno tutti una buona attitudine a mantenere inalterata la funzione portante degli elementi strutturali, in funzione delle condizioni climatiche esterne con una leggera lessione per il sistema X-lam che in relazione alla capacità dissipativa valutata attraverso il fattore di struttura q0 risulta essere meno resistente degli altri. Riguardo ai requisiti termici ed igro-termici, si evidenziano risultati meno favorevoli per il sistema Block house. Questo sistema è costituito da un blocco unico di legno che non consente un buon isolamento dall’esterno a differenza degli altri sistemi che hanno pareti multistrato create ad hoc per migliorare le prestazioni. Anche per la gestione il sistema Block house è quello che risulta avere caratteristiche meno performanti per il clima mediterraneo. Per questo sistema costruttivo il controllo dell’inerzia termica, risulta più dificile rispetto agli altri sistemi e quindi necessita di maggiore energia per il riscaldamento ma anche 84 per il raffrescamento o di un’integrazione di isolante. Per concludere, un’attenta progettazione che preveda l’integrazione di soluzioni tecnologiche in grado di garantire condizioni di comfort ambientale durante tutto l’anno consente anche l’uso del legno come sistema costruttivo in area mediterranea. Uno sguardo al passato ci aiuta a capitalizzare progettualmente le conoscenze empiriche acquisite in secoli di attività costruttiva senza impianti termici. “Ciò non signiica che debba essere necessariamente un’architettura tradizionalista o vernacolare, in quanto le soluzioni morfologiche e tipologiche e quelle tecnico-costruttive subiscono un’evoluzione nel tempo in relazione all’emergere di nuovi bisogni e all’introduzione di nuovi materiali e nuovi sistemi di ediicazione. [...] Progettare oggi nei contesti mediterranei signiica comprendere le ragioni legate al clima, alle risorse, ai materiali dei luoghi. Progettare in queste aree geograiche non impone un pedissequo riferimento alle forme delle architetture della tradizione costruttiva di quelle regioni ma, piuttosto, una innovativa reinterpretazione delle ragioni che per secoli ne hanno guidato la realizzazione.”7 7 M. Lavagna, “Progettare con il clima, progettare nel contesto: tipologie, tecnologie e cultura materiale” CIL 133 FOCUS. SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE Un enzima potrebbe essere la chiave di volta per la cura dell’Alzheimer GIOVANNI STELITANO Biotecnologo S i chiama Glicogeno Sintasi Chinasi 3 (GSK3) l’enzima che i ricercatori stanno studiando da ormai una decade come possibile bersaglio per la cura dell’Alzheimer. Inizialmente scoperto dal gruppo di ricercatori guidato da Embi1 nel 1980 per l’importante ruolo che svolge nel processo biologico conosciuto come gliconegenesi2, la GSK3 è tutt’ora oggetto di studio per le numerose altre funzioni svolte nel metabolismo cellulare e nel decorso di numerose patologie3, tra cui il diabete, l’Alzheimer e il Parkinson, il disturbo bipolare e la dipendenza alle droghe. CARATTERIZZAZIONE DELL’ENZIMA La GSK3 è una proteina monomerica, è cioè formata da un unico monomero che ha funzione strutturale e possiede il sito attivo in cui viene processata l’attività enzimatica. Studi speciici sul sito attivo e sull’attività enzimatica della GSK3 hanno dimostrato che essa riconosce e lega più di un centinaio di substrati4, mentre i calcolati teorici indicano che può processare circa quattrocento molecole. Sono state riscontrate due isoforme della GSK3 date dallo splicing alternativo del suo messaggero3: la GSK3α e la GSK3β che differiscono sia per i loro bersagli molecolari sia per il ruolo che giocano nei processi biologici all’interno dei differenti tessuti cellulari. Le due isoforme non sono quindi interscambiabili. A dimostrazione di ciò è indicativo il fatto che l’isoforma α è, per esempio, completamente assente negli uccelli, e che la 1 Embi N., Rylatt D.B. & Cohen P. (1980). Glycogen synthase kinase-3 from rabbit skeletal muscle. Separation from cyclic-AMP-dependent protein kinase and phosphorylase kinase. Eur J Biochem. 107:519-527. 2 Ossia nell’allungamento della catena di glicogeno in risposta ai segnali biomolecolari derivanti dal pathway dell’insulina 3 Grimes C.A., & Jope R.S. (2001). Themultifaceted roles of glycogen synthase kinase 3β in cellular signaling. Prog Neurobiol 65, 391–426. 4 Linding R., Jensen L.J., Ostheimer G.J., van Vugt M.A., Jørgensen C., Miron I.M., et al. (2007). Systematic discovery of in vivo phosphorylation networks. Cell 129, 1415–1426. sua assenza non è letale per lo sviluppo del feto nelle altre specie animali, mentre l’assenza dell’isoforma β non permette la differenziazione cellulare di alcuni tessuti come quello neurale e quello cardiaco. La GSK3 è una protein chinasi serina/treonina speciica, è cioè un enzima che lega un gruppo fosfato a un residuo di serina o di treonina della molecola bersaglio (substrato). In particolare, esso riconosce la sequenza S/T-X-X-X-S/T(P) in cui S è una serina, T è una treonina, X è un amminoacido generico e (P) indica un gruppo fosfato che è stato precedentemente legato da un’altra protein chinasi (deinita primed kinase) alla sequenza di riconoscimento. Una volta individuata tale sequenza, la GSK3, in presenza di ioni di magnesio, lega il gruppo fosfato γ, che strappa da una molecola di ATP, alla serina o alla treonina non fosforilata della sequenza di riconoscimento5 come mostrato nella igura 1. L’attività della GSK è di tipo processivo, ciò vuol dire che l’enzima continuerà a legare un gruppo fosfato a un residuo di serina o treonina intanto che essi si trovino a tre amminoacidi di distanza dal residuo precedentemente fosforilato. Una caratteristica interessante della GSK3 consiste nel fatto che è una proteina costitutiva6, ossia sempre presente e attiva all’interno delle cellule, a differenza delle protein chinasi notoriamente inducibili, ossia proteine che necessitano di un induttore che ne attivi la sintesi. In effetti, un primo processo di regolazione di questo enzima viene attuato già durante la sua sintesi dall’enzima stesso, che si auto-fosforila7 su un residuo di serina (differente nelle 5 Dajani R., Fraser E., Roe S.M., Yeo M., Good V.M., Thompson V., et al. (2003). Structural basis for recruitment of glycogen synthase kinase 3β to the axin–APC scaffold complex. EMBO J 22, 494–501. 6 Doble B.W. & Woodgett J.R. (2003). GSK-3: tricks of the trade for a multi-tasking kinase. J Cell Sci, 1;116:1175-1186. 7 Hughes K., Nikolakaki E., Plyte S.E., Totty N.F., & Woodgett J.R. (1993). Modulation of the glycogen synthase kinase-3 family by tyrosine 85 SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 Figura 1 Immagine dell’autore due isoforme). Questo processo porta al massimo l’attività enzimatica, il cui aumento è di circa duecento volte, nelle prime fasi di emivita dell’enzima e ha lo scopo di avere un enzima che sia subito attivo all’interno della cellula. La GSK3 si può trovare in due forme, una attiva e una inattiva. Il processo di inibizione viene attuato da numerose altre protein chinasi che derivano principalmente da due pathway, quello dell’insulina (come la protein chinasi A, PKA) e quello del Wnt8, un complesso di trasduzione dei segnali biologici che permette la risposta cellulare agli stimoli esterni ed è costituito dalle proteine di membrana dipendenti dal calcio nonché da una famiglia di proteine chiamate wingless related proteins da cui prende il nome. Le chinasi attivate da questi due pathway possono fosforilare la GSK3 su una serina nella porzione N-terminale9 (la serina-9 per quanto riguarda l’isoforma beta, la serina-21 per quanto riguarda l’isoforma alfa). Questo processo fa sì che la coda della porzione N-terminale della GSK3 si sposti sul sito attivo, assumendo un comportamento da pseudo-substrato, e lo nasconda, impedendo così il legame con le molecole bersaglio. Le stesse proteine che inibiscono la GSK3 hanno anche la capacità di defosforilarla per permetterle di tornare allo stato attivo. RUOLO BIOLOGICO DELLA GSK3 NELL’EZIOLOGIA DELL’ALZHEIMER Il morbo d’Alzheimer è una delle malattie degenerative più comuni, che colpisce la popolazione al di sopra dei 65 anni d’età ma talvolta si può sviluppare anche precocemente. Si calcola che circa il 60-70% dei pazienti affetti da demenza si identiichi in questa patologia. Sono attualmente in fase di valutazione clinica delle terapie a base di litio poiché esso si è dimostrato essere un phosphorylation. EMBO J 12, 803–808. 8 Ryves W.J., Harwood A.J. (2003). The interaction of glycogen synthase kinase-3 (GSK-3) with the cell cycle. Prog Cell Cycle Res. 2003;5:489-95. 9 Cross D.A., Alessi D.R., Cohen P., Andjelkovich M. & Hemmings B.A. (1995). Inhibition of glycogen synthase kinase-3 by insulin mediated by protein kinase B. Nature 378, 785–789. 86 neuroprotettore già nei pazienti affetti da sindrome bipolare mostrando inoltre la capacità di abbassare il tasso di insorgenza dell’Alzheimer in questi pazienti10. Le ricerche dell’ultimo decennio si sono quindi focalizzate nel comprendere i meccanismi d’azione del litio nelle cellule neuronali affette dalla patologia, ed è ormai dimostrato che il litio ha un comportamento competitivo nei confronti del magnesio per il sito attivo della GSK3 bloccando così l’attività enzimatica11. A seguito di questa scoperta è stato approfondito il ruolo dell’enzima nell’insorgenza e nel decorso della malattia, e in effetti, è stato dimostrato come la GSK3, e in particolare l’isoforma β, intervenga su più livelli nei processi patologici che riguardano l’Alzheimer12. Principalmente possiamo distinguere due eventi biologici caratteristici della malattia: la perdita di stabilità dei microtubuli che conferiscono forma e solidità alle cellule, e la formazione della placche nello spazio extracellulare. Entrambi gli eventi portano alla distruzione delle cellule neuronali. La formazione delle placche, il più breve e semplice da trattare dei due processi, è dovuto all’aggregazione nello spazio intracellulare dei frammenti Aβ13. Essi non sono altro che dei piccoli peptidi, lunghi 40-42 amminoacidi, che si formano dalla degradazione della proteina precorritrice della beta-amiloide (APP), proteina di transmembrana delle cellule neuronali, quando la GSK3β ha un’eccessiva attività e induce una cascata di eventi che culminano con l’attivazione della γ-secretasi. L’aggregazione dei frammenti Aβ in placche comporta l’attivazione della via cellulare apoptotica14. 10 Nunes P.V., Forlenza O.V., Gattaz W.F. (2007). Lithium and risk for Alzheimer’s disease in elderly patients with bipolar disorder. Br J Psychiatry. Apr. 190:359-360. 11 Klein P.S. & Melton D.A. (1996). A molecular mechanism for the effect of lithium on development. Proc Natl Acad Sci USA 93, 8455–8459. 12 Grimes C.A., & Jope R.S. (2001). Themultifaceted roles of glycogen synthase kinase 3β in cellular signaling. Prog Neurobiol 65, 391–426. 13 Price D.L. & Sisodia S.S. (1998). Mutant genes in familial Alzheimer’s disease and transgenic models. Annu Rev Neurosci. 21:479-505. 14 Kim J.Y., Kim H., Lee S.G., Choi B.H., Kim Y.H., Huh P.W., Lee SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE La perdita di stabilità dei microtubuli, invece, è un processo più complesso e dipende da tre eventi distinti che tuttavia hanno la stessa conseguenza a livello molecolare. 1) Il primo evento è causato da un’eccessiva attività della GSK3β che comporta la fosforilazione della β-catenina, subunità principale della caderina, sui residui amminoacidici 41, 37 e 33, causandone la degradazione a opera dell’ubiquitin-proteosoma15. 2) Il secondo evento consiste nell’iperfosforilazione della proteina tau operata dalla GSK3β. Questa proteina, che isiologicamente si lega ai microtubuli per conferirne stabilità alla cellulare, quando iperfosforilata tende ad aggregarsi in complessi molecolari neurotossici quali i ilamenti a doppia elica (PHFs) e i grovigli neuroibrillari (NFTs)16. Le modiicazioni sì operate contribuiscono all’alterazione della plasticità delle sinapsi e ai cambiamenti degenerativi riscontrati nell’Alzheimer17. 3) La GSK3β può anche svolgere la propria attività all’interno del nucleo cellulare dove un’eccessiva funzione porta allo splicing alternativo del messaggero di tau. La proteina tau, che isiologicamente è presente nella forma 4R (così chiamata perché ha una sequenza amminoacidica ripetuta 4 volte), viene così sintetizzata nell’isoforma 3R che ha bassa afinità per i microtubuli. Nelle cellule corticali coltivate in vitro a un’elevata espressione di 3R si associa la perdita di stabilità dei microtubuli con conseguente produzione delle stesse lesioni presenti nei pazienti affetti da Alzheimer18. rose critiche su questi studi, giacché l’enzima è implicato in numerosi processi biologici la cui alterazione ha un impatto negativo sull’organismo, tuttavia, negli ultimi anni, è stato dimostrato che l’inibizione della GSK3 (sia mediante le terapie al litio, attualmente in fase di valutazione clinica, sia utilizzando delle molecole farmaceutiche che hanno un’azione inibente più speciica nei confronti dell’enzima come i derivati della maleimide, noto neuroprotettore) non solo rallenta i processi patologici sia in vitro che in vivo tipici della patologia ma promuove anche la neurogenesi20 delle cellule dell’ippocampo. Lo scopo degli studi futuri è quindi orientato non solo a bloccare i processi neurodegenerativi tipici dalla patologia, ma verte anche nel trovare un equilibrio tra essi e la neurogenesi. Queste scoperte hanno convinto anche i più scettici ad approfondire questa direzione di ricerca, ma molto lavoro è ancora necessario. È dimostrato inoltre, che nei pazienti affetti da Alzheimer si ha un incremento della concentrazione dell’enzima in un tessuto facilmente reperibile come le cellule linfatiche, ciò potrebbe permettere il suo utilizzo come marker della patologia19. CONCLUSIONI Sebbene numerosi studi sono stati condotti negli ultimi 10 anni, sono ancora necessarie numerose ricerche per riuscire a trovare una cura eficace per il morbo d’Alzheimer, ma l’inibizione della GSK3 sembrerebbe essere una strada promettente. I ricercatori più scettici hanno avanzato numeK.H., Han H. & Rha H.K. (2003). Amyloid beta peptide (Abeta42) activates PLC-delta1 promoter through the NF-kappaB binding site. Biochem Biophys Res Commun. 310:904-909. 15 Valvezan A.J. & Klein P.S. (2012). GSK-3 and Wnt signaling in neurogenesis and bipolar disorder. Front Mol Neurosci 5, 1. 16 Flaherty D.B., Soria J.P., Tomasiewicz H.G. & Wood J.G. (2000). Phosphorylation of human tau protein by microtubule-associated kinases: GSK3beta and cdk5 are key participants. J Neurosci Res. 62:463-472. 17 Arendt T. (2004). Neurodegeneration and plasticity. Int J Dev Neurosci. 22:507-14. 18 Hernandez F., Pérez M., Lucas J.J., Mata A.M., Bhat R. & Avila J. (2004) Glycogen synthase kinase-3 plays a crucial role in tau exon 10 splicing and intranuclear distribution of SC35. Implications for Alzheimer’s disease. J Biol Chem. 279:3801-3806. 19 Hye A., Kerr F., Archer N., Foy C., Poppe M., Brown R., Hamilton G., Powell J., Anderton B., Lovestone S. (2005). Glycogen synthase kinase-3 is increased in white cells early in Alzheimer’s disease. Neurosci Lett. Jan 3; 373(1):1-4. 20 Morales-Garcia J.A., Luna-Medina R., Alonso-Gil S., Sanz-San Cristobal M., Palomo V., Gil C., Santos A., Martinez A.& Perez-Castillo A. (2012). Glycogen synthase kinase 3 inhibition promotes adult hippocampal neurogenesis in vitro and in vivo. ACS Chem. Neurosci. 963e971. 87 88 SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | RECENSIONI e non si incontra, spesso, con il reale La teoria del valore di un’opera. Ciò non riguarda il caso editoriale dell’anno scorso che, “soggetto di ancora oggi, non smette di interessare massa” specialisti, cultori e semplici interessati. Mi riferisco alla Teoria del Soggetto in Danilo di massa, presentata per la prima volta ne La ine del nostro tempo, trattato del Campanella ilosofo Danilo Campanella. Il successo del saggio consiste procome diagnosi babilmente nell’aver annunciato la necessità di umanesimo», del vulnus della deinito comeunla «nuovo «terza via» ossia una mediazione tra il liberalismo e il sociacoscienza nel lismo. Nella società i diritti umani sono postmodernismo il perno fondamentale e l’individuali- RICCARDO NARDUCCI Scienze della Comunicazione, Università degli Studi Roma Tre I n un’epoca post-moderna come la nostra in cui il decorrere della crisi economica ed i tentativi di reazione si susseguono, non sempre ci è chiaro il nuovo ruolo dell’uomo nella società. Il modo in cui si è adattato e ambientato nella crisi, ed i suoi tentativi di iniziare percorsi di progresso verso nuove side che possano essere trampolini di lancio per l’uscita dalla crisi economica. Una crisi che sembra presentare varie sfaccettature, toccando cosi i vari ambiti della vita di una persona. Pochi saggi di ilosoia recenti racchiudono forti contenuti psicologici e di scienza comunicativa; ancora meno presentano un successo editoriale rilevante. L’interesse della critica, soprattutto di quella universitaria, è spesso legata a correnti interne dell’Accademia smo, tipico del pensiero liberale, viene bilanciato da principi di collettività e di solidarietà. Questo orizzonte, sociologico e ilosoico-politico, costituisce il nucleo di fondo del volume La ine del nostro tempo, in cui l’autore, alla luce di un’accurata analisi storica, richiama il primato dei diritti fondamentali connaturati nella persona e il primato del personalismo come prospettiva sociale, etica, culturale e politica, come ben sottolineato dal ilosofo Andrea Gentile, docente associato presso l’Università degli Studi Guglielmo Marconi. Come il prof. Gentile riporta nell’introduzione al trattato, il volume è strutturato in tre parti: Potere e consenso; Fenomenologia del soggetto di massa; Tempi nuovi si annunciano, con l’aggiunta di un’ulteriore sintesi ne La terza via (appendice inale). All’interno di questa articolazione complessiva, nella terza parte del saggio, vengono formalizzate delle risposte reali e concrete al problema della crisi contemporanea e sono enucleati nuovi modelli e alcune interessanti teorizzazioni innovative come: la «teoria del soggetto di massa», la «teoria della spersonalizzazione progressiva» e la «teoria dell’apparato comunitario». La strutturazione del saggio presenta alcune tematiche invero non nuove nel panorama della ilosoia politica, né della ilosoia del diritto. L’ispirazione a Wilhelm Röpke e a Emmanuel Mounier (per altro citati) è molto presente nel trattato, come anche l’accenno a un certo personalismo che, pur volendo essere realista, non esce fuori da un certo esistenzialismo ottocentesco, il cui eco è molto forte nelle pagine del Campanella. Ciò che rende diverso “La ine del nostro tempo” dagli altri saggi, e ciò per cui si è lungamente dibattuto nei circoli, nelle conferenze, nei dibattiti, nelle tavole rotonde, è dato dalla creazione di due nuovi concetti dottrinali: “Soggetto di massa” e “Teoria della spersonalizzazione progressiva”. La prima è una teoria psicologica a dire il vero già presente nel panorama della psicologia di massa contemporanea, benché il Campanella la traduca in termini politici, con l’uso della ilosoia, in modo più esauriente rispetto a tanti psicologi Per la verità ciò che è apparso come una novità vera e propria è stata la teoria del soggetto di massa. Campanella parte dal seguente presupposto storico: “Il potere politico, in tutte le sue varianti, ha dovuto adattarsi alle “dinamiche indipendenti” della storia, applicando dei metodi di controllo sempre differenti; ha avuto bisogno di plasmare i sudditi, nei periodi di regime monarchico, attraverso speciiche qualità: dovevano essere leali, coraggiosi, dediti a un codice d’onore, rispettosi delle classi superiori, attraverso la “costruzione” di soggetti che si prestavano bene sia a sacriicarsi in guerra sia ad abbracciare l’aratro nei periodi di pace. I regimi teocratici hanno plasmato, attraverso la fede, la carità e l’umiltà, un altro tipo di soggetto: il fedele. Successivamente, si è passati dal feudo al commercio, dal lavoro nei campi a quello nelle città, dall’agricoltura alla fabbrica e, inine, all’impresa. Con l’avvento del capitalismo, il sistema mercatista si impegnerà nel plasmare un nuovo tipo di fedele-suddito: il consumatore. Per gran parte della storia umana le società si sono basate sulla disciplina e il loro culmine si ha tra il XVIII e il IX secolo1 (…) Noi siamo il più grande prodotto dell’ingegneria del nostro tempo”, continua il ilosofo, per poi aggiungere: “Al soggetto di massa è stata tessuta addosso una personalità, sia individuale che collettiva, atta a integrarlo all’interno del sistema politico; se ci rilettete sopra, noterete che 1 Danilo Campanella, La fine del nostro tempo, Dissensi 2016, p. 79. 89 RECENSIONI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 Dunque, posto che la persona sia un soggetto autocosciente, il soggetto umano individuale, la politica, alleata con il mercato e grazie alla tecnologia, ha plasmato un modello umano simile a una formica, connesso con gli altri individui, un soggetto nato non per se stesso ma per il suo collettivo. Il soggetto di massa, appunto: “La tecnologia delle comunicazioni, al servizio della politica, ha costruito una società in cui è potuto instaurarsi un nuovo e più avanzato tipo di potere. Eppure ciò non sarebbe bastato a realizzare il perfetto controllo dell’individuo nella società massiicata, costruendo così un vero e proprio “soggetto di massa”. Per chiudere il cerchio occorreva un meccanismo, all’interno del “sistema aperto”, che consentisse al cittadino di auto-limitarsi”3. Ciò che interessa peculiarmente la sociologia e le scienze delle comunicazioni è la linea che Campanella traccia tra mass media e libertà personale dell’individuo, anzi, della persona. Il Quarto potere è così forte nell’epoca postmoderna da riuscire a plasmare un nuovo tipo di essere umano, antropologicamente diverso (come viene altresì riconosciuto nell’eminente Rivista di Sociologia), grazie alla costruzione di una coscienza collettiva che parte dall’aberrazione della natura originaria dell’uomo. In tal senso Campanella si scontra in una parziale polemica col Sartori, il quale nella sua teoria dell’Homo Videns parla di decostruzione, mentre Campanella si riferisce ad una costruzione progressiva e silente, 2 Ibidem., p. 88. 3 Ibid., p. 90. un ruolo similare lo avevano assunto, in precedenza, i partiti politici che, in Europa, dominarono per circa un secolo”2. 90 non ex novo, ma che soffoca la natura originaria della persona parzialmente formata o non ancora formata, in modo tale che essa non saprà mai veramente chi è. Tale studio si pone certamente come una novità nel panorama della psicologia sociale e della ilosoia politica, ma anche un pregevole contributo alla ricerca, riguardo i temi trattati nel testo, già conosciuti, ma riportati in chiave sicuramente nuova e più schietta: Campanella non utilizza sotterfugi retorici o sottigliezze ilosoiche per dirci come stanno le cose, ma indica il re, nudo, così com’è. Anche se, spesso, veniamo convinti che sia ben vestito. Danilo Campanella La ine del nostro tempo Dissensi, 2016 SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 | RECENSIONI Ricercatore per sempre C ome si scrive una pubblicazione scientiica? Come si diventa ricercatore e poi professore universitario? Nato da sei lezioni sulla scrittura delle pubblicazioni scientiiche, tenute dall’autore per il dottorato di ricerca in “Biodiversità, agricoltura e ambiente”, e dalla sua esperienza personale, nel libro Ricercatore per sempre Pietro Santamaria illustra come si scrive un articolo da proporre ad una rivista scientiica e racconta la sua odissea di ricercatore e professore universitario prima e dopo la presa di servizio. Il libro intervalla i capitoli sulla scrittura scientiica con le vicende che hanno portato l’autore a sostenere due volte lo stesso concorso per professore associato, a vincerlo e a non poter prendere servizio ino ad un nuovo concorso sostenuto dieci anni dopo. Così ai capitoli dedicati alle varie sezioni di una pubblicazione scientiica (titolo, authorship, riassunto, parole chiave, introduzione, materiali e metodi, risultati, discussione, conclusioni, bibliograia e ringraziamenti) seguono, come in una corsa ad ostacoli, i racconti dell’odissea di un ricercatore italiano inita anche in Parlamento. Nel manuale sulla scrittura, Santamaria segnala come è possibile valutare la forza di un articolo scientiico ed esorta i lettori a non essere mai noiosi suggerendo, ad esempio, le istruzioni per poter preparare una presentazione orale con Power Point. Piuttosto approfondita è la parte relativa alla scrittura dei risultati, alla preparazione di tabelle e igure e allo studio e interpretazione delle interazioni. “Ricercatore per sempre” è anche un invito a non dimenticare il valore pubblico della professione e a tenere presente l’etica del ricercatore. Pietro Santamaria è professore associato di orticoltura all’Università di Bari. È autore di oltre 250 pubblicazioni ed è stato docente guida di oltre 100 laureandi, dottoranti e assegnisti di ricerca. A questo link (http://www.aracneeditrice.it/aracneweb/index.php/pubblicazione.html?item=9788854893085) è possibile leggere le prime pagine del libro. Pietro Santamaria è professore associato dell’Università degli Studi di Bari Aldo Moro presso il Dipartimento di Scienze Agro-Ambientali e Territoriali. Insegna Colture ortive al Corso di laurea magistrale in Gestione e sviluppo sostenibile dei sistemi rurali mediterranei, Ortoloricoltura speciale al Corso di laurea magistrale in Medicina delle piante e Comunicazione della scienza e pubblicazioni scientiiche alla Scuola di dottorato di ricerca in Biodiversità, agricoltura e ambiente.La sua attività scientiica è rivolta in modo particolare alle seguenti tematiche di ricerca: nutrizione minerale, coltivazioni senza suolo, qualità dei prodotti e biodiversità delle specie orticole. È autore di oltre 250 pubblicazioni scientiiche tra cui otto libri (due monograie e sei curatele). Pietro Santamaria Ricercatore per sempre Una guida alla scrittura delle pubblicazioni scientiiche e l’odissea di un ricercatore italiano Aracne editrice, 2016 Responsabilità R esponsabilità è ciò che la gente chiede alla gente. Senso generatore di senso. Un senso che sembra esser perso nel tempo corrente. Una parola che sembra esser desueta e, così, non più collegata a Valore, Morale e Libertà. Fors’anche perché sostituita da sicurezza. Condizione, questa, che ci è posta come la soluzione alla vita non buona che viviamo. E spesso quello che sviluppiamo per arginarne il dilagare altro non è che resistenza. Ma la resistenza è logorante e deve far i conti con quella caratteristica umana che è la sofferenza. Occorre capacità di cura. Una cura che parta dal sé di ognuno ma non si esaurisca nello stesso. E dal sé di ognuno potrà estendersi verso il prossimo altro, a partire dal iglio. Una Responsabilità forte del vaglio operato dal dubbio, dal timore e dalla speranza. Alfredo Marinelli, professore di Oncologia presso l’Università degli Studi Federico II di Napoli; Neurolinguista; è componente del board dell’Istituto di Psicologia Umanistica “De Marchi” IPUE di Roma; svolge attività di formazione e consulenza anche nel settore industriale. Ex direttore scientiico dei Corsi Centralità dell’Uomo (2012) e The Civis (2013) patrocinati dal Parlamento Europeo. Oltre la produzione scientiica specialistica è autore di numerosi capitoli in testi universitari con trattazione di etica, bioetica, accanimento terapeutico, comunicazione, relazione, esercizio professionale, ar91 RECENSIONI | SCIENZE E RICERCHE • N. 38 • 1° OTTOBRE 2016 gomenti insegnati in Master. Ha pubblicato su “Hiram” rivista del Grande Oriente d’Italia, Massoneria Universale, di cui è componente; è autore della rubrica “Assaggi” su expartibus. L’ultimo segreto di Mussolini Alfredo Marinelli Responsabilità Personale sociale politica Jouvence, 2016 L’ otto settembre del 1943 l’Italia annunciò l’armistizio con le Forze alleate. Fu una resa senza condizioni. Qualcosa però si mosse sottobanco. C’era infatti un altro tavolo, non uficiale, dove il governo Badoglio continuò a collaborare con il vecchio amico tedesco. Tra ricatti, ostaggi, minacce e sotterfugi, l’illustre prigioniero Mussolini veniva così sottratto agli Alleati e consegnato ai tedeschi il 12 settembre a Campo Imperatore. L’agente Nelio Pannuti, addetto alla sorveglianza personale di Mussolini al Gran Sasso, in un’intervista rilasciata all’autore della presente opera, dichiarò che quell’incursione dei tedeschi “sembrava proprio un’azione concordata, tant’è che, una volta liberato il Duce, ci fu un momento conviviale tra soldati italiani e tedeschi nella sala dello stesso albergo, tutti con le armi in spalla paciicamente”. Per chi non lo sapesse: i manuali storici hanno sempre narrato dell’eficacia dei servizi segreti tedeschi e dell’impresa epica dei loro paracadutisti per liberare Mussolini. Ma quale eficenza! Che fandonie! Che a Campo Imperatore si trovava prigioniero il Duce lo sapevano tutti, persino i bambini. Addirittura ci fu un pastorello di tredici anni che trafugò gli alianti tedeschi im- 92 possessandosi di alcuni armamenti. Per non parlare della complicità italiana nel riaggiustamento storico. Il comandante dei carabinieri al Gran Sasso Alberto Faiola, fu pure encomiato, quando al contrario questi, non solo non predispose alcuna misura cautelativa, ma venne anche meno ai suoi doveri invitando alcuni suoi amici proprio in quei giorni all’albergo di Campo Imperatore. Insomma una nuova verità storica che è raccontata sin dagli inizi grazie anche alla testimonianza - sconosciuta a molti - di Karl Radl, l’aiutante di colui che erroneamente è stato sempre considerato il vero arteice dell’Operazione Quercia”: il capitano Otto Skorzeny. Vincenzo Di Michele (1962) già autore di “La famiglia di fatto” (un’analisi sulle tematiche della convivenza more uxorio); “Io prigioniero in Russia” (oltre 50.000 copie vendute e vincitore di premi alla memoria storica); “Guidare oggi” (un manuale di guida per le insolite problematiche stradali); “Mussolini into prigioniero al Gran Sasso”(una revisione dei fatti storici sulla prigionia del Duce a Campo Imperatore nel settembre 1943); “Pino Wilson, vero capitano d’altri tempi” (2013, la biograia uficiale dello storico calciatore della Lazio campione d’Italia nel 1974); “Come sciogliere un matrimonio alla Sacra Rota” (2014, un’inchiesta dettagliata sull’iter di annullamento dei matrimoni innanzi ai Tribunali ecclesiastici). Vincenzo Di Michele L’ultimo segreto di Mussolini Quel patto sottobanco fra Badoglio e i tedeschi Il Cerchio, 2015