Archivi autore: Giorgio Jannis

8×1000, più soldi al Molise che al Terzo Mondo

Attenzione: qui non si parla di chiesa o di spiritualità, si parla dei soldi dei contribuenti. Ma siamo in italia (con la i minuscola), che ci volete fare.

Articolo tratto da LaStampa.it del 4 agosto 2008

8×1000, più soldi al Molise che al Terzo Mondo
Del denaro lasciato dai contribuenti allo stato, in Asia e Africa sono arrivate briciole. E la Chiesa spende in carità solo il 20%.

di RAPHAEL ZANOTTI

La televisione, dove l’unico spot circolante è quello della Chiesa Cattolica, ci ha abituati a pensare all’8×1000 come a una magnifica occasione per aiutare i derelitti della Terra. Nelle pubblicità compaiono bambini di Paesi poveri, fame e miseria. Far tornare un sorriso su quei volti emaciati è facile: basta apporre una firma sulla dichiarazione dei redditi e si destina una quota dell’Irpef a quelle popolazioni in difficoltà.

Una bella favola. Peccato che resti, appunto, una favola. La Chiesa Cattolica destina solo il 20% di quello che riceve con l’8×1000 per fare della carità (fonte Cei). Il resto lo incamera. Le istituzioni laiche non fanno meglio. Tra il 2001 e il 2006 lo Stato italiano, attraverso l’8×1000, ha destinato all’Africa 9 milioni di euro per combattere la piaga della fame: un quinto di quanto ha dato per la regione Lazio (43 milioni). E pensare che il Continente Nero, con i suoi oltre 800 milioni di abitanti, ha preso più degli altri. All’Asia, 4 miliardi di individui, è arrivato un milione e mezzo: il prezzo di una villa in Sardegna. O se si preferisce un quarto di quanto il governo ha stanziato – prelevandolo dallo stesso fondo – al solo Molise (7,2 milioni di euro). Seguono l’America Centrale con 610mila euro e quella Meridionale con 560mila, poco più e poco meno di 10mila euro all’anno.

E sarebbe andata ancora peggio se nel 2006 tutta la quota statale, ovvero 4,7 milioni di euro, non fosse stata completamente destinata a progetti contro la fame nel mondo. Evidentemente la beneficenza va di moda solo negli spot. Secondo la sezione di controllo sulla gestione delle amministrazioni dello Stato della Corte dei Conti dal 2001 al 2006 lo Stato italiano ha elargito 272 milioni di euro grazie all’8×1000 degli italiani. Ma se si vanno a guardare le aree di intervento, le differenze sono enormi: 179 milioni (il 66%) sono serviti per finanziare progetti di conservazione di beni culturali; 59 milioni (il 22%) per affrontare calamità naturali; 22 milioni (l’8%) per l’assistenza ai rifugiati; solo il 4% è andato a progetti contro la fame nel mondo.

Una scelta difficile da spiegare, a meno che non si entri nel dettaglio e s’intuiscano alcuni meccanismi che governano la classe politica italiana. Se si scorrono i progetti finanziati nei sei anni presi in esame, si scopre che il 40% circa ha riguardato il restauro di chiese, abbazie, conventi e parrocchie. Un aspetto che non è sfuggito alla Corte che, in adunanza pubblica, ha chiesto conto alla rappresentante del Ministero dei Beni e delle Attività Culturali di tanti finanziamenti a enti religiosi. La risposta è stata che il patrimonio artistico, culturale, storico e architettonico degli enti religiosi in Italia è di grande eccellenza. Vero, ma la Corte non ha potuto che richiamare alle norme che regolano la distribuzione dell’8×1000 e che parlano di bilanciamento nella scelta dei progetti e di urgenza degli stessi.

La disparità di trattamento, invece, è evidente. Tanto più se si tiene conto di altri dati. I numeri parlano da soli: i 315 milioni di euro attribuiti allo Stato dal 2001 al 2007 impallidiscono di fronte ai 6.546 milioni ricevuti dalla Chiesa Cattolica. È il ritorno dello spot televisivo? I creativi sono bravi, ma non così tanto. A meno che non si voglia annoverare in questa categoria (e il personaggio di sicuro lo merita) anche l’attuale ministro delle Finanze Giulio Tremonti. È sua l’idea del meccanismo di redistribuzione che tanti mal di pancia fa venire ai laici che siedono in Parlamento ma non solo.

Non tutti gli italiani dichiarano a chi deve andare il loro 8×1000. Solo il 40% lo fa scegliendo tra Stato, Chiesa Cattolica, Valdesi, Luterani, Comunità ebraica, Avventisti o Assembleari. E il restante 60%? In altri Paesi, dove la donazione deve rispecchiare una volontà esplicita del contribuente, questa quota rimane allo Stato e quindi a disposizione di tutti. In Italia viene invece ridistribuita secondo le proporzioni del 40%, dove i cattolici vanno forte. Alla fine circa il 90% dell’intero gettito va alla Chiesa. Si tratta di quasi un miliardo di euro all’anno, 991 milioni nel 2007.

E pensare che quando nacque l’8×1000, la sua funzione era quella di sostituire la congrua per il pagamento dello stipendio ai sacerdoti. Lo Stato era anche disposto a mettere di tasca propria il denaro necessario per arrivare alla cifra di 407 milioni di euro nel caso i fondi fossero risultati insufficienti. Oggi gli stipendi dei preti rappresentano un terzo dell’8×1000 che va alla Chiesa, ma nessuno ha mai osato mettere in discussione la cifra, nemmeno la commissione bilaterale italo-vaticana che aveva il compito di rivedere le quote nel caso il gettito fosse stato eccessivo.

Del fiume di denaro che va alla Chiesa Cattolica, la Cei destina il 20% per opere caritatevoli, il 35% per pagare gli stipendi dei 38mila sacerdoti italiani e il resto, circa mezzo miliardo di euro, viene ufficialmente utilizzato per non meglio precisate «esigenze di culto», «catechesi» e «gestione del patrimonio immobiliare». Forse anche per questo lo slogan scelto dai Valdesi per un loro spot radiofonico di qualche tempo fa era: «Molte scuole, nessuna chiesa». La pubblicità in questione è stata vittima di una sorta di censura: per mesi non è stata mandata in onda. Non è l’unica disparità che lamentano le altre confessioni religiose.

Diversamente dai cattolici, infatti, Valdesi, Luterani, Comunità Ebraiche, Assembleari e Avventisti ottengono i fondi (volontariamente sottoscritti dagli italiani) solo dopo tre anni. Alla Cei, invece, lo Stato versa un anticipo del 90% sull’introito dell’anno successivo. Le vie del Signore, in alcuni casi, si fanno scorciatoie. Ma le disparità tra religioni diverse non sono le uniche che si possono riscontrare tra i finanziamenti statali dell’8×1000.

Nonostante i criteri di scelta dicano che, per finanziare i progetti, è necessario tener conto di vari fattori, tra cui anche quello della maggiore o minore popolazione presente sul territorio su cui insiste il progetto, ci sono regioni che paiono baciate dalla fortuna. In sei anni all’Abruzzo sono andati 13 milioni di euro, quanto la Sicilia e la Toscana, e quattro volte l’Umbria (3 milioni di euro). E che dire delle Marche (22 milioni di euro), che ha ricevuto più del doppio di una regione come il Piemonte? Capire perché questo accade è praticamente impossibile.

Il Dipartimento per il coordinamento amministrativo della Presidenza del Consiglio, che si occupa della distribuzione dei fondi, dichiara di aver tenuto conto dei criteri scelti dalla Presidenza, ma anche «della commissione tecnica di valutazione», dei «pareri non vincolanti delle Camere», di imprecisate «indicazioni arrivate da autorità politiche» e dei suggerimenti delle «commissioni parlamentari». Come dire: di tutti. Il risultato è stata la solita guerra tra lobby, che però ha provocato un effetto perverso: l’enorme frammentazione dei finanziamenti.

Se ognuno vuole la sua fetta di torta, per quanto piccola, l’esito è scontato: l’8×1000 si perde in una serie infinita di rigagnoli. Il 78% dei finanziamenti erogati, ovvero tre su quattro, è inferiore a 500.000 euro. Quasi la metà (43,22%) è compreso tra i 100 e i 500 mila euro. Chi dovrebbe evitare tutto questo è la Presidenza del Consiglio. Per legge dovrebbe essere il filtro che dà unitarietà e razionalità agli interventi, ma non accade.

La Corte rileva che i ministeri si rivolgono direttamente al dicastero delle Finanze per i progetti. Questo ha un ulteriore conseguenza: se si elimina la responsabilità della Presidenza del consiglio, chi controlla gli esiti dei lavori? Il regolamento stabilisce che, passati 21 mesi, se questi non sono iniziati, il finanziamento viene revocato. Sarebbe dovuto accadere per esempio per la Chiesa della Martorana di Palermo, per il Complesso di Santa Margherita Nuova in Procida o per la Chiesa di santa Prudenziana a Roma. Non è avvenuto.

Di fronte a questi risultati non stupisce la disaffezione dei cittadini. Nel 2004 il 10,28% dei contribuenti aveva affidato il suo 8×1000 allo Stato. La percentuale è scesa all’8,65% nel 2005, all’8,38% nel 2006 e al 7,74% nel 2007. Forse avranno contribuito le leggi che in questi anni hanno decurtato la quota statale senza tener minimamente conto delle finalità per cui era stato istituito l’8×1000. Nel 2001 sono stati prelevati 77 milioni di euro per finanziare la proroga della missione dei militari italiani in Albania e nel 2004 il governo Berlusconi ha deciso una decurtazione di 80 milioni di euro anche negli anni successivi per sostenere la missione italiana in Iraq. Le decurtazioni dal 2001 al 2007 sono ammontate a 353 milioni di euro, più dei 315 milioni rimasti nel fondo 8×1000. Siamo lontani anni luce dai bambini dello spot in tv.

Transizione

Cristiano Bottone ci racconta la Transizione, dal suo blog ioelatransizione.

Cos’è la Transizione

Cerco di descriverla in poche parole: la Transizione è un movimento culturale impegnato nel traghettare la nostra società industrializzata dall’attuale modello economico profondamente basato su una vasta disponibilità di petrolio a basso costo e sulla logica di consumo delle risorse a un nuovo modello sostenibile non dipendente dal petrolio e caratterizzato da un alto livello di resilienza.

Analizzando più a fondo i metodi e i percorsi che la Transizione propone, si apre un universo che va ben oltre questa prima definizione e fa della Transizione una meravigliosa e articolatissima macchina di ricostruzione del sistema di rapporti tra gli uomini e gli uomini e tra gli uomini e il pianeta che abitano.

Sotto un’apparenza semplice e pragmatica si nasconde un formidabile strumento terapeutico dei tanti mali che affliggono il mondo industrializzato, uno strumento che ho appena iniziato ad esplorare e che mi sembra tra i più promettenti a nostra disposizione.

Transition è un movimento culturale nato non più di due anni fa in Inghilterra dalle intuizioni e dal lavoro di Rob Hopkins, un guru davvero improbabile.

Tutto nasce quasi per caso nel 2003. In quel periodo Rob insegnava a Kinsale e con i suoi studenti creò il Kinsale Energy Descent Plan un progetto strategico che indicava come la piccola città avrebbe dovuto riorganizzare la propria esistenza in un mondo in cui il petrolio non fosse stato più economico e largamente disponibile.

Voleva essere un’esercitazione scolastica, ma quasi subito tutti si resero conto del potenziale rivoluzionario di quella iniziativa. Quello era il seme della Transizione, il progetto consapevole del passaggio dallo scenario attuale a quello del prossimo futuro.

COM’È IL NOSTRO MONDO

L’economia del mondo industrializzato è stata sviluppata negli ultimi 150 anni sulla base di una grande disponibilità di energia a basso prezzo ottenuta dalle fonti fossili, prima fra tutte il petrolio. Più in generale il nostro sistema di consumo si fonda sull’assunto paradossale che le risorse a disposizione siano infinite.

Le conseguenze più evidenti di questa politica sono il Global Warming e il picco delle risorse, prime tra tutte il petrolio, una combinazione di eventi dalle ricadute di portata epocale sulla vita di tutti noi. Ci sono molti altri effetti che si sommano a questi, inquinamento, distruzione della biodiversità, iniquità sociale, mancata ridistribuzione della ricchezza, ecc.

La crisi petrolifera appare però la minaccia più immediata e facilmente percepibile dalle persone. Rob intuisce che è più semplice partire da questo punto e arrivare agli altri di conseguenza, un’intuizione che è probabilmente alla base della fulminea diffusione del suo movimento.

RISCOPRIRE LA RESILIENZA

Ma Rob è anche e soprattutto un ecologista e ha passato anni a insegnare i principi della Permacultura. Da questo suo background deriva la sua seconda intuizione: applicare alla logica della sua Transizione il concetto di resilienza.

Resilienza non è un termine molto conosciuto, esprime una caratteristica tipica dei sistemi naturali. La resilienza è la capacità di un certo sistema, di una certa specie, di una certa organizzazione di adattarsi ai cambiamenti, anche traumatici, che provengono dall’esterno senza degenerare, una sorta di flessibilità rispetto alle sollecitazioni.

La società industrializzata è caratterizzata da un bassissimo livello di resilienza. Viviamo tutti un costante stato di dipendenza da sistemi e organizzazioni dei quali non abbiamo alcun controllo. Nelle nostre città consumiamo gas, cibo, prodotti che percorrono migliaia di chilometri per raggiungerci, con catene di produzione e distribuzione estremamente lunghe, complesse e delicate. Il tutto è reso possibile dall’abbondanza di petrolio a basso prezzo che rende semplice avere energia ovunque e spostare enormi quantità di merci da una parte all’altra del pianeta.

È facile scorgere l’estrema fragilità di questo assetto, basta chiudere il rubinetto del carburante e la nostra intera civiltà si paralizza. Questa non è resilienza.

I progetti di Transizione mirano invece a creare comunità libere dalla dipendenza dal petrolio e fortemente resilienti attraverso la ripianificazione energetica e la rilocalizzazione delle risorse di base della comunità (produzione del cibo, dei beni e dei servizi fondamentali).

Lo fa con proposte e progetti incredibilmente pratici, fattivi e basati sul buon senso. Prevedono processi governati dal basso e la costruzione di una rete sociale e solidale molto forte tra gli abitanti delle comunità. La dimensione locale non preclude però l’esistenza di altri livelli di relazione, scambio e mercato regionale, nazionale, internazionale e globale.

LE TRANSITION TOWNS

Nascono così le Transition Towns (oramai centinaia), città e comunità che sulla spinta dei propri cittadini decidono di prendere la via della transizione.

Qui si evidenzia il terzo elemento di forza del progetto di Rob Hopkins, quello che lui ha creato è un metodo che si può facilmente imparare, riprodurre e rielaborare. Questo lo rende piacevolmente contagioso, anche grazie alla forza della visione che contiene, un’energia che attiva le persone e le rende protagoniste consapevoli di qualcosa di semplice e al contempo epico.

Possediamo tutte le tecnologie e le competenze necessarie per costruire in pochi anni un mondo profondamente diverso da quello attuale, più bello e più giusto. La crisi profonda che stiamo attraversando è in realtà una grande opportunità che va colta e valorizzata. Il movimento di Transizione è lo strumento per farlo.

Privacy, tecnofobia, legislazione

Mini-rassegna stampa. Su PuntoInformatico trovate un bell’articolo di Guido Scorza, intitolato La Tecnofobia clicca sempre due volte, dove vengono valutati i curiosi comportamenti dei legislatori italiani riguardo la regolamentazione dei nuovi comportamenti sociali permessi dalle nuove tecnologie. In effetti, la tecnica “due pesi e due misure”, riferita qui alle differenze con cui il Parlamento esprime giudizi e promulga decreti rispettivamente sul mondo degli atomi e su quello dei bit, oltre a lasciar intravvedere una certa ignoranza sulla Cultura Digitale rivela un atteggiamento decisamente tecnofobico. Siamo sempre lì: il nuovo e l’ignoto mettono paura, il cambiamento genera ansia e resistenze al cambiamento.

Sulla nota vicenda Mediaset-YouTube, riguardante la fantasiosa pretesa della prima di essere risarcita per 500 milioni di Euro da Google per aver pubblicato migliaia di ore di trasmissione televisive, vale la pena leggere l’articolo di Massimo Mantellini intitolato “Mediaset e le occasioni perdute“, nonché quello di Massimo Gramellini, “In Mediaset virtus” pubblicato su la Stampa.it.

Progetto e21, ICT ed e-participation per lo sviluppo sostenibile

Riprendo qui un articolo di Chiara Bolognini tratto dal sito della PubblicaAmministrazione, dove viene trattato il tema dell’utilizzo degli strumenti partecipativi permessi dalla Rete in relazione ai meccanismi consultivi messi in atto in Lombardia dalle iniziative locali legate a Agenda 21 (qui il sito del progetto e21)

Fonte: pubblicaamministrazione.net

Progetto e21, ICT ed e-participation per lo sviluppo sostenibile
di Chiara Bolognini

Citato tra i progetti più interessanti nell’ultimo rapporto del CNIPA, il Progetto e21 vede coinvolti, oltre che la Regione Lombardia, dieci importanti Comuni e coniuga l’Agenda 21 locale con soluzioni ICT pratiche per la partecipazione dei cittadini

Coniugare uno dei più interessanti strumenti di partecipazione civica alle scelte di governo del territorio – noto come Agenda 21 locale – con un mix di soluzioni di informatica e telematica civica ad elevata usabilità ed accessibilità: è questo l’obiettivo del Progetto e-21, presentato presso la sede della Regione Lombardia il 3 giugno scorso. Progetto che, nato in seno all’Associazione Informatica e Reti Civiche (A.I.Re.C.) Lombardia, vede dieci importanti Comuni della Lombardia (Brescia, Como, Desenzano del Garda, Lecco, Mantova – che è il capofila -, Malgesso – per conto del consorzio Co.Ri., Pavia, San Donato Milanese, Vigevano e Vimercate) e la stessa Regione, impegnati a sperimentare nei percorsi di Agenda 21 locale nuove opportunità per la partecipazione via rete con l’utilizzo delle Information and Communication Technologies (ICT).

L’Agenda 21 è il programma per lo sviluppo sostenibile sottoscritto da 178 governi di tutto il mondo nel summit delle Nazioni Unite su Ambiente e Sviluppo svoltosi a Rio de Janeiro nel 1992. Viene messo a punto e sperimentato in una molteplicità di diverse situazioni – nel mondo così come nel nostro Paese – e si basa su una metodologia di partecipazione, con cui si dà una possibilità in modo organizzato e sistematico, alla Comunità locale di far emergere i problemi del territorio (quelli ambientali, ma anche quelli dell’economia, quelli sociali e della qualità della vita), analizzarne le cause, formulare proposte per migliorare lo stato attuale delle cose, seguire l’attuazione dei progetti e delle iniziative per lo sviluppo sostenibile e verificarne gli effetti.

Con il Progetto e21, co-finanziato dal Ministero per l’Innovazione e le Tecnologie nell’ambito dell’Avviso per la selezione di progetti per lo sviluppo della cittadinanza digitale (e-democracy) dell’aprile 2004, proprio il tema della partecipazione dei cittadini nel governo del territorio e nella definizione e nell’attuazione delle politiche della sostenibilità e il tema dell’Agenda 21 locale, trova uno strumento concreto e innovativo di attuazione.

La peculiarità dell’iniziativa viene illustrata da Gianpaolo Trevisani, responsabile tecnico del Progetto per il Comune di Mantova: «Rispetto agli strumenti tradizionali di comunicazione quali forum, blog, mailing list ecc., gli strumenti software sviluppati in e21 hanno la caratteristica di essere progettati specificamente per gestire processi partecipativi, cioè processi caratterizzati da un’interazione tra gli utenti finalizzata al raggiungimento di una posizione condivisa. Per questo abbiamo dotato lo strumento, che gestisce le discussioni di funzionalità che consentono di realizzare un documento di sintesi delle posizioni che hanno riscosso un maggior gradimento, di definire una data di inizio o di fine della discussione, di mettere in evidenza i documenti a supporto, ecc. A questi strumenti deliberativi, si affianca la CityMap, uno strumento finalizzato a raccogliere osservazioni, proposte, segnalazioni da parte dei cittadini localizzandole grazie all’uso di una mappa della città».

In concreto, lo scopo generale del sistema e21 è quello di supportare lo svolgimento di processi partecipativi, suddivisi in fasi, mettendo a disposizione degli utenti strumenti in grado di implementare differenti tecniche partecipative, denominati strumenti deliberativi. Tali strumenti hanno come principale caratteristica quella di consentire un’interazione tra gli utenti finalizzata al raggiungimento di un risultato condiviso. Più in generale, e21 fornisce un contesto tecnologico atto alla creazione di un ambiente politico-sociale in grado di utilizzare abitualmente le ICT per supportare la partecipazione locale, affiancando agli strumenti deliberativi suddetti, adeguati strumenti di community capaci di stimolare la partecipazione dei cittadini ai processi partecipativi della Pubblica Amministrazione locale.

Il sistema e21 è costituito da uno spazio di community, in cui è possibile un’interazione libera tra gli utenti, cioè non finalizzata al raggiungimento di un risultato specifico, e uno spazio deliberativo, in cui è possibile gestire processi partecipativi, cioè processi caratterizzati da un’interazione tra gli utenti finalizzata al raggiungimento di un risultato condiviso.

Gianpaolo Trevisani fornisce ulteriori dettagli: «Lo spazio di community è la parte del sistema, a cui è demandata la gestione delle interazioni libere tra gli utenti, cioè non finalizzate ad uno specifico obiettivo. Lo strumento presente in tale area, la CityMap, ha la funzione di consentire una discussione libera focalizzata sul territorio, stimolando l’adesione ai processi partecipativi. In pratica la City Map è un forum di discussione, in cui le discussioni sono costituite da un messaggio di avvio (il primo del thread) e da una serie di commenti (risposte). I commenti vengono comunque denominati genericamente messaggi. Il messaggio di avvio della discussione ha un oggetto (subject) che costituisce l’argomento della stessa, mentre i commenti ne sono privi. È possibile inviare una risposta sia al messaggio di avvio che ad un commento, senza alcun limite di annidamento».

La particolarità di questo strumento consiste nella possibilità di localizzare le discussioni, cioè associare ad esse (tramite il messaggio di avvio) un indirizzo geografico nella città di riferimento del sistema (definita in fase di configurazione del sistema) che ne consente la rappresentazione su una mappa gestita tramite Google Maps.

Oltre a questo, ecco altri due applicativi “chiave”:

  • la discussione informata: uno strumento per la discussione ed elaborazione collaborativa di proposte basate su documenti, con possibilità di assegnazione di gradimento ai messaggi, finalizzata alla realizzazione di un documento di sintesi redatto anche a più mani attraverso l’utilizzo di uno strumento di scrittura collaborativa (wiki);
  • il Meeting On-line regolato: uno strumento che permette lo svolgimento ordinato di meeting e conferenze online seguendo precise regole di conduzione che permettono ad esempio di presentare proposte ed emendamenti, votare mozioni, ecc.

Partito nel 2005 e citato esplicitamente nell’ultimo rapporto di sintesi del CNIPA (marzo 2008) tra i progetti di e-democracy più interessanti, il Progetto e-21 si è articolato in diverse fasi, che può essere utile riepilogare brevemente per le Ammininistrazioni interessate al riuso.

La prima tappa è stata l’analisi dei processi di Agenda 21 locale presso gli Enti Locali aderenti, con uno studio approfondito dei processi partecipativi in atto e previsti dai rispettivi progetti di Agenda 21 locale nei 10 comuni aderenti al progetto, al fine di valutarne il livello di avanzamento ed il grado di partecipazione e rappresentatività raggiunto e stimare il fabbisogno scoperto di partecipazione.

Poi si è focalizzata l’attenzione sull’e-participation e l’uso delle ICT negli Enti Locali aderenti, prendendo in esame, per ciascuno di essi, la tipologia, l’accessibilità e l’utilizzo delle applicazioni ICT a supporto dei processi partecipativi, decisionali e comunicativi. Come terzo step si è passati alla progettazione vera e propria, alla realizzazione delle applicazioni ICT e all’implementazioni delle componenti software infrastrutturali e di servizio che costituiscono la piattaforma tecnologica e21, utili a supportare i diversi contesti partecipativi e le diverse fasi del processo di Agenda 21.

Sono stati quindi approfondite le scelte delineate nel documento di progetto, anche tramite il coinvolgimento di rappresentanti dei destinatari delle applicazioni e degli sponsor per quanto riguarda gli aspetti di portabilità delle applicazioni stesse. Per quanto riguarda l’accessibilità delle applicazioni sviluppate, queste sono state sottoposte alla verifica tecnica di accessibilità (normative AIPA e WAI) e alla verifica soggettiva della sua fruibilità. Si viene poi al capitolo “riuso” e alla personalizzazione della piattaforma tecnologica e21 per gli Enti Locali aderenti.

Le attività di costruzione, gestione e promozione degli ambienti partecipativi e21 saranno assicurate dai comuni assistiti dallo Staff di progetto e dai promoter, figure di raccordo, regolazione e promozione della e-participation che dovranno anche assicurare il coordinamento tra il dibattito e le proposte che maturano nell’ambiente online e quanto emerge dai contesti di partecipazione del territorio. Il lavoro consta di 3 fasi:

  1. al termine dello sviluppo della piattaforma e21: creazione di installazioni personalizzate presso il server centrale di progetto (per i Comuni che scelgono l’utilizzo in modalità ASP) ed eventuale sviluppo del software necessario all’utilizzo delle componenti messe a disposizione tramite web services da parte dei Comuni che lo richiedano; sviluppo di moduli per l’accesso di utenti già registrati presso i sistemi ICT dei Comuni e lo scambio di archivi già esistenti;
  2. durante le sperimentazioni locali: esecuzione degli interventi necessari per garantire l’allineamento con le esigenze emerse e messa a punto delle applicazioni;
  3. al termine delle sperimentazioni: studio delle modalità più efficaci e delle opportune ulteriori personalizzazioni necessarie per garantire continuità alle prassi di e-participation sperimentate in e21.

Il futuro riguarda le possibilità di riuso e trasferimento della piattaforma e21, nonché di un suo potenziamento, ampliamento ed evoluzione, che si possono correlare in particolare all’opportunità che gli enti aderenti adottino in modo sistematico gli strumenti della partecipazione telematica sperimentati nelle proprie politiche, che altri Enti locali impegnati in processi partecipativi li adottino, che si consolidi la “Comunità di Pratica” degli operatori delle politiche della sostenibilità, della partecipazione e dell’e-participation. Un’opportunità che incontra l’interesse della Regione Lombardia nonché del nascente Coordinamento delle Agende 21 lombarde, che vede tra i promotori alcuni dei Comuni aderenti al progetto e21. Serviranno anche altri due alleati fondamentali: la formazione di esperti e “facilitatori” sul territorio e la puntuale ed efficace comunicazione sulle evoluzioni e i risultati raggiunti.

Tutti gli approfondimenti sul sito dedicato al Progetto.

Antropologia dei blog


Da NuoviAbitanti

Marino Niola, professore ordinario di Antropologia Culturale a Napoli (qui su Wikipedia), ha scritto per larepubblica.it un articolo sul mondo dei blog, sul loro significato sociale e sulle relazioni interumane che hanno luogo in Rete. Che poi si tratta sempre di un Luogo, appunto antropologicamente connotato.

Lungi da essere il solito sproloquio di certo giornalismo nostrano, dove i blog vengono nominati solo per aspetti scandalistici oppure con toni canzonatorii da giornalisti platealmente incompetenti riguardo le dinamiche comunicative in Rete e le Tecnologie dell’Informazione e della Comunicazione, l’articolo di Niola prova a tratteggiare la nascente “cartografia sociale” che emerge dal libero scambio di informazioni e di opinioni degli Abitanti digitali, dove l’aggregazione e l’interazione interpersonale sono motivate esclusivamente dalla partecipazione attiva da parte di ognuno alla condivisione di tematiche e alla frequentazione di campi di interesse comuni, ovviamente in modo indipendente dalla distanza fisica che separa gli interlocutori.
La società sta evolvendo, nel suo superamento glocale delle categorie spaziali tradizionali, e certamente concetti come “confine geografico” o “prossimità relazionale” vanno profondamente rivisti, in un epoca contrassegnata da fenomeni di telepresenza (web e cellulari) , dal primato dell’Informazione e della Conoscenza in formato digitale, dall’Economia dell’immateriale.

Purtuttavia sfugge a Niolo, ancora forse incantato dalla visione certo importantissima di una Rete relazionale a estensione planetaria, il concreto risvolto “local” di quella parola glocal (vedi Bauman su Wikipedia, glocalizzazione) più su accennata: esiste oggi la possibilità per chiunque, pubblico o privato, di aprire dei blog urbani o comunque dei luoghi-contenitori di partecipazione democratica delle collettività per la progettazione e la definizione collaborativa delle strategie da adottare per migliorare il proprio Ben-Stare sul territorio, da concepire ormai come tecnoterritorio, come una rete di rioni digitali che compongono paesaggi biodigitali attraversati da flussi di persone e di rappresentazioni mediatiche (vedi i concetti di Appadurai, antropologo, su Wikipedia).

Ben vengano, comunque, articoli come questo di Repubblica per muovere anche in Italia l’opinione pubblica, in un paese di scarse letture e tuttora ancorato alla televisione quale unica fonte informativa (ammesso che abbia ancora una tale funzione), alla comprensione delle profonde modificazioni sociali in atto sul pianeta.

_____________________

Villaggio blog, vista sul mondo
le nuove forme di dialogo

di Marino Niola

Fonte: larepubblica.it

“Dovessi spiegarti che cos’è il mio blog ti direi che è un luogo, riscaldato d’inverno ed areato d’estate, con un indirizzo e una buca delle lettere, finestre per guardarci dentro se passi nei pressi ed una porta aperta per entrare se ti andrà. L’insieme dei blog che leggiamo e di quelli che ci leggono è un villaggio particolarmente salubre fatto di abitanti che si siano scelti fra loro e non paracadutati lì dal caso”. Parola di blogger.
È evidente che il blog è molto più di un sistema di comunicazione. È un angolo di mondo, avrebbe detto Herder. O una forma di vita, per dirla con Wittgenstein. In entrambi i casi uno spazio di condivisione simbolica caratterizzato dai suoi usi, costumi, sensibilità, abitudini, codici sedimentati – ma prima ancora creati – e da un linguaggio comune. I blog sono a tutti gli effetti le nuove forme di vita prodotte dalla rete, degli autentici angoli di mondo virtuale.

Certo che il blog è un luogo di confronto e di scambio di idee, informazioni, pareri, servizi, ma è anche di più, molto di più. Questa forma di diario in rete – il termine è la contrazione di web e di log che significa appunto diario ma anche traccia – sta dando vita a una nuova cartografia sociale. Fatta di punti di aggregazione fondati sulla circolazione delle opinioni.

Qualcuno li considera un po’ come la versione immateriale dello Speaker’s Corner, letteralmente angolo dell’oratore, di Hyde Park a Londra, dove chiunque può montare su una cassetta di legno a mo’ di palco e predicare sul mondo in assoluta libertà. Occupando un angolo di spazio pubblico per dire la sua. Quella minuscola cassetta garantisce una sorta di extraterritorialità che consente a ciascuno di dire fino in fondo tutto ciò che pensa. A ben vedere il blog è proprio una occupazione di immaginario pubblico, una sorta di tribuna virtuale. E contribuisce a rivelare la forma dei nuovi spazi collettivi di una società che ha profondamente mutato le sue categorie spaziali e sta passando dalle divisioni alle condivisioni, dai luoghi tradizionali – territori fisici delimitati, confinati, sul modello delle nazioni – agli iperluoghi immateriali che ridisegnano le mappe del presente.

Nuovo luogo della condivisione pubblica in un tempo caratterizzato dalla scomparsa progressiva dello spazio pubblico tradizionale: un po’ circolo, un po’ palcoscenico, un po’ salotto, un po’ sezione di partito, un po’ piazza, un po’ caffè. I diari in rete rappresentano modi diversi di sentirsi comunità. Non più comunità locali, e localistiche, basate sulla prossimità geografica, residenziale, cittadina, ma su forme inedite di appartenenza.

Ecco perché il blog non è solo uno strumento del comunicare, ma è una potente metafora del nostro presente in rapida trasformazione e un simbolo anticipatore del nostro futuro. A farne un mito d’oggi è proprio la sua capacità di dirci qualcosa di profondo su noi stessi, di mostrarci con estrema lungimiranza ciò che stiamo per diventare anche se ancora non lo sappiamo con precisione. Nei grandi cambiamenti epocali il mito, la metafora, il simbolo si assumono proprio il compito di lanciare dei ponti verso quelle sponde del reale che ancora non vediamo ma, appunto, intravediamo. Anche se abbiamo già cominciato a viverci dentro istintivamente. In questo senso i comportamenti del popolo dei blog ci aiutano a cogliere quanto stiano di fatto mutando le stesse categorie di identità e di appartenenza: sempre meno materiali, sostanziali, fisse e sempre più fluttuanti, mobili, convenzionali.

E come sia cambiata la stessa nozione di luogo di cui viene oggi revocato in questione il fondamento primo, ovvero l’idea di confine naturale, in favore di quella di confine digitale. Il blog anticipa una realtà che non è più quella del paese, della città, del quartiere, della classe d’età, della famiglia, della parrocchia, del circolo. I bloggers si rappresentano come una comunità di persone che si scelgono liberamente e su scala planetaria. E in questa dimensione extraterritoriale intessono un nuovo legame sociale.
Comunità senza luogo? Niente affatto. È la vecchia nozione di luogo ad essere inadeguata. E assieme a lei quella apparentemente nuova di non-luogo che della prima non è che la figlia degenere. Perché è fondata su una idea pesante, solida, ottocentesca del luogo e della persona.

Un’idea che ha l’immobile solidità del ferro e non la mutevole fluidità dei cristalli liquidi. In realtà a costituire il tessuto spaziale, ieri come oggi, sono sempre le relazioni, mai semplicemente le persone fisiche. E oggi le relazioni sono sempre meno incarnate, sempre meno materializzate, ma non per questo scompaiono.

La liquidità della rete è la vera materia sottile della trama sociale contemporanea, e perfino di quella spaziale se è vero che oggi l’iperconnessione è il principio vitale che circola come sangue nel corpo del villaggio globale. I cosiddetti non-luoghi sono in realtà più-che-luoghi, super-luoghi, sono luoghi all’ennesima potenza, acceleratori di contatti, incroci ad alta densità, moltiplicatori di collegamenti tra bande larghe di umanità. È questa la cartografia wi-fi della nuova territorialità, la cosmografia del presente di cui Internet è il dio e Google è il primo motore immobile. Una rivoluzione recente ma che sta già cambiando il vocabolario dell’essere: dal to be al to google e, sopratutto, al to blog.

Non a caso bloggare è diventato un verbo. Il terzo ausiliare per chi è in cerca di casa, di lavoro, di visibilità, di posizione insomma. È la terra promessa degli homeless digitali, la nuova frontiera dei migranti interinali in cerca di hot spots, di porte wireless, di ambienti interconnessi. Un nuovo paesaggio fatto di camere con vista sul web. Proprio così una blogger definisce il suo miniappartamento virtuale. O un villaggio di villette monofamiliari dove si lascia sempre aperta la porta di casa perché chi ne ha voglia possa entrare a prendere un caffè. Altro che fine del legame sociale. La blogosfera è la traduzione della mitologia comunitaria nella lingua del web, la declinazione immateriale della società faccia a faccia: la nostalgia del paese a misura d’uomo in un download.

Frequentare i blog serve, fra l’altro, a smontare molti dei luoghi comuni sugli effetti nefasti della digitalizzazione della realtà e sull’apocalisse culturale che essa comporterebbe. Fine della lettura, tramonto dell’italiano, declino dello spirito collettivo. In realtà questo sguardo luttuoso sul cambiamento lamenta sempre la scomparsa delle vecchie forme e proprio per questo fa fatica a riconoscere l’intelligenza del presente.

A parte quelli specializzati, espressamente attrezzati a luoghi di cultura, palestre di discussione critica, gabinetti di lettura, atelier di scrittura, i blog sono in generale delle officine stilistiche e retoriche in continua attività, dove la capacità di persuasione e l’estetizzazione della comunicazione hanno spesso un ruolo fondamentale. “Qui sul blog è tutta un’altra cosa. Scrivo in modo molto diverso da come scriverei su un diario. Le persone che mi conoscono commentano e dicono la loro, e i pensieri pubblicati sono molto più profondi”.

Per quanto diversi fra loro, i blogger nascono dal linguaggio e vivono di linguaggio. Un regime democratico, dove ciascuno è opinionista nel libero mercato delle opinioni, senza gerarchie di posizione, senza ruoli, senza il peso dell’autorità. Dove ognuno è quel che scrive, dove tutti hanno pari facoltà d’interlocuzione. È la nuova utopia della libertà e dell’eguaglianza. Compensazione simbolica al malessere attuale della democrazia in carne e ossa.

Antropologia dei blog

 

Aggiornamento del 30 luglio: Mantellini dice che tutto l’incipit dell’articolo in questione è una sua definizione di blog di qualche tempo fa. E qui purtroppo Niola fa una figura barbina, nel non citare l’autore della fonte.

Marino Niola, professore ordinario di Antropologia Culturale a Napoli (qui su Wikipedia), ha scritto per larepubblica.it un articolo sul mondo dei blog, sul loro significato sociale e sulle relazioni interumane che hanno luogo in Rete. Che poi si tratta sempre di un Luogo, appunto antropologicamente connotato.

Lungi da essere il solito sproloquio di certo giornalismo nostrano, dove i blog vengono nominati solo per aspetti scandalistici oppure con toni canzonatorii da giornalisti platealmente incompetenti riguardo le dinamiche comunicative in Rete e le Tecnologie dell’Informazione e della Comunicazione, l’articolo di Niola prova a tratteggiare la nascente “cartografia sociale” che emerge dal libero scambio di informazioni e di opinioni degli Abitanti digitali, dove l’aggregazione e l’interazione interpersonale sono motivate esclusivamente dalla partecipazione attiva da parte di ognuno alla condivisione di tematiche e alla frequentazione di campi di interesse comuni, ovviamente in modo indipendente dalla distanza fisica che separa gli interlocutori.
La società sta evolvendo, nel suo superamento glocale delle categorie spaziali tradizionali, e certamente concetti come “confine geografico” o “prossimità relazionale” vanno profondamente rivisti, in un epoca contrassegnata da fenomeni di telepresenza (web e cellulari) , dal primato dell’Informazione e della Conoscenza in formato digitale, dall’Economia dell’immateriale.

Purtuttavia sfugge a Niola, ancora forse incantato dalla visione certo importantissima di una Rete relazionale a estensione planetaria, il concreto risvolto “local” di quella parola glocal (vedi Bauman su Wikipedia, glocalizzazione) più su accennata: esiste oggi la possibilità per chiunque, pubblico o privato, di aprire dei blog urbani o comunque dei luoghi-contenitori di partecipazione democratica delle collettività per la progettazione e la definizione collaborativa delle strategie da adottare per migliorare il proprio Ben-Stare sul territorio, da concepire ormai come tecnoterritorio, come una rete di rioni digitali che compongono paesaggi biodigitali attraversati da flussi di persone e di rappresentazioni mediatiche (vedi i concetti di Appadurai, antropologo, su Wikipedia).

Ben vengano, comunque, articoli come questo di Repubblica per muovere anche in Italia l’opinione pubblica, in un paese di scarse letture e tuttora ancorato alla televisione quale unica fonte informativa (ammesso che abbia ancora una tale funzione), alla comprensione delle profonde modificazioni sociali in atto sul pianeta.

_____________________

Villaggio blog, vista sul mondo le nuove forme di dialogo

di Marino Niola

Fonte: larepubblica.it

“Dovessi spiegarti che cos’è il mio blog ti direi che è un luogo, riscaldato d’inverno ed areato d’estate, con un indirizzo e una buca delle lettere, finestre per guardarci dentro se passi nei pressi ed una porta aperta per entrare se ti andrà. L’insieme dei blog che leggiamo e di quelli che ci leggono è un villaggio particolarmente salubre fatto di abitanti che si siano scelti fra loro e non paracadutati lì dal caso”. Parola di blogger.
È evidente che il blog è molto più di un sistema di comunicazione. È un angolo di mondo, avrebbe detto Herder. O una forma di vita, per dirla con Wittgenstein. In entrambi i casi uno spazio di condivisione simbolica caratterizzato dai suoi usi, costumi, sensibilità, abitudini, codici sedimentati – ma prima ancora creati – e da un linguaggio comune. I blog sono a tutti gli effetti le nuove forme di vita prodotte dalla rete, degli autentici angoli di mondo virtuale.

Certo che il blog è un luogo di confronto e di scambio di idee, informazioni, pareri, servizi, ma è anche di più, molto di più. Questa forma di diario in rete – il termine è la contrazione di web e di log che significa appunto diario ma anche traccia – sta dando vita a una nuova cartografia sociale. Fatta di punti di aggregazione fondati sulla circolazione delle opinioni.

Qualcuno li considera un po’ come la versione immateriale dello Speaker’s Corner, letteralmente angolo dell’oratore, di Hyde Park a Londra, dove chiunque può montare su una cassetta di legno a mo’ di palco e predicare sul mondo in assoluta libertà. Occupando un angolo di spazio pubblico per dire la sua. Quella minuscola cassetta garantisce una sorta di extraterritorialità che consente a ciascuno di dire fino in fondo tutto ciò che pensa. A ben vedere il blog è proprio una occupazione di immaginario pubblico, una sorta di tribuna virtuale. E contribuisce a rivelare la forma dei nuovi spazi collettivi di una società che ha profondamente mutato le sue categorie spaziali e sta passando dalle divisioni alle condivisioni, dai luoghi tradizionali – territori fisici delimitati, confinati, sul modello delle nazioni – agli iperluoghi immateriali che ridisegnano le mappe del presente.

Nuovo luogo della condivisione pubblica in un tempo caratterizzato dalla scomparsa progressiva dello spazio pubblico tradizionale: un po’ circolo, un po’ palcoscenico, un po’ salotto, un po’ sezione di partito, un po’ piazza, un po’ caffè. I diari in rete rappresentano modi diversi di sentirsi comunità. Non più comunità locali, e localistiche, basate sulla prossimità geografica, residenziale, cittadina, ma su forme inedite di appartenenza.

Ecco perché il blog non è solo uno strumento del comunicare, ma è una potente metafora del nostro presente in rapida trasformazione e un simbolo anticipatore del nostro futuro. A farne un mito d’oggi è proprio la sua capacità di dirci qualcosa di profondo su noi stessi, di mostrarci con estrema lungimiranza ciò che stiamo per diventare anche se ancora non lo sappiamo con precisione. Nei grandi cambiamenti epocali il mito, la metafora, il simbolo si assumono proprio il compito di lanciare dei ponti verso quelle sponde del reale che ancora non vediamo ma, appunto, intravediamo. Anche se abbiamo già cominciato a viverci dentro istintivamente. In questo senso i comportamenti del popolo dei blog ci aiutano a cogliere quanto stiano di fatto mutando le stesse categorie di identità e di appartenenza: sempre meno materiali, sostanziali, fisse e sempre più fluttuanti, mobili, convenzionali.

E come sia cambiata la stessa nozione di luogo di cui viene oggi revocato in questione il fondamento primo, ovvero l’idea di confine naturale, in favore di quella di confine digitale. Il blog anticipa una realtà che non è più quella del paese, della città, del quartiere, della classe d’età, della famiglia, della parrocchia, del circolo. I bloggers si rappresentano come una comunità di persone che si scelgono liberamente e su scala planetaria. E in questa dimensione extraterritoriale intessono un nuovo legame sociale.
Comunità senza luogo? Niente affatto. È la vecchia nozione di luogo ad essere inadeguata. E assieme a lei quella apparentemente nuova di non-luogo che della prima non è che la figlia degenere. Perché è fondata su una idea pesante, solida, ottocentesca del luogo e della persona.

Un’idea che ha l’immobile solidità del ferro e non la mutevole fluidità dei cristalli liquidi. In realtà a costituire il tessuto spaziale, ieri come oggi, sono sempre le relazioni, mai semplicemente le persone fisiche. E oggi le relazioni sono sempre meno incarnate, sempre meno materializzate, ma non per questo scompaiono.

La liquidità della rete è la vera materia sottile della trama sociale contemporanea, e perfino di quella spaziale se è vero che oggi l’iperconnessione è il principio vitale che circola come sangue nel corpo del villaggio globale. I cosiddetti non-luoghi sono in realtà più-che-luoghi, super-luoghi, sono luoghi all’ennesima potenza, acceleratori di contatti, incroci ad alta densità, moltiplicatori di collegamenti tra bande larghe di umanità. È questa la cartografia wi-fi della nuova territorialità, la cosmografia del presente di cui Internet è il dio e Google è il primo motore immobile. Una rivoluzione recente ma che sta già cambiando il vocabolario dell’essere: dal to be al to google e, sopratutto, al to blog.

Non a caso bloggare è diventato un verbo. Il terzo ausiliare per chi è in cerca di casa, di lavoro, di visibilità, di posizione insomma. È la terra promessa degli homeless digitali, la nuova frontiera dei migranti interinali in cerca di hot spots, di porte wireless, di ambienti interconnessi. Un nuovo paesaggio fatto di camere con vista sul web. Proprio così una blogger definisce il suo miniappartamento virtuale. O un villaggio di villette monofamiliari dove si lascia sempre aperta la porta di casa perché chi ne ha voglia possa entrare a prendere un caffè. Altro che fine del legame sociale. La blogosfera è la traduzione della mitologia comunitaria nella lingua del web, la declinazione immateriale della società faccia a faccia: la nostalgia del paese a misura d’uomo in un download.

Frequentare i blog serve, fra l’altro, a smontare molti dei luoghi comuni sugli effetti nefasti della digitalizzazione della realtà e sull’apocalisse culturale che essa comporterebbe. Fine della lettura, tramonto dell’italiano, declino dello spirito collettivo. In realtà questo sguardo luttuoso sul cambiamento lamenta sempre la scomparsa delle vecchie forme e proprio per questo fa fatica a riconoscere l’intelligenza del presente.

A parte quelli specializzati, espressamente attrezzati a luoghi di cultura, palestre di discussione critica, gabinetti di lettura, atelier di scrittura, i blog sono in generale delle officine stilistiche e retoriche in continua attività, dove la capacità di persuasione e l’estetizzazione della comunicazione hanno spesso un ruolo fondamentale. “Qui sul blog è tutta un’altra cosa. Scrivo in modo molto diverso da come scriverei su un diario. Le persone che mi conoscono commentano e dicono la loro, e i pensieri pubblicati sono molto più profondi”.

Per quanto diversi fra loro, i blogger nascono dal linguaggio e vivono di linguaggio. Un regime democratico, dove ciascuno è opinionista nel libero mercato delle opinioni, senza gerarchie di posizione, senza ruoli, senza il peso dell’autorità. Dove ognuno è quel che scrive, dove tutti hanno pari facoltà d’interlocuzione. È la nuova utopia della libertà e dell’eguaglianza. Compensazione simbolica al malessere attuale della democrazia in carne e ossa.

Petabyte Age e metodo scientifico

Ne parlò Luca DeBiase un paio di settimane fa, poi Sergio Maistrello ne diede anch’egli indicazione, approfondendone qualche aspetto.
Poi recentemente Bonaria Biancu me lo segnalò come qualcosa che avrebbe potuto interessarmi, e infatti così fu.
Qui finisce la parte con i passati remoti.
Sto parlando di un articolo di Chris Anderson (qui trovate l’originale) dedicato alle nuove metodologie di ricerca scientifica rese possibili dai supercomputer e dagli algoritmi di data-mining e map-reducing di Google, dove sostanzialmente si dice che non è più necessario, secondo il vecchio modello di indagine scientifica, porre inizialmente un’ipotesi sul funzionamento di qualcosa ed in seguito procedere con le verifiche per saggiarne l’attendibilità.

Sia ben chiaro, da molto tempo l’epistemologia ha chiarito che le “spiegazioni scientifiche” non sono altro che “verità locali” utili per spiegare un fenomeno, tant’è che ci son state situazioni storiche in cui tutto l’insieme delle credenze, ovvero lo sfondo/contesto su cui le affermazioni acquistano senso, è stato messo a soqquadro da qualche innovazione concettuale o tecnologica oppure concettuale indotta dalle scoperte che la tecnologia, come protesi dell’occhio e della mano quindi tecnologia dell’intelligenza, ha reso possibili.
Per dire, nessuno scienziato serio afferma oggi che l’acqua bolle a cento gradi.
Per dire, il problema non è il fatto che l’acqua bolle a cento gradi, quanto la fiducia cieca di certi scienziati arroganti nell’affermare che questo fenomeno è sempre accaduto e sempra accadrà e quindi corrisponde a una “verità” universale assoluta.
Come per il teorema di Pitagora, basato sui postulati di Euclide: qualcuno a metà Ottocento si è accorto che Pitagora non funzionava se il triangolo è disegnato su una sfera, e tutto questo ha portato rapidamente alla formulazione di geometrie non-euclidee e alla crisi dei fondamenti matematici, costringendo la scienza ad ammettere che tutte le credenze precedentemente possedute altro non erano che una verità locale, un caso particolare (quel luogo della mente dove la somma degli angoli interni di un triangolo è 180°) di una realtà/pensiero molto più complesso.
Le affermazioni scientifiche scommettono sui principi e sui modi di funzionamento dei fenomeni naturali, e epistemologia moderna esige che gli scienziati siano criticamente consapevoli della portata euristica limitata del loro affermare, tutto qui. Pensiero debole. “Per quanto ne sappiamo, funziona così”: questa è una frase scientifica corretta.
Tra l’altro un grandissimo del’epistemologia del Novecento, Thomas Kuhn, ha mostrato come le rivoluzioni scientifiche avvengano per rottura – non semplice allargamento/superamento – dei paradigmi concettuali, in quei momenti storici in cui una intera visione-del-mondo (l’insieme delle credenze sul com’è è fatto il mondo e come funziona, le categorie stesse della sua pensabilità) deve essere smantellata e ricostruita alla luce di nuovi atteggiamenti metodologici, spesso indotti dalle stesse nuove scoperte che più progredite tecnologie hanno reso disponibili.
E qui torniamo (sorry, ma la filosofia della scienza e del linguaggio sono vecchie passioni) all’articolo di Anderson su come il nostro vivere nell’era dei Petabyte condizionerà e forse modificherà radicalmente il modo di fare scienza. In sostanza, mi sembra si affermi che la triade ipotesi-modello-esperimento sia in realtà figlia di un’epoca in cui non era nemmeno pensabile il prendere in considerazione masse sterminate di dati, di gran lunga superiori alle capacità di elaborazione cognitiva umana, per la mancanza di una tecnologia (gli algoritmi di ricerca di Google e i supercomputer) in grado di trarre correlazioni statistiche significative.
Quindi gli scienziati degli ultimi quattrocento anni, prigionieri inconsapevoli del loro paradigma concettuale, hanno elaborato e utilizzato il metodo scientifico (che il Novecento ha sottoposto a vaglio critico con l’epistemologia) quale unica possibilità di incrementare la conoscenza “certa”. Non c’era altro modo, il pensiero non aveva altre possibilità metodologiche di afferrare qualcosa della cosiddetta realtà. Il concetto di causa-effetto poi, profondamente radicato in noi nonostante critiche filosofiche millenarie, portava sempre guardacaso a pensare situazioni sperimentali vincolate all’elaborazione di ipotesi che poi potessero essere saggiate nei test di laboratorio. Da come scrivo, mi sembra chiaro che si stia sfiorando la tautologia, perché l’impostazione stessa dell’esperimento era sempre frutto di un pensiero “interno” ad una rappresentazione concettuale predefinita (nella mente del ricercatore, nella sua visionedelmondo), dove certe ipotesi potevano nascere ed altre no.
Se potevo porre un’ipotesi, mi stavo comunque muovendo all’interno del noto, o comunque lì vicino (vedi abduzione, di quell’altro grandissimo che è Peirce), perché non è umano indagare l’ignoto partendo da ciò che non so.
Anderson invece ci mostra come recenti progressi scientifici siano stati compiuti ignorando completamente il significato e la struttura di ciò che si andava indagando. Anzi, questo fatto di non porre a priori ipotesi interpretative è tra l’altro di squisita di metodologia semiotica, laddove buona narratologia invita a sospendere le domande sul senso di un testo, per prendere in considerazione le componenti morfologiche e sintattiche prima ancora di quelle semantiche.
Poter setacciare enormi masse di dati (ma avete presente un petabyte?) alla ricerca di correlazioni statistiche significative, indipendentemente dal contenuto che questi dati veicolano, vuol dire far emergere configurazioni di senso da sistemi complessi senza che ciò che emerge sia condizionato dal tipo di interrogazione che faccio, dall’ipotesi euristica che cerco di indagare, dallo sguardo con cui accolgo i fenomeni, dando così necessariamente loro un nome prima ancora di sapere di cosa si tratti, rendendoli eloquenti soltanto per come sono capace di leggerli (mi sovviene Lombroso, in qualche modo, e l’attribuire tratti caratteriali sulla base di conformazioni craniche)

Con una vecchia battuta, sappiamo che il senso di una domanda è la direzione in cui cercare la risposta, perché la domanda (la forma della domanda) orienta la risposta, suscita uno sguardo specifico a scapito di tutto quello che rimane fuori dal pensiero interrogante; se invece l’indagine la compie qualcosa di inumano, possono emergere aspetti della realtà che per definizione noi umani al momento non possiamo cogliere, visto che per conoscere dobbiam fare domande, e per fare domande ci costruiamo un modello a partire dalle nostre pre-comprensioni e insomma non possiamo uscire da noi stessi. Tutto qui: qualcuno è in ansia? Cosa può imparare la scienza da Google?

E allora, ho tradotto l’articolo di Anderson, aiutandomi con GoogleTranslate, ma non veniva bene, poi con BabelFish (yes, 42) l’ho un po’ sistemato, e lo metto qui.

LA FINE DELLA TEORIA
Il profluvio di dati renderà il metodo scientifico obsoleto?
di Chris Anderson

“Tutti i modelli sono errati, ma alcuni sono utili”

Così affermò George Box 30 anni fa, e aveva ragione. Ma che scelta avevamo? Soltanto i modelli, dalle equazioni cosmologiche alle teorie di comportamento umano, sembravano poter consistentemente, anche se imperfettamente, spiegare il mondo intorno noi. Finora. Oggi le aziende come Google, che si sono sviluppate in un’era di dati sovrabbondanti, non devono accontentarsi di modelli errati. Effettivamente, non devono affatto accontentarsi dei modelli.

Sessanta anni fa, gli elaboratori digitali hanno reso le informazioni leggibili. Venti anni fa, Internet le ha rese raggiungibili. Dieci anni fa, i primi crawlers dei motori di ricerca hanno reso [Internet] un’unico database. Ora Google e le aziende simili stanno setacciando l’epoca più “misurata” della storia umana, trattando questo corpus voluminoso come laboratorio della condizione umano. Sono i bambini dell’epoca del Petabyte (Petabyte Age).

L’epoca del Petabyte è differente perché il “di più” è differente. I kilobyte sono stati immagazzinati sui dischetti. I megabyte sono stati immagazzinati sui dischi rigidi. I terabyte sono stati immagazzinati nei disc-arrays. I Petabytes sono immagazzinati nella nuvola. Mentre ci siamo mossi lungo quella progressione, siamo passati dall’analogia della cartella (folder) all’analogia dell’archivio all’analogia delle biblioteche a – bene, con i petabyte siamo fuori dalle analogie organizzative.

Alla scala del petabyte, le informazioni non sono una questione di semplici tassonomie a tre e quattro dimensioni e ordini, ma di statistiche dimensionalmente non conoscibili. Richiedono un metodo interamente differente, che ci richiede di lasciar perdere l’idea di poter imbrigliare i dati come qualcosa che possa essere visualizzato nella relativa totalità. Ci costringe in primo luogo a osservare matematicamente i dati, e solo in seguito stabilire un contesto [per la loro interpretazione]. Per esempio, Google ha conquistato il mondo della pubblicità con nient’altro che matematica applicata. Non ha finto di conoscere qualcosa circa la cultura e le convenzioni della pubblicità – ha semplicemente supposto che avere migliori dati, con migliori attrezzi analitici, avrebbe condotto al successo. E Google ha avuto ragione.

La filosofia fondante di Google è che non sappiamo perché questa pagina è migliore di quellaltra: se le statistiche dei collegamenti ricevuti [incoming links] dicono così, va già bene. Nessun’analisi semantica o causale è richiesta. Ecco perché Google può tradurre le lingue senza realmente “conoscerle” (data un’uguale mole di dati, Google può tradurre facilmente Klingon in Farsi come può tradurre il francese in tedesco). E perché può abbinare gli annunci pubblicitari ai contenuti senza alcuna conoscenza o presupposizioni circa gli annunci o il contenuto.

Parlando alla Conferenza “Emerging Technology” di O’Really questo marzo passato, Peter Norvig, direttore di ricerca di Google, ha offerto un aggiornamento alla massima di George Box: “Tutti i modelli sono errati e sempre più potrete farne a meno [succeed without them]”.

Questo è un mondo in cui le quantità enormi di dati e di matematica applicata sostituiscono ogni altro attrezzo che potrebbe essere applicato. Supplendo a ogni teoria di comportamento umano, dalla linguistica alla sociologia. Dimentica la tassonomia, l’ontologia e la psicologia. Chi sa perché le persone fanno le cose che fanno? Il punto è le fanno, e possiamo seguirli e misurare tutto con una fedeltà senza precedenti. Con abbastanza dati, i numeri parlano da soli.

Tuttavia, il grande obiettivo qui non è la pubblicità. È la scienza. Il metodo scientifico è costruito intorno alle ipotesi verificabili. Questi modelli, per la maggior parte, sono sistemi visualizzati nelle menti degli scienziati. I modelli allora quindi testati e gli esperimenti confermano o falsificano i modelli teorici di come il mondo funziona. Ciò è il modo in cui la scienza ha funzionato per centinaia di anni.

Gli scienziati sono formati per riconoscere che una correlazione non è una causa, che nessuna conclusione dovrebbe essere tratta semplicemente sulla base di una correlazione fra X e Y (potrebbe essere una semplice coincidenza). Invece, devono essere compresi i meccanismi soggiacenti in grado di collegare i due fenomeni. Una volta che avete un modello, potete con una certa fiducia collegare gli insiemi di dati. I dati senza un modello sono soltanto rumore.

Ma dovendo affrontare enormi quantità di dati, questo tipo di approccio scientifico – supposizione ipotetica, modello, test – sta diventando obsoleto. Consideriamo la fisica: i modelli newtoniani erano approssimazioni grossolane della verità (errati al livello atomico, ma ancora utili). Cento anni fa, la meccanica quantistica su base statistica ha offerto una immagine molto migliore – ma la meccanica quantistica è un altro modello e, pur essendo difettoso, è senza dubbio una rappresentazione [caricature] di una realtà di fondo più complessa. La ragione per cui la fisica è andata ricercando nella speculazione teorica grandi modelli n-dimensionali unificati durante le ultime decadi (“la bella storia” di una disciplina affamata di dati) è che non sappiamo fare gli esperimenti che falsificherebbero le ipotesi – le energie sono troppo alte, gli acceleratori troppo costosi, ecc.

Ora la biologia sta puntando nella stessa direzione. I modelli che ci hanno insegnato a scuola riguardo i caratteri “dominanti” e “recessivi” dei geni, che ci conducono verso un processo rigorosamente mendeliano, sono risultato essere una semplificazione ancora maggior della realtà che le leggi del Newton. La scoperta delle interazioni geni-proteine e di altre funzioni della epigenetica ha sfidato la visione del DNA come destino e perfino introdotta la prova che l’ambiente può influenzare le caratteristiche ereditarie, il che era considerato geneticamente impossibile.

In breve, più comprendiamo la biologia, più ritroviamo (interpretiamo) noi stessi da un modello in grado di spiegarla.

Ora esiste un modo migliore. I Petabytes ci permettono di dire: “La correlazione è abbastanza.” Possiamo smettere di cercare nuovi modelli. Possiamo analizzare i dati senza ipotesi circa cosa potrebbero mostrare. Possiamo gettare i numeri nei più centri di calcolo il mondo abbia mai veduto e lasciare che le procedure statistiche trovino i modelli in cui la scienza non può trovare.

Il migliore esempio pratico di questo è il sequenziamento “shotgun” del genoma di J. Craig Venter. Aiutato da sequenziatori a alta velocità e da supercomputer che analizzano statisticamente i dati che redigono, Venter è passato dal sequenziare organismi individuali ad ordinare gli interi ecosistemi. In 2003, ha cominciato a sequenziare gran parte dell’oceano, ritracciando il viaggio del capitano Cook. E in 2005 ha cominciato a sequenziare l’aria. Nel processo, ha scoperto migliaia di specie precedentemente sconosciute di batteri e di altre forme di vita.

Se le parole “scoprire una nuova specie” vi riportano alla mente Darwin e illustrazioni di uccelli, forse siete bloccati nel vecchio senso di fare scienza. Venter può non dirvi quasi niente circa le specie che ha trovato. Non sa a che cosa assomigliano, come vivono, o qual è la loro morfologia. Non ha Neppure il loro intero genoma. Tutto che ha è un segnale di ritorno [blip] statistico – una sequenza unica che, essendo diverso da ogni altra sequenza nel database, deve per forza di cose rappresentare una nuova specie.

Questa sequenza può correlarsi con altre sequenze che assomigliano a quelle delle specie che conosciamo meglio. In quel caso, Venter può fare alcune congetture circa gli animali – ad esempio il fatto che convertano la luce solare in energia in un modo particolare, o che discendono da un antenato comune. Ma oltre a quello, non ha migliore modello di questa specie di quello che Google ha della vostra pagina di MySpace. Sono soltanto dati. Ma analizzandoli con risorse computazionali di qualità-Google, Venter ha fatto avanzare la biologia più di chiunque altro della sua generazione.

Questo genere di pensiero è sul punto di diventare mainstream. In febbraio, il National Science Foundation ha annunciato il Cluster Exploratory, un programma che finanzia ricerca destinata a “girare” su una piattaforma di computazione distribuita a grande scala, sviluppata da Google e IBM insieme con sei università pilota. Il cluster consisterà di 1.600 processori, parecchi Terabyte di memoria e centinaia di Terabyte di archivio, insieme al software, dove saranno compresi Tivoli dell’IBM e versioni opensource del Google File System e MapReduce. I primi progetti di ricerca prevedono simulazioni del cervello e del sistema nervoso e altre ricerca biologiche che si pongono da qualche parte tra il wetware (gli umani) e il software.

Imparare a usare un “calcolatore” di questa scala può essere una sfida. Ma l’occasione è grande: la nuova disponibilità dei gran quantità dei dati, con gli attrezzi statistici per sgranocchiare questi numeri, offre un intero nuovo modo di comprendere il mondo. La correlazione sostituisce la causa e la scienza può avanzare anche senza modelli coerenti, teorie unificate, o senza avere realmente nessuna alcuna spiegazione meccanicistica.

Non c’è motivo di aderire ai nostri vecchi metodi. È tempo di chiedere: che cosa può imparare la scienza da Google?

L’approccio territorialista allo sviluppo sostenibile

[crossposting dal blog dei NuoviAbitanti]

Qui di seguito trovate il link per una interessante dispensa, materiale di studio del corso in “Progettazione e pianificazione sostenibile” della Facoltà di Architettura di Roma, redatta da Alessandro Giangrande.

L’approccio territorialista allo sviluppo sostenibile (.pdf, 300kb)

(dall’introduzione)
L’approccio territorialista, sviluppato nell’ambito dell’omonima scuola, evidenzia come i problemi della sostenibilità dello sviluppo mettano in primo piano la valorizzazione del patrimonio territoriale — nelle sue componenti ambientali, urbanistiche, culturali e sociali — come elemento fondamentale per la produzione durevole di ricchezza.
Il territorio viene concepito come prodotto storico di processi coevolutivi di lunga durata tra insediamento umano e ambiente, tra natura e cultura, ad opera di successivi e stratificati cicli di civilizzazione. Questi processi producono un insieme di luoghi dotati di profondità temporale, di identità, di caratteri tipologici, di individualità: dunque sistemi viventi ad alta complessità.

Per tutta un’epoca storica della modernità, culminata con il fordismo e la produzione di massa, le teorie tradizionali dello sviluppo hanno considerato e utilizzato il territorio in termini sempre più riduttivi, negando il valore delle sue qualità intrinseche: il produttore/consumatore ha preso il posto dell’abitante, il sito del luogo, la ragione economica della ragione storica. Il territorio, da cui l’uomo si è progressivamente liberato considerandolo un insieme di vincoli negativi (ambientali, energetici, climatici, costruttivi, localizzativi, ecc.) per il compiersi della modernizzazione, è stato trattato come puro supporto tecnico di attività e funzioni economiche che sono localizzate e organizzate secondo principi sempre più indipendenti da relazioni con il luogo, con le sue qualità ambientali e culturali: qualità che derivano appunto dalla sua costruzione storica di lungo durata.

L’approccio territorialista allo sviluppo sostenibile

Qui di seguito trovate il link per una interessante dispensa, materiale di studio del corso in “Progettazione e pianificazione sostenibile” della Facoltà di Architettura di Roma, redatta da Alessandro Giangrande.

L’approccio territorialista allo sviluppo sostenibile (.pdf, 300kb)

(dall’introduzione)
L’approccio territorialista, sviluppato nell’ambito dell’omonima scuola, evidenzia come i problemi della sostenibilità dello sviluppo mettano in primo piano la valorizzazione del patrimonio territoriale — nelle sue componenti ambientali, urbanistiche, culturali e sociali — come elemento fondamentale per la produzione durevole di ricchezza.
Il territorio viene concepito come prodotto storico di processi coevolutivi di lunga durata tra insediamento umano e ambiente, tra natura e cultura, ad opera di successivi e stratificati cicli di civilizzazione. Questi processi producono un insieme di luoghi dotati di profondità temporale, di identità, di caratteri tipologici, di individualità: dunque sistemi viventi ad alta complessità.

Per tutta un’epoca storica della modernità, culminata con il fordismo e la produzione di massa, le teorie tradizionali dello sviluppo hanno considerato e utilizzato il territorio in termini sempre più riduttivi, negando il valore delle sue qualità intrinseche: il produttore/consumatore ha preso il posto dell’abitante, il sito del luogo, la ragione economica della ragione storica. Il territorio, da cui l’uomo si è progressivamente liberato considerandolo un insieme di vincoli negativi (ambientali, energetici, climatici, costruttivi, localizzativi, ecc.) per il compiersi della modernizzazione, è stato trattato come puro supporto tecnico di attività e funzioni economiche che sono localizzate e organizzate secondo principi sempre più indipendenti da relazioni con il luogo, con le sue qualità ambientali e culturali: qualità che derivano appunto dalla sua costruzione storica di lungo durata.

Cambiamento e organizzazioni lavorative

Riporto anch’io questo schema elaborato da ADFOR, e presentato su Humanitech.

Con tutti i limiti che una eccessiva semplificazione comporta, espressi anche nel post originale, rimane comunque una buona mappa per decifrare le dinamiche interne delle organizzazioni lavorative e gli intoppi che ogni strategia di processo innovativa, in questo caso aziendale, è destinata a incontrare.
Se poi penso all’organizzazione scolastica, come nel mio post precedente, in relazione al cambiamento indotto da un uso moderno delle TIC sia nella didattica sia nel funzionamento come “macchina” statale, alla necessità per la Scuola di fare seriamente comunicazione pubblica – dovrebbe farlo per legge, essendo Pubblica Amministrazione, ovviamente viene da mettersi le mani nei capelli per la disperazione, perché può capitare di incontrare dirigenti senza visione, insegnanti incaricati di essere Funzioni Strumentali per le tecnologie e Responsabili di laboratorio che non hanno nemmeno la mail personale, nessun incentivo (né personale né economico come finanziamenti ai progetti) al cambiamento, pc vecchi di sei anni con le licenze di windows craccate e connessioni a 56, nessun piano di implementazione serio perché tanto si ragiona sull’immediato e pochi capiscono la necessità di progettare oggi la scuola di domani.
Per dire, la Posta Elettronica Certificata, la firma digitale, l’uso obbligatorio della mail per comunicazioni di servizio anche ministeriali stanno già gettando parecchio scompiglio negli uffici amministrativi scolastici… non era forse sufficiente il librone del protocollo, dicono quelle, con i timbri come all’epoca di Carducci? Signora mia, non ci sono più le mezze stagioni.
Quindi la Scuola vive tutto quello che vedete in giallo, in questo momento.

Detto en passant, quello schemino potrebbe diventare, avessi voglia di lavorare, un ottimo spunto di partenza per una riflessione semiotica sui comportamenti e sui flussi di comunicazione nei gruppi orientati al cambiamento, in quanto come materiale semi-lavorato offre un testo su cui poter affondare i bisturi analitici.
La presenza di configurazioni discorsive di tipo patemico, ovvero espressioni di affettività come i sentimenti di frustrazione, ansia, confusione potrebbe permettere una sorta di reverse engineering, dove a partire proprio dalla percezione (di un esperto nella conduzione dei gruppi, o dalla autopercezione dell’organizzazione) del clima affettivo specifico di una scuola o di una Istituzione si può risalire – con le solite mille cautele interpretative – ai blocchi nel flusso della comunicazione e nell’attuazione del cambiamento.

Netizen a scuola – Dobbiaco 2008

Sono stato a Dobbiaco, a raccontar qualcosa di Cultura TecnoTerritoriale al convegno dedicato alla Cittadinanza Digitale e alla Scuola3D promosso dall’Istituto Pedagogico di Bolzano. Bonaria Biancu (autrice anche della foto qui vicino) su Geeklibrarian e Maddalena Mapelli su Ibridamenti bloggavano in tempo reale, Mario Rotta e Gianni Marconato han pubblicato ciascuno un resoconto dell’intensa full-immersion dell’altra settimana.

Per i contenuti esposti, assai interessanti, vi rimando ai succitati articoli e al wiki ufficiale dell’iniziativa; da parte mia posso sottolineare l’ottimo clima amichevole che si è instaurato fin da subito tra i partecipanti, le preziose pause-sigaretta, le chiacchierate notturne presso improbabili bar dall’arredamento tipo far-wast lato pellerossa, con ritratti di fieri guerrieri Cheyenne (i quali guerrieri sono sempre fieri, come le BWV sono potenti e gli economisti sono distinti), selle polverose, un divano sgangherato con coperta lercia, legno dappertutto e ottimo rock-blues del ’73/’74, dentro. Una teoria diffusionista vuole che a Bolzano si ascolti ancora la musica degli anni ’90, poi risalendo la Val Pusteria si incontrano via via i DuranDuran e i Pet Shop Boys, segue Dobbiaco e i Settanta, verso il confine hanno scoperto i Beatles. Esagero; però credo che in ogni villaggio di ogni valle del mondo ci sia una birreria che mette su i Led Zeppelin, ogni tanto.

Sono stato educato, ho litigato solo un paio di volte, al convegno (al bar, evito da anni).
La prima è stata quando un’insegnante si lamentava del non veder riconosciuto il proprio lavoro online dall’istutuzione scolastica “di appartenenza”: le ho risposto dicendole che lei non appartiene alla scuola. Ovvero, proprio concepire il proprio lavoro secondo i criteri di giudizio scolastici, oggi che la scuola è orribilmente arretrata nel preparare i giovani a vivere con tranquillità e consapevolezza nella modernità anche digitale, diventa una richiesta a cui non si può rispondere. Io per lavoro formo le persone, non gli insegnanti. Poi questi insegnanti se sono persone a loro agio nell’uso dei nuovi media (se insomma hanno un blog, un aggregatore, e sanno usare tutto google, per dire) sapranno anche integrare seamlessly nel loro flusso narrativo didattico i modi e le risorse per reperire informazioni e trattarle, arricchendo il tutto con la loro professionalità. Se la Scuola non comprende il significato di una Educazione alla Cultura Digitale, l’errore è cercare riconoscimento e quindi identità dal Dirigente scolastico o dall’Istituzione scolastica stessa.
Ormai penso che gli insegnanti dovrebbero comunque avere una vita digitale autonoma, dove con le dovute cautele – privacy, responsabilità; e sono uno che cerca di far aprire alle scuole dei blog “centralizzati” per evitare quella esplosione di Luoghi web scolastici non coordinati che credo sia ormai in atto, da cui diventa difficile ricavare l’identità complessiva della scuola in questione – raccontare con regolarità anche eventi quotidiani oppure straordinari della vita in classe.
Acquisire visibilità verso altri colleghi, dentro le comunità online organizzate per campi d’interesse, come quelle scolastiche, indipendentemente dalla vicinanza geografica. Acquisire visibilità verso il territorio, rendendo i propri spazi di pubblicazione Luoghi di cittadinanza digitale attiva, dove portare le quinte classi delle primarie a comportarsi come reporter nel mostrare bellezze e bruttezze del circondario.
Banalmente, se come insegnante che usi il web per la didattica aspetti comprensione e finanziamenti da un dirigente che ha problemi a gestire un fax e si fa stampare le mail dalla segretaria morirai aspettando, e forse nemmeno mostrare il lustro mediatico che la scuola ne può ricavare ti può servire, perché per certi presidi meschini restare nell’ombra a rubar soldi allo Stato è molto più facile.

Nell’altro caso, ho contribuito personalmente ad alzare i toni della discussione per evitare che si ricadesse in tematiche che nella letteratura anche italiana riguardante “il ruolo dell’insegnante e l’introduzione delle TIC a scuola” (probabile titolo di dozzine di convegnetti negli scorsi anni) sono state ampiamente prese in esame e posizionate sotto una luce corretta, dove alla fin fine si comprende che l’apprendimento non è certamente addestrare delle persone a far questo e quest’altro, ma suscitare negli individui e nei gruppi classe la curiosità e i metodi del conoscere sé stessi, gli altri e il mondo, attraverso tutti i media “in entrata” e “in uscita” di cui si dispone. Che l’insegnante venga fatto inciampare da ogni nuova tecnologia che arriva in classe, e quindi si senta destabilizzato e senza più riferimenti, spodestato da un bambino che usa word e youtube meglio di lui, non mi interessa più tanto. Se ne parlava al tempo degli ipertesti, nel 1997, toh. Se nel 2008 un insegnante non sa portare il mondo dentro la scuola, e quindi nemmeno la scuola nel mondo o semplicemente porsi come attore sociale consapevole del proprio ruolo, vuol dire che quella persona ha accuratamente schivato il web per dieci anni, e ci vuole caparbietà per riuscirci così bene. Inutile aspettarsi cambiamento, non c’è nessun aggiornamento scolastico capace di risolvere il problema della mancata motivazione negli insegnanti all’utilizzo moderno delle TIC; non si tratta di un problema di Cultura Tecnologica e nemmeno tecnico (uso degli strumenti), si tratta di modificare una visione-del-mondo sul piano individuale, e lottare contro le resistenze al cambiamento tipiche di ogni organizzazione lavorativa, figuriamoci la Pubblica Amministrazione scolastica. Servirebbero DeBono e i cappelli per pensare, forse, o un guru aziendale di quelli bravi o una squadra agguerrita di psicologi, e bisognerebbe trascinare tutti i dirigenti e i docenti in dei percorsi durissimi di smascheramento e creatività.

Durante il convegno a Bolzano si sarebbe potuto parlare maggiormente di Cittadinanza digitale, e meno di scuola, tutto qui, anche perché lo stesso progetto Scuola3D (collaborai verso il 2002 alle sue fasi iniziali, ancora su un Mondo Attivo pubblico, Italcity) fa emergere chiaramente il significato civico, educativo, della frequentazione consapevole dei Luoghi digitali.

Vergogna


Di che vergognarsi.

La sentenza dell’assoluzione dei due terzi dei poliziotti coinvolti su Bolzaneto, Genova 2001, è vergognosa. L’altro terzo prenderà condanne risibili, e non finirà in carcere per via di indulti e prescrizioni.

20 luglio 2001
Vincent B.
Fermato per identificazione il 20/7 – ingresso a Bolzaneto tra le ore 17,00 e le 18,00 circa – esce dalla caserma alle 3,00 circa del 21/7. Viene prelevato dall’ospedale dove era ricoverato a seguito delle ferite riportate sulla strada. Ha una ferita alla testa suturata con tre punti. A Bolzaneto lo mettono in una cella in piedi, faccia contro il muro, gambe divaricate e braccia alzate; non si può muovere. Ogni tanto entra qualcuno che lo picchia con calci e pugni nella schiena e nelle gambe. Gli fanno sbattere la testa contro il muro, gli alzano ancora di più le braccia e gli divaricano le gambe. Il tutto accompagnato da intimidazioni in italiano. Lui vede che il muro all’altezza della sua testa si sporca del suo sangue. Quando si può muovere nota che anche i compagni di cella subiscono la stessa sorte. Un ragazzo in particolare geme dal dolore perché gli stringono continuamente i laccetti ai polsi. (…) Poco dopo un medico viene in cella e gli chiede di girarsi, vede la ferita alla testa, gli fa qualche domanda. Lui dice che non si sente bene, il medico gli porta una garza bagnata ma gli agenti lo costringono a stare comunque con la testa contro il muro. Due poliziotti ridendo si avvicinano e gli chiedono che cosa abbia, lui risponde che è stato picchiato da Poliziotti ed allora uno di loro lo afferra alle spalle urlando e gli dice: «Da un Poliziotto? Impossibile! Sei caduto per terra, ok?». Lui si rimette con la testa contro il muro. Quando lo portano al fotosegnalamento il poliziotto che lo accompagna gli dice: «Merda di francese, soffrirai»; lui chiede perché ed allora il poliziotto gli torce un braccio. (…) Quando pronuncia la parola «avvocato» lo prendono a calci.

Giuseppe A.
Fermato per identificazione il 20/7 – ingresso a Bolzaneto alle ore 19,00 – 1930 circa – esce dalla caserma alle 2,00 circa del 21/7.Viene prelevato dal pronto soccorso dell’ospedale San Martino ove era stato medicato per le ferite riportate in Via Tolemaide. Nel cortile di Bolzaneto, sceso dal blindato, vede molti poliziotti e guardie penitenziarie in divisa. Sente che qualcuno di loro parla di un carabiniere o di un poliziotto ucciso. Lo fanno sedere insieme agli altri su un muretto dove lo picchiano con pugni, calci, manganellate e colpi con i caschi. Vede che volutamente lo colpiscono sulle ferite. Ad un certo punto si avvicina un agente della Polizia di Stato molto grande, gli prende improvvisamente la mano, gli allarga le dita con le due mani e tira violentemente le dita divaricandole, così spaccandogli la mano. Sviene dal dolore. A quel punto lo portano in infermeria, lo denudano e o fanno sdraiare su un lettino. Mentre lo trasportano qualcuno gli dice una frase intimidatoria del tipo: «Ti sei fatto male da solo, vero?». In infermeria ci sono medici ed infermieri ma anche agenti in divisa. Qualcuno gli chiede come si è fatto male ma lui, terrorizzato, dice che è caduto dalle scale. Gli cuciono la mano senza anestesia. Lui ha male ma gli dicono di stare fermo perché se si muove gli daranno il resto e gli fanno mordere uno straccio. Poi lo portano in una cella dove deve stare in piedi, faccia al muro, gambe divaricate e fronte appoggiata al muro. Con cadenza quasi regolare entrano nella cella agenti che colpiscono i presenti con pugni, calci e schiaffi. Lo portano in bagno ma deve espletare i suoi bisogni di fronte all’agente che lo accompagna. Lungo il tragitto nel corridoio gli schiacciano i piedi e lo fanno cadere a terra. Lo deridono dicendogli «Muoviti». Nel corridoio lo fanno stare fermo in piedi appoggiato al muro con le braccia alzate e in quella posizione sente grida e invocazioni di aiuto, che provengono dalle celle e dall’ufficio degli atti.

E va avanti così, per pagine e pagine e pagine, tratte dalla sintesi delle dichiarazioni delle parti lese raccolte dai PM Patrizia Petruzziello e Vittorio Ranieri Miniati nell’inchiesta sugli abusi di Bolzaneto, pubblicata da Diario del 21 luglio 2006.

Qui il 20, 21, 22 luglio 2006.

Un utile esercizio di educazione civica, cittadini.

Tratto da Iconoplastica

Lively, e picchiarsi

Mi son fatto un paio di orette su Lively, giusto per vedere come si creano le stanze, la personalizzazione dell’avatar e per sbirciare un po’ in giro, se c’erano già cose italiane.

Sull’aspetto fisico del personaggino c’è da lavorare: non ho trovato una barba da indossare, quindi mi son inizialmente rappresentato come coniglio agghindato western, poi come giovanotto.

Le funzioni per cercare le stanze sono spartane, vedremo cosa succederà quando la frequenza di visitatori farà emergere statistiche dettagliate. Chiaramente ci sono già le stanze esplicitamente pornelle.

Mi sono anche creato due stanze, ovviamente una dedicata alla Vespa e al vagabondaggio slowdriving, l’altra alla Cittadinanza digitale (quella della foto sopra), le ho arredate alla carlona con qualcosa, e la disposizione della mobilia non pare difficoltosa.

Sarà perché son stato là dopo le undici di sera, ma in giro ho trovato praticamente solo maschi che si prendevano a botte sfruttando le animazioni; come al solito (la mia esperienza risale più agli Active Worlds di qualche anno fa, più che a SecondLife) la cornice ludica dei Mondi porta subito le persone inesperte a regredire a modalità relazionali tipiche da seconda media.

Le animazioni sono simpatiche e abbastanza numerose, ci sono le solite cose “abbracci o kungfu” ma anche qualche sfumatura in più.

Durante il caricamento della stanza i movimenti sono scattosi, poi le cose migliorano; non è possibile vedere “in soggettiva”, il personaggio va mosso con il mouse solamente, mentre con le freccine della tastiera ci si muove abbastanza agilmente per modificare il punto di vista.

Le stanze hanno un limite: non so se dipenda o no dal numero di oggetti presenti – si può anche interagire con Flickr o Youtube, e ad esempio proiettare dei video sul muro di una stanza: questo significa andare al cinema dentro i Mondi3D – ma più di tot persone ad un certo punto non possono più accedere. Chi cerca di entrare in questi posti affollati diventa un lurker, e quindi guarda la stanza senza che il suo avatar sia renderizzato lì dentro.

Domani prelevo il codice di una stanza (ora ci sarà la gara a chi crea per primo le stanze “giuste”) e lo metto su qualche sito o blog.

Questi e i prossimi

Dovrei lavorare ancora un po’, dovrei finire di scrivere un articolo e sono orribilmente in ritardo, dovrei rifinire un progetto e spedirlo.

Ma due cose occupano prepotentemente i miei pensieri: la Vespa e la batteria.
La prima è il tipico amore che ti fa soffrire: dopo aver già sistemato quest’anno l’impianto elettrico della mia Sprint del 1967, adesso sento rumorini dalle parti del cambio e della pedivella che non promettono nulla di buono. Chiaramente nella Vespa è “tutto dentro”, quindi dovrei tirare giù il motore e aprirlo, e il mio buon meccanico pancione e vespista a sua volta non può non chiedermi almeno 400 neuri. Ahia.
Però qualche bel giretto quest’anno l’ho fatto, sono andato con Michela dentro la Slovenia, ho bighellonato sul Carso, dormito in una roulotte nel giardino di Enrico Milic, una meraviglia per cui non lo ringrazierò mai abbastanza e già sto pensando a come sdebitarmi.

L’altra passione insana è quella della batteria, strumento che se avessi avuto tra le mani a vent’anni avrebbe condizionato tutta la mia vita futura: il fascino che battere sui tamburi ha su di me mi avrebbe fatto prendere seriamente in considerazione l’idea di diventare un batterista professionista (talento permettendo). La batteria è una cosa strana, all’inizio i tempetti non entrano, i colpi sono tutti sbagliati… poi qualcosa fa cloc (il che mi ricorda il cambio della Vespa, e soffro) e di colpo le cose cominciano a funzionare, la cassa cade nel posto giusto, il braccio diventa fluido, si esce dall’apnea e si torna a respirare per bene col diaframma rilassato, si ascoltano le gambe mosse da vita propria.
La batteria l’ho incontrata a 30 anni, giù in cantina/sala musica, e nel corso degli anni ho dato giusto qualche colpo ogni tanto, sempre le stesse cose.
Però circa un mese fa sono sceso giù a cercare un po’ di fresco, e avevo con me lo Creative Zen di mio fratello, con dentro un giga di robe rock, da ascoltare sull’impianto voci. E perché non provare a starci dietro con la batteria, ai Fugazi e ai Pixies e ai Modest Mouse o financo ai Garbage e ai LaliPuna? Ecco, son rimasto folgorato. Bellissimo. Mi sono messo poi a cercare su YouTube (sì qui ci starebbe anche il solito discorsetto “ehh, se lo avessimo avuto ai nostri tempi, il Tubo, per imparare a suonare vedendo i nostri idoli”, e insomma cercatevi drum lessons in Rete e troverete tutto), ho approfondito certe tecniche, mi sono anche incaponito nell’imparare a suonare la bossanova, perché a parte i Nouvelle Vague è pur sempre uno dei tempi standard da imparare. Figata, la bossanova alla batteria. Charleston e cassa van via pari, mentre a bacchetto rovescio sul rullante van tenuti degli accenti secondo uno schema irregolare.

Qui il disegnetto, le X sono i colpi di charleston, S snare o rimshot, B per la cassa:
1
      2
      3
      4
     
X
X X X X X X X X X X X X X X X
    S
    S
    S
    S
    S
 
B
    B B     B B     B B     B

Bene, vi terrò informati sull’andamento futuro di queste mie due passioni travolgenti, quella con le ruote piccole e quella con le pelli tese dei tamburi.

Poi questo fine settimana parteciperò a questo bel convegno a Dobbiaco, organizzato da Luisanna Fiorini, dove potrò rivedere Mario Rotta e Michele Faggi aka l’Impostore, nonché Gianni Marconato e altri amici: tutti insieme proveremo a riflettere sulla Cittadinanza Digitale, sulla Scuola del futuro e le nuove tecnologie, in particolare sull’utilizzo dei mondi 3D in àmbito didattico, come già facemmo oramai parecchi anni fa costruendo e arredando Scuola3D sui Mondi Attivi.

Mercoledì 16 luglio sarò invece a Lignano, all’Hack Camp, organizzato dal LUG di Aquileja per parlare dell’OpenSource nelle scuole, illustrando l’esperienza realizzata dall’Associazione NuoviAbitanti nel dotare qualche decina di scuole del Codroipese e della Bassa Friulana – centinaia di pc recuperati dall’obsolescenza – di Ubuntu, nonché del formare gli insegnanti ad una aggiornata visione della Cultura Digitale.

Reti energetiche, reti telematiche

Mantellini commenta su Nova/Sole24ore un interessante libro di Nicholas Carr

Sembra partire da lontano l’ultimo saggio di Nicholas Carr (The Big Switch, W.W Norton & Company, pg 278), per la precisione dalla seconda metà del diciannovesimo secolo quando Thomas Edison iniziò ad immaginare come sostituire i sistemi di illuminazione a gas, da lui definiti “barbari ed inutili”, con quelli elettrici. Eppure Carr non è uno storico della rivoluzione industriale ma un noto giornalista e blogger americano che si occupa da anni di nuove tecnologie e la ricostruzione storica di quel passaggio dal gas alla elettricità è una formidabile metafora per sostenere la tesi principale del libro, quella secondo la quale lo sviluppo della rete Internet ripropone oggi alcune delle tematiche di svolta che caratterizzarono la nascita dei primi grandi impianti elettrici nell’America della fine dell’ottocento.

Secondo Carr il contesto tecnologico odierno assomiglia in maniera significativa a quello di allora, quando nel giro di pochi decenni la produzione di energia elettrica da centralizzata e limitata (ogni grande stabilimento industriale aveva iniziato a prodursi in proprio la corrente attraverso gigantesche dinamo all’interno delle fabbriche) diventò distribuita ed ubiquitaria e la corrente elettrica, resa disponibile da grandi società comunali in città come New York e Chicago, iniziò a raggiungere capillarmente prima le aziende, poi le strade delle città e infine ogni singola abitazione privata. Questo primo “switch” fu allora in grado di generare una serie impressionante di grandi cambiamenti tecnologici, economici e sociali che sono proseguiti incessanti fino ai giorni nostri. Alla stessa maniera oggi il “computing” sta trasformandosi da pratica locale e privata (iniziata nel dopoguerra con i primi grandi calcolatori e poi proseguita con la nascita dei personal computer) in qualcosa di totalmente differente che trova nel network la sua stessa ragione di esistere. L’era dei PC, a pochi decenni dalla sua nascita, si è nel frattempo trasformata in una nuova era, dove la connessione alla rete diventa il fulcro attorno al quale gravita ogni singola attività. Esattamente come accadde all’elettricità all’inizio del XX secolo, Internet ha dato il via ad una nuova inattesa “era dell’utility”.

“Ciò che la fibra ottica fa oggi per i computer – scrive Carr – è esattamente ciò che le reti di corrente alternata fecero per l’elettricità: resero la sede dell’apparecchiatura ininfluente per l’utente”.

Ma non solo: così come avviene oggi con la rete Internet dove ogni tipo di computer e di singola informazione digitale convive con altre di tipo differente, anche allora macchine diverse e incompatibili poterono iniziare a lavorare all’interno di un unico sistema. La stessa armonia dei tempi delle prime reti elettriche si ripete oggi dentro i protocolli delle reti di computer.
I sillogismi non finiscono qui. Quando la rete elettrica iniziò a diffondersi, esattamente come avviene ogni qualvolta si iniziano a sperimentare nuove emozionanti tecnologie, la società del tempo caricò di grandi aspettative la rivoluzione in atto. Le macchine elettriche – si scrisse allora – avrebbero reso possibile il controllo degli eventi atmosferici, correnti magnetiche diffuse ad arte nelle abitazioni avrebbero “dissipato tempeste domestiche e assicurato l’armonia familiare”, nuovi sistemi di comunicazione avrebbero praticamente eliminato le distanze. Insomma se è fuori di dubbio che la disponibilità di corrente elettrica a basso costo creò grandi benefici alla popolazione (lo stesso sviluppo dei media come la radio e la TV discende da quel primo passo) si può affermare senza paura di essere considerati luddisti, che gli effetti raggiunti non furono a livello delle aspettative riposte.
Ed è forse in questa capacità di analisi l’aspetto più interessante del saggio di Carr che potremmo definire un tecnoentusiasta con i piedi per terra, capace di descrivere i grandi mutamenti indotti dalle tecnologie riuscendo lo stesso ad analizzarne i limiti e gli eccessi retorici.

Se “Dio e’ il grande elettricista” come scrisse nel 1913 Elbert Hubbard, uno dei fondatori delle prime società professionali legate al business dell’elettricità, cosa dovremmo dire della rete Internet e delle grandi aspettative che oggi in essa riponiamo?

Così se da un lato Carr spende la parte centrale del libro a descrivere il World Wide Computer, vale a dire la nuova declinazione tecnologica che prevede la migrazione in rete di gran parte delle applicazioni e della capacità di calcolo fino a ieri residenti nei nostri PC, cosi come di ogni altro servizio e informazione, non mancano alcuni importanti accenni alla necessità di osservare questi sconvolgimenti tecnologici con occhio il più possibile neutrale.

Il “computer in the cloud” come Eric Schmidt di Google definisce oggi il passaggio della intelligenza dei PC a quella della rete Internet, è oggi fonte di grandi entusiasmi e di altrettanto grandi (pur se meno sottolineate) preoccupazioni.

Se da un lato Internet viene vista da alcuni come una “interfaccia per la nostra civilizzazione” o “un apparato cognitivo e sensitivo capace di superare ogni precedente invenzione” o ancora “una nuova mente per una vecchia specie” come scriveva Kevin Kelly in un euforico articolo su Wired nel 2005, osservare le aspettative che cent’anni fa riponevamo sull’elettricità forse può farci sospettare che il nostro futuro cibernetico potrà essere qualcosa meno di un nuovo Eden.

Da un punto di vista economico per esempio il World Wide Computer fornisce un sistema assai efficiente per concentrare il valore economico creato da molti (i cosiddetti “contenuti generati dagli utenti”) nelle mani di pochissimi. Perfino la creazione di infinite nicchie di interesse legate alla “coda lunga” e l’enorme aumento delle fonti informative disponibili presentano aspetti di stress ancora da risolvere, specie nel campo editoriale dove i rapporti fra editori ed inserzionisti online condizionano sempre più la qualità dei contenuti prodotti. Il rischio concreto, secondo Carr, è che la cultura dell’abbondanza prodotta dal World Wide Computer si trasformi in una cultura della mediocrità, un ambito di conoscenza certamente assai vasto ma estremamente superficiale.
Nel 1995 Nicholas Negroponte nel suo saggio “Essere digitali” scriveva che “le tecnologie digitali possono essere una spinta naturale verso una maggiore armonia del mondo” eppure per molti versi la diffusione della rete Internet sembra aver accentuato la polarizzazione fra differenti punti di vista e segmentato in maniera cospicua le attitudini e i luoghi di residenza dei suoi abitanti.

Ad ogni cambio generazionale e tecnologico – scrive Carr nell’epilogo del suo testo – cancelliamo la memoria di ciò che è andato perduto e manteniamo solo la percezione di quanto invece abbiamo guadagnato: cosi facendo rinnoviamo l’illusione che il luogo nel quale siamo ora sia davvero il luogo nel quale avremmo voluto essere.
…….
http://www.roughtype.com/
http://www.nicholasgcarr.com/bigswitch/

Intervista a Jeremy Rifkin

Il blog ha intervistato Jeremy Rifkin, autore di fama mondiale, tra i suoi libri: “Economia all’idrogeno”.
Il mondo che conosciamo sta cambiando in fretta. Il petrolio sta finendo. L’energia avrà due caratteristiche: sarà rinnovabile, come il sole e il vento, e distribuita. Ognuno di noi potrà creare la propria energia e metterla a disposizione degli altri in rete.

“Ora, al tramonto [della seconda rivoluzione industriale] ci sono alcune situazioni davvero molto critiche. Il prezzo dell’energia sta drammaticamente salendo e il mercato mondiale del petrolio si è appena avviato al suo picco di produzione. I prezzi del cibo sono raddoppiati negli ultimi anni poiché la produzione di cibo è prevalentemente basata sui combustibili fossili. Appena raggiungeremo il picco della produzione di petrolio, i prezzi saliranno, l’economia globale ristagnerà, avremo recessione e ci saranno persone che non riusciranno a mettere in tavola qualcosa da mangiare. Il “picco del petrolio” avviene si è usato metà del petrolio disponibile. Quando questo avverrà, quando saremo all’apice di questa curva, saremo alla fine dell’era del petrolio perché il costo di estrazione non sarà più sostenibile. Quando arriveremo al picco? L’ottimista agenzia internazionale per l’energia dice che ci arriveremo probabilmente attorno al 2025-2035. D’altra parte negli ultimi anni alcuni dei più grandi geologi del mondo, utilizzando dei modelli matematici molto avanzati, rilevano che arriveremo al picco tra il 2010 e il 2020. Uno dei maggiori esperti sostiene che il picco è già stato raggiunto nel 2005.

Ora, il giacimento del Mare del Nord ha raggiunto il picco 3 anni fa. Il Messico, il quarto produttore mondiale, raggiungerà il picco nel 2010, come probabilmente la Russia. Nel mio libro, Economia all’idrogeno, ho speso molte parole su questa questione. Io non so chi ha ragione, gli ottimisti o i pessimisti. Ma questo non fa alcuna differenza, è una piccolissima finestra.

La seconda crisi legata al tramonto di questo regime energetico è l’aumento di instabilità politica nei Paesi produttori di petrolio. Dobbiamo capire che oggi un terzo delle guerre civili nel mondo è nei Paesi produttori di petrolio. Immaginate cosa accadrà nel 2009, 2010, 2011, 2012 e così via. Tutti vogliono il petrolio, il petrolio sta diventando sempre più costoso. Ci saranno più conflitti politici e militari nei Paesi produttori. Infine, c’è la questione dei cambiamenti climatici. Se prendiamo gli obiettivi dell’Unione Europea sulla riduzione della Co2, e la UE è la più aggressiva del mondo in questo senso, anche se riuscissimo a raggiungere quegli obiettivi ma non facessero lo stesso India, Cina e altri Paesi, la temperatura aumenterà di 6°C in questo secolo e sarà la fine della civilizzazione come la conosciamo.

Lasciatemi dire che quello di cui abbiamo bisogno adesso è un piano economico che sia sufficientemente ambizioso ed efficace per gestire l’enormità del picco del petrolio e dei cambiamenti climatici. Lasciatemi dire che le grandi rivoluzioni economiche accadono quando l’umanità cambia il modo di produrre l’energia, primo, e quando cambia il modo di comunicare, per organizzare questa rivoluzione energetica. All’inizio del XX secolo la rivoluzione del telegrafo e del telefono convergeva con quella del petrolio e della combustione interna, dando vita alla seconda rivoluzione industriale.

Ora siamo al tramonto di quella rivoluzione industriale. La domanda è: come aprire la porta alla terza rivoluzione industriale. Oggi siamo in grado di comunicare peer to peer, uno a uno, uno a molti, molti a molti. Io sto comunicando con voi via Internet. Questa rivoluzione “distribuita” della comunicazione, questa è la parola chiave: “distribuita”, questa rivoluzione “piatta”, “equa” della comunicazione proprio ora sta cominciando a convergere con la rivoluzione della nuova energia distribuita. La convergenza di queste due tecnologie può aprire la strada alla terza rivoluzione industriale. L’energia distribuita la troviamo dietro l’angolo. Ce n’è ovunque in Italia, ovunque nel mondo. Il Sole sorge ovunque sul pianeta. Il vento soffia su tutta la Terra, se viviamo sulla costa abbiamo la forza delle onde. Sotto il terreno tutti abbiamo calore. C’è il mini idroelettrico. Queste sono energie distribuite che si trovano ovunque. L’Unione Europea ha posto il primo pilastro della terza rivoluzione industriale, che sono le energie rinnovabili e distribuite.

Primo, dobbiamo passare alle energie rinnovabili e distribuite. La UE ha fissato l’obiettivo al 20%. Secondo, dobbiamo rendere tutti gli edifici impianti di generazione di energia. Milioni di edifici che producono e raccolgono energia in un grande impianto di generazione. Questo già esiste. Terzo pilastro: come accumuliamo questa energia? Perché il Sole non splende sempre, nemmeno nella bellissima Italia. Il vento non soffia sempre e le centrali idroelettriche possono non funzionare nei periodi di siccità. Il terzo pilastro riguarda come raccogliamo questa energia e la principale forma di accumulo sarà l’idrogeno. L’idrogeno può accumulare l’energia così come i supporti digitali contengono le informazioni multimediali. Infine, il quarto pilastro, quando la comunicazione distribuita converge verso la rivoluzione energetica generando la terza rivoluzione industriale. Prendiamo la stessa tecnologia che usiamo per Internet, la stessa, e prendiamo la rete energetica italiana, europea e la rendiamo una grande rete mondiale, come Internet.

Quando io, voi e ognuno produrrà la sua propria energia come produciamo informazione grazie ai computer, la accumuliamo grazie all’idrogeno come i media con i supporti digitali, potremo condividere il surplus di produzione nella rete italiana, europea e globale nella “InterGrid”, come condividiamo le informazioni in Internet. Questa è la terza rivoluzione industriale. Io lavoro con molte tra le più grandi aziende energetiche del mondo, come consulente. Lasciatemi fare una considerazione in termini di business, non in termini ideologici. Non credo che l’energia nucleare sarà significativa in futuro e credo che sia alla fine del suo corso e qualsiasi governo sbaglierebbe a investire nell’atomo. Vi spiego le ragioni. Non produciamo Co2 con gli impianti nucleari, quindi dovrebbe essere parte della soluzione ai problemi climatici. Ma guardiamo ai numeri. Ci sono 439 impianti nucleari al mondo, oggi, che producono solo il 5% dell’energia che consumiamo. Questi impianti sono molto vecchi.

C’è qualcuno in Italia o nel mondo che davvero crede che si possano rimpiazzare i 439 impianti che abbiamo oggi nei prossimi vent’anni. Anche se lo facessimo continueremmo a produrre solo il 5% dell’energia consumata, senza alcun beneficio per i cambiamenti climatici. E’ chiaro che perché ne avesse, dovrebbero coprire almeno il 20% della produzione. Ma perché la produzione di energia sia per il 20% nucleare, dovremmo costruire 3 centrali atomiche ogni 30 giorni per i prossimi 60 anni. Capito? Duemila centrali atomiche. Tre nuove centrali ogni mese per sessant’anni. Non sappiamo ancora cosa fare con le scorie. Siamo nell’energia atomica da 60 anni e l’industria ci aveva detto: “Costruite gli impianti e dateci tempo sufficiente per capire come trasportare e stoccare le scorie”. Sessant’anni dopo questa industria ci dice “Fidatevi ancora di noi, possiamo farcela”, ma ancora non sanno come fare. L’agenzia internazionale per l’energia atomica dice che potremmo avere carenza di uranio tra il 2025 e il 2035, facendo cosi’ morire i 439 impianti nucleare che producono il 5% dell’energia del mondo. Potremmo prendere l’uranio che abbiamo e convertirlo in plutonio.

Ma avremmo il pericolo del terrorismo nucleare. Vogliamo davvero avere plutonio in tutto il mondo in un’epoca di potenziali attacchi terroristici? Credo sia folle. E infine, una cosa che tutti dovrebbero discutere col vicino di casa: non abbiamo acqua! Questo le aziende energetiche lo sanno ma la gente no. Prendete la Francia, la quintessenza dell’energia atomica, prodotta per il 70%. Questo e’ quello che la gente non sa: il 40% di tutta l’acqua consumata in Francia lo scorso anno, e’ servita a raffreddare i reattori nucleari. Il 40%. Vi ricordate tre anni fa, quando molti anziani in Francia morirono durante l’estate perche’ l’aria condizionata era scarsa? Quello che non sapete e’ che non ci fu abbastanza acqua per raffreddare i reattori nucleari, che dovettero diminuire la loro produzione di elettricita’. Dove pensano di trovare, l’Italia e gli altri Paesi, l’acqua per raffreddare gli impianti se non l’ha trovata la Francia?

Quello che dobbiamo fare è democratizzare l’energia. La terza rivoluzione industriale significa dare potere alle persone e per la generazione cresciuta con la Rete questo è la conclusione e il completamento di questa rivoluzione, proprio come ora parliamo in Internet, centinaia di persone sono in Internet, ed è tutto gratuito, e questi possono creare il più grande, decentralizzato, network televisivo, open source, condiviso…perché non possiamo farlo con l’energia? L’Italia è l’Arabia Saudita delle energie rinnovabili! Ci sono così tante e distribuite energie rinnovabili nel vostro Paese! Mi meraviglio quando vengo nel vostro Paese e vedo che non vi state muovendo nella direzione in cui si muove la Spagna, aggressivamente verso le energie rinnovabili. Per esempio, voi avete il Sole! Avete così tanto sole da Roma a Bari. Avete il Sole! Siete una penisola, avete il vento tutto il tempo, avete il mare che vi circonda, avete ricche zone geotermiche in Toscana, biomasse da Bolzano in su nel nord Italia, avete la neve, per l’idroelettrico, dalle Alpi. Voi avete molta più energia di quella che vi serve, in energie rinnovabili! Non la state usando…io non capisco. L’Italia potrebbe. Credo che, umilmente, quel che posso dire al governo italiano è: a che gioco volete giocare? Se il vostro piano è restare nelle vecchie energie, l’Italia non sarà competitiva e non potrà godere dell’effetto moltiplicatore sull’economia della terza rivoluzione industriale per muoversi nella nuova rivoluzione economica e si troverà a correre dietro a molti altri Paesi col passare del XXI secolo. Se invece l’Italia deciderà che è il momento di iniziare a muoversi verso la terza rivoluzione industriale, le opportunità per l’Italia e i suoi abitanti saranno enormi. Da anni seguo il tuo sito, vorrei che ci fossero voci come la tua in altri Paesi. Ha permesso a cosi’ tante persone di impegnarsi insieme…credo sia istruttivo rispetto alla strada che dobbiamo intraprendere.”