Archivi categoria: Interfacce

Petabyte Age e metodo scientifico

Ne parlò Luca DeBiase un paio di settimane fa, poi Sergio Maistrello ne diede anch’egli indicazione, approfondendone qualche aspetto.
Poi recentemente Bonaria Biancu me lo segnalò come qualcosa che avrebbe potuto interessarmi, e infatti così fu.
Qui finisce la parte con i passati remoti.
Sto parlando di un articolo di Chris Anderson (qui trovate l’originale) dedicato alle nuove metodologie di ricerca scientifica rese possibili dai supercomputer e dagli algoritmi di data-mining e map-reducing di Google, dove sostanzialmente si dice che non è più necessario, secondo il vecchio modello di indagine scientifica, porre inizialmente un’ipotesi sul funzionamento di qualcosa ed in seguito procedere con le verifiche per saggiarne l’attendibilità.

Sia ben chiaro, da molto tempo l’epistemologia ha chiarito che le “spiegazioni scientifiche” non sono altro che “verità locali” utili per spiegare un fenomeno, tant’è che ci son state situazioni storiche in cui tutto l’insieme delle credenze, ovvero lo sfondo/contesto su cui le affermazioni acquistano senso, è stato messo a soqquadro da qualche innovazione concettuale o tecnologica oppure concettuale indotta dalle scoperte che la tecnologia, come protesi dell’occhio e della mano quindi tecnologia dell’intelligenza, ha reso possibili.
Per dire, nessuno scienziato serio afferma oggi che l’acqua bolle a cento gradi.
Per dire, il problema non è il fatto che l’acqua bolle a cento gradi, quanto la fiducia cieca di certi scienziati arroganti nell’affermare che questo fenomeno è sempre accaduto e sempra accadrà e quindi corrisponde a una “verità” universale assoluta.
Come per il teorema di Pitagora, basato sui postulati di Euclide: qualcuno a metà Ottocento si è accorto che Pitagora non funzionava se il triangolo è disegnato su una sfera, e tutto questo ha portato rapidamente alla formulazione di geometrie non-euclidee e alla crisi dei fondamenti matematici, costringendo la scienza ad ammettere che tutte le credenze precedentemente possedute altro non erano che una verità locale, un caso particolare (quel luogo della mente dove la somma degli angoli interni di un triangolo è 180°) di una realtà/pensiero molto più complesso.
Le affermazioni scientifiche scommettono sui principi e sui modi di funzionamento dei fenomeni naturali, e epistemologia moderna esige che gli scienziati siano criticamente consapevoli della portata euristica limitata del loro affermare, tutto qui. Pensiero debole. “Per quanto ne sappiamo, funziona così”: questa è una frase scientifica corretta.
Tra l’altro un grandissimo del’epistemologia del Novecento, Thomas Kuhn, ha mostrato come le rivoluzioni scientifiche avvengano per rottura – non semplice allargamento/superamento – dei paradigmi concettuali, in quei momenti storici in cui una intera visione-del-mondo (l’insieme delle credenze sul com’è è fatto il mondo e come funziona, le categorie stesse della sua pensabilità) deve essere smantellata e ricostruita alla luce di nuovi atteggiamenti metodologici, spesso indotti dalle stesse nuove scoperte che più progredite tecnologie hanno reso disponibili.
E qui torniamo (sorry, ma la filosofia della scienza e del linguaggio sono vecchie passioni) all’articolo di Anderson su come il nostro vivere nell’era dei Petabyte condizionerà e forse modificherà radicalmente il modo di fare scienza. In sostanza, mi sembra si affermi che la triade ipotesi-modello-esperimento sia in realtà figlia di un’epoca in cui non era nemmeno pensabile il prendere in considerazione masse sterminate di dati, di gran lunga superiori alle capacità di elaborazione cognitiva umana, per la mancanza di una tecnologia (gli algoritmi di ricerca di Google e i supercomputer) in grado di trarre correlazioni statistiche significative.
Quindi gli scienziati degli ultimi quattrocento anni, prigionieri inconsapevoli del loro paradigma concettuale, hanno elaborato e utilizzato il metodo scientifico (che il Novecento ha sottoposto a vaglio critico con l’epistemologia) quale unica possibilità di incrementare la conoscenza “certa”. Non c’era altro modo, il pensiero non aveva altre possibilità metodologiche di afferrare qualcosa della cosiddetta realtà. Il concetto di causa-effetto poi, profondamente radicato in noi nonostante critiche filosofiche millenarie, portava sempre guardacaso a pensare situazioni sperimentali vincolate all’elaborazione di ipotesi che poi potessero essere saggiate nei test di laboratorio. Da come scrivo, mi sembra chiaro che si stia sfiorando la tautologia, perché l’impostazione stessa dell’esperimento era sempre frutto di un pensiero “interno” ad una rappresentazione concettuale predefinita (nella mente del ricercatore, nella sua visionedelmondo), dove certe ipotesi potevano nascere ed altre no.
Se potevo porre un’ipotesi, mi stavo comunque muovendo all’interno del noto, o comunque lì vicino (vedi abduzione, di quell’altro grandissimo che è Peirce), perché non è umano indagare l’ignoto partendo da ciò che non so.
Anderson invece ci mostra come recenti progressi scientifici siano stati compiuti ignorando completamente il significato e la struttura di ciò che si andava indagando. Anzi, questo fatto di non porre a priori ipotesi interpretative è tra l’altro di squisita di metodologia semiotica, laddove buona narratologia invita a sospendere le domande sul senso di un testo, per prendere in considerazione le componenti morfologiche e sintattiche prima ancora di quelle semantiche.
Poter setacciare enormi masse di dati (ma avete presente un petabyte?) alla ricerca di correlazioni statistiche significative, indipendentemente dal contenuto che questi dati veicolano, vuol dire far emergere configurazioni di senso da sistemi complessi senza che ciò che emerge sia condizionato dal tipo di interrogazione che faccio, dall’ipotesi euristica che cerco di indagare, dallo sguardo con cui accolgo i fenomeni, dando così necessariamente loro un nome prima ancora di sapere di cosa si tratti, rendendoli eloquenti soltanto per come sono capace di leggerli (mi sovviene Lombroso, in qualche modo, e l’attribuire tratti caratteriali sulla base di conformazioni craniche)

Con una vecchia battuta, sappiamo che il senso di una domanda è la direzione in cui cercare la risposta, perché la domanda (la forma della domanda) orienta la risposta, suscita uno sguardo specifico a scapito di tutto quello che rimane fuori dal pensiero interrogante; se invece l’indagine la compie qualcosa di inumano, possono emergere aspetti della realtà che per definizione noi umani al momento non possiamo cogliere, visto che per conoscere dobbiam fare domande, e per fare domande ci costruiamo un modello a partire dalle nostre pre-comprensioni e insomma non possiamo uscire da noi stessi. Tutto qui: qualcuno è in ansia? Cosa può imparare la scienza da Google?

E allora, ho tradotto l’articolo di Anderson, aiutandomi con GoogleTranslate, ma non veniva bene, poi con BabelFish (yes, 42) l’ho un po’ sistemato, e lo metto qui.

LA FINE DELLA TEORIA
Il profluvio di dati renderà il metodo scientifico obsoleto?
di Chris Anderson

“Tutti i modelli sono errati, ma alcuni sono utili”

Così affermò George Box 30 anni fa, e aveva ragione. Ma che scelta avevamo? Soltanto i modelli, dalle equazioni cosmologiche alle teorie di comportamento umano, sembravano poter consistentemente, anche se imperfettamente, spiegare il mondo intorno noi. Finora. Oggi le aziende come Google, che si sono sviluppate in un’era di dati sovrabbondanti, non devono accontentarsi di modelli errati. Effettivamente, non devono affatto accontentarsi dei modelli.

Sessanta anni fa, gli elaboratori digitali hanno reso le informazioni leggibili. Venti anni fa, Internet le ha rese raggiungibili. Dieci anni fa, i primi crawlers dei motori di ricerca hanno reso [Internet] un’unico database. Ora Google e le aziende simili stanno setacciando l’epoca più “misurata” della storia umana, trattando questo corpus voluminoso come laboratorio della condizione umano. Sono i bambini dell’epoca del Petabyte (Petabyte Age).

L’epoca del Petabyte è differente perché il “di più” è differente. I kilobyte sono stati immagazzinati sui dischetti. I megabyte sono stati immagazzinati sui dischi rigidi. I terabyte sono stati immagazzinati nei disc-arrays. I Petabytes sono immagazzinati nella nuvola. Mentre ci siamo mossi lungo quella progressione, siamo passati dall’analogia della cartella (folder) all’analogia dell’archivio all’analogia delle biblioteche a – bene, con i petabyte siamo fuori dalle analogie organizzative.

Alla scala del petabyte, le informazioni non sono una questione di semplici tassonomie a tre e quattro dimensioni e ordini, ma di statistiche dimensionalmente non conoscibili. Richiedono un metodo interamente differente, che ci richiede di lasciar perdere l’idea di poter imbrigliare i dati come qualcosa che possa essere visualizzato nella relativa totalità. Ci costringe in primo luogo a osservare matematicamente i dati, e solo in seguito stabilire un contesto [per la loro interpretazione]. Per esempio, Google ha conquistato il mondo della pubblicità con nient’altro che matematica applicata. Non ha finto di conoscere qualcosa circa la cultura e le convenzioni della pubblicità – ha semplicemente supposto che avere migliori dati, con migliori attrezzi analitici, avrebbe condotto al successo. E Google ha avuto ragione.

La filosofia fondante di Google è che non sappiamo perché questa pagina è migliore di quellaltra: se le statistiche dei collegamenti ricevuti [incoming links] dicono così, va già bene. Nessun’analisi semantica o causale è richiesta. Ecco perché Google può tradurre le lingue senza realmente “conoscerle” (data un’uguale mole di dati, Google può tradurre facilmente Klingon in Farsi come può tradurre il francese in tedesco). E perché può abbinare gli annunci pubblicitari ai contenuti senza alcuna conoscenza o presupposizioni circa gli annunci o il contenuto.

Parlando alla Conferenza “Emerging Technology” di O’Really questo marzo passato, Peter Norvig, direttore di ricerca di Google, ha offerto un aggiornamento alla massima di George Box: “Tutti i modelli sono errati e sempre più potrete farne a meno [succeed without them]”.

Questo è un mondo in cui le quantità enormi di dati e di matematica applicata sostituiscono ogni altro attrezzo che potrebbe essere applicato. Supplendo a ogni teoria di comportamento umano, dalla linguistica alla sociologia. Dimentica la tassonomia, l’ontologia e la psicologia. Chi sa perché le persone fanno le cose che fanno? Il punto è le fanno, e possiamo seguirli e misurare tutto con una fedeltà senza precedenti. Con abbastanza dati, i numeri parlano da soli.

Tuttavia, il grande obiettivo qui non è la pubblicità. È la scienza. Il metodo scientifico è costruito intorno alle ipotesi verificabili. Questi modelli, per la maggior parte, sono sistemi visualizzati nelle menti degli scienziati. I modelli allora quindi testati e gli esperimenti confermano o falsificano i modelli teorici di come il mondo funziona. Ciò è il modo in cui la scienza ha funzionato per centinaia di anni.

Gli scienziati sono formati per riconoscere che una correlazione non è una causa, che nessuna conclusione dovrebbe essere tratta semplicemente sulla base di una correlazione fra X e Y (potrebbe essere una semplice coincidenza). Invece, devono essere compresi i meccanismi soggiacenti in grado di collegare i due fenomeni. Una volta che avete un modello, potete con una certa fiducia collegare gli insiemi di dati. I dati senza un modello sono soltanto rumore.

Ma dovendo affrontare enormi quantità di dati, questo tipo di approccio scientifico – supposizione ipotetica, modello, test – sta diventando obsoleto. Consideriamo la fisica: i modelli newtoniani erano approssimazioni grossolane della verità (errati al livello atomico, ma ancora utili). Cento anni fa, la meccanica quantistica su base statistica ha offerto una immagine molto migliore – ma la meccanica quantistica è un altro modello e, pur essendo difettoso, è senza dubbio una rappresentazione [caricature] di una realtà di fondo più complessa. La ragione per cui la fisica è andata ricercando nella speculazione teorica grandi modelli n-dimensionali unificati durante le ultime decadi (“la bella storia” di una disciplina affamata di dati) è che non sappiamo fare gli esperimenti che falsificherebbero le ipotesi – le energie sono troppo alte, gli acceleratori troppo costosi, ecc.

Ora la biologia sta puntando nella stessa direzione. I modelli che ci hanno insegnato a scuola riguardo i caratteri “dominanti” e “recessivi” dei geni, che ci conducono verso un processo rigorosamente mendeliano, sono risultato essere una semplificazione ancora maggior della realtà che le leggi del Newton. La scoperta delle interazioni geni-proteine e di altre funzioni della epigenetica ha sfidato la visione del DNA come destino e perfino introdotta la prova che l’ambiente può influenzare le caratteristiche ereditarie, il che era considerato geneticamente impossibile.

In breve, più comprendiamo la biologia, più ritroviamo (interpretiamo) noi stessi da un modello in grado di spiegarla.

Ora esiste un modo migliore. I Petabytes ci permettono di dire: “La correlazione è abbastanza.” Possiamo smettere di cercare nuovi modelli. Possiamo analizzare i dati senza ipotesi circa cosa potrebbero mostrare. Possiamo gettare i numeri nei più centri di calcolo il mondo abbia mai veduto e lasciare che le procedure statistiche trovino i modelli in cui la scienza non può trovare.

Il migliore esempio pratico di questo è il sequenziamento “shotgun” del genoma di J. Craig Venter. Aiutato da sequenziatori a alta velocità e da supercomputer che analizzano statisticamente i dati che redigono, Venter è passato dal sequenziare organismi individuali ad ordinare gli interi ecosistemi. In 2003, ha cominciato a sequenziare gran parte dell’oceano, ritracciando il viaggio del capitano Cook. E in 2005 ha cominciato a sequenziare l’aria. Nel processo, ha scoperto migliaia di specie precedentemente sconosciute di batteri e di altre forme di vita.

Se le parole “scoprire una nuova specie” vi riportano alla mente Darwin e illustrazioni di uccelli, forse siete bloccati nel vecchio senso di fare scienza. Venter può non dirvi quasi niente circa le specie che ha trovato. Non sa a che cosa assomigliano, come vivono, o qual è la loro morfologia. Non ha Neppure il loro intero genoma. Tutto che ha è un segnale di ritorno [blip] statistico – una sequenza unica che, essendo diverso da ogni altra sequenza nel database, deve per forza di cose rappresentare una nuova specie.

Questa sequenza può correlarsi con altre sequenze che assomigliano a quelle delle specie che conosciamo meglio. In quel caso, Venter può fare alcune congetture circa gli animali – ad esempio il fatto che convertano la luce solare in energia in un modo particolare, o che discendono da un antenato comune. Ma oltre a quello, non ha migliore modello di questa specie di quello che Google ha della vostra pagina di MySpace. Sono soltanto dati. Ma analizzandoli con risorse computazionali di qualità-Google, Venter ha fatto avanzare la biologia più di chiunque altro della sua generazione.

Questo genere di pensiero è sul punto di diventare mainstream. In febbraio, il National Science Foundation ha annunciato il Cluster Exploratory, un programma che finanzia ricerca destinata a “girare” su una piattaforma di computazione distribuita a grande scala, sviluppata da Google e IBM insieme con sei università pilota. Il cluster consisterà di 1.600 processori, parecchi Terabyte di memoria e centinaia di Terabyte di archivio, insieme al software, dove saranno compresi Tivoli dell’IBM e versioni opensource del Google File System e MapReduce. I primi progetti di ricerca prevedono simulazioni del cervello e del sistema nervoso e altre ricerca biologiche che si pongono da qualche parte tra il wetware (gli umani) e il software.

Imparare a usare un “calcolatore” di questa scala può essere una sfida. Ma l’occasione è grande: la nuova disponibilità dei gran quantità dei dati, con gli attrezzi statistici per sgranocchiare questi numeri, offre un intero nuovo modo di comprendere il mondo. La correlazione sostituisce la causa e la scienza può avanzare anche senza modelli coerenti, teorie unificate, o senza avere realmente nessuna alcuna spiegazione meccanicistica.

Non c’è motivo di aderire ai nostri vecchi metodi. È tempo di chiedere: che cosa può imparare la scienza da Google?

Lively, e picchiarsi

Mi son fatto un paio di orette su Lively, giusto per vedere come si creano le stanze, la personalizzazione dell’avatar e per sbirciare un po’ in giro, se c’erano già cose italiane.

Sull’aspetto fisico del personaggino c’è da lavorare: non ho trovato una barba da indossare, quindi mi son inizialmente rappresentato come coniglio agghindato western, poi come giovanotto.

Le funzioni per cercare le stanze sono spartane, vedremo cosa succederà quando la frequenza di visitatori farà emergere statistiche dettagliate. Chiaramente ci sono già le stanze esplicitamente pornelle.

Mi sono anche creato due stanze, ovviamente una dedicata alla Vespa e al vagabondaggio slowdriving, l’altra alla Cittadinanza digitale (quella della foto sopra), le ho arredate alla carlona con qualcosa, e la disposizione della mobilia non pare difficoltosa.

Sarà perché son stato là dopo le undici di sera, ma in giro ho trovato praticamente solo maschi che si prendevano a botte sfruttando le animazioni; come al solito (la mia esperienza risale più agli Active Worlds di qualche anno fa, più che a SecondLife) la cornice ludica dei Mondi porta subito le persone inesperte a regredire a modalità relazionali tipiche da seconda media.

Le animazioni sono simpatiche e abbastanza numerose, ci sono le solite cose “abbracci o kungfu” ma anche qualche sfumatura in più.

Durante il caricamento della stanza i movimenti sono scattosi, poi le cose migliorano; non è possibile vedere “in soggettiva”, il personaggio va mosso con il mouse solamente, mentre con le freccine della tastiera ci si muove abbastanza agilmente per modificare il punto di vista.

Le stanze hanno un limite: non so se dipenda o no dal numero di oggetti presenti – si può anche interagire con Flickr o Youtube, e ad esempio proiettare dei video sul muro di una stanza: questo significa andare al cinema dentro i Mondi3D – ma più di tot persone ad un certo punto non possono più accedere. Chi cerca di entrare in questi posti affollati diventa un lurker, e quindi guarda la stanza senza che il suo avatar sia renderizzato lì dentro.

Domani prelevo il codice di una stanza (ora ci sarà la gara a chi crea per primo le stanze “giuste”) e lo metto su qualche sito o blog.

Paleofuturo

Dovremmo essere tutti futurologi, e il fascino che hanno sempre avuto le visioni del domani è lì a confermare la vertigine del pensare ciò che potrebbe essere. O ciò che avrebbe potuto essere, ma non fu, nel caso in cui fossimo nella posizione di vivere nel futuro rispetto ai visionari di un secolo fa, e quindi ci permettiamo di giudicare le intuizioni di questi ultimi alla luce delle innovazioni tecnologiche successive.
Che sogno, vero?, poter essere connessi alle news geotaggate del pianeta in maniera multimediale, con i feed che arrivano per posta pneumatica. Da notare anche il pannello di controllo a sinistra, per selezionare le categorie.

L’immagine è del 1911, tratta dalla rivista Life; l’ho trovata qui.
Il movimento inverso, ovvero il bloggare credo fosse fuori dalla pensabilità dell’epoca, o perlomeno il pensiero di poter ciascuno di noi esprimere (liberamente, pubblicamente, globalmente) il proprio punto di vista, stazionava ancora nei regni di una fantasia che nessuno sapeva come tradurre in realtà.

La leggibilità del mondo

Minicity, Citycreator, Zanpo, ma anche Popomundo e altre cose più tematiche/specifiche tipo MetaPlace. Quest’ultimo ad esempio serve per arredare il proprio appartamento in 3D sul proprio dominio usando tool collaborativi online (non solo disegnarlo come ho fatto io con 3Dxplorer su jannis.it) e fondamentalmente costruire un MMORPG tutti insieme.

Abbiamo una visione: fare in modo che tu possa costruire quasiasi cosa, e giocare a qualsiasi cosa, da ovunque.

Noto quindi come le città online siano in aumento, oppure ne siano ultimamente nate alcune forse più rapidamente usabili, e qualche buon meme ha sollecitato la curiosità di molti. Da diversi canali amici e conoscenti e sconosciuti mi dicono di cliccare e di fare un giretto e di giocare a “facciamo casetta” oppure “giochiamo al Sindaco”.

In molte di queste nuove webcittà ora l’interazione con i residenti avviene senza previa registrazione: quindi non solo i cittadini (coloro che iscrivendosi al socialweb in questione hanno manifestato una volontà di partecipazione, talvolta con impegno economico) ma anche i turisti semplicemente cliccando di qui e di là su vari oggetti contribuiscono all’allestimento dell’insediamento abitativo.
Quindi forse sta scemando questa necessità di doversi iscrivere (anche OpenID aiuterà, certo) a millemila community per ogni minima interazione sociale. Ci son cose (scelta d’interazione, stile, modelli) che ci connotano e ci narrano, e queste cose le facciamo sia come turisti sia come cittadini. La presenza lascia tracce.
Quindi potrebbero nascere delle città online per così dire “turistiche”, urbanisticamente e interattivamente disegnate per essere divertenti, e quindi altamente cliccabili, ma in modo esplicito per persone di passaggio. Pensare a chi non risiede significa in particolare tenere in considerazione i flussi, quindi porre attenzione alle stazioni e ai teleport, alla segnaletica stradale, ai luoghi sociali di scambio estemporaneo, agli eventi culturali online, ai questionari rapidi e anonimi.

Credo fermamente che il cervello di molti disegnatori di interfacce in questo momento sia in ebollizione. Per ogni metafora che prende vita digitale si aprono mondi abitabili prima impensabili.

Interessante anche l’evoluzione che stanno avendo i meta-aggregatori di GReader e altri (ne ho parlato qui): stanno nascendo luoghi web come ReadBurner oppure SharedReader dove senza alcuna registrazione voi fornite – se volete – il feed della pagina pubblica del vostro GReader per contribuire a far emergere folksonomicamente le notizie più condivise sul pianeta; nel contempo, potete ovviamente abbonarvi al feed del socialweb scelto, e ricevere nel vostro Reader le dieci cose più condivise oggi da migliaia di persone.
E nessuno ha detto che fossero cose importanti. Ma guarda caso emergono come cose importanti, se milioni di persone hanno ritenuto il contenuto meritevole di “passaparola”.

Una mossa educativa a questo punto dovrebbe concentrarsi sulla pratica di item-sharing, da intendere come la mossa minima del nostro essere al mondo, agendo almeno come (soggetti semiotici) inoltratori di informazioni e opinioni altrui, a nostro parere meritevoli di segnalazione; mostrare alle giovani generazioni come anche un semplice atto come cliccare un bottone dentro Google Reader diventa – come ogni tag che mettiamo, se inteso sistemicamente – un atto di scelta e responsabilità rispetto alla costruzione collaborativa di una narrazione polivocale degli eventi e degli accadimenti planetarii, che poi il web trasformerà in Storia dell’Umanità.

Esageriamo. Qui sappiamo che quello che sta cambiando è proprio il modo in cui stiamo scrivendo la Storia (o per lo meno le rappresentazioni mediatiche caratterizzate da produzione e distribuzione partecipate degli eventi storici).
Ed è ancora vero che la Storia la scrivono i vincitori? Ma i vincitori non possiederanno i luoghi dell’editoria; qui su Mondo 2.0 esistono storie, non Storia in senso 1.0.
Mi viene da pensare che in uno scontro di civiltà, di pianeti o etnie più che scrivere il testo ufficiale degli eventi, sarà più importante cancellare la memoria storica della collettività conquistata, inseguendo fino nei server più scassati ogni singola traccia mnestica elettronica, manifestazione di quella identità collettiva, un po’ come una volta (?) si distruggevano i templi altrui.

Tornando a noi, non lamentatevi di avere trecento feed da leggere se poi siete famosi per segnalare fuffa. In ogni caso, il meccanismo complessivo dovrebbe essere a prova di fuffa (sarà vero? o si tratta pur sempre di codici enunciativi e segni menzogneri e manipolabili con finalità marchettare?), tant’è che continuo ad avere fiducia nel fatto che la qualità emergerà dal giudizio di migliaia di persone (ad esempio, quel post meraviglioso su un blog che mi era sfuggito), se quelle persone riterranno l’item degno di condivisione. Atto (comunicativo) degno di menzione, reintrodotto nel circuito come un feedback carico di vissuto umano con cui migliorare il sistema stesso.

In fondo, vi è del numinoso in ogni relazione autentica con l’Altro, si sarebbe detto una volta.

 

Parva sed

Su jannis.it ho via via messo diversi ambienti.

I primi siti erano html, poi avevo provato un FlatNuke, un PostNuke, poi avevo installato un robo tipo Gelato, un WordPress, e ultimamente il sito era solo un enoorme mp3player con dentro una canzone sola, Allegria, e due link, uno a questo blog e l’altro a LinkedIn o a ClaimID, secondo ispirazione.

Poi stanotte ho seguito una qualche segnalazione e sono arrivato a 3Dxplorer, che mi dà la possibilità di costruirmi un ambiente tridimensionale da mostrare ai visitatori; alla fine delle azioni di arredamento, salvo il progetto e prelevo il codice, proprio come in Youtube, e lo incollo in un index.htm che ho fatto col blocconote e che ho caricato in ftp. Stop.

In fondo, jannis.it è casa mia, e proviamo quindi a farle sembrare una casa vera.
Pian piano aggiungerò oggetti o migliorìe cromatiche, magari altri collegamenti oltre agli stessi di prima che ho messo sulla TV e sul quadretto.
Se avete un pc veloce, dovrebbe metterci 10 secondi a caricare l’interfaccia: poi muovetevi con le freccette o con il mouse.

Città always-on

In questo blog miracolosamente intatto dopo un parziale rifacimento grafico, esordisco nel duemilaeotto con un post squisitamente gangherologico.

Mi trovo infatti a riflettere sulla forme di arredamento urbano da progettare per marcare quei Luoghi territoriali connotati dalla presenza di interfacce verso i Luoghi di abitanza digitale. Ovvero, dove la città atomica e quella digitale si toccano incontrandosi fisicamente in una interfaccia, come un totem elettronico o una panchina-wifi in una piazzetta (interfacce come i polmoni, come le stazioni, come i rituali) .

La tecnologia TIC diventa visibile nei paesaggi urbani, mostra le intersezioni dei nostri ruoli sociali nelle comunità biodigitali, con i nostri movimenti e le nostre tracce attraverso le città, e la nostra interazione con i Luoghi e gli artefatti pubblici.

Mimetizzare questi manufatti? O al contrario evidenziarli e connotarli, rendendoli espliciti segni di valori di abitanza biofdigitale? Luoghi sociali fisici di partecipazione mediatica? Come rendere visibile la rete dell’e-democracy? Come proporre delle attività sociali, che siano utili per scoprire rapidamente nuovi utilizzi urbani delle TIC e suggerisca delle metriche per la valutazione degli interventi, che siano provocatorie (un approccio tipo land-art?) eppure facilmente fruibili per il cittadino? Come progettare interventi sociali che diano buone indicazioni di feedback da reintrodurre nel ciclo di progettazione, ma capaci al contempo di far esperire dimensioni di socialità anche ludica o foss’anche politicamente partecipativa, però sempre con un approccio light, consapevole della user e della group experience? Conviene ragionare per “incursioni sul territorio”, dove dislocare improvvisamente interfacce anche temporanee d’interazione, piuttosto che proporre subito strutture disegnate e costruite in cemento? E dentro quale clima affettivo avverrà il cambiamento dei comportamenti? E’ possibile ipotizzare un certo orgoglio cittadino per la modernità e la qualità dell’offerta dei servizi, su cui poter contare per approntare quei contenitori di comunicazione adeguati alla partecipazione delle collettività dove emergeranno sentimenti di appartenenza e di identità personale e gruppale?

Telefonini, megaschermi, twittervision e flickrvision, blog urbani, webtv dal basso, rilevazioni dei flussi delle collettività, segnaletica dell’abitanza… sarà da colorare degli angoli della città di arancione e dipingere su un muro il logo del feedrss, per indicare le Luoghi territoriali caratterizzati dalla presenza di molte porte pubbliche verso la città digitale? E come sono fatte queste porte (ecco il gangherologo che si agita)?

Di porte di questo tipo, capaci di mettere in contatto due mondi, a me vengono in mente quella di Stargate, il filmone, e lo specchio di Alice. Entrambe ad un certo punto diventano “liquide”, attraversabili. La trasparenza delle interfacce.

Ragionarci sopra, a tutto ciò, include l’obiettivo delle scienze sociali di raccogliere informazioni circa l’uso e gli utenti della tecnologia in un mondo reale, l’obiettivo ingegneristico del test sul campo delle tecnologia impiegate, e l’obiettivo progettuale di ispirare gli utenti e progettisti ad immaginare nuove forme di tecnologia per sostenere le loro necessità e i loro desideri, o viceversa a rendere praticabile delle forme di socialità interumana prima mai esperite.

Ed è giusto sottolineare, decrescendo felicemente, che la tecnologia TIC del networking e del socialweb, esondando dagli uffici e riversandosi nelle strade e nelle case, non deve necessariamente recare con sé tracce di quei valori riferiti al “luogo di lavoro”, come l’efficienza e la produttività a scapito delle altre possibilità. Se sperimentazione ha da essere, in questi tempi pionieristici, allora che sia libera e coraggiosa, e talvolta magari financo un po’ futile ma divertente, nella consapevolezza che dal moltiplicarsi delle pratiche spontanee di Doppia Abitanza emergeranno immancabilmente i nuovi comportamenti sociali delle collettività connesse.

Progettare interfacce biodigitali

Progettare interfacce biodigitali per arredare gli spazi urbani, in quei Luoghi territoriali dove la città atomica e la città digitale si toccano.

Antenne, monitor, totem interattivi, segnaletica, iconografia, urbanistica digitale, e progettazione di percorsi di Abitanza.

Segnalo questo ottimo articolo di Putting People First, dove viene descritto un bel progetto Intel: “Le Atmosfere Urbane è un progetto che (video) esplora come le persone che vivono in città possono voler utilizzare la tecnologia, come questa possa aiutarli a sviluppare un senso di appartenenza e di comunità o giocare un ruolo importante nelle loro esperienze emozionali di vita urbana.”

Invenzioni – Wii & Lee

La notizia sta facendo il giro dei blog, perché Johnny Lee qui sotto ha veramente inventato una bella cosa. E oltre ad aver scritto credo qualche riga di software per ben interfacciare il Wii con il PC, la vera scintilla creativa dev’esser stata quella di aver provato a chiedersi cosa succedeva se si fossero invertiti il controller remoto e la base ricevente. Così da poter “vedere” quello che vede la base, e quindi poter allestire la visione in 3D. 

Un momento aulico di storia moderna si raggiunge verso la fine, quando Johnny consiglia agli sviluppatori Wii di inventarsi qualcosa per sfruttare appieno le nove possibilità… sta dicendo a chi il Wii l’ha inventato che dietro l’angolo c’era una meraviglia che nessuno dei progettisti ha saputo vedere, e non è importante che l’abbia scoperta lui facendo bricolage (oddio, spero che lo assumano rapidamente) ma che venga diffusa e presto, perché l’importante è giocare a manetta.

Nessuna delle due

Cinque anni fa Dave Winer ha scommesso con un executive del NewYorkTimes che a cercare nel 2007 con cinque parole chiave su Google i cinque eventi più importanti dell’anno, sarebbe saltato fuori che le risposte più alte alla ricerca sarebbero state occupate da collegamenti a blog varii, piuttosto che al noto quotidiano ‘mericano.

Beh, la scommessa l’ha vinta. Però tra quelle risposte segnalate da Google oggi troviamo cose che non esistevano nel 2002 (Youtube), oppure che avevano solo un anno di vita, come Wikipedia, e che oggi hanno importanza ancora maggiore dei blog.

Quindi, se la scelta sembrava essere tra “opinionisti appassionati di cui ti puoi fidare” oppure “informazioni linde, accurate e coerenti provenienti da fonte autorevole”, in realtà è spuntata una terza opzione, imprevedibile, del tipo “un’orda di opinionisti appassionati senza nome e senza faccia, a cui non è richiesto di dimostrare la propria competenza negli argomenti di cui trattano”.

L’articolo di Doctorow su BoingBoing si trova qui.

Stop. Adesso vado al MittelCamp..

Newsmap

Da un post di Simone Morgagni, dove trovo alcune considerazioni puntualissime sulla miopia della stampa italiana, risalgo fino a questo newswall bello ed interessante, rappresentazione viva e dinamica del “peso” folksonomico delle ultime notizie di cronaca ricevute via GoogleNews.Anzi, vi incollo direttamente le righe di Simone, in quale con pregevole sintesi spiega come “l’algoritmo [che] riprende, via GoogleNews, i fatti del giorno, distribuendoli nello spazio dello schermo in base all’importanza che deriva loro dalle citazioni ricevute”

 

Le linee dei sogni

Vi ricordate quando dentro So Far, So Close di Wenders tutti quanti si pèrdono a guardare i propri sogni su dei visori portatili?

Ecco qua Dreamlines, un vero sito concettuale: infatti noi mettiamo delle parole chiave di ricerca, e lui ripropone un cangiante quadro “pittorico” dove i singoli elementi figurativi sono presi da immagini sparse su web, rispondenti ai tag di ricerca. E’ deliziosamente lento, veramente onirico, manifestazione unica e irripetibile, e pone un mucchio di belle domande, come leggo nell’about.
Chi è che sogna? L’utente, o la stessa Internet? Non stiamo forse inseguendo scie di senso nelle sinapsi della Rete, per associazioni di parola o per somiglianze iconiche?
Poi mettiamo un ulteriore tag, e reimmettiamo in circolo tutto.

Macchine per pensare (fino ad un certo punto)

Maestro Alberto segnala un generatore di idee, e a me non può non venire in mente Raimondo Lullo (andate qui, perché ogni tanto un sito anni ’90 è riposante; qui perché le immagini sono eloquenti; qui perché così andate su wikipedia), sicuramente un nume tutelare di Internet o perlomeno del concetto di ipertesto. Giulio Camillo Delminio è un altro di quelli.

Sgugolarsi

Paul the WineGuy, scoperto via Tumblr, dice che vuole vivere una settimana senza Google. Non senza rete, badaben, qui abbiamo un Ramadan parziale, Paul si astiene solo dalle pietanze cucinate a MountainView (il luogo del pianeta dove un pixel equivale a un centimetro quadrato).

Mashuppando un po’ di mie parole con le sue, Paul dice che personalmente non odia Google, però vuole farsi un’idea veramente personale di ciò che è bene e di ciò che è male. Come può valutare sulla sua pelle quanto la sua vita (digitale e non) dipenda dal mostro di Page e Brin?

Quindi Paul proverà a vivere 7 giorni senza Google, giusto per capire se esistono alternative.

Quindi niente ricerche sul motore principale e derivati: verranno utilizzati piuttosto Altavista, Yahoo e MSN Live.
Niente Gmail.
Niente Gtalk, e nemmeno progetti collegati a Google come lo stesso Firefox: esiste anche Opera.
Niente Google Alert, niente aggregatore di notizie preferito (Google Reader).
Niente Google News e non si cercheranno informazioni su Google Gruppi.
Consapevole delle migliaia di subdole ramificazioni, Paul starà lontano dalla blogosfera italiana ed internazionale per non incappare in un qualsiasi servizio di Feedburner.
Niente IGoogle, ovviamente niente Blogger e niente servizi specifici come ad esempio Google Adsense o Analytics.

Attenzione ora diventa veramente difficile: proibirsi di accedere a YouTube o a siti che hanno ripubblicato qualche video di quella piattaforma. Stessa sorte per Google Video.

No nemmeno a Picasa, alle Google Mappe e qualsiasi altro mash-up che le utilizza.
Paul the Wine Guy ha perfino cancellato il suo account di Jaiku.

Ma soprattutto: avendo fatto un “ultimo” post così, come farà tra una settimana Paul a capire se il picco sugli accessi al blog è dovuto a questa iniziativa sperimentale o alla vendemmia di link che ha messo nel suo post?

E delle mie statistiche, che sarà? Funzionano giochetti così?

Seamonkey e GMail IMAP

Da un po’ ho smesso con Thunderbird e Firefox, e sono passato a SeaMonkey, ovvero la suite sempre Mozilla che in sé ha tutto, è bella e va pure molto bene.

E poi qualche minuto fa mi son deciso a vedere dell’IMAP di Google Mail, così son passato alla visualizzazione in inglese della mia casella di posta (sennò in italiano non notavo nessuna novità disponibile), ho visto le configurazioni per IMAP sul client di posta di Seamonkey, e mi son messo ad ammirare la cordialità con cui ora la casella di posta di GMail e il mio programma di posta sono sincronizzati.

Poi ho scoperto che posso fare un bel backup di anni di posta su GMail, stando sempre dentro il programma di posta, dove ora sono visibili anche le cartelle remote su GMail; ecco, io prendo una cartella locale e la trascino con il mouse sopra quelle remote, e maghetto IMAP mi trasferisce tutto per bene.
Che sabato.

Wi-fi territoriali e Abitanza attiva

Vedete, parecchie Pubbliche Amministrazioni locali (Comuni più o meno popolosi, Comunità) di questi tempi stanno pensando o vengono loro proposti dei progetti per la realizzazione di una copertura territoriale in tecnologia wi-fi, per offrire a tutti i cittadini la possibilità di usufruire di una connessione veloce a Internet, indipendentemente dall’essere fisicamente connessi via cavo con una centralina ADSL.

Personalmente (confortato da Quinta) credo che il discorso della “fibra fino a casa” (FTTH, Fiber To The Home, ovvero collegare tutte le abitazioni nazionali in fibra ottica) non dovrebbe essere rapidamente accantonato, perché se è vero che sarebbero da sborsare un mucchio di quattrini per la posa dei cavi, d’altro canto in quanto a capacità tecnica della Rete saremmo a posto per i prossimi cinquant’anni. E badate che l’argomento sarebbe da inquadrare in un ragionamento serio, pari almeno alle discussioni presenti nell’opinione pubblica putacaso sulla TAV o sul Ponte di Messina, visto che in fin dei conti stiamo parlando di una di quelle grandi opere infrastrutturali su cui si fonderà il benessere del Paese, come ottant’anni fa le ferrovie o cinquant’anni fa le autostrade.

Inoltre, è opinione di qualunque NuovoAbitante che la connettività gratuita per tutti dovrebbe essere un diritto del cittadino, in quanto strumento essenziale nel nostro tempo per garantire l’espressione delle libertà individuali sancite dalla Dichiarazione Universale degli Umana (Articolo 19: ogni individuo ha diritto alla libertà di opinione e di espressione incluso il diritto di non essere molestato per la propria opinione e quello di cercare, ricevere e diffondere informazioni e idee attraverso ogni mezzo e senza riguardo a frontiere).

Magari le PA intendevano proprio questo, offrire connettività gratuita ai cittadini e nel contempo studiare nuove modalità di coinvolgimento della popolazione nei Luoghi online dedicati alla Comunicazione Pubblica, alle reti civiche e ai contenitori digitali per le nuove forme di e-democracy.
Ma wifizzare un territorio costa sempre una certa cifra, bisogna costruire la rete degli AccessPoint, sviluppare del software specifico, e anche formare e mantenere un po’ di risorse umane, negli anni.

Può capitare che una Pubblica Amministrazione non possa sostenere finanziariamente questa iniziativa, e che ritenga buona cosa appaltare il tutto ad un privato, o ad una partecipata, il quale provvede a proprie spese alla wifizzazione del territorio, riservandosi poi di chiedere ad esempio una cifra all’Ente per permettere la navigazione sui propri AccessPoint, oppure direttamente al cittadino.
Quindi non solo l’utente finale verrà discriminato in base al censo (e colmare il DigitalDivide resterà utopico), ma siamo nel caso in cui chi possiede l’infrastruttura possiede anche il servizio, ovvero l’offerta di contenuti da trasmettere sulla Rete, e quindi può decidere l’accessibilità a certe informazioni, ad esempio impedendone la visione oppure praticando tariffe differenziate.
E’ come se al pedaggio autostradale mi chiedessero di più perché voglio andare a Venezia o a Gardaland, luoghi turistici sponsorizzati.
Qui spero che qualcuno commenti per chiarirmi le idee.

Nel frattempo, dopo alcune notizie che parlavano di un certo ripensamento di certi avanzati progetti di wifi territoriale nelle grosse città degli Stati Uniti (link, dall’Economist.com), pare che le cose stiano riprendendo a muoversi, perché appunto quello che sembrava per le metropoli un investimento senza alcun ritorno economico, e quindi insostenibile, si sta rivelando (link, da Repubblica.it) uno strumento per abbattere alcuni costi dell’Amministrazione cittadina, sì da rendere la connettività via onderadio per tutti un’iniziativa nuovamente perseguibile.

Se ad esempio i parchimetri, i contatori del gas e dell’acqua, le ambulanze, i rilevatori ambientali, comunicassero in wifi, sarebbe possibile risparmiare moltissimo, dice l’articolo di Repubblica.

Per tener sotto controllo la situazione nazionale, tenete d’occhio i Centri Regionali di Competenza per l’e-Government e la Società dell’Informazione.

Società e tecnologie interagiscono

Cosa succede quando appare una nuova tecnologia (TIC, ma non solo) in un sistema sociale? E se la diffusione degli ultimi ambienti interattivi su web, da YouTube a SecondLife, avvenisse secondo curve di “accettazione sociale” ben identificabili, come in un grafico?

Qui trovate un interessante articolo, scritto da Dario de Judicibus, sull’attuale sviluppo di certi luoghi abitati della Rete.

L’Indipendente