BLOOM! frammenti di organizzazione
Pubblicato in data: 19/03/2007

WEB 2.0: COSA E', IN MANO DI CHI

di Francesco Varanini 

 

Sommario:

1 - Brevi tracce di una storia recente
2 - Rapide carriere fondate sul nulla
3 - Li vedo tornare
4 - Cos'è il web 2.0: prima approssimazione
5 - Web 2.0: True vs. Fake
6 - Web 2.0: ripartiamo da Tim O'Reilly
7 - Il Broadcasting rinasce sulle sue ceneri
8 - Il Web 2.0 dietro le quinte
9 - Vane parole dei nostri profeti del Web

 

1 -Brevi tracce di una storia recente

Ricordo nel 1998 o 1999 arrivisti e spesso ignoranti personaggi spuntavano dal nulla del mercato - da posizioni marginali in agenzie pubblicitarie, in redazioni di giornali, in direzioni marketing, in studi grafici e di comunicazione. E, sostenendosi tra di loro, si offrivano al mercato come esperti di Internet, del nascente web. Vivevamo di seconda mano quello che era già successo altrove, a partire dalla mitica Silicon Valley, naturalmente.
Ricordo softwarehouse dedicate alla creazione di siti che nascevano come funghi, facendo pagare cifre spropositate lavori realizzati malissimo, fondandosi sulla moda, su una qualche esperienza di grafica – che nascondeva una vergognosa ignoranza di tecniche di programmazione e di progettazione di basi dati.
Ricordo speculazioni finanziarie rese possibili sull'ignoranza degli investitori, che sembrava dovessero, pena il perdere la faccia, investire almeno qualcosa nella cosiddetta new economy. Chi aveva da denaro da investire non capiva nulla di tecnologie. Usava il mercato delle nuove tecnologie solo come nuovo mercato, dove era più facile speculare. Chi aveva, o per lo più millantava, una competenza tecnologica, non pensava davvero a fare l'imprenditore. Investitore e pseudo-imprenditore forzavano business plan sapendo che il vero scopo non era mettere in piedi una impresa capace di durare nel tempo: il vero scopo era tirare il pacco due, tre anni dopo a un malcapitato investitore meno accordo – millantando il valore sotto forma di asset intangibile difficilmente controllabile: il numero degli iscritti al sito.
Cosicché le business ideas -quelle che circolavano nel nostro paese- erano ridicolmente improbabili: eppure pagavano, perché investitori e profeti delle nuove tecnologie si trovavano d'accordo a vendere come credibile ciò che credibile non era: siti web per anziani, piattaforme che la vendita on line di qualsiasi cosa.
Nessuna di quelle idee buone che, sia pure nel contesto di un mercato finanziario volatile e forse drogato, portavano risultati negli Stati Uniti: Netscape, Hotmail, Yahoo ecc.

2 -Rapide carriere fondate sul nulla

Si assistette allora a rapide carriere di questi personaggi spuntati dal nulla, ex pubblicitari, ex grafici, ex giornalisti, o programmatori forti solo di qualche esperienza di html. Arroganti parvenu, non alieni a vantarsi in privata sede del colpo di fortuna, o del ben costruito gioco.
C'è stato un momento nel quale potevano chiedere compensi assurdi, perché ogni impresa doveva avere il suo esperto di nuove tecnologie, il suo esperto di marketing relazionale, il suo esperto di new media e new business e new economy.
Non c'era dietro una competenza tecnica, conoscenze informatiche, intendo, non c'erano dietro conoscenze di marketing, di management. Ma né nelle imprese né nelle società di job hunting ci si preoccupava. Tutti a cavalcare l'onda. Meglio non interrogarsi: ci si sarebbe dovuto confrontare con le proprie carenze. Di che cavolo stanno parlando questi? Mettersi a studiare, cercare di capire – costava troppa fatica.

3 -Li vedo tornare

E ora li vedo tornare. La cosa più meschina è che per lo più non sono neanche nuovi venuti, giovani adesso giovani. Sono quegli stessi che si erano presentati giubilanti sulla scena dieci anni fa. Eccoli tornare a pronunciarsi dove capita, eccoli proporsi per posti di lavoro, ecco fiorire riviste., ecco che si fanno colorate e il più possibile fumose proposte ad aziende.
Si torna ad alzare la voce su newsgroup e newsletter, annunciando la rivoluzione del web 2.0. Che sarà mai? Se a parlare di web 2.0 è questo tipo di gente, e se ne parla con tanta enfasi, con l'enfasi di chi aveva cavalcato in quel modo dieci e passa anni fa l'onda, allora c'è da dubitare.
Se la definizione 2.0 va bene a questa gente, c'è puzza di bruciato: per loro, meno la cosa è chiara, meglio è, perché più sarà necessaria, pensano astutamente, la loro mediazione di esperti.

4 - Cos'è il web 2.0: prima approssimazione

Provo a descrivere, in breve, il quadro.
Tutti conoscono la storia di Napster (www.napster.com), e in genere dei siti peer-to-peer. Luoghi virtuali nei quali è possibile conservare condividere files. La storia nota riguarda in particolare i files musicali, e un'immagine diffusa vuole che si tratti di una forma di pirateria, tesa a danneggiare i detentori dei diritti d'autore del produttore di quel contenuto. Perché ci viene imposto di vedere al questione dal punto di vista di chi, prima di questa rivoluzione, permetteva di mettere in contatto produttore con consumatore: la casa discografica, l'editore, il negozio o la grande distribuzione.
Ma facciamo il caso che sia l'autore di quei contenuti, o il legittimo proprietario di quel bene, ad usare la possibilità di 'disintermediare', di comprare e di vendere. Trasformandosi in prosumer, produttore-consumatore, come già oltre venticinque anni fa immaginava Alvin Toffler (in The Third Wave, Bantam book, 1980). Il diritto della persona a muoversi sul mercato, offrendo ciò che è suo, non è in discussione.
Ciò che immaginava Toffler, si è realizzato, certo oltre quello che Toffler prevedeva. E' così che da anni si assiste, sul Web alla crescita dei contenuti creati direttamente da 'end-user' (abbastanza stranamente anche nel mondo anglosassone si usa l'espressione 'end-user', dove sembrerebbe più adeguato il neologismo di Toffler). Persone che 'fanno sharing', che si scambiano informazioni, mettono a disposizione proprie conoscenze, rendono accessibili musica, immagini fisse e in movimento, testi.
Le tecnologie hanno accompagnato questo atteggiamento e l'hanno rinforzato.
C'è il caso esemplare di www.sourceforge.net piattaforma dedicata alla alla condivisione di informazione tra persone (si sviluppatori, sia utenti) coinvolte nello sviluppo di software open source. Sono accessibili spazi per conservare e condividere foto, è il caso di www.flickr.com. Sono accessibili tecnologie che rendono possibile per chiunque aprire e gestire un proprio sito, e diffondere un proprio punto di vista (è il caso dei blog). Sono accessibili tecnologie che permettono di costruire 'reti sociali'.come www.linkedin.com: nove milioni di persone descritte in base alle proprie esperienze professionali, connesse tra di loro da legittimazioni e raccomandazioni reciproche.
Sono accessibili tecnologie che permettono a quasi di incontrarsi scambiandosi beni e servizi -è il caso di www.ebay.com dove si incontrano duecento milioni di persone (vedi su Bloom www.bloom.it/vara114.htm). E' possibile oggi mettere in piedi emittenti radio e televisive, dotate di un vero e proprio palinsesto (è ciò che si chiama podcasting). Ci sono piattaforme dedicate a questo, come www.youtube.com.
E oggi -ultima moda, forse, ma soprattutto proposta radicale che pone interrogativi sociali, economici, etici e politici- sono disponibili piattaforme dove è possibile vivere una vita virtuale, come www.secondlife.com.
Tutto questo, in un modo o nell'altro, è web 2.0.
Qualcuno parla di tecnologie che permettono ai dati di diventare indipendenti dalla persona che li produce. Tim O'Reilly fa notare che “the value of the software is proportional to the scale and dynamism of the data it helps to manage”. (What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software (09/30/2005; http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html).
Certo il web 2.0 pone l'accento sulla condivisione delle conoscenze, sulla loro fertilizzazione incrociata. Nel web 2.0 la conoscenza si presenta come una sorta di intelligenza collettiva, autoregolata, una 'mente' frutto di connessioni.
E insomma: si capisce che il web negli anni si è evoluto, si capisce che c'è la gran novità dei contenuti prodotti da soggetti diversi, si capisce che perde progressivamente di senso il concetto di 'autore' e di proprietà dell'informazione. Ma non si vede dove stia il confine tra un web 1.0 e un web 2.0.
Il fatto è che che questo cambio di definizione nasconde qualche trucco e qualche pericolo.

5 - Web 2.0: True vs. Fake

Riprendiamo il discorso con Lawrence Lessig, Professor of Law at the Stanford Law School, riconosciuto per il suo tentativo di andare oltre il noto diritto d'autore, o in genere oltre il concetto di proprietà legale, nel quadro ridefinito dala digitalizzazione delle informazione e dal Web. Lessig risale al concetto di Commons -'usi civici', 'terre comuni' nel diritto anglosassone- per definire la licenza Creative Commons, che vi vorrebbe proporre, in parole povere, come nuovo copyright adatto ai tempi. Non discuto qui i pro e i contro dei Cretive Commons rispetto alle forme di protezione che l'hanno preceduta – penso al GNU Free Documentation License (GFDL), la forma di protezione tipica del mondo open source, applicata prima al software, e quindi anche delle conoscenze in senso lato, come le voci di www.wickipedia.org).
Voglio solo dire che Lessig è considerato figura di riferimento autorevole, non certo estremista o fondamentalista.
Lessig accetta la generica definizione di web 2.0 come riferita a siti che si basano sul concetto di “user generated content“, ossia i siti che sfruttano/utilizzano i contenuti generati dagli utenti stessi. Ma poi è radicale nel dire nel dire esiste un web 2.0 vero e uno falso. La netta distinzione che suggerisce è quella tra i true sharing sites ed i fake sharing sites. I primi consentono una piena, completa e libera condivisione dei contenuti tra gli utenti, mentre i secondi cercano di simulare un’apparente spirito di condivisione mentre in realtà tendono solo ad indirizzare l’attenzione ed il traffico verso il proprio sito.
Lessig fornisce anche esempi. Tra i 'true': www.flickr.com, www.blip.tv, www.revver.com
(un sistema simile a You Tube, ma che promette di guadagnare con i video pubblicati), www.eyespot.com (rispetto a You Tube permette di fare montaggi), ed alcuni servizi di Google. YouTube invece, secondo Lessig, è un fake web 2.0 poiché non fornisce alcuno strumento per scaricare e fare proprio il contenuto caricato dagli altri utenti. L’embed ('inserimento') di un video di You Tube in un altro sito non è considerato da Lessig come una vera e propria condivisione.
Del resto già Tim O'Reilly, che è forse il vero padre della definizione 'web 2.0', nel suo ormai classico What Is Web 2.0. presenta una lista in cui oppone ciò che è Web 1.0 e ciò che è Web 2.0. Ma anche le sue distinzioni non appaiono né chiare né convincenti.
Quando di fronte a una definizione fresca fresca si comincia a discettare attorno al su abuso, vuol dire che c'è qualcosa che non va.

6- Web 2.0: ripartiamo da Tim O'Reilly

Il citato scritto di O'Reilly mi pare resti un punto di riferimento. Dopo è stato aggiunto poco, e quel poco è stato solo fonte di confusione.
Sintetizzo, dal mio punto di vista, alcuni  aspetti chiave.
Gli 'end users', o prosumer che dir si voglia, producono contenuti e quindi aggiungono valore. Chi si propone di fare un business sensato e rispettoso sulla Rete, creando una piattaforma nella logica del web 2.0 dovrà dunque usare questa “intelligenza collettiva”, la “saggezza delle folle”: le conoscenze (preferisco non usare l'espressione 'contenuti, perché questa rimanda a un contenitore, mentre qui si parla proprio di contenuti che valgono a prescindere dal contenitore che provvisoriamente e accidentalmente li ospita). I contenuti, dicevo, in gran misura esistono già -pensiamo per esempio ai blog-. Il valore aggiunto per l'utente, e quindi per chi vuole fare business sulla Rete, sta nell'aggregazione, nel rendere accessibile e nell'offrire criteri di valutazione che permettano di muoversi nella gran massa si informazioni. Del resto lo diceva già lo slogan che sta alla base di www.sourceforge, e cioè della creazione del software open source: 'Create, Participate, Evaluate'.
Anche per quanto riguarda dati 'proprietari', sia software, o siano informazioni, il detentore dei diritti avrà -almeno fino ad un certo punto-  vantaggio a metterli a disposizione: perché “la protezione della proprietà intellettuale limita il riutilizzo”, e il riutilizzo è il sale della Rete, è fondamentale perché emerga nuova conoscenza utile e vantaggiosa per tutti.
Insomma,  è opportuno considerare le conoscenze 'di tutti e di nessuno'. La ricchezza della Rete sta nel  'meticciato' tra dati e  informazioni diversi, di fonti diverse: informazioni prodotte da professionisti dello sviluppo software e da professionisti della comunicazione (esempio giornalisti), frammischiate e interconnesse con software open source e informazioni prodotte da blogger e utenti vari.
Cosicché, fatta l'apologia di questa informazione 'meticcia'. O'Reilly -che è alla fin fine sempre un publisher, editore, 'commerciante' di conoscenze- si trova costretto a chiedersi dove sta il vantaggio competitivo. E finisce per consigliare: “cercate di possedere una fonte di dati unica e difficile da ricreare”. Ogni attore dovrebbe quindi individuare il proprio 'core', quei dati che fanno la differenza, destinati quindi ad essere protetti, a essere esclusi da ogni forma di condivisione. Ogni operatore saprà quali sono i dati da difendere comunque: un software che permette di garantire un servizio esclusivo, o i files degli iscritti al servizio.
Ma resta una domanda: come sta insieme questa necessaria difesa del proprio asset con un altro principio enunciato da O'Reilly, ovvero: co-operazione, non controllo?

7 - Il Broadcasting rinasce sulle sue ceneri

Ma c'è una questione chiave che  O'Reilly e Lessig trascurano. Parlano di aspetti funzionali, parlano di software e di conoscenze e di lavoro collaborativo. Le macchine, l'hardware, i server, insomma, ciò che usando un consolidato termine dell'informatica si direbbe 'i sistemi', viene trascurato. E' vero che oggi la memoria di massa non è più un problema, si può conservare tutto senza per questo caricarci di costi eccessivi, è vero che oggi un giga di memoria non si nega a nessuno -si veda lo spazio messo a disposizione da Gmail, il servizio di Google per la conservazione delle e-mail personali. E' vero che la potenza di calcolo aumenta costantemente. E' vero, quindi, che per questa via si finisce per considerare 'i sistemi' una commodity, comunque a disposizione, priva di rilevo strategico.
Ma le cose non stanno così. I data center costano, e sono di complessa gestione. Il risk management e la business continuity pongono sempre più al centro dell'attenzione la continuità del servizio cui sono obbligati i data center.
Si badi a questi passaggi storici: si è passati da un Host, un Mainframe, che conteneva tutte le procedure e tutti i dati a sistemi distribuiti, 'dipartimentali' e poi 'client server'. Molte informazioni sono conservate in luoghi decentrati, e questa in fondo è una garanzia di sicurezza, oltre che una forma di tutela della privacy. I miei dati 'sensibili' sono sul disco fisso del mio Pc. Ma se sposiamo la filosofia web 2.0 i mei dati saranno invece allocati presso un qualche fantascentifico data center, allocato in un un luogo qualsiasi del mondo, a me ignoto. E così i dati di altri miliardi di persone. E' già così: il data center di Google (www.bloom.it/vara74.htm ), è, da un punto di vista sistemistico un enorme Host che contiene parti sempre più grandi del sapere d un numer osempre crescente di persone. I miei file personali, nella prospettiva del  web 2.0, risiederanno lì. Già risiedono lì: in questo momento non sto scrivendo con Word, non sto salvando il file sul mio disco fisso. Sto scrivendo con Writely, un surrogato di Word messo a disposizione da Google (http://docs.google.com/) accessibile via browser.
Cerco nella barra in alto 'salva', faccio clic con il mouse, ed ecco che il mio file viene scritto sul disco di un server di cui so nulla. Mi sono liberato così dalla dittatura delle Microsoft, ma mi sono assoggettato da una dittatura forse potenzialmente più rischiosa. Tutto risiede, nella logica Web 2.0, in remoti daba bases di cui non sappiamo nulla, non controlliamo nulla. 
Essendo le informazioni relative al funzionamento di questo data center una competenza distintiva, un vantaggio competitivo di Google,  così come teorizza  O'Reilly, Google non mi dirà nulla di questo. 
Seguendo O'Reilly e Lessig, è buona cosa che i nostri dati stiano lì: solo così possono connettersi con altri dati e altre informazioni, possono contribuire a creare ricchezza sociale. Il Web 2.0 si fonda sul lavoro collaborativo, sull'essere tutti prosumer. Il Web 2.0 ci offre servizi di grande valore, spesso anche gratuitamente. Google mi permette di accedere a una massa infinita di informazioni – ma un giorno qualcuno, attraverso Google, potrebbe censurare l'accesso alle informazioni di chiunque. In qualche area geopolitica, come in Cina, si sa, Google ha accettato di oscurare qualche sito.
Si può fare un parallelo: la stampa nel 1500 era buona cosa, ha permesso la diffusione di conoscenze e ha grandemente favorito la circolazione di conoscenze, e quindi la stessa nascita della scienza e delle tecnologie moderne. Ma, anche, la tecnologia della stampa ha permesso la censura. L'informazione che circola oralmente di bocca in bocca non può essere assoggettata a censura. Ciò che passa attraverso una tipografia, l'antenna centrale del broadcasting radiofonico e televisivo, e attraverso i grandi Data Center, sì.
Così, ironia della sorte, si rovescia con il Web 2.0 il principio etico, filosofico e strategico che stava alla base di Internet. Internet è nata come rete senza centro, e quindi inattaccabile e in grado di sopravvivere al big crash.
Ma ora, sopra l'infrastruttura di Internet, si va costruendo un modello dove tutto passa attraverso poche, enormi piattaforme, i cui data base contengono, replicata e riorganizzata, la conoscenza sparsa nella Rete.
Ecco dunque un'altra possibile definizione del Web 2.0: un sistema di piattaforme i cui Data Base contengono, replicata e riorganizzata, la conoscenza sparsa nella Rete.
Non dimentichiamo che il modello Web 2.0 non è privo di alternative: anzi l'alternativa c'è e si è visto che funziona. E' il peer-to-peer. La versione informatica del passa-parola, dell'informazione che passa di bocca in bocca. Come nelle reti veramente e essenzialmente P2P, senza server, tipo Kademlia (www.emule.it ) o Gnutella (www.gnutella.com).

8 - Il Web 2.0 dietro le quinte

Abbiamo guardato a un aspetto chiave del modello Web 2.0, il suo lato 'sitemistico'. Ma, sempre seguendo come traccia le tesi esposte da O'Reilly, vale la pena di guardare il modello anche dal punto di vista    'funzionale'.
Il Web 2.0 è anche un modello di sviluppo software, che vede coinvolti gli utenti, chiamati, come ha mostrato l'approccio open source, a partecipare sempre più direttamente alla creazione della soluzione. (Tra le fonti di ciò che O'Reilly teorizza, sta certamente l'Agile Software Development, www.agilemanifesto.org ).
I rilasci di nuove versioni saranno sempre più frequenti, saranno gli stessi utenti a valutare se nuove funzioni proposte saranno ben accette o risulteranno inutili. Lo sviluppo diviene così un processo continuo. Il software sarà, perennemente, in versione 'beta', versione sottoposta al test degli utenti: anche qui fa scuola Google. Il già citato Writely è uno dei tanti tool a disposizione degli utenti in versione 'beta'. I laboratori di Google, almeno per quello che Google vuole, sono aperti (http://labs.google.it/).
Il Web 2.0, inoltre, abbiamo già visto, attribuisce un ruolo centrale al Data Base. Dunque, per parlare con cognizion di causa di Web 2.0, si dovrebbe avere solide conoscenze in fatto di analisi dei dati, data model, data mining. 
Ma quando O'Reilly parla di dati, lascia implicita una distinzione oggi particolarmente importante: accanto ai dati strutturati, ben conservati in tabelle predefinite, ci sono i dati destrutturati. E sono destrutturati gran parte dei dati che il Web 2.0 si propone di trattare e di utilizzare. PageRank di Google, Amazon, Flickr, Clusty (www.clusty.com) sono esempi di sistemi che provano a far emergere strutture da dati, invece di imporre le strutture e pretendere che le persone le riempiano con i dati. Anche questo è data mining, 'scavo' alla ricerca del senso emergente in grandi masse di dati prodotte da grandi comunità di utenti. Ma qui non siamo più nel campo del tradizionale sapere dell'esperto di analisi di dati strutturati, siamo invece nel campo del Semantic Web. (Si veda l'opinione di Stefano Mazzocchi, http://www.websemantico.org/articoli/datafirst.php ).
Accennato alla gestione dei dati strutturati e destrutturati, dobbiamo aggiungere gli strumenti per il lavoro collaborativo, innanzitutto il wiki. E in genere i CMS (Content Management System). Qui, notiamo, il Web 2.0 si avvicina al Knowledge Management.
Ma l'idea -anche qui risaliamo a O'Reilly- del 'web come piattaforma' ci impone di guardare anche a come i n fondo il Web 2.0 non sia altro che un insieme di web services. Anzi, si può dire che il modello di sviluppo proposto è ciò che va di moda chiamare Service Oriented Architechture. SOA. Applicazioni autoconsistenti, ognuna dedicata a rispondere a una specifico bisogno dell'end user-prosumer, legate tra di loro da un sistema di regole. Ed accessibili via browser, attraverso interfacce pesonalizzate, corrispondenti a caratteristiche ed esigenze del singolo utente.
Si potrebbe continuare, ma questi accenni sono sufficienti per evidenziare un altro aspetto chiave: il Web 2.0 è una visione d'insieme che contempla la collaborazione tra diverse competenze informatiche, spesso rare e certo lontane tra loro. Qualsiasi Project Manager sa come è difficile mettere insieme, e fare interagire in funzione di un obiettivo comune, competenze tanto diverse.

9 - Vane parole dei nostri profeti del Web

Difficile tenere insieme su un unico progetto competenze tanto diverse. Ci dovrebbe essere almeno, si spera, una base comune: una conoscenza dei fondamenti dell'informatica. Ma non basta: Web 2.0 si presenta anche come una filosofia: non si può sviluppare una piattaforma per il lavoro collaborativo se non si lavora   in modo collaborativo. In questo campo c'è una storia alle spalle: programmazione ad oggetti, Prototyping. Un approccio reso concretamente praticabile dall'uso di piattaforme di cui SourceForge è caso esemplare.
Senza entrare in dettagli, è evidente che O'Reilly e  Lessig vivono all'interno di questa cultura. E sanno abbastanza di tecnologia da poterla subordinare a obiettivi strategici.
Purtroppo, ora devo tornare al punto dal quale ero partito: i piccoli guru nostrani del web,  sui quali era giustamente calato il sipario, e che tornano ora in scena a parlarci del Web 2.0. Purtroppo non sapevano dieci anni fa cosa era un dbms, non credo lo sappiano neppure oggi. Da come parlano sembra che sappiano ben poco di data mining, di Semantic Web e di SOA. 
Di figure che promettono un magnifico futuro, senza essere in grado di scendere sul concreto, restando una
via di mezzo tra esperti di new business e esperti di marketing, non sappiamo che farcene.
Il Web 2.0 è giù di per sé una cosa poco chiara. Raccontato da loro ci appare nient'altro che una superficiale moda, una favoletta della quale diffidare.

Pagina precedente

Indice dei contributi