Contributi

Rincorrere le nuvole: il salotto sorpassa l’ufficio

di Damiano Ceccarelli 01 Febbraio 2012

Il rapporto tra sistemi aziendali e sistemi domestici si è definitivamente capovolto: con l’avvento di sistemi software basati sul web, di infrastrutture complesse raggiungibili da remoto e con la diffusione di piattaforme gratuite ed aperte, gli utenti hanno a disposizione nel salotto di casa strumenti equivalenti se non superiori a quelli che tutte le mattine trovano ad attenderli alla propria scrivania. Una piccola rivoluzione che prefigura uno scenario sempre più complesso per il mercato dell’informatica enterprise, ma che al tempo stesso mette a dura prova le modalità con cui le organizzazioni guardano alle proprie risorse. Un’analisi dello scenario, delle implicazioni e dei possibili sviluppi.

Dal mainframe aziendale al netbook sul divano: storia di una rincorsa

Ciò che Vannervar Bush aveva soltanto teorizzato, immaginando a partire dal 1932 il suo famoso MemexLa descrizione completa del Memex è contenuta nel saggio “As we may think” pubblicato da Vannevar Bush su The Atlantic Monthly nel luglio 1945 , personal computer ante-litteram fatto di microfilm, leve e bottoni, si sarebbe realizzato tecnicamente solo 40 anni dopo: il computer personale, l’apparato tecnologico in grado di estendere la memoria e le potenzialità della mente umana, è infatti dovuto passare attraverso diverse generazioni di mediazioni governative, militari, scientifiche e sociali prima di arrivare nelle case di tutti noi. Il primo personal computer della storia è infatti da molti datato 1977 ed è il rivoluzionario Apple II, progettato da quello Steve Jobs che negli ultimi anni ha cambiato la concezione della nostra vita digitale con iPod, iPhone e IPad. Il concetto, oggi come allora, era semplice: rendere il computer un oggetto disponibile a chiunque e non solo a tecnici, informatici e “sacerdoti” in camice. E così si è passati nel giro di un paio di decenni dall’era dei mainframe, computer giganteschi utilizzati per fini militari e di ricerca, a quella dei personal computer, oggetti a basso costo accessibili a chiunque.
Superata l’era del mainframe e dei camici bianchi, rimaneva comunque un gap apparentemente incolmabile tra sistemi professionali e sistemi di casa. Il costo delle apparecchiature e dei software rendeva impossibile per gli utenti consumer di avvicinarsi alle prestazioni e alle funzionalità dei sistemi aziendali. I server, racchiusi dentro inaccessibili e multimilionari centri elaborazione dati, e il software, ancora sotto forma di costoso e complesso monolite, erano accessibili solo alle grandi organizzazioni, che potevano così mettere a disposizione dei propri membri ciò che di più evoluto l’industria informatica era in grado di proporre. Nel frattempo però i personal computer sulle nostre scrivanie di casa, nel pieno rispetto della Legge di Moore, diventavano sempre più potenti e capaci. I costi delle apparecchiature e dei programmi scendevano rapidamente, andando a colmare un divario che pareva fino a poco tempo prima  destinato a durare per sempre. Ma la partita nel frattempo si stava spostando di nuovo, giungendo all’atto finale di un sorpasso impensabile. Dalla fine degli anni ’90 ad oggi, è stata infatti la capacità di connettersi alla rete a diventare progressivamente il parametro reale di valutazione del “potere tecnologico”. Se ancora non molti anni fa le connessioni veloci erano esclusivo appannaggio del mondo enterprise, lasciando le case in balia della disperazione da doppino telefonico e modem a 56kb, la capillare diffusione di connessioni veloci e flat, e lo svilupparsi del concetto di always on, del vivere sempre connessi, ha direttamente ed indirettamente capovolto i rapporti di forza esistenti, aprendo agli utenti domestici possibilità addirittura superiori rispetto a quelle a disposizione delle organizzazioni e dei loro membri. L’evoluzione di internet, e di conseguenza del web, ha infatti permesso, in primo luogo, un incredibile miglioramento della qualità del software open source. Molti più sviluppatori potevano unire il proprio codice, collaborando allo sviluppo di soluzioni gratuite sempre più vicine al software professionale, e al tempo stesso milioni di utenti nel mondo potevano liberamente scaricare quegli stessi programmi, ottenendo applicazioni sempre aggiornate e di livello qualitativo in continua crescita. E’ sufficiente pensare all’ascesa inarrestabile del browser open source Mozilla Firefox nei confronti di Internet Explorer di Microsoft. Ma soprattutto tale capacità di connessione globale ha dato il via alla progressiva affermazione di piattaforme online che, oltre a sostituire in molti casi i tradizionali programmi residenti, hanno reso incredibilmente potente qualunque utente connesso alla rete. Mi riferisco, ad esempio, alle piattaforme web di Google o al mondo dei social network: la posta di Gmail, i documenti di Google Docs e, paradossalmente, i microgiochi di Facebook hanno rivoluzionato il modo di progettare, sviluppare e soprattutto di fruire qualsiasi prodotto informatico, anche quelli destinati al mondo professionale.

ll software sulle nuvole

Questa tendenza è sfociata in quello che tutti oggi chiamano cloud computing. Purtroppo, come gran parte dei termini riguardanti il mondo della rete che rimbalzano improvvisamente all’attenzione dei media, il significato di cloud computing è stato più volte esteso o ridotto, in un calderone fatto di tecnologie, dispositivi, applicazioni e tanta confusione.
Mantenendo un’accezione sufficientemente ampia si può definire come cloud computing una qualsiasi operazione in cui l’elaborazione non viene eseguita in locale sul dispositivo dell’utente, ma in una location remota (the cloud) a cui l’utente accede tramite connessione internet (definizione apparsa in Cloud Computing: Eyes on the Skies, di Steve Hamm – la potete trovare qui) . Una definizione più complessa ma sicuramente più suggestiva e chiarificatrice è quella di Eric Schmidt, CEO di Google: “You had these relatively dumb terminals. In the PC period, the PC took over a lot of that functionality, which is great. We now have the return of the mainframe, and the mainframe is a set of computers. You never visit them, you never see them. But they’re out there. They’re in a cloud somewhere. They’re in the sky, and they’re always around. That’s roughly the metaphor.”
In apparente contraddizione con quanto detto finora stiamo così assistendo, proprio grazie alla rete, al ritorno del vecchio concetto di mainframe, di supercomputer, citato in apertura. Ma è da notare come vi sia una macroscopica divergenza tra questi sistemi cloud ed il mondo dei centri elaborazione dati visti in precedenza: nel caso del cloud computing, il mainframe in cui le applicazioni web sono installate è online e raggiungibile da chiunque, gratuitamente e tramite una semplice connessione internet. E il software che se ne avvale è incredibilmente potente e veloce, pensiamo al motore di ricerca Google o alla mole di informazioni elaborata ad ogni click da Facebook o Linkedin. Gli utenti domestici hanno pertanto a disposizione lo spazio, la velocità, le funzionalità e la potenza di calcolo che in passato erano messe a disposizione solo delle grandi, se non delle grandissime, organizzazioni. Ma la cosa ancor più sorprendente è che se è vera l’ultima affermazione, non è più vero il contrario: sono adesso le grandi organizzazioni a non poter tener testa alle capacità che queste architetture ci mettono ogni giorno a disposizione.
Attualmente infatti, nel mondo enterprise, le sole a poter beneficiare appieno di questa rivoluzione che tutti stiamo vivendo sono le piccole aziende, per le quali l’esternalizzazione della propria infrastruttura informatica risulta più vantaggiosa e, al tempo stesso, i rischi e le problematiche ad essa connesse risultano assai più accettabili. Il mondo della grande azienda  rimane ancora estremamente scettico, spesso a ragione, di fronte agli attuali limiti di queste piattaforme web e delle architetture cloud in genere. Limiti che partono dall’assenza di una completa garanzia di servizio, per arrivare alla scarsa possibilità di controllo sulle transazioni, senza considerare i temi di responsabilità nei confronti di informazioni aziendali riservate che, volenti o nolenti, sono difficili se non impossibili da affidare ad una generica “nuvola” sperduta chissà dove. E così, nonostante sia evidente a tutti che nella competizione globale il vero vantaggio si basi sempre più sull’innovazione, i grandi sono spesso costretti a rimanere al palo. Daryl Plummer, vice presidente di Gartner, ha dichiarato che su 10 dollari spesi dalle aziende in tecnologia, 8 vengono investiti per manutenzione di sistemi, invece che per innovare. Gli fa eco Andrew Erlichson, CEO e co-fondatore di Phanfare, software house che ha spostato ormai tutte le proprie attività interne on the cloud: “Our differentiator is software development; it’s not storing data on generic disks”Anche in questo caso si preferisce mantenere la sintetica e perentoria versione inglese della citazione. In italiano potrebbe suonare come “La nostra capacità di differnziarsi si basa sullo sviluppo di software; non sul memorizzare dati su dischi”
E così diventa impossibile fronteggiare le superpotenze del web nel progettare un sito, una intranet, un sistema interno o semplicemente nello scegliere un software proprietario per rispondere a requisiti di business. Anche a fronte di investimenti ingenti, la capacità di rilasciare continuamente nuove funzionalità e nuove applicazioni del mondo della rete non è sopportabile per un’organizzazione. Il web cambia continuamente e così le sue mode, tempi, paradigmi. Cambiano velocemente le modalità di fruizione dei media e, cosa ancor più rilevante, cambiano velocemente le abitudini, le aspettative e le modalità di interazione sociale degli utenti stessi.

Utenti e (internet)dipendenti: le implicazioni organizzative

Diventa evidente pertanto che aldilà di una possibilie arretratezza tecnologica e di un preoccupante buco di innovazione, questa separazione sempre più netta tra i sistemi informativi aziendali ed il web che tutti i giorni i dipendenti delle stesse aziende vivono da casa, porta con sè nel medio termine ancor più rilevanti implicazioni organizzative. Non è forse lecito che un dipendente di una grande azienda si chieda come sia possibile che i sistemi web su cui lavora non siano nativamente compatibili e navigabili con il suo iPhone, mentre gran parte delle piattaforme per blog (gratuite) che utilizza tutti i giorni sul web lo sono? Non è forse naturale che agli occhi di un dipendente, abituato alla naturalezza dell’interfaccia, alla velocità e alla precisione della posta di Gmail, le performance dei sistemi della propria azienda paiano robotici dinosauri software? Il rischio è che la credibilità stessa dell’organizzazione venga minata agli occhi dei suoi stessi membri. Il pericolo diventa ancor più evidente se si prova ad alzare ancora un po’ lo sguardo e si cominciano a considerare le modalità di lavoro, di pensiero e di collaborazione a cui le piattaforme web ed una vita sempre più connessa ci stanno abituando. Abitudini che, è bene sottolinearlo, non sono forzati stravolgimenti del “normale” processo, dell’istituzionale modo di operare, ma che sono anzi il risultato di una tecnologia che solo ora, grazie al web, diventa piena realizzazione degli ideali alla base di quel Memex di cui si è parlato in apertura. Sistemi che sono estensione e potenziamento di strutture mentali e di modalità di interazione, azione, lavoro, connaturate alla natura stessa dell’essere umano. Di fronte a tutto ciò appare drammatico pensare che in virtù di policy, vincoli, paure e rigidi processi l’organizzazione non sia in grado di seguire l’evoluzione inarrestabile dei membri stessi che la compongono.

Cercando di riacciuffare la nuvola

La rivoluzione tecnologica legata alle nuove frontiere del web ha influenzato in modo radicale la nostra società, la nostra cultura, le nostre abitudini. Nel delineare possibilità, scenari ed ipotesi è pertanto impossibile scindere la soluzione tecnologica da quella umana, culturale, organizzativa. Se è vero che il medium è il messaggio, è altrettanto vero che il messaggio stesso rappresenta il nostro modo di pensare, di agire, di vivere. E, perchè no, di lavorare. Il tipo di software che un’azienda utilizza è omogeneo alla cultura organizzativa di cui l’azienda vive. E così se la qualità dei software domestici ha superato quella dei software aziendali, è evidente che sono le strutture organizzative stesse ad essere arretrate rispetto ai modi di vivere e di lavorare delle nuove generazioni di dipendenti. Ma le nubi non sono poi così grigie e le aziende hanno tutte le possibilità per colmare il gap. Orientandosi, ad esempio, su politiche sostenibili di utilizzo del software open source, in modo da riuscire ad utilizzare quegli stessi software aperti ed in continua evoluzione utilizzati da milioni di utenti nel mondo. Sfruttarli in maniera sostenibile, appunto, perchè le aziende hanno l’opportunità di  sottoscrivere apposite versioni enterprise di questi software, dotate di consulenza dedicata, supporto e garanzia. Ma il gap deve essere colmato anche a livello organizzativo, adottando modelli di gestione delle relazioni interne, della comunicazione e, perchè no, del personale più vicini a quegli stessi paradigmi social che divengono ogni giorno più familiari ed integrati nella vita di tutti noi. Fino ad arrivare a soluzioni tecnologico-organizzative estreme: Serena Software negli scorsi anni ha dato vita ad un progetto innovativo quanto radicale, sostituendo la tradizionale piattaforma intranet con Facebook. Ai dipendenti è stato chiesto di dedicare un’ora di ogni venerdì alla cura del proprio profilo e tutti sono stati incoraggiati ad inserire foto ed informazioni che rappresentassero i propri interessi e una parte della propria personalità. Così l’amministratore delegato si è fotografato vestito da golfista ed un altro dirigente da motociclista. Il fatto che Facebook risulti aperto anche all’esterno, alla totalità degli utenti del web, è visto come un’occasione, non come un pericolo: il top management della società utilizza il proprio profilo per pubblicare comunicati stampa e survey, così che giornalisti e clienti possano accedervi senza problemi. Un caso tanto estremo quanto irreplicabile e, proprio per questo, paradigmatico: alla base di uno slancio innovativo non vi sono solo azzeccate scelte tecnologiche, ma coraggiose scelte organizzative.

Questo articolo è già apparso su Persone & Conoscenze.

- ha scritto 6 contributi su Bloom!.

Sono specializzato in Knowledge Management, e mi interesso in particolare agli impatti del web sulle organizzazioni. Dopo aver lavorato nella direzione ICT di una grande multinazionale, occupandomi di architetture applicative, collaboration e Knowledge Management, sono adesso User Interaction Designer e Product Owner del catalogo web di una realtà italiana fortemente orientata all'innovazione. Tengo un blog su temi legati al web e al Knowledge Managament (http://www.damianoceccarelli.net). Altre informazioni su ciò che faccio le potete trovare sul mio profilo Linkedin: http://it.linkedin.com/in/damianoceccarelli

© 2024 Bloom!. Powered by WordPress.

Made by TOCGRS from the great Daily Edition Theme