IL MODO DEI CLUSTER
C’è
un certo fermento, in rete e non, per le potenzialità offerte dell’architettura
combinata in modo diffuso di macchine calcolatrici. Sia Sun Networks che altri
produttori, stanno pensando, e in alcuni casi si vedono dei prototipi già
in funzione (esempio N1), a integrare la potenza di calcolo di diversi PC impostando
modelli a cluster.
In sintesi si tratta di utilizzare più computer per distribuire il lavoro
di elaborazione fra loro ma generare un risultato comune. In alternativa all’utilizzo
di Mainframe potenti ma costosissimi.
Esempi eclatanti di applicazione si hanno già nel settore delle previsioni
metereologiche dove è necessaria una enorme potenza di calcolo per fare
delle stime su milioni di variabili (il classico esempio del battito d’ala
della farfalla a Tokio che si inserisce fra le cause scatenanti di un ciclone
a Cuba suona familiare agli apologeti del sistemismo estremo).
Molto più semplicemente l’applicazione del cluster di calcolo alle
previsioni metereologiche è frutto dell’intelligenza progettuale
di alcuni programmatori universitari (MIT soprattutto) che per carenza di risorse
non possono permettersi di utilizzare grandi macchine di calcolo, necessarie
a fare previsioni su milioni di variabili.
Uno stratagemma che sta generando interesse e soprattutto implica sviluppi interessanti:
mutando di fatto l’atteggiamento delle grandi software farm.
Riassegnando le risorse si spalma il lavoro su più PC e si contrae la
possibilità di errore. Sta poi all’abilità del sistemista
di rete rendere omogeneo il calcolo e affidabile il risultato.
Immediato il risvolto sulla rete delle reti. Non mi sembra azzardato infatti
ipotizzare che fra un po’ di tempo cominceremo a trovare on line strumenti
di lavoro cluster oriented. Basati sulla articolazione concettuale del calcolo
diffuso su più PC.
Nascono però alcuni interrogativi fra cui la stessa riallocazione della
risorsa Internet.
Effettivamente non mi sembra azzardato pensare a una ristrutturazione in ottica
cluster di alcuni servizi o “ambienti” del web. In pratica con l’avvento
dell’architettura a cluster di calcolo non vedo quale difficoltà
ci possano essere per implementare modelli di simulazione, diffusi poi in rete,
in grado di predire i risultati delle partite di calcio o stime sul business
del futuro. Genericamente è probabile che migliaia di PC, a distanza
di migliaia di chilometri, facciano calcoli per risolvere problemi che agli
utenti di quei PC non servono a nulla.
Si potrebbe configurare un mondo web votato al calcolo clusterizzato (azzardo
un temine mio) piuttosto che al servizio degli utenti. Nuovi scenari di business
per chiunque con un po’ di cervello voglia utilizzare la “forza”
a costo zero di milioni di PC per scopi indecifrabili all’utente PC connesso
con ADSL. Si tratta di chiedere l’assenso all’utilizzo del computer
di casa, ufficio o scuola e, istallando il software giusto, condividere un calcolo
scomposto. Manovra che è troppo facile far fare ai milioni di internauti
sparsi per il mondo. Forse in alcuni più estremi alcuni potrebbe non
chiedere il permesso ma scaricarti pezzi di software da elaborare.
Esistono già programmi affini al concetto di cluster ma con strutture
differenti. Il progetto SETI at HOME per esempio è una risorsa condivisa
per la ricerca di vita extraterrestre. Si accede al sito, si scarica l’applicativo
e automaticamente il proprio PC scandaglia i dati provenienti da rilevazioni
basate sulla radiazione cosmica di fondo per vedere se ci sono stati inviati
segnali da altri mondi.
Ad ogni PC viene assegnato un certo quantitativo di dati da processare ogni
tot d tempo. Scaricare i dati da elaborare con un modem a 56k implica non più
di 6 secondi (figuriamoci cosa si può fare con la ADSL). E’ un
sistema poco raffinato e un po’ macchinoso, perché devi cliccare
almeno due o tre volte fra le pagine, ma consente di far lavorare su uno stesso
obiettivo migliaia di PC sparsi per il mondo semplicemente invitandoti a farlo.
Il sistema SETI è un primo passo concettuale verso il cluster di calcolo
risalente alla fine degli anni novanta e mi sembra che la dica lunga sulle possibilità
di applicazione e sulla generazione di scenari alternativi al criterio di utenza
del web fino ad ora dominante.
Si è spesso parlato di cluster e modelli di cluster anche in riferimento
ad aziende, operanti su uno stesso territorio, con vocazione produttiva affine.
Con la definizione di distretto industriale si tende ad identificare un cluster
di aziende che cooperano e nello stesso tempo sono in concorrenza, con metodi
e criteri diversi, insistendo principalmente in un area produttiva riconoscibile
all’esterno.
Il distretto può essere un archetipo di cluster a livello materiale ma
pensiamo alla rete informatica. Aggregare aziende a livello di condivisione
di compiti, con architetture software basate su sistemi a cluster significherebbe
distribuire il lavoro su più punti di elaborazione in strutture differenti.
Naturalmente penso esclusivamente ad architetture basate sullo sfruttamento
dei PC aziendali per elaborare calcoli complessi che servano alle singole aziende.
Un esempio di clusterizzazione potrebbe essere rappresentato da un programma
per contabilità distribuito fra le piccole imprese di un distretto industriale.
A scapito della privacy forse ma a vantaggio di una elaborazione condivisa che
sfrutti le variabili e le costanti di tutti gli aderenti e rimandi a risultati
condivisibili. Ad esempio l’elaborazione di una strategia omogenea per
abbassare i costi di produzione aggregando i fornitori. La differenza con le
dinamiche distrettuali “fisiche” di adesso risiederebbe esclusivamente
nel fatto che una impostazione a cluster con calcolo multiplo che sfrutti i
PC delle aziende aggregate potrebbe trovare la soluzione in tempi brevissimi
e in automatico senza il ricorso alla valutazione umana.
Per assurdo si potrebbe far lavorare solo le macchine su specifici aspetti della
gestione ma anche della strategia, perché no.
Ancora una sostrato di elaboratori operativi come cluster di calcolo in automatico,
senza il controllo del demiurgo umano, potrebbe permettere la validazione di
procedure alternative a quelle adottate fin ora incidendo fortemente sull’approvvigionamento,
come l’esempio di prima, ma anche su vendita, contabilità analitica,
controllo qualità diffuso.
Clusterizzare un distretto industriale, nel senso del software, non è
così lontano dalla realtà come può sembrare. Si potrebbe
anche proporre.
Implicazioni negative per la verità ci sono: privacy interna ed esterna
(rivolta a tutti gli stakeholders), aggregazione forzata verso una sola azienda
(il passo dalla pianificazione strategica di gruppo alla fusione è breve)
e non ultima una certa limitazione del business (tutti i prodotti del distretti,
con il distretto, non oltre il distretto). Pericoli ovvi e dietro l’angolo
ma evitabili con la necessaria cautela e con la progettazione di piattaforme
tarate sulle effettive esigenze.
Per ora mi fermo al distretto ma l’ottica del cluster può andare
oltre, come tutti intuiamo. Fino ad una colossale clusterizzazione dei PC in
rete. Scenario da capogiro in cui le macchine veramente potrebbero cominciare
a lavorare non più per noi ma al posto nostro.
Bibliografia.
Jeremy Rifkin, L’era dell’accesso,
Mondadori, 2001.
Emanuele Fontana, Distretti industriali, DPS, 2002.
Arnaldo Camuffo, Duelli organizzativi, da Sviluppo e Organizzazione
n. 293 set/ott 2002