BLOOM! frammenti di organizzazione
Pubblicato in data: 26/11/2001

PUO' L'ECONOMIA AVVALERSI DELLA SPERIMENTAZIONE IN LABORATORIO?

di Sarah Smyth e Claudio Perfetto

Abstract

Uno dei temi di maggior attualità che impegna i ricercatori in economia è l'economia artificiale, che consiste nello studio dei processi economici attraverso la simulazione al computer realizzata con automi cellulari. Questa è un'economia che potremmo definire " in vitro ", simulata completamente all'interno del computer.
E' possibile, ci domandiamo, realizzare un'economia artificiale " in vivo " ? Se possibile, come ?
Il nostro approccio all'economia artificiale, illustrato nel presente articolo, riguarda lo studio dei sistemi basati sulla tecnologia dell'informazione (come i sistemi EDP, ad esempio) che manifestano un comportamento caratteristico dei sistemi economici.
I sistemi EDP potrebbero, a nostro avviso, realizzare l'economia artificiale " in vivo ", attraverso la simulazione dei processi economici con processi informatici.


Introduzione

Questo articolo trae origine dalla tesi di laurea Modelli economici per la valutazione delle prestazioni degli elaboratori elettronici, discussa alla Facoltà di Economia dell'Università Commerciale "Luigi Bocconi" di Milano nell'Anno Accademico 1997/1998. Lo studio ha provato che i processi informatici (relativi all'elaborazione dei dati) sono caratterizzati dagli stessi meccanismi che regolano i processi economici, e sono governati dalle stesse leggi che governano i processi economici. Tali risultati incoraggiano ad esplorare la reale possibilità che l'Economia (proprio come la Fisica, la Biologia, ed altre scienze sperimentali) possa avvalersi della sperimentazione in laboratorio. Ciò potrebbe essere realizzato simulando i processi economici con i processi informatici. In quest'articolo verranno riassunti i risultati della tesi sopra citata, e verranno descritti, sinteticamente, i passaggi fondamentali attraverso i quali sono stati derivati. Dopodichè, verrà analizzata la differenza tra la sperimentazione mediante la simulazione al computer dei processi economici (la tecnica oggi usata) e la sperimentazione col computer dei processi economici simulati con processi informatici (la tecnica qui ipotizzata).


L'elaborazione dei dati basata sul servizio

Il servizio è un processo in cui un customer interagisce con un server per l'esecuzione di una richiesta. Solitamente, molte richieste di servizio competono per poche risorse (server), rendendo tali risorse scarse. Il risultato è che si formano delle code di richieste davanti alle risorse.

L'elaborazione dei dati viene assimilata ad un servizio. Il customer può essere un utente al terminale, o un job, o una transazione; il server è una risorsa del sistema di elaborazione: l'unità centrale di elaborazione (CPU), oppure un disco (unità di Input/Output).

In figura 1 è schematizzato il processo dell'elaborazione dati, la cui descrizione viene fornita dalla teoria delle code, una branca della matematica statistica.


Figura 1. L'elaborazione dei dati viene assimi-
lata ad un servizio. Il servizio è un processo ca-
ratterizzato dalla coda. L'elaborazione dei dati
viene dunque descritta con la teoria delle code.

La freccia che in figura 1 fa ritorno sulle "richieste" sta ad indicare che una richiesta viene soddisfatta dal server non in una fase sola (cosa che accadrebbe se la coda fosse disciplinata secondo la modalità FIFO, cioè "First-In-First-Out"); bensì viene soddisfatta in più fasi e, di conseguenza, subisce un riaccodamento (è questo il caso in cui la coda è disciplinata secondo la modalità Round-Robin. Secondo tale modalità il server dedica un po' di tempo per soddisfare una richiesta, un altro po' di tempo per soddisfare un'altra richiesta, e così via, facendo ruotare le richieste, riaccodandole. La disciplina Round-Robin traduce in termini operativi il concetto di "time sharing", sul quale si basa la tecnica elaborativa della multiprogrammazione).

Un altro approccio comunemente impiegato dagli analisti di performance dei computer, ed anche più diffuso, è la teoria operazionale (così chiamata perchè fa riferimento a grandezze che vengono definite in maniera operazionale, cioè in termini dei procedimenti sperimentali per mezzo dei quali vengono misurate). Questa teoria utilizza gli stessi concetti di base, e perviene alle stesse conclusioni, della teoria delle code. Rispetto a questa, la teoria operazionale (che si applica in modo specifico ai sistemi di elaborazione) presenta il vantaggio di essere più semplice e più maneggevole. Difatti, essa ha a che fare con delle medie, piuttosto che con delle distribuzioni: il risultato è che con poche grandezze misurabili è possibile ricavare le leggi fondamentali che governano il processo dell'elaborazione dei dati. Non sarà necessario esaminare qui nei dettagli tali leggi, ma vi daremo solo un'occhiata.


Figura 2. Le leggi fondamentali dell'ela-
borazione dati.

N è la popolazione dei customer; Xk è il throughput "locale" del server k-esimo (è la quantità di richieste che il server k-esimo riesce ad evadere nell'intervallo di tempo di misurazione); Vk è il numero di volte che un customer richiede servizio al server k-esimo; X è il throughput globale del sistema di elaborazione (è la quantità di lavoro utile eseguito dal sistema nell'intervallo di tempo di misurazione; tale quantità di lavoro coincide con la frequenza con cui i customer lasciano il sistema); Dk è il tempo di servizio del server k-esimo; Uk è l'utilizzo del generico server k-esimo; R è il tempo di risposta (è il tempo che il customer spende per vedere completata la sua richiesta); Z è il think time dell'utente a terminale (è il tempo intercorrente tra l'immissione di un comando e l'altro).

Le quattro equazioni rappresentano le leggi fondamentali dell'elaborazione dati. Esse sono: la legge del tempo di risposta a terminale (la prima equazione sulla sinistra); la legge dell'utilizzo (la seconda equazione sulla destra); la legge del flusso forzato (la terza equazione sulla sinistra); la legge di Little (la quarta equazione sulla destra).

La legge del tempo di risposta e la legge dell'utilizzo possono essere ricavate dalla legge di Little (legge che prende il nome dallo studioso che per primo nel 1961 la formulò). La legge di Little si applica a livello locale di singolo server, ed a livello globale di intero sistema (inteso come insieme costituito da più server). Il legame tra questi due punti di vista (locale e globale) è rappresentato dalla legge del flusso forzato, la quale afferma che i flussi (throughput) in tutte le parti del sistema devono essere tra loro proporzionali.

In sintesi: l'elaborazione dei dati è un processo assimilato ad un servizio; il servizio è caratterizzato dalla coda, che si forma a causa della scarsità di risorse; l'elaborazione dei dati viene tradizionalmente descritta con la teoria delle code (o con teorie basate sul concetto di "coda").

A questo punto occorre fare una riflessione. Le teorie tradizionali che descrivono l'elaborazione dei dati analizzano i processi elaborativi dal punto di vista microscopico, e lasciano in ombra la prospettiva macroscopica del mondo EDP in cui tali processi si sviluppano. Eppure, la visione del mondo EDP corrispondente alla nostra esperienza sensibile ci mostra utenti che lavorano, piuttosto che customer che vengono serviti; osserviamo una collocazione spaziale degli utenti distribuita, invece che disposta in code; ci sono delle macchine che vengono utilizzate per produrre (dei certificati, ad esempio), piuttosto che server che danno servizio. Inoltre la meccanica dei processi viene influenzata dalla logica degli agenti che prendono parte ai processi. Vi è la logica dell'utente (che è incentivato o disincentivato a lavorare, a seconda di quanto venga gratificato in termini di tempo di risposta); vi è la logica del computer (il Sistema Operativo, che decide chi e quanto far lavorare, sulla base degli obiettivi fissati dall'Organizzazione EDP); infine, vi è la logica dell'Organizzazione EDP, ovvero del Management EDP (che deve pilotare la crescita informatica sulla base delle previsioni della domanda di transazioni degli utenti). Questa visione macroscopica del mondo EDP presenta analogie così strette con il mondo macroeconomico, che viene naturale domandarsi se la teoria economica della produzione non possa applicarsi anche al mondo EDP. Mettiamo a fuoco questa visione economica del mondo EDP.


L'elaborazione dei dati basata sulla produzione

La produzione è un processo in cui le risorse (come lavoro e capitale) vengono aggregate per realizzare una data quantità di output. A causa della scarsità di risorse, la produzione è soggetta a rendimenti decrescenti. Vediamo in che modo l'elaborazione dei dati può essere assimilata al processo di produzione.

L'utente che lavora al terminale non ha l'elaboratore fisico tutto per sè, ma ne utilizza una quota parte (ci riferiamo, in particolare, ai grandi elaboratori, i cosiddetti "mainframe"). Più sarà alto il numero di utenti, più sarà grande il numero di parti in cui l'elaboratore verrà diviso (la divisione è una "divisione logica", e viene effettuata dal Sistema Operativo, la logica di controllo dell'elaboratore). In pratica, è come se ogni utente utilizzasse tutto per sè un elaboratore logico, che è una porzione dell'elaboratore fisico (è la tecnica della multiprogrammazione, basata sul concetto di "time sharing").

La potenza dell'elaboratore logico risulta inferiore a quella dell'elaboratore fisico, e tende a diminuire sempre di più man mano che aumenta il numero di elaboratori logici e, quindi, man mano che aumenta il numero di utenti collegati. Poichè la capacità produttiva di un elaboratore è funzione della sua potenza, ne deriva che quanti più sono gli elaboratori logici, tanto minore è il rendimento di ciascun elaboratore logico: siamo in presenza dei rendimenti decrescenti.

In sintesi: l'utente non è più in coda ad un server fisico (poichè ha un "server logico" tutto per sè), ma beneficia dell'utilizzo, in modo esclusivo, di una macchina logica che, però, è meno potente di quella fisica. Risultato: la coda si è "trasformata" in rendimenti decrescenti (occorre puntualizzare che la "trasformazione" è resa possibile dal passaggio dalla scala temporale microscopica della CPU, che è dell'ordine del miliardesimo di secondo, alla scala temporale macroscopica dell'uomo, che è dell'ordine del secondo. Le due scale sono "distanti" un fattore pari a 109. Grazie a questo fattore 109, che esprime l'elevata velocità della CPU rispetto alla velocità di reazione dell'uomo, si realizza la multiprogrammazione, in base alla quale l'utente sperimenta l'illusione di avere l'elaboratore fisico tutto per sè.)

Nel passare dalla prospettiva del servizio a quella della produzione il customer diviene fattore di produzione lavoro, mentre il server diviene fattore di produzione capitale. Nelle nostre argomentazioni faremo riferimento ai soli fattori lavoro e capitale quando chiameremo in causa la teoria della produzione per eccellenza: la teoria della produzione economica. La figura 3 schematizza il nuovo approccio all'elaborazione dei dati basato sulla teoria della produzione.


Figura 3. L'elaborazione dei dati è soggetta a
rendimenti decrescenti. Poichè i rendimenti de-
crescenti vengono studiati dalla teoria della pro-
duzione, l'elaborazione de dati può essere descrit-
ta con la teoria della produzione.

La freccia che in figura 3 fa ritorno sull'input al capitale sta ad indicare la retroazione. Parleremo della retroazione più diffusamente tra poco (vedi figura 6).

A questo punto domandiamoci: come andrebbe affrontata l'analisi dell'elaborazione dati dal punto di vista della produzione? Per rispondere, osserviamo la figura 4 e seguiamo il percorso in senso orario, come indicato dalle frecce, partendo dalla freccia contrassegnata col numero 1.


Figura 4. La "produzione informatica" è analoga alla produzione economica.

Cosa si intende per "produzione economica" lo sappiamo: è la produzione di beni e servizi. Ma cosa dobbiamo intendere per "produzione informatica"?

Per rispondere alla domanda precedente, osserviamo che l'oggetto di produzione del mondo EDP è il dato. L'insieme dei processi informatici (come la scrittura di un programma, l'esecuzione di un programma, la digitazione dei dati, etc.), costituisce la "produzione dei dati". Ma non è facile misurare la quantità di "dati prodotti" (come misurare la quantità di dati scritti?); perciò, è conveniente far riferimento ad un'entità più facile da misurare: la transazione, il processo che produce il dato. La produzione dei dati si traduce, dunque, in produzione di transazioni. Per "produzione informatica" intendiamo, allora, la "produzione di transazioni".

Nella figura 4 la freccia contrassegnata col numero 4 pone in risalto l'equivalenza tra rendimenti decrescenti e coda. Abbiamo accennato in precedenza a due modalità in base alle quali può venire disciplinata una coda: la modalità FIFO e la modalità Round-Robin. La modalità FIFO è equivalente ad "alti rendimenti e basso tasso di occupazione"; mentre la modalità Round-Robin è equivalente a "bassi rendimenti ed alto tasso di occupazione". La modalità Round-Robin equivale, in pratica, alla condizione della "piena occupazione classica".


La visione economica del mondo EDP

Descriveremo ora in che modo la teoria della produzione può applicarsi all'elaborazione dati. Sulla base delle considerazioni appena sviluppate, in linea di principio, le leggi della produzione dovrebbero valere non solo in un sistema economico, ma anche in un sistema informatico. Chiameremo tale ipotesi "Principio di equivalenza", che enunceremo nel modo seguente: "Le leggi della produzione hanno la stessa forma in tutti i sistemi dove c'è scarsità di risorse".

Le leggi della produzione informatica che ci proponiamo di ricavare, prendendo come modello le leggi della produzione economica, dovranno, evidentemente, coincidere con le leggi fondamentali dell'elaborazione dati riportate in figura 2.

Cominciamo con l'osservare che le transazioni hanno un peso e vengono eseguite dagli utenti, che utilizzano risorse hardware il cui consumo viene misurato in service unit (la metrica delle service unit vale per i grandi computer gestiti dal Sistema Operativo MVS dell'IBM. Per altri Sistemi Operativi potrebbero valere metriche differenti da quella delle service unit. La diversità di metriche non penalizza affatto la generalità delle nostre argomentazioni, le quali si applicano a qualsiasi sistema elaborativo). A questo punto, come illustrato in figura 5, è possibile stabilire una corrispondenza, in termini di analogia, tra le grandezze economiche e le grandezze informatiche.



Figura 5. Analogie tra grandezze economiche e grandezze
informatiche.

Oltre alle corrispondenze illustrate in figura 5 vi sono anche le corrispondenze tra: tasso di interesse e tasso di utilizzo; periodo di produzione e periodo di osservazione; salario e service rate (il service rate è l'indicatore che misura la velocità con cui un customer viene servito).

L'aver individuato la corrispondenza tra le grandezze economiche e quelle informatiche ci aiuta ad intuire la forma delle relazioni che legano le grandezze informatiche tra loro. Così, ad esempio, come la domanda di moneta è direttamente proporzionale alla quantità di beni da acquistare/consumare, così la domanda di service unit risulterà direttamente proporzionale alla quantità di transazioni da eseguire/produrre. Un altro esempio. Come il salario è direttamente proporzionale alla produttività del lavoro, così il service rate risulterà direttamente proporzionale alla produttività dell'utente.

Una volta conosciuta la forma delle relazioni tra le grandezze informatiche, occorre effettuare un passo ulteriore nella comprensione dei processi produttivi informatici. Occorre, cioè, conoscere come funzionano detti processi, il loro meccanismo. Occorre, in altre parole, conoscere in che modo gli agenti informatici interagiscono tra loro. Per questo ci viene in aiuto la corrispondenza tra gli agenti economici (Stato, famiglie ed imprese), e gli agenti informatici (Organizzazione EDP, utenti e computer) tracciata nella figura 4. Analizzando tale corrispondenza, scopriamo che il meccanismo che regola i processi economici ed i processi informatici è il medesimo: la retroazione (feedback). Ad esempio, come le decisioni delle imprese su quanto produrre determinano i redditi delle famiglie, e quindi la loro spesa, che esercita un effetto di retroazione sulle decisioni di produzione; così le decisioni del computer su quante transazioni eseguire determinano il service rate degli utenti, e quindi il loro consumo, che esercita un effetto di retroazione sulle decisioni di produzione del computer. Il meccanismo basato sulle retroazioni che governa sia i processi economici che i processi informatici può essere schematizzato come in figura 6.


Figura 6. I processi economici ed i processi informatici sono
regolati dal medesimo meccanismo basato sulle retroazioni.

Ora che conosciamo: 1) le relazioni tra le grandezze, ovvero la forma delle relazioni; 2) le relazioni tra le relazioni, ovvero il meccanismo; e sapendo 3) che il meccanismo viene catturato dal modello che descrive il processo; possiamo 4) applicare i modelli economici ai processi informatici.

La nostra attenzione si rivolge in modo particolare ai modelli fondamentali della Macroeconomia: il modello del Reddito-Spesa per la determinazione del PIL (ovvero del throughput); il modello IS-LM per la determinazione simultanea del PIL e del tasso di interesse (ovvero del throughput e del tasso di utilizzo); ed il modello della domanda e dell'offerta aggregate per la determinazione simultanea del PIL, del tasso di interesse, del livello di occupazione e del livello dei prezzi (ovvero, del throughput, del tasso di utilizzo, del livello di multiprogrammazione, e del peso delle transazioni). I tre modelli citati sono schematizzati in figura 7.


Figura 7. I modelli macroeconomici fondamentali applicati ai processi informatici.

Il terzo modello, quello della domanda e dell'offerta aggregate, viene ricavato mediante la progressiva estensione dei due modelli precedenti, piuttosto che attraverso l'integrazione con i due modelli. Questo modo di procedere riflette l'approccio sistemico della scienza economica: il sistema è visto come un tutto, piuttosto che come somma di parti.

L'espressione matematica del modello informatico GAMMA (acronimo di Goal Achievement Using Macroeconomic Model Analysis) che descrive la "produzione di transazioni", corrispondente al modello economico della domanda e dell'offerta aggregate, è illustrata in figura 8.



Figura 8. Il modello informatico GAMMA corrispondente al modello eco-
nomico della domanda e dell'offerta aggregate. Le otto equazioni che lo
compongono formano un "blocco unico": nella stretta relazione tra il
(flusso di) capitale (I) ed il lavoro (L) è riconoscibile l'impronta olistica
che caratterizza l'approccio sistemico della scienza economica.

Come abbiamo già fatto in occasione della formulazione delle leggi fondamentali dell'elaborazione dati (vedi figura 2), anche qui non sarà necessario entrare nei dettagli del modello, e ci basterà solo chiarire il significato dei simboli che vi compaiono (i simboli sono quelli comunemente utilizzati nella letteratura economica, e qui assumono il doppio significato informatico ed economico). Q è la quantità di transazioni (PIL reale) eseguite nel periodo di osservazione T0 (periodo di produzione); M0 è la potenza dell'unità centrale di elaborazione (CPU), espressa in termini di service unit al secondo (quantità nominale offerta di moneta); P0 è il peso medio delle transazioni (livello generale dei prezzi); u è il tasso di utilizzo della CPU (tasso di interesse), mentre u0 è il tasso di utilizzo della CPU che il Sistema Operativo ha come riferimento per prendere le decisioni sul numero di utenti che hanno diritto a lavorare; I0 è il numero di terminali interattivi collegati all'elaboratore fisico e rappresenta il numero di elaboratori logici potenziali (investimenti esogeni), mentre I è il numero di terminali interattivi mediamente attivi e rappresenta il numero di elaboratori logici attivi (componente endogena degli investimenti); c è la propensione al consumo degli utenti (propensione al consumo delle famiglie); R è il tempo di risposta del sistema di elaborazione (reciproco del salario reale); W è il service rate espresso in service unit al secondo (salario nominale); L0 è la popolazione potenziale di utenti (forza lavoro abile a lavorare); L è la popolazione di utenti mediamente attiva (forza lavoro occupata).

Nel modello GAMMA la corrispondenza tra tasso di utilizzo e tasso di interesse è solo funzionale e non concettuale; cioè, la grandezza u svolge nei modelli informatici la stessa funzione che il tasso di interesse i svolge nei modelli economici; ma u non significa la stessa cosa di i. Tuttavia, c'è anche un'altra impostazione, in cui u può assumere anche lo stesso significato di i. Non svilupperemo tale impostazione, per non appesantire il modello GAMMA con un formalismo che aggiungerebbe poco sotto il profilo concettuale. Vogliamo, invece, sottolineare che nel modello GAMMA il tasso di utilizzo u coincide con il tasso di occupazione.

Le grandezze con il pedice zero sono grandezze esogene (fissate da chi gestisce il Centro Elaborazione Dati); quelle senza pedice sono grandezze endogene. Le frecce orientate in senso orario riflettono l'azione che il numero medio di utenti attivi L esercita sul throughput Q. Le frecce orientate in senso antiorario riflettono l'azione che il numero di utenti potenziali L0 esercita sul throughput Q. Il modello evidenzia le due retroazioni cui abbiamo accennato in precedenza.

La prima retroazione viene esercitata attraverso il tasso di utilizzo u: quando u<u0 il Sistema Operativo, in presenza di domanda da soddisfare, incrementa di 1 il livello di multiprogrammazione L0, e quindi L, aumentando così il throughput Q, e controllando al tempo stesso che il tempo di risposta R non superi la soglia fissata come obiettivo di servizio (livello di servizio); quando u>u0, per evitare che il tempo di risposta R superi la soglia fissata come obiettivo di servizio, il Sistema Operativo decrementa di 1 il livello di multiprogrammazione L0, e quindi L, riducendo di conseguenza il throughput Q.

La seconda retroazione viene esercitata dal peso P0 delle transazioni, oppure, in modo equivalente, dal tempo di risposta R. Se impostiamo u0=1 (neutralizzando in tal modo il meccanismo automatico di regolazione del throughput gestito dal Sistema Operativo) L0 potrà crescere senza alcun limite. In tal caso, non essendoci il Sistema Operativo a decrementare L0, nel caso sia stata raggiunta la saturazione delle risorse (u=1), non potendo Q aumentare, a parità di P0, il tempo di risposta R aumenterà. In altre parole, all'aumentare della popolazione L, il throughput Q cresce, ma ad un tasso decrescente, per via della retroazione negativa esercitata su Q da R.

Il modello GAMMA contiene le quattro leggi fondamentali dell'elaborazione dati illustrate in figura 2. Per rendersene conto, basta aggregare le variabili, ponendo: X=Q/T0, D=P0/M0. Inoltre, operiamo un cambio di variabili, ponendo: ITOT=I0 (ITOT è il numero totale di terminali interattivi disponibili per la popolazione potenziale L0); IOUT=I0-I (IOUT è il numero di terminali interattivi non attivi a causa di utenti "volontariamente disoccupati").


Figura 9. Le leggi fondamentali dell'elabo-
razione dati contenute nel modello GAMMA.

Nella figura 9 la prima equazione sulla sinistra è la legge del tempo di risposta a terminale, se si identifica ITOT con N ed il rapporto IOUT/X con il think time Z dell'utente; la seconda equazione sulla destra è la legge dell'utilizzo (il pedice k è omesso, poichè siamo nell'ipotesi di considerare una sola risorsa, ovvero una "risorsa aggregata"); la terza equazione sulla sinistra è la domanda di service unit per transazioni (grandezza analoga alla domanda di moneta per transazioni), e coincide con la legge del flusso forzato ponendo Mt=Xk e P0=Vk; infine, la quarta equazione sulla destra è la funzione di occupazione, ovvero la funzione inversa della funzione di produzione, e coincide con la legge di Little se si identifica L (numero di utenti attivi) con N.

La funzione di produzione contiene sia la legge dell'utilizzo, che la legge di Little, che la legge del flusso forzato, e può essere espressa matematicamente nella forma illustrata dall'equazione sulla destra della figura 10. La variabile LTOT è la popolazione totale e si identifica con L0; la variabile LOUT è uguale a L0-L e rappresenta la popolazione di utenti non attivi ("volontariamente disoccupati").


Figura 10. Equazioni ricavate dal modello GAMMA:
domanda ed offerta di transazioni.

La prima equazione sulla sinistra della figura 10 rappresenta la curva di domanda di transazioni degli utenti; la seconda equazione rappresenta la curva di offerta di transazioni del computer. La rappresentazione grafica dell'interazione tra la curva di domanda e la curva di offerta è illustrata in figura 11.


Figura 11. L'interazione tra la domanda e l'offerta
nel modello GAMMA.

La grandezza X1* è il livello potenziale di throughput, ovvero il livello di produzione massimo ottenibile in un dato periodo (T0), con la tecnologia di cui si dispone (M0) e per uno specifico carico elaborativo (P0). Il valore X1* viene raggiunto quando si realizza la piena occupazione delle risorse (IOUT=LOUT=0, u=1).

Oltre alle due equazioni riportate in figura 10, che descrivono il flusso delle transazioni, vi sono altre 2 equazioni, che descrivono la variazione del flusso delle transazioni. L'insieme delle quattro equazioni illustrate in figura 12 costituisce il modello dinamico della crescita del throughput.


Figura 12. Il modello dinamico della crescita
del throughput.

La terza equazione sulla sinistra della figura 12 esprime il principio del moltiplicatore: la variazione DI del numero di terminali interattivi attivi induce una variazione DQ nella quantità di transazioni elaborate secondo un coefficiente moltiplicativo (moltiplicatore) pari a T/R (>1).
La quarta equazione sulla destra della figura 12 esprime il principio dell'acceleratore: la variazione DK (numero di processori) della potenza dell'elaboratore induce una variazione DQ* nella quantità potenziale di transazioni elaborabili secondo un coefficiente moltiplicativo (acceleratore) pari a T/D (T/D>T/R). Il principio dell'acceleratore entra in gioco in occasione del capacity planning, quando l'EDP manager deve valutare il fabbisogno di risorse sulla stima della quantità domandata di transazioni degli utenti.

In letteratura la grandezza R è il tempo di risposta, e la grandezza D è la domanda di servizio. Nei nostri modelli i fattori 1/R e 1/D rappresentano, rispettivamente, la produttività del lavoro e la produttività del capitale. La figura 13 illustra graficamente il modello dinamico della crescita del throughput.


Figura 13. Rappresentazione grafica del modello dinamico della crescita del thro-
ughput. Il modello 1) è il modello informatico equivalente al modello economico
della domanda e dell'offerta aggregate; il modello 2) è il modello equivalente al
modello economico del moltiplicatore; il modello 3) è il modello equivalente al mo-
dello economico dell'acceleratore.

Commentiamo il modello dinamico della crescita del throughput.

Partiamo dal modello 1), il modello informatico GAMMA, equivalente al modello economico della domanda e dell'offerta aggregata. L'incremento del throughput da X1 a X1* è determinato esclusivamente dal lato della domanda e deriva dall'incremento della componente endogena I dei terminali interattivi attivi (in altre parole, la grandezza IOUT vale zero in X1*. Ciò significa che il think time degli utenti è sceso a zero, ovvero, in termini equivalenti, gli utenti lavorano più velocemente.) Il valore X1* rappresenta il throughput potenziale, cioè il massimo throughput ottenibile, ceteris paribus: in corrispondenza del valore X1* le risorse si saturano. Un eventuale incremento della domanda di transazioni farebbe innalzare soltanto il tempo di risposta, senza apportare alcun incremento nella quantità di throughput, dal momento che è stata raggiunta la saturazione di risorse. Nell'ipotesi che il peso delle transazioni ed il service rate rimangano costanti (da cui deriva che il tempo di risposta si mantiene costante), lo spostamento verso destra della curva di domanda del modello 1) trova riflesso nello spostamento verso l'alto della curva inclinata positivamente del modello 2). L'incremento DI della componente endogena I dei terminali interattivi induce un incremento DQ (secondo il moltiplicatore T/R) nella quantità di transazioni eseguite nel periodo T. In base al modello 2) non si potrà ottenere alcun ulteriore incremento di transazioni Q, poichè non potrà verificarsi alcun incremento DI, dal momento che è stato raggiunto il pieno utilizzo delle risorse (u=1, assenza di spare capacity). Il modello 2) è sostanzialmente equivalente al modello 1), con la differenza che quest'ultimo dà indicazioni anche su cosa accadrebbe al tempo di risposta nel caso dovesse aumentare la domanda di transazioni, ceteris paribus. L'incremento delle transazioni Q potrà realizzarsi soltanto attraverso l'ampliamento della capacità produttiva. Passiamo, così, dal modello 2) al modello 3). In base alle previsioni di crescita del throughput (la crescita può essere distinta in tre componenti: crescita fisiologica, crescita indotta e crescita pianificata), ottenuta ricorrendo all'analisi di trend storici, si stima il fabbisogno di risorse necessarie a soddisfare la domanda per un arco di tempo specifico. Attraverso l'incremento della quantità di hardware (cioè, nella nostra ipotesi semplificata di considerare la sola risorsa CPU, attraverso l'incremento di potenza dell'elaboratore, ottenuta mediante l'aggiunta di uno o più "motori", come si dice in gergo) il nuovo throughput potenziale corrisponde al valore Q2*. L'espansione della capacità produttiva potenziale crea della nuova spare capacity. Grazie alla spare capacity, la curva di domanda del modello 1) potrà continuare a spostarsi verso destra, senza far aumentare il tempo di risposta; mente la curva obliqua del modello 2) potrà continuare a spostarsi verso l'alto, mantenendo costante la sua inclinazione (ciò equivale a dire che il tempo di risposta si mantiene costante). In sintesi: il modello dinamico della crescita del throughput si esprime attraverso l'interazione ciclica moltiplicatore-acceleratore-moltiplicatore.

Il modello dinamico della crescita del throughput è l'ultimo modello analitico che volevamo descrivere. A questo punto, puo' essere utile riassumere i passaggi sin qui sviluppati.

Siamo partiti osservando che a livello microscopico, utilizzando la scala temporale della CPU, che è dell'ordine del miliardesimo di secondo, si forma una coda di richieste dinanzi al server-CPU. Osservando il fenomeno sempre dal punto di vista microscopico, ma utilizzando la scala temporale dell'uomo, che è dell'ordine del secondo, ci siamo resi conto che la coda è equivalente ai rendimenti decrescenti del capitale-CPU. Passando ad osservare, poi, il sistema elaborativo al livello macroscopico, abbiamo notato che esistono forti analogie su come vengono gestiti i problemi economici e come vengono gestiti i problemi informatici relativi all'elaborazione dei dati. Abbiamo riconosciuto che la causa dei problemi per entrambi gli ambienti risiede nella scarsità di risorse (da cui hanno origine sia la coda che i rendimenti decrescenti); quindi, abbiamo ipotizzato che la teoria economica della produzione si potesse applicare anche ai processi elaborativi informatici. Nasce da questa ipotesi la nostra "visione economica del mondo EDP". La corrispondenza in termini di analogia tra le grandezze economiche e le grandezze informatiche, ed il comune meccanismo basato sulle retroazioni che caratterizza i processi economici ed i processi informatici ci hanno consentito di applicare i modelli macroeconomici fondamentali ai processi informatici. Abbiamo così dedotto le leggi fondamentali dell'elaborazione dati, basandoci su concetti, strumenti e metodi economici.

Passiamo ora a sviluppare l'altro argomento: la sperimentazione in laboratorio dell'Economia.

E' possibile la sperimentazione in laboratorio dell'Economia?

Una delle definizioni dell'Economia è quella di "scienza che studia cosa, come e per chi produrre". Il suo oggetto di studio è la produzione, le cui caratteristiche vengono descritte e spiegate da una teoria (la teoria della produzione, appunto).

La teoria è una sorta di mappa che traccia gli aspetti fondamentali del paesaggio. Sebbene la mappa non sia il paesaggio, tuttavia, se la teoria è adeguata, è un valido aiuto alla comprensione dell'oggetto. La teoria trova applicazione anche in tecniche di simulazione (la simulazione dell'Economia di uno Stato, ad esempio) per costruire modelli con i quali poter prevedere le conseguenze che derivano da determinate scelte (l'effetto di decisioni di politica economica, ad esempio). La simulazione, per via della grande quantità di dati che può movimentare, viene realizzata di solito con programmi eseguibili al computer.

Sorge a questo punto la domanda: come si capisce se una simulazione è corretta? Quali sono i criteri per validare i modelli quando si usano i parametri reali? (è questo il significato del punto di domanda posto al fianco della freccia sulla sinistra della figura 14).


Figura 14. Simulazione al computer dei processi economici ("Economia Virtuale").

Se, da un lato, la simulazione è un ottimo strumento per validare l'efficacia delle scelte, dall'altro lato, non può essere utilizzata per validare la teoria sulla quale la simulazione stessa si basa. Questa incertezza sulla validità della teoria si propaga anche sulle scelte la cui efficacia dovrebbe essere validata proprio sulla base della teoria in oggetto.

Qui entra in gioco il nostro modello di simulazione applicato alla produzione: si potrebbe verificare la validità delle ipotesi alla base di una teoria economica, ricorrendo alla sperimentazione in laboratorio dell'Economia. Vediamo come.

Abbiamo mostrato che i processi informatici sono regolati dagli stessi meccanismi che regolano i processi economici, e sono governati dalle stesse leggi che governano i processi economici. Perciò, possiamo affermare che un processo informatico è equivalente ad un processo economico.

L'equivalenza rende legittima la sostituzione di un processo economico con un processo informatico; in altre parole, un processo economico può essere simulato con un processo informatico. La simulazione di cui stiamo parlando ora si colloca ad un livello differente rispetto alla simulazione di cui abbiamo parlato prima. Potremmo chiamare il primo tipo di simulazione "Economia Virtuale" (i programmi simulano i processi economici al computer); mentre potremmo chiamare il secondo tipo di simulazione "Economia Artificiale" (il computer simula le funzioni dell'impresa: una simulazione analoga a quella che si può realizzare nel campo dell'Intelligenza Artificiale, in cui il computer simula le funzioni del cervello).


Figura 15. Simulazione col computer dei processi economici ("Economia Artificiale").

Il secondo tipo di simulazione (vedi figura 15) dovrebbe essere in grado non solo di validare l'efficacia delle scelte, ma anche di sottoporre a verifica sperimentale la teoria economica: il mondo EDP costituirebbe una sorta di modello in scala del mondo economico.

Termina qui la nostra descrizione su come applicare la teoria economica della produzione all'elaborazione dei dati. Passiamo, quindi, alle conclusioni.


Conclusioni

Le considerazioni sviluppate in quest'articolo possono trovare applicazione in Informatica e in Economia. Vediamo come.

Informatica. Nel corso di qualche decennio i costi del capitale-computer sono calati notevolmente, e ciò ha contribuito, almeno in parte, a far calare l'interesse verso la performance evaluation. D'altro canto, il costo del lavoro-utente si è mantenuto ai livelli di risorsa pregiata, e questo è un buon motivo per mantenere alta l'attenzione verso la performance evaluation. Difatti, come abbiamo visto, la produttività del capitale (che entra in gioco nella curva di offerta di transazioni) influenza in modo determinante la produttività del lavoro (che entra in gioco nella curva di domanda di transazioni). Di conseguenza, per puntare ad ottenere un favorevole rapporto costo/prestazioni, soprattutto per la risorsa pregiata lavoro, diventa importante il supporto di una metodologia (come quella qui descritta) che sia in grado di analizzare le interazioni tra computer ed utenti nei termini della produzione. La teoria della produzione dà risalto al ruolo giocato da ogni singola grandezza (ciò è evidente nel formalismo del modello GAMMA), agevolando, quindi, la comprensione dei processi elaborativi. Non è sufficiente, infatti, conoscere soltanto, ad esempio, come varia la produttività X dell'utente al variare del tempo di risposta R (varia, come abbiamo visto, in relazione inversa); ma anche perchè varia come varia (perchè il tempo di risposta è per definizione l'inverso della produttività del lavoro. Proviamo quanto detto con un esempio. Supponiamo che la produttività di un operaio sia di 1 auto all'anno, cioè di 1/12 di auto al mese. Dal momento che il salario annuale dell'operaio corrisponde al valore dell'auto che egli produce in un anno, il tempo che l'operaio dovrà attendere per compare l'auto, ovvero il "tempo di risposta", è di 12 mesi, esattamente l'inverso della produttività mensile dell'operaio.) Vediamo più da vicino in che modo il miglioramento della produttività del capitale può migliorare la produttività del lavoro. Il legame tra la produttività dell'utente ed il tempo di risposta viene stabilito attraverso il "salario reale" dell'utente. Più precisamente: mentre tra la produttività dell'utente ed il "salario reale" W/P sussiste una relazione diretta, tra il "salario reale" ed il tempo di risposta R sussiste invece una relazione inversa. La relazione diretta tra la produttività del lavoro ed il "salario reale" W/P rimanda alla relazione diretta tra il "salario reale" W/P e la produttività del capitale M/P (vedi modello GAMMA). Per aumentare la produttività del lavoro occorre, dunque, aumentare la produttività del capitale. "Aumentare la produttività del capitale" non significa necessariamente "incrementare la potenza dell'elaboratore M", cioè "potenziare l'hardware"; ma può voler anche significare "ridurre il peso delle transazioni P", cioè "migliorare la qualità del software". Tutto ciò si cela dietro l'apparente semplicità formale dell'interazione tra domanda ed offerta.

Economia. Le attività elaborative che vengono svolte nel mondo EDP assomigliano alle attività produttive che vengono svolte nel mondo economico (fatte, ovviamente, le debite proporzioni). I responsabili delle Organizzazioni EDP ed i responsabili delle nazioni si trovano ad affrontare scelte di produzione simili (cosa e per chi produrre), utilizzando strumenti analoghi (Politica di Servizio, e Politica Economica). I comportamenti degli utenti e del computer sono, rispettivamente, simili ai comportamenti delle famiglie e delle imprese. Tali comportamenti si riflettono nel meccanismo, basato sulle retroazioni, che caratterizza sia i processi informatici che i processi economici. La somiglianza tra il mondo EDP ed il mondo economico diventa più profonda, quando si scopre che i modelli macroeconomici sono in grado di descrivere anche la produzione informatica (cioè l'elaborazione dei dati). L'immagine del mondo EDP come modello in scala del mondo economico rende la possibilità di eseguire esperimenti in laboratorio di Economia un'ipotesi plausibile: essa potrebbe essere realizzata facendo simulare al computer le funzioni dell'impresa. Si parlerebbe, in tal caso, di "Economia Artificiale", per analogia con l'Intelligenza Artificiale, disciplina in cui il computer simula le funzioni del cervello.



BIBLIOGRAFIA RAGIONATA

Lazowska, E.D, Zahorian, J., Graham, G.S., Sevcik, K.C. (1984) Quantitative System Performance, Prentice-Hall, Englewood Cliffs, New Jersey
Descrive le leggi fondamentali dell'elaborazione dei dati, utilizzando l'approccio della teoria operazionale. E' la "bibbia" degli analisti delle prestazioni degli elaboratori elettronici.

Eiglier, P., Langeard, E. (1987) Il marketing strategico nei servizi. Tr. it., McGraw-Hill, Milano 1991
Viene descritto il concetto di "servuction", letteralmente il processo di produzione di un servizio. Il libro ha rappresentato il nostro punto di riferimento per l'applicazione del concetto di servuction al caso specifico del servizio di elaborazione dati.

Smyth, S. (1998) Modelli economici per la valutazione delle prestazioni degli elaboratori elettronici. Università Bocconi, Milano
E' la tesi di laurea in cui si è studiato come applicare i concetti economici ai processi informatici e come derivare le leggi fondamentali dell'elaborazione dei dati dalle leggi economiche.

Perfetto, C., Smyth, S. (1998) Metodologia GAMMA: modelli matematici per il Tuning MVS, CMG-Italia 1998, Roma
Relazione presentata al congresso di informatici del Computer Measurement Group (CMG). Viene illustrata una nuova metodologia per analizzare le prestazioni dei grandi computer governati dal Sistema Operativo IBM MVS. La metodologia, basata sulla teoria della produzione economica, si affianca a quelle tradizionali basate sulla teoria delle code e sulla teoria operazionale.

Minati, G. (1998) Sistemica, Apogeo, Milano
E' un'introduzione all'approccio sistemico applicato alla fisica, alla scienza cognitiva, alla psicologia, al management, all'economia. Abbiamo preso spunti, in particolare, dal capitolo sulla virtualità. Per quanto riguarda il concetto di "azienda virtuale", il nostro concetto differisce da quello proposto nel libro. Il libro pone l'azienda virtuale in relazione al fatto che piu' aziende, spesso operanti sullo stesso mercato o addirittura sullo stesso cliente, potrebbero operare in modo cooperativo e non solo competitivo, quando i costi della competizione hanno raggiunto i limiti di concorrenza. Per noi, invece, un'azienda virtuale è una struttura interna al computer, una struttura software; è, in definitiva, il Sistema Operativo che governa l'hardware. Per estensione, ci riferiamo all "economia virtuale" come ad un insieme di programmi software che simulano l'economia reale all'interno di un computer.

Lévy, P. (1995), Il virtuale. Tr. it. Raffaello Cortina, Milano, 1997.
Un vero e proprio manuale di "filosofia" del virtuale, scritto per l'appunto da un filosofo. Tra i vari temi si parla anche della virtualizzazione dell'economia, cioè dell'economia della deterritorializzazione, realizzata grazie ai mezzi di comunicazione elettronici e digitali. Nel paragrafo della virtualizzazione del mercato si pone l'accento sul consumatore di transazioni, uno dei concetti cardine delle nostre argomentazioni.

Waldrop, M. M. (1987) Complessità. Tr. it. Instar Libri, Torino (1996)
E' la storia di una intensa avventura intellettuale che stanno vivendo insieme ricercatori (tra cui Premi Nobel) fisici, chimici, biologi, economisti ed informatici al Santa Fe Institute (SFI) nel New Mexico. E' la storia della nascita e dello sviluppo della scienza della complessità che, secondo l'ambizioso programma del SFI, dovrebbe unificare in un medesimo paradigma le differenti discipline. Abbiamo trovato particolarmente stimolante il capitolo "Un'economia sotto vetro", in cui si parla di economia artificiale e di borsa artificiale. Nel libro si fa riferimento ad un'economia artificiale tutta dentro il computer, simulata attraverso automi cellulari. Il nostro concetto di economia artificiale, invece, fa ricorso al concetto di impresa virtuale (simulata dal computer) ed alla simulazione dei processi economici con processi informatici, lasciando al "naturale" gli agenti economici (che non vengono "virtualizzati" mediante automi cellulari, ma vengono simulati con agenti informatici naturali).

Greco, P. (1999) Evoluzioni. CUEN, Napoli.
Il sottotitolo di questo libro è "Dal Big Bang a Wall Street, la sintesi impossibile", e lascia intuire la posizione dell'autore nei confronti dell'ambizioso programma del Santa Fe Institute che, al contrario, ha come obiettivo proprio tale sintesi. E' una bella dissertazione sulla complessità e sull'evoluzione. Condividiamo l'osservazione dell'autore che "le simulazioni al computer sono logicamente chiuse. Le assunzioni sulla base delle quali il modello computerizzato di un sistema evolve sono vere per definizione. Non per verifica sperimentale. Così non sempre hanno adesione piena con la realtà. E, quindi, sono spesso incomplete o addirittura errate".

Spezzano, G., Talia, D. (1999) Calcolo parallelo, automi cellulari e modelli per sistemi complessi. Franco Angeli, Milano
Il libro è molto tecnico. Interessante l'applicazione del concetto di automa cellulare per simulare il volo degli uccelli, una colonia di formiche, una foresta in fiamme. Il termine "automa" si riferisce ad un dispositivo in grado di agire, in un determinato contesto, in modo autonomo. Il termine "cellulare" fa riferimento ad una griglia spaziale regolare detta cella. Un "automa cellulare" è un sistema dinamico e può essere pensato come una rete infinita di piccoli e identici automi finiti, o celle, connessi e sincronizzati. Gli automi cellulari vengono impiegati in studi sulla vita artificiale (Artificial Life), un settore di studio relativamente nuovo che si occupa di trovare i meccanismi di base della biologia tentando di simulare i fenomeni biologici come la nascita della vita, l'evoluzione e i sistemi ecologici attraverso l'uso dei calcolatori.

Emmeche, C. (1994) Il giardino nella macchina. Tr. it. Bollati Boringhieri, Torino (1996)
E' un'ottima esposizione dei "fondamenti" della vita artificiale. Ci siamo posti le stesse domande dell'autore, e cioè "Come si capisce se una simulazione è corretta? Quali sono i criteri per validare i modelli quando si usano i parametri reali?" Abbiamo tratto dal libro anche lo spunto per qualche rappresentazione grafica illustrata nell'articolo.

Negrotti, M. (1997) La terza realtà. Edizioni Dedalo, Bari
Il libro è un'introduzione alla teoria dell'artificiale. L'autore individua due "anime" della tecnologia: la tecnologia dell'artificiale (che mira a riprodurre oggetti e processi naturali), e la tecnologia convenzionale (che non mira a nessun tipo di riproduzione). L'artificiale è, con le parole dell'autore, "un oggetto che viene costretto ad oscillare fra natura e tecnologia convenzionale". Il nostro concetto di economia artificiale (in cui il computer che simula le funzioni dell'impresa diviene impresa virtuale, che viene realizzata tramite la tecnologia elettronica convenzionale) si avvicina più al paradigma dell'artificiciale delineato dall'autore che a quello dei ricercatori del Santa Fe Institute (il cui paradigma è, nell'impostazione concettuale cui aderiamo, il paradigma del virtuale, e non dell'artificiale)

Parisi, D. (1999) Se il laboratorio è nel computer le scienze hanno un'arma in piu'.
L'autore ritiene che "il metodo della simulazione è un nuovo e potente strumento di indagine scientifica che si affianca a quelli già disponibili, cioè teorie ed esperimenti". Condividiamo questa osservazione, come pure molte altre osservazioni espresse con particolare chiarezza in questo interessante articolo.

Pagina precedente

Indice dei contributi