La leggenda di Moore

Nota di approfondimento al capitolo 26
di L’umanità dell’internet

E anche ai capitoli 16 e 19 di Il potere della stupidità

 
Giancarlo Livraghi
gian@gandalf.it
luglio 2001

Also in English


La cosiddetta “legge di Moore” non è una legge. Cioè non è un principio scientifico che sia stato enunciato come tale – o che abbia conferma nell’osservazione dei fenomeni.

È una delle tante affermazioni che circolano (sull’informatica come in altre materie) trattate universalmente come “verità rivelata” e continuamente ripetute senza verificarne l’attendibilità. E per di più interpretate in vari modi che nulla hanno a che fare con il loro reale significato.

Ci sono state, e ancora ci sono, parecchie distorsioni di questo genere anche per quanto riguarda l’internet. Come, per esempio, la leggenda della “crescita esponenziale” e la diffusione di un’infinità di dati immaginari, poco attendibili o male interpretati.
Vedi Verifica su alcune “proiezioni” a proposito dell’internet.

L’affermazione di Gordon Moore (che risale al 1964) era, probabilmente, ragionevole – ma non era quella di cui oggi si parla (“la velocità dei processori raddoppia ogni due anni”). L’analisi dei fatti non dimostra che ciò che accadeva nel 1962-1964 sia continuato negli anni seguenti. Inoltre alle parole di Moore si sono attribuiti significati e conseguenze che non hanno mai avuto. Insomma più che di una legge si tratta di una leggenda.

Il concetto di quell’affermazione, nel modo “semplificato” in cui si è diffuso e continuamente ripetuto, è tutt’altro che chiaro. Come vedremo poco più avanti, non è semplice definire che cosa si intende per “velocità” o “potenza” – quindi quale sia l’unità di misura con cui definire il presunto “raddoppio”.

Inoltre l’immaginaria “legge” (che è diversa dall’osservazione di Moore) si è rivelata falsa. Se nel 1964 si poteva parlare (forse) di “raddoppio” ogni 12 mesi... poi “si è detto” 18... ora si è passati a di 24 o forse 30. Badando poco a quanto le affermazioni possano riflettere qualche significativa realtà.

Ma anche così l’aumento “possibile” di “velocità” dei processori non corrisponde a reali esigenze della stragrande maggioranza degli utenti. In un mercato “ragionevole” avere prezzi più bassi a parità di prestazioni (anziché macchine più “potenti” allo stesso prezzo) potrebbe favorire la diffusione dei computer in quelle categorie che oggi non se li possono permettere (miliardi di persone nel mondo – milioni in Italia). E anche di evitare spese inutili a chi “se lo può permettere” ma non per questo deve spendere male i suoi soldi.

Inoltre... un computer – con capacità comunque molto superiori a ciò ci cui abbiamo realmente bisogno – dovrebbe poter durare dieci o vent’anni o forse più (sempre che sia sufficientemente “robusto” e affidabile in tutte le sue componenti). Invece si continuano a sovraccaricare funzioni, spesso inutili, per creare un’altrettanto inutile esigenza di maggiore velocità di calcolo (reale o presunta) e così “forzare” continui quanto insensati “aggiornamenti” di software e hardware.

Ovviamente non si tratta solo di processori. Se vent’anni fa con 64 kilobyte di memoria (Ram) avevamo macchine efficienti – e dieci anni fa 640 k sembravano fin troppi – oggi ci sono software paurosamente inefficienti (o intenzionalmente e perversamente concepiti per “consumare troppo”) che rendono “lento” un personal computer con 64 megabyte di memoria. E considerazioni analoghe si potrebbero fare su altre componenti e funzioni.

In sostanza, è vero che la tecnologia può produrre sistemi di elaborazione sempre più veloci. Ma è falso che a ciò derivi “necessariamente” l’obbligo di mettere fuori uso macchine ancora efficienti solo perché esistono sul mercato nuovi prodotti con una “potenza” superiore.

Oltre alla falsificazione di mercato (“obsolescenza forzata”) ci sono anche falsificazioni culturali; perché dall’inesistente o male interpretata “legge di Moore” si traggono conseguenze che nulla hanno a che fare con quel concetto – come ipotetiche (e irreali) “velocità” di evoluzione di comportamenti umani e fenomeni sociali, culturali ed economici.




A questo proposito mi sembra interessante citare un articolo di Lucio Bragagnolo pubblicato nell’aprile 2001.


Concepita nel 1964, accompagnerà l’informatica
più o meno fino al 2017

Un’intuizione lungimirante
ma una “legge” immaginaria

di Lucio Bragagnolo lux@mac.com


Ogni diciotto mesi, si dice, la velocità dei processori raddoppia. Concepita nel 1964, questa affermazione accompagna l’informatica da più di trentacinque anni e continuerà a farlo, secondo il suo autore, fino al 2017. Ma il concetto è molto cambiato lungo il percorso. Era nato come un’intuizione lungimirante – oggi è più che altro una speculazione commerciale.

Tutti conosciamo lo stereotipo della signora piacente ma non più giovanissima che per civetteria toglie qualche anno alla propria età. Nell’informatica esiste invece un principio che, sempre per civetteria, si aggiunge mesi. È la cosiddetta “legge di Moore”, spesso citata per ricordare che «la potenza dei microprocessori raddoppia ogni diciotto mesi». Non è così. Di fatto la “legge di Moore”, intuizione straordinaria per longevità, è diversa da come la si racconta oggi e ha beneficiato durante la sua vita, come altre signore, di diversi lifting.

Fu Gordon Moore, ingegnere elettronico cofondatore di Intel, a osservare nel 1964 che la tecnologia permetteva di raddoppiare ogni dodici mesi il numero di transistor per pollice quadrato presenti su un chip.

L’osservazione era puramente empirica e, racconta Moore stesso, non pretendeva di diventare una vera e propria regola; non pareva possibile che la corsa al raddoppio potesse continuare indefinitamente. Invece, con sorpresa di molti scettici, continuò, e la neonata “legge di Moore” diventò uno dei cavalli di battaglia della penetrazione dell’informatica nelle aziende e poi nelle case.


La “velocità” strumento commerciale

La “legge” rappresentava un eccellente strumento di propaganda e di vendita. Così, quando la crescita delle densità cominciò a rallentare, gli addetti alla comunicazione pubblicitaria e commerciale iniziarono ad addomesticare la“legge”, stiracchiando il numero di mesi necessario al raddoppio. E iniziò il mito della velocità come fatto dipendente dai megahertz del processore: era più facile vendere megahertz che densità dei transistor per pollice quadrato.

Alla fine, e ai giorni nostri, questa vulgata ha sostituito il concetto originale, empirico ma certamente più scientifico e serio di quello attuale. L’intuizione di Gordon Moore è stata stravolta ed è diventata il condimento di articoli e campagne pubblicitarie.

Una delle campagne menzognere fu quella dell’Intel che spese parecchi miliardi in pubblicità nel tentativo di far credere che occorresse un Pentium 3 per collegarsi all’internet – così fra l’altro scoraggiando molti che avrebbero potuto tranquillamente collegarsi con le macchine che avevano ma erano confusi da panzane come queste (diffuse anche da altri che avevano interesse a vendere nuovi computer). Affermazioni analoghe, e non meno sbagliate, sono state (e ancora sono) ripetute largamente sulla stampa – di categoria e “generale” – come dalla televisione e da altri mass media (n.d.r.).


Cpu da trentacinque terahertz

La velocità non è uguale ai megahertz e questi ultimi non sono mai raddoppiati ogni diciotto mesi. Una calcolatrice scientifica o un buon foglio di calcolo mostrano che dal 1962 (anno da cui partono le statistiche di Moore) a fine 2000 sono passati venticinque (virgola tre) periodi di diciotto mesi. Raddoppiando un megahertz per venticinque volte si arriva a 35.184.372.088.832 hertz: sono trentacinque terahertz, ossia un valore trentacinquemila volte superiore ai clock delle Cpu di oggi. Un processore capace di calcolare con questa frequenza mostruosa porrebbe, in piccolo, gli stessi problemi di dispersione di calore di una centrale nucleare.

La spiegazione di questo divario tra aspettative e risultati è semplice: l’aumentare della densità dei transistor sulla superficie del chip non incide sempre e solo sui megahertz. Qualche volta incide sui costi di produzione, perché un chip più affollato è più piccolo e quindi richiede meno silicio. A volte incide sul consumo energetico, perché permette di realizzare processori meno affamati di energia. Certi raddoppi della “legge di Moore” sono andati in riduzioni di costo e di consumi, più che aumenti di velocità.

Un interessante dettaglio tecnico è che non sempre la “miniaturizzazione” (concetto alla base dell’affermazione originaria di Moore) rappresenta un progresso. Alcune evoluzioni recenti portano alla progettazione e produzione di processori “un po’ meno piccoli” a parità di potenza – quindi di fabbricazione meno “delicata” e perciò più affidabili e meno costosi (n.d.r.).


La velocità che sfugge

Che cos’è allora la velocità pura di un processore? Difficile dirlo con semplicità. C’è chi la esprime in Mips (milioni di istruzioni per secondo), senza considerare che le istruzioni eseguite possono essere più o meno complesse: il vantaggio dei processori Motorola PowerPC sui processori Intel Pentium dipende esattamente dal confronto tra istruzioni molto potenti, ma eseguite lentamente, contro istruzioni elementari elaborate con estrema rapidità. Oppure si possono prendere in esame le velocità di calcolo di numeri interi oppure di numeri in virgola mobile, cioè con decimali (gigaflop). Di fatto, però, se intorno a un processore potente c’è un’architettura di bassa qualità o un disco rigido poco efficiente, il risultato finale non rispecchierà le potenzialità del processore.

Tornando alla “legge di Moore”, secondo il suo stesso scopritore potrebbe rimanere valida per un’altra ventina di anni. Nel 2017 circa verranno raggiunti i limiti fisici delle attuali tecnologie. Per proseguire ulteriormente nei raddoppi bisognerà inventare qualcos’altro, come i chip biologici, o quelli a effetto quantico, oggi poco più che esperimenti promettenti.

O forse qualcuno inventerà qualche altro trucco per “forzare” continui cambiamenti di cui non c’è alcun reale bisogno.


 
Indirizzi per approfondire

http://webopedia.internet.com/TERM/M/Moores_Law.html
La prima enunciazione della “legge di Moore” parlava di
un raddoppio della densità dei transistor sui chip ogni dodici mesi.

http://info.astrian.net/jargon/terms/m/Moore_s_Law.html
Poi si iniziò a parlare di diciotto mesi per raddoppio.

http://www.intel.com/intel/museum/25anniv/hof/moore.htm
Le pagine del sito Intel dedicate a Gordon Moore si assestano
su un raddoppio ogni diciotto-ventiquattro mesi.

http://www.physics.udel.edu/wwwusers/watson/scen103/intel.html
Qualcuno sostiene che ormai la “legge” viaggi verso i trenta
mesi per raddoppio: un peggioramento del 150%
sulla prima osservazione di Moore.

http://developer.intel.com/update/archive/issue2/feature.htm
Secondo il suo stesso autore, la “legge di Moore”
potrebbe cessare di funzionare entro una ventina d’anni.




Post Scriptum

Il 26 luglio 2001 questo testo è stato pubblicato anche su Punto Informatico, dove ha suscitato diversi commenti dei lettori. Mi sembra interessante citare questo, a firma di “Jargon”.

Un papiro trovato nel deserto del Nevada (cercando gli Ufo fuori dall’Area 51), si rivelato essere una nota interna Intel del ’63 che pone le basi per l’enunciazione della Legge di Moore.

Essa recitava:

«Gli acquirenti dei nostri processori non vorranno comprare un nuovo chip prima di minimo 5 anni dall’ultimo acquisto, noi (la Intel) vogliamo che ne comprino uno ogni 6 mesi. Occorre inventarsi una balla pseudo-scientifica per sostenere i nostri interessi in tal senso».

In sostanza, al contrario di quanto si desume dai vari articoli, credo che Moore non sia il povero scienziato “frainteso” da giornalisti e uomini del marketing, né tanto meno che sia stato strumentalizzato: è il co-fondatore della Intel, la sua “legge empirica” è pensata a tavolino per attirare attenzione su una tecnologia all’epoca nuova e poco nota, e farci magari qualche billione di dollari. C’è riuscito.

Questa è una delle possibili interpretazioni del fenomeno. Ma – che sia stato Gordon Moore a costruire intenzionalmente l’inganno, o altri a deformare le sue osservazioni – il fatto rimane che persone e imprese in mezzo mondo hanno sprecato molti miliardi (di dollari) per “innovazioni” e “aggiornamenti” non solo inutili ma spesso nocivi. E la “leggenda” continua.



A questo proposito vedi anche
La preziosa legge di Murphy e la pseudo-legge di Moore




gente
Capitolo 26
di L’umanità dell’internet

indice
Indice dei capitoli
di L’umanità dell’internet


Homepage Gandalf
home