Se sei uno di noi:
ajax-loader
2 Avatar di alepau87 alepau87
4
Tempo di Lettura in Minuti

La Caduta della Legge di Moore 

Si può vedere come la Legge di Moore stia rallentando. L’originale enunciato della legge afferma che il numero dei transistor che si possono produrre in modo economicamente sostenibile raddoppia ogni due anni. E’ stata ripresa in molte altre forme, ma è ciò che egli ha originariamente affermato.

(John Gustafson, chief graphics product architect per AMD)

 

L’intervista

Il ritardo del processo produttivo da 28 a 20 nanometri è la conferma che la Legge di Moore sia obsoleta.

Il 2 Aprile di quest’anno, John Gustafson, capo dei progettisti delle architetture grafiche della AMD, ha rilasciato un intervista per The Enquirer nella quale ha dichiarato che il ritardo del processo produttivo da 28 a 20 nanometri è la conferma che la Legge di Moore sia obsoleta per spiegare l’andamento dell’attuale progresso della tecnologia.

 

John GustafsonYou can see how Moore’s Law is slowing down. The original statement of Moore’s Law is the number of transistors that is more economical to produce will double every two years. It has become warped into all these other forms but that is what he originally said.

Il difficile e ritardato passaggio dagli attuali 28 nanometri ai ricercati 20, secondo Gustafson, è uno dei motivi chiave che portano a credere che la celebre legge stia per perdere la sua veridicità. Negli ultimi tempi le nuove tecnologie di processo non corrispondono necessariamente ad una efficienza di tipo economico.

 

 

Il Punto della Situazione

Fedeli alla linea dettata da Moore, di norma, i produttori di semiconduttori introducono nuove tecnologie di processo ogni 18-24 mesi. Negli anni recenti questo ritmo è leggermente calato, in quanto i processi di produzione e la realizzazione di nuovi stabilimenti sono diventati sempre più costosi.

I processi di produzione e la realizzazione di nuovi stabilimenti sono più costosi.

L’unico produttore ancora capace di reggere il ritmo è la Intel, forte del suo notevole budget investimenti per la ricerca e lo sviluppo di nuove tecnologie possibile grazie all’importante produzione di chip tale da poter coprire i costi di sviluppo ma nonostante ciò, anche essi si trovano ad aver difficoltà nel giustificare agli investitori l’enorme dispendio di risorse e capitali per la produzione dei loro prodotti.

Per le compagnie ogni passaggio ad un nuovo livello produttivo rappresenta un costo di decine o centinana di milioni di dollari.

We want to also look for the sweet spot, because if you print too few transistors your chip will cost too much per transistor and if you put too many it will cost too much per transistor. We’ve been waiting for that transistion from 28nm to 20nm to happen and it’s taking longer than Moore’s Law would have predicted.

“Vogliamo cercare il giusto punto di equilibrio, poiché se il numero di transistor è troppo basso o troppo alto, il costo per transistor è sempre troppo elevato.

Abbiamo atteso il passaggio dai 28 ai 20 nanometri, e sta avvenendo in un tempo più lungo di quanto la legge di Moore abbia predetto. Sto dicendo che stiamo vedendo l’inizio della fine della legge di Moore”.

Sull’altro fronte, quello di AMD, secondo quanto detto da Gustafson nella sua intervista, la AMD è convinta di poter bilanciare la densità di transistor dei suoi chip in maniera da massimizzare gli effetti economici sulle nuove tecnologie produttive, in altre parole, si cercherà di aumentare il ciclo di vita di ogni nuova tecnologia messa in produzione.

 

 

Cambia il Mercato

grafico-vendite

Secondo gli esperti del settore uno dei motivi primari del rallentamento evidente dello sviluppo delle nuove CPU è dato dal cambiamento di rotta ormai imposto dal mercato.

Le scelte dei consumatori sono più orientate verso la tecnologia “pocket“, ormai le prestazioni richieste dall’utente medio hanno raggiunto uno standard coperto ampiamente da tablet e smartphone.

I pc oggi utilizzano una potenza inappropriata per svolgere funzioni relativamente semplice.

Lo sviluppo di super-processori è influenzato dalla sola spinta da quella parte di acquirenti di nicchia interessati alla cruda “potenza di calcolo“.

I pc oggi utilizzano una potenza inappropriata per svolgere funzioni relativamente semplici e oltre questo c’è da considerare anche temi oggigiorno molto cari e importanti come il consumo energetico e la portabilità, questo volge la richiesta del mercato verso processori a basso consumo energetico e buona capacità di calcolo.

 

 

ARM, Android e iOS

AMDDurante l’eterna battaglia tecnologica fra i due super-colossi AMD e Intel, si è prepotentemente affaciata al mercato l’ azienda inglese ARM detentrice del 75% del mercato mondiale dei processori a 32 bit per applicazioni embedded e in particolare fornitrice, tra l’altro, degli schemi di produzione dei processori usati da Apple e Samsung per i loro tablet e smartphone.

ARM fornisce gli schemi di produzione dei processori usati da Apple e Samsung.

La nuova tendenza che prende corpo è quella basata sulla “Battery Life“. I colossi nel campo dei Sistemi Operativi hanno intuito che c’è aria di cambiamento e stanno dirottando il loro sviluppo verso sistemi ad hoc per i nuovi processori embedded, non a caso il nuovo prodotto di Microsoft, Windows 8, è uscito anche nella sua versione RT adatta al tipo di processori ARM.

Apple con iOS e Google con Android hanno dimostrato che oggi è il SO ad adattarsi alla CPU e non viceversa, riuscendo così a sfruttarne al massimo le prestazioni.
Condividi questo Articolo:
Send to Kindle
Aree Tematiche Articolo:
Hardware Tecnologie
Tag Articolo:
John Gustafson
The Enquirer
Loggati

36 Commenti

  1. Avatar di camo camo 10/5/2013 13:36

    Bell’ articolo. Se pensiamo che oggi è possibile collegare uno smartphone ad una doc e usarlo come un PC ( ubuntu per smartphone, per intenderci) il tuo articolo non fa una piega.
    E’ esattamente quello che stavo pensando l’altro giorno: ormai la corsa al Ghz è finita, lo sviluppo è dirottato su processori molto più piccoli e contenuti che anno dopo anno stanno azzerando il distacco tra loro e molte soluzioni desktop.
    E a dirla tutta sono favorevole a questa logica!

    • Avatar di Nicholas | Nè Nicholas | Nè 10/5/2013 14:05

      Tra l’altro la potenza di calcolo la trainano i giochi e la grafica e quella si può appaltare alle schede video.

      • Avatar di camo camo 10/5/2013 14:22

        eh si, hai pienamente ragione. E’ incredibile cmq l’indotto che ha il mercato dei videogames se ci pensiamo!

        • Avatar di Nicholas | Nè Nicholas | Nè 10/5/2013 15:34

          Direi che a parte i videogiochi non ci sia molto che traina la tecnologia in termini economici.
          voglio dire, il porno lo scarichi anche su un single core :D

    • Avatar di alepau87 alepau87 10/5/2013 22:46

      Ormai nel mercato si sta creando una grossa spaccatura tra le due fazioni di utenti…. prima si avevano i due fronti dati dal pc detto “fisso” e dal portatile…. oggi il pc fisso è più che altro un ingombro per molti, viene usato solo da utenti che ricercano la pura potenza… il mercato è oramai tra gli ultrabook, per chi ancora ha fame di GHz e i tablet… tablet che oramai ricoprono ampiamente le richieste dell’utente medio, navigare in internet, posta, social network, riproduzione multimediale…. la parola d’ordine oggi è risparmio energetico e compattezza

  2. Avatar di Nicholas | Nè Nicholas | Nè 10/5/2013 14:06

    Articolo molto interessante.

    Segnalo un typo nel pargrafo ARM, Android e iOS, la frase: fornitrice degli schemi di produzione dei processori usati da Apple e Samsung.
    è ripetuta 2 volte.

  3. Avatar di merlino merlino 10/5/2013 14:24

    Mancherebbe un bel grafico! ora leggo l’articolo…

  4. Avatar di hexyt hexyt 10/5/2013 15:30

    Io sono un grande ignorante, ma vorrei un accoppiata SO-CPU che mi permettesse di accendere ed usare immediatamente la macchina. No 3-5 minuti dopo. Subito! Mi hanno parlato di hard disk stato solido ma è come se mi avessero detto “Abetungu du! Slavo.”
    Così sarei un consumatore felice. Sviluppate, sviluppate!

    • Avatar di Nicholas | Nè Nicholas | Nè 10/5/2013 15:37

      HD allo sctato slido sarebbe come avere delle gigantesche pennone USB.
      La lentezza è anche funzione della meccanica: l’hd è meccanico c’è un nasino fisico che deve girare e pescare i dati e ci va tempo, con la tecnologia degli hd a stato solid questo tempo è eliminato.
      Quindi si ti hanno detto bene e quindi no, non c’entra tanto il SO o la macchina, sebbene un po’ d differenza la faccia, cìè pur sempre un vincolo meccanico,

      • Avatar di hexyt hexyt 10/5/2013 15:50

        Ok scusate se vado un pò OT, ma quindi mi stai spiegando che posso avere anche Pensiero Profondo a casa, ma con questo tipo di hard disk meccanico comunque il pc per avviarsi ci mette quel tempo?

        • Avatar di Nicholas | Nè Nicholas | Nè 10/5/2013 15:56

          Of course.
          Gli hd normali hanno una velocità massima di rotazione (identificata in rpm ossia giri al minuto) ad esempio quelli standard viaggiano sui 7200 rpm.
          C’è quindi una testina magnetica che legge il disco ogni volta che gli passa sotto recuperando i dati nella memoria.
          Sebbene la lettura sia istantantanea il movimento visico della testine e del disco non lo sono, sono pezzetti meccanici e hanno i loro tempi.

          e ora in ginocchio sugli alimentatori! :D

    • Avatar di camo camo 10/5/2013 15:54

      Beh io ho un notebook i5 con ubuntu e hard disk allo stato solido non di ultimissima generazione. Ci metterà 5 secondi a fare il boot, circa….

    • Avatar di alepau87 alepau87 10/5/2013 22:54

      Per il problema di lentezza d’avvio dipende da molti fattori oltre che il supporto fisico.
      Sul mercato vi sono anche hard disk ibridi, ovvero hd che hanno oltre alla classica parte a stoccaggio magnetico anche una parte a memoria flash. Nel settore a memoria flash vengono salvati i dati del sistema operativo riguardanti i processi di avvio e gestione del sistema operativo, oltre che i processi di maggior uso, questo permette più rapidità del sistema che nella parte magnetica avrà solo lo “stoccaggio” di quei dati che non richiedono velocità di lettura ed esecuzione. Il principio di base è simile a quello di un area di swap ma a differenza di quest’ultima che è un area del disco magnetico, il vantaggio sta nella rapidità delle memorie flash rispetto alle magnetiche

  5. Avatar di entrinseco entrinseco 10/5/2013 15:30

    questo articolo mi sembra già di averlo letto su un blog…

  6. avatar tipo 10/5/2013 19:13

    questo avviene anche a causa dei limiti intrinsechi delle tecnologie utilizzate. Ad esempio da quanto tempo non vedere un deciso aumento delle frequenze? Queste si sono stabilizzate sui 3 GHz da anni in quanto questo valore è praticamente il limite fisico che un processore di tali dimensioni e materiali può sopportare. A frequenze più elevate i segnali nei circuiti della CPU verrebbero dispersi sotto forma di microonde e calore.

    Per aumentare le frequenze c’è bisogno di processi produttivi più precisi (che migliorano le prestazioni in generale) oppure di rimpicciolire le CPU ma questo consentirebbe di inserire meno transistor con un peggioramento delle prestazioni. Vi siete mai chiesti come mai non fanno, almeno per sistemi desktop o server, processoroni ENORMI invece di uccidersi sui 20 nm e spendere milioni per miniaturizzare?
    Ora come ora si può solo lavorare sul miglioramento dell’architettura e sul decremento dei CPI.

    In definitiva, finchè non entreranno in gioco tecnologie e materiali diversi, come il grafene, o paradigmi totalmente differenti, come quello del calcolo quantistico, l’aumento di potenza nelle CPU potrà solo rallentare.

    • Avatar di alepau87 alepau87 10/5/2013 23:00

      Ti do ragione, ormai si sta raggiungendo il limite fisico del silicio, purtroppo maggiori dimensioni, maggiore frequenza e la conseguente maggiore energia richiesta, producono per il caro vecchio effetto joule maggiore dissipazione di calore, il che richiederebbe oltretutto modi innovativi per raffreddare questi vulcani. Le ricerche di nuovi materiali sarebbero un ottima soluzione abbandonando così il caro vecchio semiconduttore amato da tutti (addirittura sperimentavano materiali organici ricavati dalle ossa di pollo), la soluzione del calcolo quantistico sarebbe un’incredibile cambiamento ancora difficile da praticare

    • Avatar di DarkMark DarkMark 12/5/2013 21:58

      Guarda, ti quoto con tutto il cuore…
      Purtroppo la questione “limite fisico del silicio come substrato per transistor” è pienamente attuale.
      Di fatto, se si prova a fare mente locale, 20 nm corrispondono a 150-170 atomi, ovviamente è facile intuire che utilizzando questa tecnologia, o altre più spinte (14 nm, Intel ci sta già lavorando, Samsung sta testando, altri non so) sorgano dei problemi nel controllo del canale in quanto ciò che “sta sotto al gate” non è più considerabile come materia continua, ma cominciano ad essere evidenti le forme degli atomi (per metterla giù semplice, eh! ;) ) e ciò crea scompensi di vario tipo, non ultimi quelli di livello quantistico.

      La strada che si è scelto di perseguire non è tanto quella di cambiare il substrato (silicio), quanto quella di abbandonare la tecnologia planare in favore di tecnologie più aggressive che permettano un migliore controllo del canale anche su queste lunghezze ovvero, dualgate, trigate, finFet…

      IMHO questo è solo un palliativo, sono comunque idee di almeno vent’anni fa e non ci vorrà molto per arrivare ad un nuovo collo di bottiglia, il problema non è risolto, si è data solo una spallata per spostarlo un po’ più in la…

      • Avatar di DarkMark DarkMark 12/5/2013 22:00

        Mi limito a questo perché se parto poi annoio tutti, ma se qualcuno avesse domande chiedete pure ;)

        • Avatar di wasd1983 wasd1983 14/5/2013 01:15

          Una io:
          Sarebbe possibile, per assurdo, che riscrivendo buona parte del software esistente in ottica di calcolo parallelo, le schede video ci permettano di aggirare il problema?
          Intendo che molte cose, usando una gpu ottengono miglioramenti prestazionali incredibili (render video, raytrace, antivirus…) in questo modo pur “perdendo potenza” potremmo incrementare l’efficienza ed ottenere un risultato assimilabile.
          Tanto per capirci il tipo qui la dice vera o tira acqua al suo mulino e basta??
          http://www.tomshw.it/cont/news/la-legge-di-moore-e-storia-ecco-la-legge-di-nvidia/25113/1.html

          • Avatar di wasd1983 wasd1983 14/5/2013 01:21

            Se non ti va di leggere cito la parte importante:
            “Possiamo aumentare il numero dei transistor e dei core di quattro volte ogni tre anni. Facendo lavorare ogni core leggermente più lentamente e perciò in maniera più efficiente, possiamo più che triplicare le prestazioni mantenendo lo stesso consumo totale”

            Per chiarire: nel mio ragionamento non mi riferisco ad eliminare il processore, ma di alleggerirgli una parte di lavoro, facendo fare alla scheda video parte del lavoro.

            Alla fine il traguardo, il nostro cervello, è altamente parallelizzato, quindi se devo sparare a caso, mi sembra questa la “giusta via”.

            • Avatar di wasd1983 wasd1983 14/5/2013 01:33

              Oh, scusate se continuo a scrivere commenti separati.
              In effetti anche il processore potrebbe continuare a “dividersi” in molti core meno potenti, se lo aiuta la scheda video.
              Il sistema operativo decide che l’antivirus, la decodifica video, la grafica delle finestre, ecc.. lo fa la Vga e tutti le varie “stranezze del kernel per cui serve la tecnologia x86″ (sparato a caso un po’ di termini nerd giusto per farla sembrare una frase di “uno che sa”) lo fa il processore.
              Si ottimizzerebbe un casino.

            • Avatar di DarkMark DarkMark 14/5/2013 10:48

              Premesso che non ho dati ne informazioni sulla tecnologia utilizzata da nVidia (o Ati, o chissachi…) e che questo esula parecchio dal mio campo professionale, ti dico che a livello di software, parlo per lo meno di applicazioni dove sono necessarie velocita’ ragguardevoli e vengono trattate moli enormi di dati, la strada che hai indicato e’ gia’ ampiamente battuta.
              Di fatto nel laboratorio dove ho studiato per la mia tesi venivano usate GPU per il trattamento di dati di rilevazioni satellitari, quindi assolutamente non per produrre grafica.
              Sul fatto poi che

              “Possiamo aumentare il numero dei transistor e dei core di quattro volte ogni tre anni. Facendo lavorare ogni core leggermente più lentamente e perciò in maniera più efficiente, possiamo più che triplicare le prestazioni mantenendo lo stesso consumo totale”

              sinceramente non so risponderti, ma potrei fare solo delle congetture.

              • Avatar di wasd1983 wasd1983 14/5/2013 14:32

                Sono perfettamente d’accordo che sia già in uso la vga per il calcolo scientifico, tesla e cuda in primis, ma mi riferivo ad un uso più intenso, molto più integrato, a livello di sistema operativo.
                Magari è ‘na cagata di idea, ma resto convinto che oggi il primo limite è software.

  7. Avatar di lucatrademark lucatrademark 11/5/2013 13:14

    Ottimo, me gusta :)

  8. Avatar di Robynhub Robynhub 11/5/2013 13:48

    Moore dice un sacco di fregnacce

    cit. del mio emerito prof. di architettura degli elaboratori all’ Universita’ di Pisa. Il problema e’ semplice: Piu’ veloci vanno le cpu e piu’ devono essere piccole altrimenti si trasformano in antenne. E far entrare tutta quella roba in spazi sempre piu’ piccoli…. L’unica soluzione e’ il parallelismo (multicore, multiprocessori etc..). Vanneschi docet.

    • Avatar di alepau87 alepau87 11/5/2013 14:49

      ahahahahahaha il tuo prof la sa lunga!! il mio prof. di Elettronica Digitale diceva “fin’ora a Moore gli sta andando bene”…

    • Avatar di Herbert Ashe Herbert Ashe 14/5/2013 12:23

      Bè ma l’intenzione di Moore non era quella di stabilire una legge: era solo una previsione a breve termine mutuata da estrapolazioni empiriche.
      Poi appunto le tecniche attuali si stanno avvicinando ai propri limiti fisici. Dovremo aspettare che il wafer di silicio lasci il posto ai nanotubi di carbonio, al grafene, ai polimeri fotosensibili, a quello che sarà. Sempre che davvero abbiamo ancora bisogno di aumentare la potenza, e non piuttosto di riformare il nostro modello di consumo energetico, di produzione articoli destinati a diventare rifiuti, e smaltimento rifiuti. (Jeez, questo suona molto abbraccia-alberi – non è da me).

  9. Avatar di wasd1983 wasd1983 14/5/2013 01:09

    La sparo grossa:
    Per i prossimi anni costante rallentamento, si arranca e poi BAM!! fra X anni arriva il grafene che, guardacaso, avrà una potenza assimilabile a quella che avrebbe avuto la tecnologia se avesse mantenuto costante la legge di Moore.
    L’ho sparata.

    • Avatar di Nicholas | Nè Nicholas | Nè 14/5/2013 10:09

      La legge di Moore è come l’amore di Moore: tosto e veloce. (paracit.)

Lascia un Commento

Devi essere loggato per inviare un commento.

LN Panic Mode - Premi "P" per tornare a Lega Nerd