FRFAM.COM >> Famille >> Technologie &Innovation >> Informatique

Plus rapide, plus fin, moins cher :la loi de Koomeys est-elle la nouvelle loi de Moores ?

Les ordinateurs portables, mobiles et tablettes deviennent moins chers, plus élégants et plus puissants chaque année, tandis que la durée de vie de la batterie ne cesse de s'allonger. Vous êtes-vous déjà demandé pourquoi et si les appareils peuvent continuer à s'améliorer pour toujours ?

La réponse à la première question est expliquée par trois lois découvertes par des chercheurs, connues sous le nom de loi de Moore, mise à l'échelle de Dennard et loi de Koomey. Lisez la suite pour comprendre l'impact de ces lois sur l'informatique et où elles pourraient nous mener à l'avenir.

Qu'est-ce que la loi de Moore ?

Plus rapide, plus fin, moins cher :la loi de Koomeys est-elle la nouvelle loi de Moores ?

Si vous êtes un lecteur régulier de MakeUseOf, vous connaissez peut-être la mythique loi de Moore.

Le PDG et co-fondateur d'Intel, Gordon Moore, l'a introduit pour la première fois en 1965.

Il a prédit que le nombre de transistors sur une puce doublerait environ tous les deux ans et deviendrait entre 20 et 30 % moins cher à fabriquer chaque année. Le premier processeur d'Intel est sorti en 1971 avec 2 250 transistors et une surface de 12 mm 2 . Les processeurs actuels contiennent des centaines de millions de transistors par millimètre carré.

Bien que cela ait commencé comme une prédiction, l'industrie a également adopté la loi de Moore comme feuille de route. Pendant cinq décennies, la prévisibilité de la loi a permis aux entreprises de formuler des stratégies à long terme, sachant que, même si leurs conceptions étaient impossibles au stade de la planification, la loi de Moore livrait la marchandise au moment opportun.

Cela a eu un effet d'entraînement dans de nombreux domaines, des graphismes en constante amélioration des jeux au nombre croissant de mégapixels dans les appareils photo numériques.

Cependant, la loi a une durée de vie et le rythme des progrès ralentit. Bien que les fabricants de puces continuent de trouver de nouvelles façons de contourner les limites des puces en silicium, Moore lui-même pense que cela ne fonctionnera plus d'ici la fin de cette décennie. Mais ce ne sera pas la première loi de la technologie à disparaître.

Qu'est-il arrivé à Dennard Scaling ?

Plus rapide, plus fin, moins cher :la loi de Koomeys est-elle la nouvelle loi de Moores ?

En 1974, le chercheur d'IBM Robert Dennard a observé que, à mesure que les transistors rétrécissent, leur consommation d'énergie reste proportionnelle à leur surface.

La mise à l'échelle de Dennard, comme on l'appelait, signifiait que la surface du transistor était réduite de 50 % tous les 18 mois, ce qui entraînait une augmentation de la vitesse d'horloge de 40 %, mais avec le même niveau de consommation d'énergie.

En d'autres termes, le nombre de calculs par watt augmenterait à un rythme exponentiel mais fiable, et les transistors deviendraient plus rapides, moins chers et consommeraient moins d'énergie.

À l'ère de la mise à l'échelle de Dennard, l'amélioration des performances était un processus prévisible pour les fabricants de puces. Ils ont simplement ajouté plus de transistors aux processeurs et augmenté les fréquences d'horloge.

Cela était également facile à comprendre pour le consommateur :un processeur fonctionnant à 3,0 GHz était plus rapide qu'un processeur fonctionnant à 2,0 GHz, et les processeurs devenaient de plus en plus rapides. En effet, la feuille de route technologique internationale pour les semi-conducteurs (ITRS) prévoyait autrefois que les fréquences d'horloge atteindraient 12 GHz d'ici 2013 !

Pourtant aujourd'hui, les meilleurs processeurs du marché ont une fréquence de base de seulement 4,1 GHz. Que s'est-il passé ?

La fin de la mise à l'échelle de Dennard

Les vitesses d'horloge sont restées bloquées vers 2004 lorsque les réductions de consommation d'énergie ont cessé de suivre le rythme de réduction des transistors.

Les transistors sont devenus trop petits et le courant électrique a commencé à fuir, provoquant une surchauffe et des températures élevées, entraînant des erreurs et des dommages matériels. C'est l'une des raisons pour lesquelles votre puce informatique possède un dissipateur de chaleur. Dennard Scaling avait atteint les limites dictées par les lois de la physique.

Plus de cœurs, plus de problèmes

Avec des clients et des secteurs entiers habitués à des améliorations continues de la vitesse, les fabricants de puces avaient besoin d'une solution. Ils ont donc commencé à ajouter des cœurs aux processeurs afin de continuer à augmenter les performances.

Cependant, plusieurs cœurs ne sont pas aussi efficaces que la simple augmentation des vitesses d'horloge sur des unités à un seul cœur. La plupart des logiciels ne peuvent pas tirer parti du multitraitement. La mémoire cache et la consommation d'énergie sont des goulots d'étranglement supplémentaires.

Le passage aux puces multicœurs a également annoncé l'arrivée du silicium noir.

L'âge sombre du silicium

Plus rapide, plus fin, moins cher :la loi de Koomeys est-elle la nouvelle loi de Moores ?

Il est vite devenu évident que si trop de cœurs sont utilisés simultanément, le courant électrique peut fuir, ressuscitant le problème de surchauffe qui a tué la mise à l'échelle de Dennard sur les puces monocœur.

Le résultat est des processeurs multicœurs qui ne peuvent pas utiliser tous leurs cœurs à la fois. Plus vous ajoutez de cœurs, plus les transistors d'une puce doivent être éteints ou ralentis, dans un processus appelé "silicium noir".

Ainsi, bien que la loi de Moore continue de laisser plus de transistors tenir sur une puce, le silicium noir ronge l'espace CPU. Par conséquent, ajouter plus de cœurs devient inutile, car vous ne pouvez pas tous les utiliser en même temps.

Maintenir la loi de Moore à l'aide de plusieurs cœurs semble être une impasse.

Comment la loi de Moore pourrait continuer

Un remède consiste à améliorer le multitraitement logiciel. Java, C++ et d'autres langages conçus pour des cœurs uniques céderont la place à des langages comme Go, qui s'exécutent mieux simultanément.

Une autre option consiste à augmenter l'utilisation des matrices de portes programmables sur le terrain (FPGA), un type de processeur personnalisable qui peut être reconfiguré pour des tâches spécifiques après l'achat. Par exemple, un FPGA peut être optimisé par un client pour gérer la vidéo ou être spécialement adapté pour exécuter des applications d'intelligence artificielle.

La construction de transistors à partir de différents matériaux, tels que le graphène, est un autre domaine étudié pour donner plus de vie à la prédiction de Moore. Et, en fin de compte, l'informatique quantique pourrait complètement changer la donne.

L'avenir appartient à la loi de Koomey

En 2011, le professeur Jonathan Koomey a montré que l'efficacité énergétique de pointe (l'efficacité d'un processeur fonctionnant à vitesse maximale) faisait écho à la trajectoire de puissance de traitement décrite par la loi de Moore.

La loi de Koomey a observé que, des bêtes à tube à vide des années 1940 aux ordinateurs portables des années 1990, les calculs par joule d'énergie avaient doublé de manière fiable tous les 1,57 ans. En d'autres termes, la batterie utilisée par une certaine tâche diminuait de moitié tous les 19 mois, ce qui entraînait une diminution de l'énergie nécessaire pour un calcul spécifique d'un facteur 100 tous les dix ans.

Alors que la loi de Moore et la mise à l'échelle de Dennard étaient extrêmement importantes dans un monde d'ordinateurs de bureau et d'ordinateurs portables, la façon dont nous utilisons les processeurs a tellement changé que l'efficacité énergétique promise par la loi de Koomey est probablement plus pertinente pour vous.

Votre vie informatique est probablement répartie entre de nombreux appareils :ordinateurs portables, téléphones portables, tablettes et gadgets divers. En cette ère de informatique proliférante , l'autonomie de la batterie et les performances par watt deviennent plus importantes que l'extraction de plus de GHz de nos processeurs à plusieurs cœurs.

De même, avec une plus grande partie de notre traitement externalisé vers d'immenses centres de données de cloud computing, les implications de la loi de Koomey sur les coûts énergétiques intéressent au plus haut point les géants de la technologie.

Plus rapide, plus fin, moins cher :la loi de Koomeys est-elle la nouvelle loi de Moores ?

Cependant, depuis 2000, le doublement de l'efficacité énergétique à l'échelle de l'industrie décrit par la loi de Koomey a ralenti en raison de la fin de la mise à l'échelle de Dennard et de la décélération de la loi de Moore. La loi de Koomey est désormais appliquée tous les 2,6 ans et, au cours d'une décennie, l'efficacité énergétique n'est multipliée que par 16, au lieu de 100.

Il est peut-être prématuré de dire que la loi de Koomey suit déjà celle de Dennard et Moore vers le coucher du soleil. En 2020, AMD a signalé que l'efficacité énergétique de son processeur AMD Ryzen 7 4800H avait été multipliée par 31,7 par rapport à ses processeurs de 2014, donnant à la loi de Koomey un coup de pouce opportun et substantiel.

Redéfinir l'efficacité pour étendre la loi de Koomey

L'efficacité énergétique de pointe n'est qu'un moyen d'évaluer l'efficacité informatique et il se peut qu'il soit désormais obsolète.

Cette métrique avait plus de sens au cours des dernières décennies, lorsque les ordinateurs étaient des ressources rares et coûteuses qui avaient tendance à être poussées à leurs limites par les utilisateurs et les applications.

Aujourd'hui, la plupart des processeurs fonctionnent à des performances optimales pendant une petite partie de leur vie, lors de l'exécution d'un jeu vidéo, par exemple. D'autres tâches, telles que la vérification des messages ou la navigation sur le Web, nécessitent beaucoup moins d'énergie. En tant que tel, l'efficacité énergétique moyenne devient la priorité.

Koomey a calculé cette "efficacité d'utilisation typique" en divisant le nombre d'opérations effectuées par an par l'énergie totale utilisée et affirme qu'elle devrait remplacer la norme "d'efficacité d'utilisation maximale" utilisée dans sa formulation d'origine.

Bien que l'analyse n'ait pas encore été publiée, entre 2008 et 2020, l'efficacité d'utilisation typique devrait avoir doublé tous les 1,5 an environ, ramenant la loi de Koomey au taux optimal observé lorsque la loi de Moore était à son apogée.

L'une des implications de la loi de Koomey est que les appareils continueront à réduire leur taille et deviendront moins gourmands en énergie. Les processeurs en diminution, mais toujours à grande vitesse, pourraient bientôt être si peu puissants qu'ils pourront tirer leur énergie directement de l'environnement, comme la chaleur de fond, la lumière, le mouvement et d'autres sources.

De tels dispositifs de traitement omniprésents ont le potentiel d'inaugurer le véritable âge de l'Internet des objets (IoT) et de donner à votre smartphone un aspect aussi désuet que les mastodontes à tubes sous vide des années 1940.

Plus rapide, plus fin, moins cher :la loi de Koomeys est-elle la nouvelle loi de Moores ?

Cependant, à mesure que les scientifiques et les ingénieurs découvrent et mettent en œuvre de plus en plus de nouvelles techniques pour optimiser "l'efficacité d'utilisation typique", cette partie de la consommation totale d'énergie d'un ordinateur est susceptible de chuter tellement qu'à des niveaux d'utilisation typiques, seule la sortie de pointe sera suffisamment significatif pour être mesuré.

L'utilisation de pointe redeviendra la référence pour l'analyse de l'efficacité énergétique. Dans ce scénario, la loi de Koomey rencontrera éventuellement les mêmes lois de la physique qui ralentissent la loi de Moore.

Ces lois de la physique, qui incluent la deuxième loi de la thermodynamique, signifient que la loi de Koomey se terminera vers 2048.

L'informatique quantique va tout changer

La bonne nouvelle est que d'ici là, l'informatique quantique devrait être bien développée, les transistors basés sur des atomes uniques étant monnaie courante, et une nouvelle génération de chercheurs devra découvrir un tout autre ensemble de lois pour prédire l'avenir de l'informatique.


[]