L’avenir de la loi de Moore

David LUC
XXII Group
Published in
10 min readMar 8, 2017

La loi de Moore, prophétie auto-réalisée pour certains, indicateur de performances pour d’autres. Cette simple observation datant des années 60 a eu un impact majeur sur l’évolution de notre technologie. Il est même facile de penser que si cette loi n’avait jamais été observée, notre technologie serait probablement à un point différent aujourd’hui. Mais que dit-elle, cette loi ? Quelles ont été ses conséquences ? Où en est-elle ? Et surtout, quels moyens avons-nous pour nous assurer qu’elle soit maintenue dans les décennies à venir ?

Ces questions sont celles de l’augmentation de la puissance de calcul disponible au grand public. Elles sont donc essentielles d’un point de vue économique dans notre monde moderne et numérique. Elles sont aussi essentielles pour notre confort en tant que consommateurs : plus de puissance de calcul veut dire des jeux vidéos toujours plus beaux, des prédictions météorologiques plus précises, et très bientôt, des véhicules autonomes et de l’intelligence artificielle partout. Et ce ne sont là que quelques exemples.

La loi de Moore

En 1965 Gordon Moore, cofondateur de Fairchild Semicondcutor et d’Intel, a fait l’observation que les circuits imprimés voyaient leur densité doubler chaque année. Par densité, on entend le nombre de transistors par unité de surface. Revue en 1975, cette tendance a été revue légèrement à la baisse, la période de doublement étant comprise entre dix-huit mois et deux ans. La loi de Moore était née.

Il est bon de noter que cette loi est totalement empirique, et ne représente pas une loi de la nature (sauf peut-être de la nature humaine). Le mot “loi” ici fait juste référence à un modèle d’évolution, et non pas une règle à respecter.

Évolution de la taille de grille des processeurs Intel dans le temps : ce graphe met en lumière la réduction exponentielle de la taille des transistors année après année

Cette loi a été réinterprétée dans les médias par la suite d’une manière que Moore n’a jamais formulée lui-même :

“La puissance des ordinateurs double tous les dix-huit mois”.

Cette version de la loi a rapidement eu un impact sur elle-même : elle est devenue un but en soi. Un indicateur pour les concepteurs de circuits imprimés et de processeurs qu’ils étaient bien au sommet de leur art. Et donc, bien entendu, un indicateur pour justifier un volume de vente toujours plus important.

C’est à cette version de la loi de Moore que nous allons nous intéresser, à travers une question qui ne semble pas si compliquée : jusqu’où cette loi peut-elle aller ?

Ma boule de cristal étant pour le moment en réparation, je vous propose une autre façon de formuler cette question : de quels outils disposons-nous pour maintenir cette loi ?

Dans cet article, je me concentrerai uniquement sur les technologies permettant de rendre les processeurs plus puissants, et enfin nous aborderons le sujet des ordinateurs quantiques, qui seront probablement l’étape suivante de l’évolution.

La base de notre technologie

Nos ordinateurs ne savent faire qu’une chose : effectuer des calculs très simples sur des nombres écrits sous forme de 0 et de 1. Cependant, ils sont capables de faire des milliards de ces opérations chaque seconde. La vitesse à laquelle ils font ces opérations est leur seul avantage.

Dans un ordinateur, c’est le processeur qui fait les calculs. Les autres composants ne sont là que pour permettre au processeur de travailler dans de bonnes conditions (par exemple en lui permettant de se souvenir de ses calculs précédents).

Descendons encore d’un niveau : un processeur récent est composé de plusieurs milliards de transistors. Un transistor n’est rien de plus qu’un interrupteur, c’est à dire un composant avec deux états, ouvert et fermé, que l’on peut faire passer de l’un à l’autre très vite. Ce deux états sont particulièrement bien adaptés à la manipulation de 0 et de 1, et ce n’est pas un hasard si l’architecture de nos processeurs les utilise en grandes quantités.

Un transistor est un système nécessitant les propriétés combinées de plusieurs types de matériaux différents, notamment des métaux, des semi-conducteurs et des oxydes (isolants). La vitesse à laquelle un transistor peut passer d’un état à l’autre est un des facteurs importants pour la vitesse globale du processeur (et concrètement, définira le prix auquel il pourra être vendu). De manière générale, plus un processeur est petit, plus il passera vite d’un état à un autre, et moins il consommera d’énergie. À taille de processeur fixe, plus les transistors seront petits, plus il y en aura, plus des calculs complexes pourront être effectués.

Pour la plupart des gens, la puissance de calcul d’un processeur a longtemps été synonyme de sa fréquence d’horloge (le nombre en MHz ou GHz). Cependant, depuis une dizaine d’années, les choses ne sont plus aussi simples : les consommateurs ont pu remarquer la stagnation de ces fréquences. En effet les premiers processeurs Intel de plus de 3 GHz datent de 2005 avec le Pentium D. Plus de dix ans plus tard, cette gamme de fréquences est devenue courante et meilleur marché, mais reste le haut du panier : 4.5 GHz pour le haut de gamme des processeurs Intel i7 de septième génération.

A cause de l’augmentation de la consommation électrique et des problématiques de gestion de la chaleur liées à cette façon de faire, d’autres voies ont été explorées pour maintenir l’augmentation de la puissance de calcul.

Comment la loi de Moore a été maintenue jusqu’à présent

D’autres techniques que la miniaturisation ont été utilisées pour continuer à augmenter la puissance de calcul. L’apparition des processeurs multicoeurs est la première. Le constat est simple : gérer toujours plus de transistors ou augmenter la fréquence posent beaucoup de problèmes à la conception, et à l’utilisation.

Dans un ordinateur, beaucoup de choses se passent en même temps (ou presque). Il est alors très naturel de se dire que plusieurs processeurs pourraient faire mieux qu’un seul très gros. Cette technique était déjà utilisée dans les supercalculateurs, mais son apparition dans l’informatique domestique date de 2005 (2001 si on inclut le Power4 d’IBM, mais que l’on ne peut pas vraiment qualifier de domestique). Ces processeurs multiples sont plus généralement appelés coeurs (ou cores en anglais), et sont généralement au nombre de 2, 4, 8 voire 16. Cependant, bien que cela reste une excellente façon de rendre notre expérience informatique plus fluide, il est important de noter qu’en général avoir 4 coeurs ne va pas réduire les temps de calcul par 4 (voir la loi d’Amdahl).

Cette politique du “diviser pour mieux régner”, ou mieux calculer, n’est pas nouvelle en informatique. Prenons l’exemple des jeux vidéos, et en particulier du composant-roi des gamers : la carte graphique. Là ou un processeur multicoeur fonctionne en juxtaposant plusieurs processeurs raisonnablement puissants, une carte graphique incorpore beaucoup de petits processeurs de faible puissance.

Les problèmes pour lesquels les cartes graphiques sont conçues sont très parallélisables, c’est-à-dire séparables en beaucoup de sous-problèmes indépendants, comme le calcul de la couleur d’un seul pixel d’une image. La faible puissance de chaque processeur n’est donc plus une limitation. Cette tendance à la parallélisation a des bénéfices potentiels énormes, ce qui n’a pas échappé à l’industrie automobile et leurs futurs véhicules autonomes, qui utilisent cette puissance au maximum.

Calcul séquentiel (à gauche) vs calcul parallèle (à droite). Un processeur unique fait un calcul en visitant ses données les unes après les autres, alors qu’un processeur multicoeur peut effectuer un calcul plus rapidement en séparant ses données en autant de blocs qu’il y a de coeurs. Chaque coeur calcule de manière séquentielle sur le bloc de données qui lui est attribuée

Et demain ?

Le saut apporté par la parallélisation ne durera qu’un temps. Il arrivera un jour où toutes les applications en tireront partie au maximum, et augmenter le nombre de coeurs ne sera plus la solution viable. Comment alimenter notre besoin toujours grandissant de puissance de calcul ?

Il existe de nombreuses voies, certaines incompatibles entre elles, pour y arriver. Et c’est tant mieux ! Parce que ces technologies ne sont pas au même degré de maturité, et n’ont pas la même facilité d’intégration avec la technologie et l’industrie existante. C’est dans les laboratoires de physique que l’avenir de la loi de Moore se dessine, et c’est par ordre chronologique probable d’apparition des technologies que je vais vous présenter ces innovations.

Des transistors similaires, mais plus performants

Je vais vous révéler un secret. Le silicium, ce matériau sur lequel toute notre technologie moderne est basé, dans lequel l’industrie a investi des milliards depuis des décennies… n’est vraiment pas le meilleur matériau pour l’électronique.

Premier point à considérer, avec tous les efforts financiers et intellectuels qui y ont été alloués, nous exploitons actuellement le silicium au mieux de ses performances. Malheureusement, il faut constater que les raisons qui ont mené à l’adoption du silicium à l’origine sont en train de disparaître les unes après les autres, ne nous laissant que ses désavantages :

  • Il conduit assez mal la chaleur, il est donc difficile de refroidir le système
  • Les électrons s’y déplacent assez mal comparé aux autres semi-conducteurs
  • Utiliser du cuivre, le matériau-roi des connexions électriques, n’est possible qu’au prix de grands efforts.

A l’inverse, des transistors basés sur du nitrure de gallium commencent à être produits au même prix que s’ils avaient été en silicium. La capacité du silicium à naturellement se recouvrir d’un oxyde n’est plus un avantage depuis que de meilleurs isolants sont devenus indispensables.

En résumé les avantages historiques du silicium disparaissant, l’utilisation d’autres semi-conducteurs aux meilleures propriétés se justifie de plus en plus. Parmi ces alternatives, on retrouve le Ge, SiGe, SiC, GaN, GaAs, et bien d’autres.

Les matériaux de faible dimensionnalité

Toute la technologie microélectronique actuelle est basée sur ce qu’on appelle le dépôt de couches fines, c’est à dire un mille-feuilles de matériaux en couches de quelques dizaines de nanomètres. Tout le monde s’accordera à dire que c’est extrêmement fin. Malgré tout, ces matériaux gardant une nature tridimensionnelle, du point de vue des électrons, ils ont une vraie épaisseur. Ce pourrait bien ne plus être le cas pour les matériaux du futur de l’électronique. La superstar du domaine est, bien entendu, le graphène, une couche de graphite (oui oui, votre mine de crayon) épaisse d’une seule couche d’atomes. On parle alors de matériau 2D, puisqu’il est aussi plat qu’il est possible de l’être.

Le graphène, une couche unique d’atomes de carbone arrangés selon une structure hexagonale

Cependant, le graphène pur n’étant pas semi-conducteur, certains pensent que d’autres alternatives sont nécessaires, comme par exemple la molybdénite (MoS₂), un autre matériau 2D, qui lui est semi-conducteur. D’autres matériaux similaires existent et pourraient remporter le concours de popularité, une fois arrivés à maturité.

Il existe aussi des structures unidimensionnelles (1D), c’est-à-dire où les électrons ne peuvent se propager que dans une seule direction. Les fameux nanotubes de carbone sont un exemple très prometteur, mais il existe des nanofils semi-conducteurs aux propriétés extrêmement intéressantes, et qui pourraient être produits à faible coût comparé au prix d’une couche mince du même matériau.

Les nanotubes de carbone peuvent être vus comme une couche de graphène repliée sur elle-même

Des transistors extrêmement performants ont déjà été produits basés sur ces matériaux et techniques de fabrication novateurs. Une fois arrivés à maturité, ils nous permettraient de vraiment créer des transistors sur-mesure en exploitant à volonté les avantages de chaque matériau, en s’affranchissant en grande partie de leurs éventuels inconvénients.

Les transistors utilisant la mécanique quantique au lieu de l’éviter

Plus les transistors deviennent petits, plus les lois de la mécanique quantique deviennent prédominantes et interfèrent avec le fonctionnement nominal du système. Mais est-ce que vouloir conserver ce fonctionnement bien connu n’est pas la mauvaise façon de faire ? Et si au lieu de subir la mécanique quantique, nous l’acceptions comme une opportunité de construire des transistors totalement nouveaux ?

C’est ce que certains chercheurs ont choisi de faire, en construisant des transistors basés sur un seul atome, ou encore en utilisant une molécule qui en changeant de forme laisse ou non passer le courant. Ils obtiennent de cette façon des transistors extrêmement rapides, minuscules, ne nécessitant que de très faibles quantités d’énergie.

Lorsque ces composants sortiront des laboratoires pour passer à l’échelle industrielle, nous ferons probablement face à une petite révolution dans la puissance de calcul.

Une nuance importante : bien que ces transistors utilisent la mécanique quantique pour fonctionner, leur comportement reste classique, déterministe. Ce ne sont pas des bits quantiques et ils ne permettent pas de calcul quantique. Il s’agit juste d’une nouvelle façon beaucoup plus efficace de faire ce que nous faisons depuis plus de 70 ans.

Calcul quantique (spécialisé vs universel)

Très honnêtement, parmi les technologies que j’ai présentées jusqu’à présent, je ne peux pas prédire lesquelles mèneront à une commercialisation. Ce qui semble assuré cependant, c’est que toutes ces technologies ne seront là que pour nous permettre d’attendre la maturité des ordinateurs quantiques. Voilà la véritable révolution.

Imaginez des ordinateurs qui au lieu de faire un calcul sur une entrée donnée et vous donnent le résultat feraient un calcul sur toutes les entrées possibles en même temps. Il ne vous reste plus donc qu’à choisir le résultat qui vous intéresse. Dans certains cas, cela permet d’accélérer l’obtention du résultat à des niveaux qui relégueront nos ordinateurs classiques, même les plus puissants, au rang de bouliers. Ces cas sont ceux correspondant aux quelques algorithmes quantiques connus à ce jour.

C’est maintenant le bon moment d’insister sur un fait important, qui mène à la séparation des ordinateurs quantiques en deux catégories :

  • D’un côté les ordinateurs quantiques spécifiques, ceux qui implémentent un algorithme quantique précis, et ne savent rien faire d’autre. Ils le font cependant infiniment mieux que nos ordinateurs actuels
  • De l’autre côté, il y a les ordinateurs quantiques universels (rien que ça), qui bénéficient de la même accélération pour les algorithmes quantiques, mais sont aussi capables de faire des calculs classiques. Dans ce second cas, ils seront comparables à nos ordinateurs actuels, mais avec des transistors survitaminés. Ce qui est déjà très bien !
Exemple d’accélération quantique : comparaison d’algorithmes de factorisation en nombre premiers. On voit que l’algorithme quantique est exponentiellement plus rapide pour les très grands nombres que l’algorithme classique

Mon avis sur comment les ordinateurs quantiques apparaîtront sur le marché est qu’ils seront dans un premier temps intégrés à nos ordinateurs sous forme d’un composant additionnel. Un QPU (Quantum Processing Unit), similaire au CPU (processeur) et au GPU (processeur graphique), qui prendrait la main lorsqu’une tâche sur laquelle il est spécialisé est requise.

Conclusion

J’espère vous avoir convaincu dans cet article qu’à travers des changements de paradigmes successifs, l’évolution de notre puissance de calcul est assurée. Pour garder cet article court et accessible, je ne suis pas rentré dans les détails de ces technologies. Je le ferai dans un ensemble d’articles qui viendront compléter cette étude, et former un dossier que j’espère complet sur le sujet.

--

--