La loi de Moore, ou plutôt les Lois de Moore sont un ensemble de lois empiriques. Voyons en quoi cela consiste.

Définition

La loi de Moore originelle doit son nom à Gordon Earle Moore, informaticien qui a été cofondateur d’Intel qu’il confonde en 1968 avec Robert Noyce et Andrew Grove. Gordon E. Moore postule que la complexité des semi-conducteurs va doubler tous les ans à coût constant. En 1975, il réajuste sa prédiction. Il va dire cette fois que le nombre de transistors sur une puce de microprocesseur double tous les deux ans. Cette prédiction s’est avérée vraie.

Loi de Moore
La Loi de Moore. Source : Wikipedia

Concrètement cela signifie si on attend un an, (puis finalement deux ans), pour le même prix on pourra avoir une machine deux fois plus puissante. Un an après son achat, une machine sera alors déjà dépassée. Et au vu de la différence entre invention et mise sur le marché, on peut même dire que le temps que cette machine arrive sur le marché, elle sera dépassée. Donc, en tout cas pour l’électronique, progrès technologique signifie pollution. Le matériel acheté à un moment donné sera obsolète quelques mois plus tard. Et cela pose un autre problème.

Moore avait prédit que cette loi serait valable jusqu’en 2015, parce qu’à partir de ce moment la taille des transistors serait de l’ordre du nanomètre. Et qu’est ce qui fait environ un nanomètre ? L’atome. On ne peut pas faire de transistor plus petit qu’un ou quelques atomes.

D’autres applications et conséquences

Finalement, on appelle Loi de Moore tout phénomène qui double sur une durée régulière définie. Il y aurait par exemple une Loi de Moore pour l’IA (voir ici pour le papier de recherche expliquant cela). Tous les 16 mois, pour un niveau de précision donné, la puissance de calcul nécessaire serait divisée par 2.

En informatique encore, Seagate Technology, annoncé avoir divisé en 29 ans par 1 300 000 le cout du mégaoctet sur un disque dur. Quelque chose qui était destiné aux grosses entreprises en 1980 peut maintenant être acheté par les particuliers en 2009.

La loi de Moore a un pendant : La loi de Wirth. La loi de Wirth indique que les programmes ralentissent plus vite que le matériel n’accélère. Cette loi me semble similaire à la loi de Parkinson qui indique que le travail, ou encore les données, se comportent comme un gaz. C’est à dire que les données occupent tout l’espace qu’on leur donne. Et il en serait de même pour les programmes informatiques. Lorsqu’on double la capacité de calcul, on aura en fait des programmes qui deviendront deux fois plus difficiles à faire tourner : Plus de fonctionnalités, moins d’optimisation car on sait qu’on dispose de plus de capacités de calcul.

Quand, en 1980, on était beaucoup plus limités par les calculs, on se posait beaucoup plus la question de l’optimisation des programmes informatiques. Avant, on se contentait d’une disquette de l’ordre du Mo. Aujourd’hui, un téléphone de 64 Go peut être très vite rempli si on ne fait pas attention à son espace.

Un peu de mathématiques

On va partir de 1976 en référence. Les processeurs faisaient alors environ 10 000 transistors. Ils sont censés doubler tous les 2 ans. Cela signifie qu’ils suivent une loi géométrique de paramètre 2. A l’année 1976 +2n, les processeurs auraient alors 10000.2n transistors. Combien d’années pour arriver à 1 000 000 ? A 1 000 000 000 ? Faisons le calcul.

\begin{array}{l}10000\ \times\ 2^{n\ }=\ 1\ 000\ 000\\ \\
\Leftrightarrow\ 2^n\ =\ 100\\ \\
\Leftrightarrow\ \exp\left(n\ \ln\left(2\right)\right)\ \ =100\\ \\
\Leftrightarrow\ n\ \ln\ \left(2\right)\ =\ \ln\left(100\right)\\ \\
\Leftrightarrow\ n\ =\ \frac{\ln\left(100\right)}{\ln\left(2\right)}\ \approx\ 6.6\ \\ \\
Donc\ 1976\ +\ 2\ \times6.6\ =\ 1989\end{array}

Donc de manière théorique, on arrive au million de transistors en 1989. Ce qui fait aussi dire qu’environ tous les 13 ans, on multiplie le nombre de transistors par 100. Si vous n’êtes pas familiers avec ce calcul, allez voir notre fiche sur les logarithmes

Et pour le milliard ? Faisons le même calcul :

\begin{array}{l}10000\ \times\ 2^{n\ }=\ 1\ 000\ 000\ 000\\ \\
\Leftrightarrow\ 2^n\ =\ 100\ 000\\ \\
\Leftrightarrow\ \exp\left(n\ \ln\left(2\right)\right)\ \ =100\ 000\\ \\
\Leftrightarrow\ n\ \ln\ \left(2\right)\ =\ \ln\left(100\ 000\right)\\ \\
\Leftrightarrow\ n\ =\ \frac{\ln\left(100\ 000\right)}{\ln\left(2\right)}\ \approx\ 16.6\ \\ \\
Donc\ 1976\ +\ 2\ \times16.6\ \approx\ 2009\end{array}

Le milliard de transistors a donc théoriquement été atteint en 2009.

Retrouvez maintenant nos derniers articles :

1 Comment

Laisser un commentaire