FLOPS

unité de mesure
(Redirigé depuis Flops)
Unité de performance des processeurs
Nom FLOPS
yottaFLOPS 1024
zettaFLOPS 1021
exaFLOPS 1018
pétaFLOPS 1015
téraFLOPS 1012
gigaFLOPS 109
mégaFLOPS 106
kiloFLOPS 103

Le nombre d'opérations en virgule flottante par seconde (en anglais : floating-point operations per second ou FLOPS[a]) est une unité de mesure de la rapidité de calcul d'un système informatique et donc d'une partie de sa performance.

Les opérations en virgule flottante (additions ou multiplications) sont des opérations qui permettent des calculs représentant de très grands et de très petits nombres représentés par une mantisse et un exposant. De telles opérations prennent plus de temps de calcul que des opérations sur les nombres entiers et sont utilisées dans certains types d'applications.

Taille des instructions

modifier

La plupart des microprocesseurs modernes incluent une unité de calcul en virgule flottante (en anglais : floating-point unit, FPU), qui est une partie spécialisée du microprocesseur destinée à effectuer ce type d'opération. La mesure du nombre de FLOPS mesure réellement la vitesse du FPU. Un des tests de performance les plus communs employés pour mesurer le nombre de FLOPS s'appelle LINPACK.

Le nombre de FLOPS ne tient pas compte de facteurs tels que le profil de charge (charges lourdes ou légères, régulières ou très variables, etc.) du processeur ou les catégories d'opérations à virgule flottante utilisées, ni avec quel pourcentage. Pour cette raison, un consortium de fournisseurs a créé la Standard Performance Evaluation Corporation (SPEC), qui entend fournir une mesure plus significative.

Le nombre d'opérations en virgule flottante peut être calculé à partir de différentes tailles de nombres :

  • simple précision (SP) 32 bits ;
  • double précision (DP) 64 bits.

Le nombre de FLOPS[b] est couramment utilisé dans le domaine des calculs scientifiques, par exemple dans le TOP500 des superordinateurs.

L'équation permettant de calculer un FLOPS est[1] :

.

En 2011, la plupart des microprocesseurs réalisent 4 FLOP par cycle d'horloge[1]. Donc un microprocesseur monocœur cadencé à 2,5 GHz a une cadence théorique de 10 milliards de FLOPS, notée 10 GFLOPS[c].

Vitesse

modifier

La rapidité de calcul obtenue varie beaucoup en fonction de cette taille[pas clair].

  • En 1964, la barre du mégaFLOPS (106 FLOPS) a été franchie par le superordinateur américain Control Data 6600.
  • En 1985, la barre du gigaFLOPS (109 FLOPS) a été franchie par le superordinateur américain Cray-2.
  • En 1997, la barre du téraFLOPS (1012 FLOPS) a été franchie par le superordinateur américain ASCI Red.
  • En 2008, la barre du pétaFLOPS (1015 FLOPS) a été franchie par le superordinateur américain Roadrunner.
  • En 2022, la barre de l'exaFLOPS (1018 FLOPS) a été franchie par le superordinateur américain Frontier.

En , le plus puissant superordinateur atteint les 8,162 pétaFLOPS. Il s'agit du K computer[2]. Ce superordinateur japonais totalise 68 544 processeurs de 8 cœurs et dispose d'une puissance de calcul supérieure à celle de ses 5 suivants réunis. Ce même supercalculateur a battu son propre record en en atteignant la barre des 10 pétaFLOPS (ou 1016 FLOPS). Il disposait à ce moment de 88 128 processeurs de 8 cœurs[3].

En , la firme Cray Inc. reprend la tête du TOP500 devant IBM avec Titan, un superordinateur de 17,59 pétaFLOPS, capable d'atteindre 27 pétaFLOPS en performance de pointe[4]. Ce superordinateur est installé au laboratoire national d'Oak Ridge. Sa puissance énergétique est de 8,2 MW ; il dispose d'une architecture hybride à base de processeurs Opteron (AMD) et d'accélérateurs GPU Tesla (Nvidia).

En 2013, le plus puissant supercalculateur au monde est la machine chinoise Tianhe-2, qui affiche 33,86 pétaflops de puissance de calcul[5].

En 2013, un ordinateur personnel peut développer une puissance d'environ 200 gigaFLOPS avec un microprocesseur comme l'Intel Core i7-3770, de puissance comparable aux superordinateurs de 1995, et 5 621 gigaFLOPS avec un processeur graphique comme le Nvidia GTX 690, soit une puissance comparable aux superordinateurs de 2001[6].

Le , la plateforme de calcul distribué BOINC totalise 8,251 pétaFLOPS[7].

En 2015, le gouvernement américain lance un projet pour franchir la barre de l'exaFLOPS (1018 FLOPS)[8].

En 2016, le gouvernement français lance un projet à travers la société Bull pour « développer une puissance exaflopique »[9], la France reste loin de ses concurrents japonais, chinois et surtout américains.

Toujours en 2016, la plateforme DGX-1 avec Nvidia Pascal 8x GPUs server(P100)[10] avec le Deep Learning de Nvidia intégré a une puissance d'environ 170 téraFLOPS (FP16), il est d'une puissance comparable aux superordinateurs de 2005[11]. La version Tesla V100[12] intégrée a une puissance d'environ 960 téraFLOPS (FP16), elle est d'une puissance comparable aux superordinateurs de 2007[13].

Le , le réseau de minage permettant la génération de la cryptomonnaie Bitcoin totalise une puissance d'environ 64 exaFLOPS[14],[15],[16]. Il s'agit du réseau le plus puissant au monde, avec une performance excédant 500 fois celle du supercalculateur Tianhe-2, ce dernier se trouvant en seconde place. Il est à noter que la majorité de cette puissance de calcul est réalisée sur des ASIC ne permettant la plupart du temps pas un emploi en tant que supercalculateur, ces puces étant très spécialisées. L'usage du nombre de FLOPS est également controversé, puisque ces puces ne réalisent pas de calculs à virgule flottante à proprement parler. Il s'agit plutôt d'une mesure de performance équivalente.

IBM a annoncé avoir mis en service un nouveau supercalculateur crédité de 200 pétaflops en pour le département de l'Énergie des États-Unis au laboratoire national d'Oak Ridge, le Summit[17].

En 2020, le système Fugaku développé par Fujitsu et l'institut de recherche Riken, atteint 415,5 pétaflops[18].

2020, Nvidia avec la plateforme Ampère bascule l'ordinateur professionnel équipé d'une carte A100 de 826 mm², obtient une puissance 19,5 téraFLOPS (FP32) et 312 téraFLOPS pour les cœurs Tensor (FP32), comparable aux superordinateurs de 2007[19].

Notes et références

modifier
  1. Ou encore flops ou flop/s.
  2. Sans « S » est peu utilisé en France car synonyme d'échec en argot.
  3. Dans ce contexte, le mot « socket » se réfère à un circuit intégré sur une carte mère quel que soit le nombre de cœurs et de mémoire contenus dans celui-ci.[réf. nécessaire]

Références

modifier
  1. a et b (en) Dr Mark R. Fernandez, Nodes, Sockets, Cores and FLOPS, Oh, My sur dell.com, 10 novembre 2011.
  2. (en) Top500 list - June 2011, sur top500.org.
  3. Supercalculateurs : le Fujitsu « K » atteint les 10 pétaflops, sur zdnet.fr, 3 novembre 2011 (consulté le 13 février 2015).
  4. (en) « Titan - Cray XK7, Opteron 6274 16C 2.200GHz, Cray Gemini interconnect, Nvidia K20x », sur top500.org (consulté le ).
  5. (en) Tianhe-2 (MilkyWay-2), sur top500.org.
  6. (en) Top500 List - November 2001, sur top500.org.
  7. (en) BOINC stats, sur boincstats.com.
  8. (en) « Les États-Unis lancent la création du premier exacalculateur au monde », sur Humanoïdes, (consulté le )
  9. « À quoi va servir le supercalculateur français ultra puissant promis pour 2020? », sur Le Huffington Post (consulté le )
  10. DGX-1 NVIDIA, sur nvidia.fr.
  11. (en) Top500 List - Juin 2005, sur top500.org.
  12. DGX-1 Tesla V100 NVIDIA, sur nvidia.fr.
  13. (en) Top500 List - November 2007, sur top500.org.
  14. (en) « Global Bitcoin computing power now 256 times faster than top 500 supercomputers combined », sur forbes.com (consulté le )
  15. « Bitcoin Watch », sur bitcoinwatch.com
  16. « Bitcoin Charts », sur bitcoincharts.com
  17. « Supercalculateur : Summit au Sommet », InformatiqueNews.fr,‎ (lire en ligne, consulté le )
  18. « Le Japon a désormais le superordinateur le plus puissant du monde », sur GuruMeditation, (consulté le )
  19. (en) Top500 List - Juin 2007, sur top500.org

Voir aussi

modifier

Sur les autres projets Wikimedia :

Articles connexes

modifier