StorageReview a reconquis la prestigieuse couronne du calcul en calculant π à un nombre stupéfiant de 314 billions de chiffres, pulvérisant le précédent record du monde. La course moderne à la précision de π est passée des premières expériences dans le cloud à une démonstration à grande échelle de la puissance de l'infrastructure et de l'ingéniosité technique.
En 2022, Google Cloud a fait la une en calculant π à 100 billions de chiffres. En utilisant une flotte massive d'instances cloud pour exécuter le programme y-cruncher, le projet a consommé des dizaines de pétaoctets de données d'E/S. À l'époque, cette étape constituait la référence définitive pour les limites supérieures de ce que l'infrastructure traditionnelle pouvait accomplir.
L'attention s'est ensuite portée sur les environnements de laboratoire sur site. Début 2024, nous avons mis à niveau notre système pour établir un nouveau record de 105 billions de chiffres, soutenu par près de 1 pétaoctet de SSD Solidigm QLC. Cette réalisation a établi une nouvelle référence d'échelle, prouvant qu'une seule machine sur site pouvait offrir une efficacité exceptionnelle. Quelques mois plus tard, nous avons repoussé les limites à 202 billions de chiffres. Cette percée a validé que le stockage flash haute densité, combiné à un réglage méticuleux du système, pouvait surpasser l'infrastructure cloud hyperscale pour cette charge de travail spécifique très exigeante.
Naturellement, chaque record invite à un défi. Linus Media Group et KIOXIA ont ensuite revendiqué le titre en calculant π à 300 billions de chiffres. Leur configuration reposait sur un grand cluster de stockage partagé Weka équipé de 2 Po de stockage flash. Bien que cela ait démontré le potentiel de l'infrastructure traditionnelle axée sur le stockage, cela a entraîné des compromis importants : un rack complet de matériel, une consommation d'énergie substantielle et des exigences de refroidissement complexes. Nous étions déterminés à ne pas laisser ce record rester sans contestation.
Aujourd'hui, StorageReview est fier d'annoncer notre nouvelle victoire : π calculé à 314 billions de chiffres. L'exploit a été réalisé à l'aide d'un seul serveur Dell PowerEdge R7725 2U, équipé de processeurs AMD EPYC 192 cœurs doubles et de quarante SSD Micron 6550 Ion de 61,44 To. Nous avons terminé la construction et le réglage du système en juillet, lançant le calcul le 31 juillet 2025. Par coïncidence, le calcul s'est terminé le deuxième jour de SC25, rendant ce nouveau record de calcul haute performance (HPC) d'autant plus opportun.
Mise à l'échelle de y-cruncher à 314 billions de chiffres
Une fois que l'échelle de calcul dépasse des centaines de billions de chiffres, y-cruncher se transforme d'un benchmark traditionnel en un test de stress d'infrastructure éprouvant sur le long terme. La logique principale du programme reste simple, mais son interaction avec le matériel à cette échelle devient le facteur décisif. L'ensemble de l'opération dépend de la capacité du système à maintenir des milliers d'opérations multiprécises en cours d'exécution sans ralentir les CPU ou submerger la couche de stockage. En fait, ce nouveau record a été véritablement remporté dans la couche de stockage.
Nous avons déployé 40 SSD NVMe Micron 6550 Ion Gen5, dont 34 alloués exclusivement à l'exécution de y-cruncher. Ce pool de SSD offre environ 2,1 pétaoctets d'espace utilisable, donnant à y-cruncher le stockage suffisant dont il a besoin pour calculer et traiter 314 billions de chiffres de π. Les 6 SSD restants sont configurés en volume RAID10 logiciel, spécifiquement utilisé pour stocker les résultats finaux de 314 billions de chiffres.
Les améliorations de conception entre la 16e et la 17e génération de serveurs Dell PowerEdge ont également joué un rôle clé dans l'amélioration des performances pour cette exécution de record de 314 billions de chiffres. Notre précédente tentative de 202 billions de chiffres a utilisé le Dell PowerEdge R760 à 24 baies, qui comportait un commutateur PCIe sur le backplane des disques, échangeant la densité des disques contre des performances améliorées. En revanche, les serveurs PowerEdge de 17e génération, tels que le R770 basé sur Intel et le R7725 basé sur AMD, disposent de backplanes avec une conception de connexion directe uniquement, offrant 2 ou 4 voies PCIe par baie.
Le PowerEdge R7725, équipé de son backplane E3.S à 40 baies Gen5, fournit 2 voies PCIe par emplacement SSD. Bien que cela puisse sembler un compromis potentiel en termes de performances sur le papier, la plateforme peut toujours offrir des vitesses impressionnantes : jusqu'à 280 Go/s de performances de lecture et d'écriture simultanées lorsque les 40 baies sont entièrement utilisées.
En utilisant le benchmark de stockage interne de y-cruncher, nous avons mesuré les performances de stockage de chaque plateforme dans sa configuration respective. Sur toutes les charges de travail, nous avons observé des améliorations des performances de stockage allant de 72 % à 383 %, avec des métriques de lecture et d'écriture bien équilibrées, solidifiant la supériorité du serveur PowerEdge de 17e génération pour le calcul intensif de stockage à grande échelle.
| Métrique | Système 202T (ancien record) | Système 314T (nouveau record) | Différence en pourcentage (314T vs 202T) |
|---|---|---|---|
| Écriture séquentielle | 47,0 Gio/s | 107 Gio/s | +127,7 % |
| Lecture séquentielle | 56,7 Gio/s | 127 Gio/s | +124,0 % |
| Écriture par seuil entrelacé | 62,2 Gio/s | 107 Gio/s | +72,0 % |
| Lecture par seuil entrelacé | 20,9 Gio/s | 101 Gio/s | +383,3 % |
Le Dell PowerEdge R7725 est bien plus qu'une simple centrale de stockage ; il brille en tant que plateforme AMD Turin double socket avec un potentiel de calcul exceptionnel. Nous avons équipé notre système de processeurs AMD EPYC 9965 à 192 cœurs, offrant un total de 384 cœurs. Pour libérer ces performances, nous avons mis à niveau la solution de refroidissement par air d'origine avec des plaques froides CoolIT SP5 refroidies par liquide, refroidies par une unité de distribution de liquide à air CoolIT AHx10 (CDU).
Cette mise à niveau stratégique du refroidissement a apporté trois avantages clés : elle a permis aux CPU de maintenir des fréquences d'horloge élevées et soutenues, a maintenu les ventilateurs du châssis du serveur à un PWM (Pulse Width Modulation) remarquablement bas de 30 %, et a assuré que la consommation d'énergie moyenne du système restait stable autour de 1 600 W.Optimisation logicielle et systèmePour la couche logicielle, nous avons rompu avec les pratiques passées en choisissant Ubuntu 24.04.2 LTS Server au lieu de Windows Server. Cette décision s'est avérée essentielle pour maximiser la stabilité du système et obtenir des gains significatifs en termes de performances de la charge de travail.Avant de lancer l'exécution du record, nous avons effectué des itérations de test rigoureuses et affiné la configuration. Une étape critique a été de réserver 4 des 384 cœurs disponibles pour les opérations système critiques en arrière-plan, garantissant que les threads de calcul principaux restaient ininterrompus. Le résultat ? Nous n'avons pas seulement battu le précédent record de pi, nous l'avons pulvérisé sur toutes les métriques mesurables. Notre exécution reste inégalée en termes de performances, d'efficacité énergétique et, plus impressionnant encore, de fiabilité sans faille. Nous sommes particulièrement fiers de détenir la distinction d'être la seule tentative de record du monde de calcul de pi à grande échelle réalisée sans temps d'arrêt ; le calcul s'est déroulé sans problème du début à la fin sans jamais avoir besoin d'être repris.Efficacité énergétique recordUn principe fondamental derrière chaque tentative de record de calcul de pi de StorageReview est de minimiser la complexité du système et d'optimiser l'efficacité énergétique. Le précédent record de 300T reposait sur un cluster de stockage distribué avec un réseau à haute vitesse, qui exigeait intrinsèquement des budgets d'alimentation et de refroidissement plus importants.
Au cours du calcul complet de 314 billions de chiffres, notre Dell PowerEdge R7725 a consommé un total de 4 304,662 kWh. Cela équivaut à un extraordinaire 13,70 kWh par billion de chiffres, plaçant notre solution parmi les calculs de pi à grande échelle les plus économes en énergie jamais réalisés. Le contraste frappant entre notre approche efficace à serveur unique et la méthode de cluster gourmande en énergie est immédiatement clair, comme le montre le tableau comparatif ci-dessous.
ExécutionTotal kWhCoût @ 0,12 $/kWh
Coût @ 0,20 $/kWhExécution du cluster Weka 300T33 600 kWh (estimé)4 032 $6 720 $Exécution serveur unique 314T4 304,662 kWh
517 $
861 $
Il est crucial de souligner que lors de notre calcul de 314 billions de chiffres, nous avons utilisé des SSD dans une configuration JBOD (Just a Bunch of Disks), qui n'inclut pas de résilience de données intégrée. Cette décision a été motivée par deux priorités principales : optimiser la consommation d'énergie et maximiser les performances globales du système. Cependant, elle a également suscité une conversation importante sur l'adaptation des solutions de stockage aux exigences spécifiques de la charge de travail en cours. Chaque charge de travail est unique : certaines peuvent être redémarrées avec un impact minimal sur les opérations et ne nécessitent donc pas le même niveau élevé de tolérance aux pannes que les tâches critiques. Dans notre cas, nous nous sommes concentrés sur la protection de la sortie de données finale grâce à une configuration RAID logicielle traditionnelle, garantissant l'intégrité des chiffres de pi battant des records sans compromettre l'efficacité du système.110 jours d'exécution ininterrompueMalgré le calcul de plus de chiffres que toute tentative de record de π précédente, notre temps d'exécution a été considérablement plus court que le benchmark précédent. Le précédent record de 300 billions de chiffres a nécessité environ 225 jours au total pour être achevé, soit 175 jours de calcul réels en excluant les temps d'arrêt. En revanche, notre exécution de 314 billions de chiffres a atteint 110 jours d'opération ininterrompue. Cette stabilité exceptionnelle peut être attribuée à quatre facteurs clés : un système d'exploitation robuste et stable, une charge de travail en arrière-plan minimisée pour éviter la contention des ressources, une topologie NUMA (Non-Uniform Memory Access) équilibrée pour une communication CPU-mémoire optimale, et un tableau temporaire spécialement conçu pour gérer les modèles d'accès aux données uniques générés par y-cruncher à cette échelle sans précédent.
Points forts techniques: 148 356 635 606 263 504 (132 PiB): 314 000 000 000 000Matériel utilisé: Dell PowerEdge R7725 avec 2 CPU AMD EPYC 9965, 1,5 To de DRAM DDR5, 40x Micron 61,44 To 6550 Ion
| Logiciels et algorithmes | : y-cruncher v0.8.6.9545, Chudnovsky | Usure des SSD par SMART | : 7,3 Po écrits par disque ou 249,11 Po sur les 34 SSD utilisés pour le swap |
|---|---|---|---|
| Checkpoint logique le plus grand | : 850 538 385 064 992 (774 TiB) | Utilisation disque logique maximale | : 1 605 960 520 636 440 (1,43 PiB) |
| Octets lus sur disque logique | : 148 356 635 606 263 504 (132 PiB) | Octets écrits sur disque logique | : 126 658 805 195 776 600 (112 PiB) |
Date de début
: Jeu 31 juil. 17:16:41 2025
Date de fin
: Mar 18 nov. 05:57:08 2025
- pi: 8793223,144 secondes, 101,773 jours
- Temps de calcul total: 9274878,580 secondes
- Temps de bout en bout: 9463226,454 secondes
- Réflexions finalesPendant des décennies, les calculs extrêmes de π ont servi de vitrine à la puissance de calcul, la « grosse machine » de chaque époque occupant le devant de la scène. Les premiers records reposaient sur des ordinateurs de bureau haute performance et des baies de stockage externes ; l'attention s'est ensuite portée sur le matériel d'entreprise sur site. Plus récemment, la course s'est déplacée vers le cloud, où des initiatives comme le calcul de 100 billions de chiffres de Google ont démontré que la force brute, armée de milliers d'instances et d'un débit d'E/S massif, pouvait permettre d'obtenir un record. Nous avons ensuite vu l'émergence de grands clusters de stockage partagé, privilégiant le parallélisme brut à la simplicité, mais au prix d'une consommation d'énergie substantielle et de demandes de refroidissement complexes.
- Notre parcours a pris le chemin inverse. Au cours de nos exécutions successives de records, nous avons traité la charge de travail y-cruncher comme une tâche HPC critique et de longue haleine, et non comme un coup d'éclat unique. Les campagnes 105T et 202T ont été essentielles pour identifier les goulots d'étranglement principaux : optimisation de la capacité de stockage temporaire, garantie d'une charge de travail CPU stable sans submerger la couche d'E/S, et renforcement du système pour fournir des performances fiables sur plusieurs mois. L'exécution 314T est l'aboutissement de cette expertise durement acquise. Ce n'est pas simplement un chiffre plus grand ; cela représente une conception plus mature et de qualité production.Les données parlent d'elles-mêmes. Nous avons pulvérisé la barrière des 300 billions de chiffres sur un seul Dell PowerEdge R7725 2U, équipé de 40 SSD Micron 6550 Ion et de deux CPU AMD EPYC à 192 cœurs. Le système a fonctionné sans faille pendant 110 jours consécutifs, achevant le calcul sans une seule interruption ni redémarrage. Le débit de stockage a plus que doublé par rapport à notre plateforme 202T, mais le serveur a maintenu une consommation d'énergie moyenne modeste de 1 600 W, avec une consommation d'énergie totale de seulement 4 305 kWh. Cela se traduit par une efficacité remarquable de 13,70 kWh par billion de chiffres, une fraction de l'énergie estimée utilisée par le cluster précédent de 300T. En bref, nous avons accompli plus de travail avec moins de nœuds, moins de complexité et des coûts énergétiques réduits.
- L'importance de ce record va bien au-delà des droits de vantardise. Si un seul serveur commercial 2U peut supporter une charge de travail de cette ampleur avec une telle fiabilité et efficacité, les mêmes principes architecturaux se traduisent directement dans le calcul scientifique du monde réel. Les modèles climatiques de longue durée, les simulations physiques de haute précision, les pipelines de génomique et les tâches d'entraînement d'IA à grande échelle dépendent tous des mêmes éléments fondamentaux : performances d'E/S équilibrées, gestion thermique prévisible, firmware stable et une architecture conçue pour fonctionner en continu pendant des mois. Notre plateforme a maintenant prouvé qu'elle peut fournir ces fondamentaux dans les conditions les plus exigeantes.Beijing Qianxing Jietong Technology Co., Ltd.
- Sandy Yang/Directeur de la stratégie mondiale WhatsApp / WeChat : +86 13426366826
- E-mail : yangyd@qianxingdata.com Site Web : www.qianxingdata.com/www.storagesserver.com
- Domaine d'activité : Distribution de produits TIC/Intégration de systèmes et services/Solutions d'infrastructure
- Avec plus de 20 ans d'expérience dans la distribution informatique, nous nous associons à des marques mondiales de premier plan pour fournir des produits fiables et des services professionnels. « Utiliser la technologie pour construire un monde intelligent » Votre fournisseur de services de produits TIC de confiance !
Coordonnées
Beijing Qianxing Jietong Technology Co., Ltd.
Personne à contacter: Ms. Sandy Yang
Téléphone: 13426366826



