- Durée totale des tests d'environ 16 heures dans cet ordre :
- Préconditionnement séquentiel (~2:15)
- Tests séquentiels sur 16x JBOD, 2x 8DR10, 2x 8DR5 (~2 heures)
- Préconditionnement aléatoire – 2 parties (~4:30)
- Tests optimaux aléatoires sur 16x JBOD, 2x 8DR10, 2x 8DR5 (~3 heures)
- Tests de reconstruction aléatoires sur 1x 16DR10, 1x 16DR5 (~2:30)
- Latence d'écriture aléatoire pour optimal et reconstruction pour 1x 16DR5 (~1:40)
La première section des métriques de performance se concentre sur la bande passante via la carte en modes JBOD, RAID10 et RAID5. Le MegaRAID 9670W-16i offrant une largeur de slot PCIe Gen4 x16, ses performances maximales seront d'environ 28 Go/s dans une direction, et c'est là que le slot Gen4 atteint sa limite. À titre de comparaison, un SSD U.2 Gen4 se connecte via une connexion x4 et peut atteindre environ 7 Go/s, et c'est là que la plupart des disques d'entreprise atteignent leur limite pour les charges de travail de lecture.
Cela dit, le MegaRAID 9670W sature complètement le slot auquel il est connecté. En regardant les performances de lecture, la configuration JBOD atteint 28,3 Go/s, avec RAID10 et RAID5 juste en dessous à 28 Go/s. Lorsque nous passons aux performances d'écriture, la base de référence JBOD est de 26,7 Go/s, tandis que la configuration RAID10 atteint 10,1 Go/s et RAID5 à 13,2 Go/s. Lorsque nous examinons une répartition 50:50 du trafic de lecture et d'écriture simultané, la configuration JBOD mesure 41,6 Go/s, RAID10 à 19,6 Go/s et RAID5 à 25,8 Go/s.
| Charge de travail | JBOD (Mo/s) | RAID 10 – Optimal (Mo/s) | RAID 5 – Optimal (Mo/s) |
|---|---|---|---|
| Lectures séquentielles maximales | 28 314 | 28 061 | 28 061 |
| Écritures séquentielles maximales | 26 673 | 10 137 | 13 218 |
| Lectures:Écritures séquentielles 50:50 maximales | 41 607 | 19 639 | 25 833 |
Lorsque nous nous concentrons sur les transferts aléatoires de petits blocs, nous constatons que le MegaRAID 9670W s'en est très bien sorti en lecture par rapport à la valeur de référence JBOD de 7 millions d'IOPS. Cette vitesse a chuté d'environ la moitié (3,2 millions d'IOPS) lors d'une opération de reconstruction si un SSD tombait en panne dans le groupe RAID. En regardant les performances d'écriture aléatoire, la base de référence JBOD a mesuré 6,3 millions d'IOPS contre 2,2 millions pour RAID10 et 1 million pour RAID5. Ces chiffres n'ont pas connu de baisse considérable lorsqu'un SSD a été retiré du groupe et que la carte RAID a été forcée de reconstruire. Dans cette situation, RAID10 n'a pas changé, bien que RAID5 soit passé de 1 million à 788k IOPS.
Dans la charge de travail OLTP 4K avec un mélange de performances de lecture et d'écriture, la base de référence JBOD a mesuré 7,8 millions d'IOPS contre 5,6 millions d'IOPS pour RAID10 et 2,8 millions d'IOPS pour RAID5. Pendant une reconstruction, RAID10 est passé de 5,6 millions à 2,4 millions d'IOPS, et RAID5 de 2,8 millions à 1,8 million d'IOPS.
| Charge de travail | JBOD | RAID 10 – Optimal | RAID 5 – Optimal | RAID 10 – En reconstruction | RAID 5 – En reconstruction |
|---|---|---|---|---|---|
| Lectures aléatoires 4KB (IOPS) | 7 017 041 | 7 006 027 | 6 991 181 | 3 312 304 | 3 250 371 |
| Écritures aléatoires 4KB (IOPS) | 6 263 549 | 2 167 101 | 1 001 826 | 2 182 173 | 788 085 |
| OLTP 4KB (IOPS) | 7 780 295 | 5 614 088 | 2 765 867 | 2 376 036 | 1 786 743 |
Un autre aspect important des performances RAID est la façon dont le stockage se comporte entre les conditions optimales et les performances de reconstruction en cas de défaillance d'un disque. Si les performances ou la latence subissent un coup énorme, la réactivité des applications peut devenir un problème. À cette fin, nous nous sommes concentrés sur la latence d'écriture aléatoire 4K en RAID5 en modes optimal et en reconstruction. Sur l'ensemble du spectre, la latence est restée assez similaire, ce qui est exactement ce que vous voulez voir dans un système de stockage en environnement de production.
Nous avons non seulement évalué les performances globales de chaque mode à travers des métriques de performance ponctuelles, qui comprenaient également les performances de la carte RAID pendant une opération de reconstruction, mais nous avons également effectué des tests pour déterminer le temps total de reconstruction. Ici, en RAID10, retirer un SSD de 6,4 To du groupe RAID et le réinsérer a pris 60,7 minutes pour RAID10 avec une vitesse de reconstruction de 10,4 min/To. Le groupe RAID5 a pris 82,3 minutes avec une vitesse de 14,1 min/To.
Conclusion
Pour être honnête, nous avons abordé cette revue avec une certaine réserve et un sourcil levé. Nous n'avions pas entendu parler de cartes RAID pour les SSD NVMe depuis un certain temps, en dehors de la classe émergente de solutions conçues autour des GPU. Nous avons donc dû poser la question fondamentale : le RAID matériel peut-il vraiment exister pour les SSD NVMe ?
Sandy Yang/Directeur de la stratégie mondiale
WhatsApp / WeChat : +86 13426366826
E-mail : yangyd@qianxingdata.com
Site Web : www.qianxingdata.com/www.storagesserver.com
Domaine d'activité :
Distribution de produits TIC / Intégration de systèmes et services / Solutions d'infrastructure
Avec plus de 20 ans d'expérience dans la distribution informatique, nous nous associons à des marques mondiales leaders pour fournir des produits fiables et des services professionnels.
« Utiliser la technologie pour construire un monde intelligent » Votre fournisseur de services de produits TIC de confiance !



