Le rôle du stockage réseau NVMe pour l'avenir

La pandémie de COVID-19 a entraîné une adoption rapide des modèles de travail à domicile et, à son tour, a présenté un défi au secteur du stockage : trouver le bon équilibre entre vitesse, performances et coût dans des environnements distants.

Mais le coût des performances et de l'efficacité a toujours été primordial. De nombreux acteurs de l'industrie du stockage se tournent vers du matériel de stockage plus efficace, mais plus cher, comme les SSD, mais les entreprises utilisent encore largement les disques durs en raison de leurs coûts inférieurs.

Les interfaces de stockage SATA et SAS maintiennent les coûts bas, mais NVMe est sur le point d'être "le nom du jeu" dans le stockage à l'avenir à mesure que le besoin de vitesse augmente, a déclaré Silvano Gai, auteur de < em>Building a Future-Proof Cloud Infrastructure de Pearson, dans une interview avec TechTarget. Les organisations adoptent rapidement NVMe, en particulier NVMe-oF, selon une étude de l'Enterprise Strategy Group.

"NVMe a été créé en réaction au SCSI, comme une alternative au SCSI. Cela n'avait rien à voir techniquement ; c'était plus une décision commerciale et industrielle", a déclaré Gai. "L'avantage de NVMe par rapport à SCSI est que, dans NVMe, il existe un énorme support pour les opérations parallèles et la file d'attente en attente. Et cela, bien sûr, augmente considérablement le débit lorsque vous passez aux SSD."

Les capacités de stockage dans le cloud et à distance contribuent également à l'essor du stockage réseau NVMe. De grandes organisations comme Facebook et Microsoft ont commencé à adopter le stockage cloud NVMe en raison de son IOPS plus élevé et de sa latence réduite. Le protocole s'étendra probablement à l'ensemble de l'industrie dans les années à venir.

Cliquez ici pour plus d'informations
sur le livre.

Le stockage est "probablement le candidat le plus naturel pour la désagrégation", écrit Gai dans le livre, alors que les organisations cherchent à réduire les latences et à distribuer plus efficacement les ressources de stockage. Séparer le calcul du stockage grâce à la désagrégation permet aux organisations de faire évoluer les applications sans perte de performances.

Le rôle du stockage réseau NVMe pour future

De plus, alors que les données continuent de croître en volume, beaucoup se sont tournés vers les différentes spécifications de protocole NVMe, telles que NVMe-oF, alors qu'ils s'efforcent d'éliminer les inefficacités et de répondre à leurs besoins de stockage en constante expansion, sans sacrifier les performances.< br>
Vous trouverez ci-dessous un extrait du chapitre 6, « Stockage distribué et services RDMA », de Construire une infrastructure cloud évolutive. Dans ce chapitre, Gai aborde le stockage à distance, le stockage distribué et l'essor des SSD et du stockage réseau NVMe. Pour voir tout le chapitre 6, cliquez ici.

6.2.4 Le stockage à distance rencontre la virtualisation

Les économies d'échelle ont incité les grands opérateurs de clusters de calcul à envisager la désagrégation des serveurs. Parmi les composants de serveur, le stockage est probablement le candidat le plus naturel pour la désagrégation, principalement parce que la latence moyenne de l'accès au support de stockage peut tolérer une traversée du réseau. Même si le nouveau support SSD répandu réduit considérablement ces latences, l'évolution des performances du réseau accompagne cette amélioration. En conséquence, la tendance à la désagrégation du stockage qui a commencé avec la création de Fibre Channel a été fortement accélérée par la popularité croissante des clouds à volume élevé, car cela a créé une opportunité idéale pour la consolidation et la réduction des coûts.

Le stockage distant est parfois explicitement présenté comme tel au client ; voir Figure 6-24. Cela rend obligatoire le déploiement de nouvelles pratiques de gestion du stockage qui affectent la manière dont les services de stockage sont proposés à l'hôte, car l'infrastructure de gestion de l'hôte doit gérer les aspects distants du stockage (autorisations d'accès à distance, montage d'un volume distant spécifique, etc.) .

Dans certains cas, exposer la nature distante du stockage au client peut présenter certains défis, notamment dans les environnements virtualisés où le locataire gère le système d'exploitation invité, ce qui suppose la présence de disques locaux. Une solution standard à ce problème consiste pour l'hyperviseur à virtualiser le stockage distant et à émuler un disque local vers la machine virtuelle ; voir Figure 6-25. Cette émulation résume le changement de paradigme du point de vue du système d'exploitation invité.

Cependant, la virtualisation du stockage basée sur un hyperviseur n'est pas une solution adaptée dans tous les cas. Par exemple, dans les environnements bare metal, les images de système d'exploitation contrôlées par le locataire s'exécutent sur les machines physiques réelles sans hyperviseur pour créer l'émulation. Pour de tels cas, un modèle d'émulation matérielle devient plus courant; voir Figure 6-26. Cette approche présente au serveur physique l'illusion d'un disque dur local. Le système d'émulation virtualise ensuite l'accès sur le réseau à l'aide de protocoles de stockage à distance standard ou propriétaires. Une approche typique consiste à émuler un disque NVMe local et à utiliser NVMe-oF pour accéder au stockage distant.

Une méthode proposée pour implémenter le plan de données pour l'émulation de disque consiste à utiliser ce que l'on appelle des "cartes réseau intelligentes" ; voir rubrique 8.6. Ces dispositifs comprennent généralement plusieurs cœurs programmables combinés à un plan de données NIC. Par exemple, les produits Mellanox BlueField et Broadcom Stingray entrent dans cette catégorie.

Enterprise Strategy Group est une division de TechTarget.

Jen English, rédactrice en chef de TechTarget, a contribué à ce rapport.

Articles populaires