En novembre, nous avons assisté à la conférence internationale 2017 sur le calcul haute performance, la mise en réseau, le stockage et l'analyse, mieux connue sous le nom de conférence 2017 Supercomputing (SC17). Chaque année, lors de la Supercomputing Conference, des chercheurs et des fournisseurs du milieu universitaire et de l'industrie assemblent SCinet : un supercalculateur et une structure de réseau qui sert de banc d'essai et de preuve de concept pour les nouvelles technologies de calcul, de mise en réseau et de stockage hautes performances. Premio est l'un des fournisseurs qui ont apporté du matériel et de l'expertise au SCinet 2017 sous la forme de deux boîtiers de nœuds de données FlacheSAN1N4C-D4, chaque nœud mesurant jusqu'à 24 Go/s (168 Gbit/s) de débit de lecture soutenu et jusqu'à 3.6 millions d'IOPS. Cela a permis à SCinet d'avoir la capacité de transférer de grands ensembles de données à une vitesse de cache rapide.
En novembre, nous avons assisté à la conférence internationale 2017 sur le calcul haute performance, la mise en réseau, le stockage et l'analyse, mieux connue sous le nom de conférence 2017 Supercomputing (SC17). Chaque année, lors de la Supercomputing Conference, des chercheurs et des fournisseurs du milieu universitaire et de l'industrie assemblent SCinet : un supercalculateur et une structure de réseau qui sert de banc d'essai et de preuve de concept pour les nouvelles technologies de calcul, de mise en réseau et de stockage hautes performances. Premio est l'un des fournisseurs qui ont apporté du matériel et de l'expertise au SCinet 2017 sous la forme de deux boîtiers de nœuds de données FlacheSAN1N4C-D4, chaque nœud mesurant jusqu'à 24 Go/s (168 Gbit/s) de débit de lecture soutenu et jusqu'à 3.6 millions d'IOPS. Cela a permis à SCinet d'avoir la capacité de transférer de grands ensembles de données à une vitesse de cache rapide.
Les nœuds Premio FlacheSAN ont assumé plusieurs rôles distincts lors de la conférence Supercomputing 2017, y compris un point de test pour les grands projets de transfert de données, une plate-forme pour les grands projets de flux et un fournisseur de services réseau expérimental tolérant les retards/perturbations pour la conférence SC et le SCinet WAN . Ce premier rôle est probablement le plus important pour les observateurs de l'industrie comme nous qui examinions SCinet cette année pour des indications sur l'avenir de la technologie de transfert de données volumineuses.
SCinet a fait ses preuves dans la démonstration de technologies de réseau qui sont ensuite entrées sur le marché des technologies de l'information d'entreprise, notamment le mode de transfert asynchrone, l'interface de données distribuées par fibre et l'interface parallèle haute performance (HiPPi). Au cours du SC17, Brian Beeler, rédacteur en chef de StorageReview, s'est entretenu avec des membres d'une équipe de recherche de la Northwestern University qui travaille avec le FlacheSAN1N4C-D4. En dehors de la Supercomputing Conference proprement dite, le FlacheSAN1N4C-D4 de Premio est utilisé pour migrer des ensembles de données à l'échelle du pétaoctet du Large Hadron Collider du CERN, car les données sont hiérarchisées du premier niveau du CERN à Chicago, Illinois, à Caltech à Pasadena, Californie.
Le secteur du stockage d'entreprise travaille depuis des années pour rester prêt pour la quantité sans cesse croissante de données générées et traitées. Un défi spécifique qui prend de plus en plus d'importance aujourd'hui est la nécessité de déplacer rapidement et de manière fluide d'énormes quantités de données. À l'avenir, il deviendra de plus en plus courant de transférer de grands ensembles de données sur de longues distances géographiques, entre des plates-formes dissemblables et de manière à pouvoir gérer les retards et autres perturbations inhérentes au transfert de données complexe et à grande échelle. À cet égard, SCinet fait face aujourd'hui à des réalités de transfert de données auxquelles les entreprises seront confrontées d'ici cinq à dix ans.
Pour utiliser le projet de recherche Caltech à titre d'exemple, une expérience Large Hadron Collider peut facilement générer des données de capteur brutes d'environ 25 pétaoctets qui sont à leur tour transmises à des institutions de recherche affiliées dans le monde entier pour analyse. En fait, ce sont les contraintes de calcul, de mise en réseau et de stockage qui ont prouvé les principaux goulots d'étranglement à la vitesse à laquelle l'expérimentation peut être menée au collisionneur, de sorte que l'amélioration des performances dans ces domaines est une préoccupation essentielle. Du côté de l'entreprise, les progrès récents de l'intelligence artificielle et d'autres analyses de données volumineuses suggèrent qu'il ne faudra pas longtemps avant que le transfert d'ensembles de données aussi massifs ne devienne courant dans le secteur privé (pensez à tout, des voitures autonomes aux capteurs environnementaux sur les sites de récupération minière) .
Le FlacheSAN1N4C-D4 est alimenté par deux processeurs Intel Xeon E5-2600v4/v3 Broadwell/Haswell, qui gèrent une baie de stockage composée de quatre lecteurs Flash NVMe PCIe3 x8. FlacheSAN1N4C-D4 est capable de bénéficier de la technologie de processeur Broadwell 14 NM d'Intel car elle améliore la consommation d'énergie et de meilleures fréquences d'horloge à des TDP équivalents ou inférieurs à ceux de son prédécesseur. Le FlacheSAN1N4C-D4 est spécifié pour un débit de lecture soutenu de 24 Go/s de 3.6 M IOPS, une performance qui est essentielle pour déplacer les énormes quantités de données requises par SCinet et d'autres réseaux informatiques hautes performances de pointe.
Spécifications Premio FlacheSAN1N4C-D4
- Processeur pris en charge : Dual Intel Xeon E5-2600v4/v3 Broadwell/Haswell jusqu'à 135 W TDP socket R3
- Jeu de puces : jeu de puces Intel C612
- Prise en charge de la mémoire : 16x DDR4 ECC RDIMM/LRDIMM 1600/1866/2133/2400MT/s max. Capacité de 1 To
- Emplacements d'extension : Prend en charge jusqu'à 2x PCIe3 x16 pleine hauteur 1x PCIe3 x8 IO Module
- Stockage:
- 4x PCIe3 x8 NVMe bas profil remplaçables à chaud
- 2x baies internes de 2.5 pouces pour le système d'exploitation
- Réseau:
- Intel i210 double GbE
- Optionnel 56Gb FDR Infiniband QSFP+ ou Ethernet double 40GbE via le module d'E/S
- 1 port RJ45 de gestion IPMI
- 2 emplacements PCIe3 x16 pour une autre option de carte réseau
- Alimentation : 1 + 1 750 W AC/DC 80 Plus Platinum PSU redondant
- Sécurité : Technologie d'exécution fiable d'Intel ; MTP 1.2
- Système d'exploitation pris en charge : Windows 2012 R2, RHEL 6.5, SLES 11 SP3, Windows 208 R2, VMWare ESXi 5.5, FreeBSD 9.2, Centos 6.5
- Panneau avant : marche/arrêt avec LED, interrupteur de réinitialisation, interrupteur NMI, interrupteur de localisation avec LED, 4x LED LAN, LED d'avertissement.
- E / S arrière:
- DB15 VGA, 2x RJ45 1GbE, 1x Série DB9,
- 1x RJ45 MGMT, 2x USB 3.0, 2x USB 2.0
- 1x ID LED, double QSFP+ en option
- Refroidissement : 3 ventilateurs de refroidissement de 97 mm
- Autres fonctionnalités : GbE dédié pour IPMI 2.0
- Poids
- Brut : 23 KG/50 LBS
- Filet : 17 KG/37.4 LBS
- Système de dimensions : 31.38"x19"x1.75" (LxlxH)
- Emballage : 37.8" x 24" x9.45" (LxlxH)
- Code HTS logistique : 8473 30 5100 ; ECCN : 4A994
- Température ambiante de fonctionnement : 0 °C à 35 °C
- Température hors fonctionnement : -20 °C à 70 °C
- Humidité: 5% à 95% sans condensation
- Conformité CE, FCC classe A, conforme RoHS 6/6
Le FlacheSAN1N4C-D4 intègre quatre baies accessibles à l'avant pour le stockage PCIe3 x8 NVMe à profil bas. Ces emplacements NVMe comprennent le stockage, qui est disponible pour une utilisation par les données en vol dans un déploiement de nœud de transfert de données. Deux disques internes de 2.5 pouces hébergent le système d'exploitation.
Le pool de stockage de cette baie FlacheSAN est remplaçable à chaud et est certifié pour une utilisation avec une variété de périphériques de stockage NVMe. Premio publie une liste de fournisseurs approuvés sur la fiche produit FlacheSAN1N4C-D4 dérivé des tests internes du laboratoire Premio.
L'arrière de la baie permet d'accéder aux interfaces intégrées Dual GbE Intel i210. La baie peut être configurée en option avec 56 Go FDR Infiniband QSFP+ ou Ethernet double 40 GbE via des modules d'E/S. Il existe également un port de gestion IPMI RJ45 ainsi que deux emplacements PCIe3 x16 pour d'autres options de carte réseau.
La gamme de serveurs FlacheStreams de Premio se concentre sur les baies Flash NVMe en tant que véhicule de la stratégie d'élimination des goulots d'étranglement "architecture équilibrée" de Premio, qui équilibre les ressources entre les disques NVMe et les cartes Ethernet. Les systèmes FlacheStreams peuvent également fournir un accès direct au stockage NVMe de la baie sur l'ensemble du réseau afin de réduire la latence.
S'appuyant sur l'expérience de Premio en collaboration avec Caltech pour hiérarchiser les données expérimentales de Chicago à Pasadena, la société a fourni deux baies FlacheSAN1N4C-D4 à SCinet pour servir de serveurs de nœud de transfert de données (DTN). Au total, les deux DTN Premio offraient 400 Gigabits de débit disque à disque pour les démonstrations technologiques, y compris l'interface Jupyter intégrée pour les workflows scientifiques gourmands en données, les structures réseau nécessitant une API programmable et l'API de surveillance DTN de la baie.
Les types de charges de travail gérées par le réseau expérimental de distribution de données du Large Hadron Collider, ainsi que celles modélisées par SCinet lors de la Supercomputer Conference, sont des indicateurs importants de la manière dont la technologie de transfert de données à grande échelle pourrait être déployée dans le secteur privé à l'avenir. Qu'il s'agisse de transférer sur de grandes distances ou entre des systèmes de gestion de l'information dissemblables, les transferts de données volumineux vont devenir la nouvelle réalité.
Inscrivez-vous à la newsletter StorageReview