Home EntrepriseAI Recherche scientifique à la pointe du progrès : le stockage haute capacité permet d'obtenir des informations accélérées par l'IA

Recherche scientifique à la pointe du progrès : le stockage haute capacité permet d'obtenir des informations accélérées par l'IA

by Jordan Ranous

Les SSD Solidigm P5336 ouvrent de nouvelles frontières en matière de recherche en prenant en charge les exigences gourmandes en données des algorithmes d'IA et d'apprentissage automatique à la périphérie.

À une époque où la recherche scientifique progresse rapidement à la limite de nos capacités technologiques, l’importance du stockage de grande capacité est devenue de plus en plus importante. Armés d'une puissante plate-forme de capture d'objets du ciel profond, d'un ensemble de SSD QLC Solidigm P5336 de 61.44 To et de notre nouveau serveur robuste Dell PowerEdge XR7620 préféré, nous explorons le besoin d'un stockage robuste et rentable pour gérer l'explosion rapide des besoins en données. de recherche scientifique accélérée par l’IA basée sur la périphérie.

Capture de données de périphérie

Ces dernières années, l’informatique scientifique et l’informatique de données ont connu un changement monumental, passant des modèles informatiques traditionnels et centralisés au domaine plus dynamique de l’informatique de pointe. Ce changement n'est pas seulement un changement dans les préférences informatiques, mais une réponse aux besoins et à la complexité évolutifs de l'exploration moderne du traitement des données.

À la base, l’informatique de pointe fait référence au traitement des données à proximité de l’endroit où elles sont générées, par opposition à un entrepôt de traitement de données centralisé. Ce changement est de plus en plus pertinent dans les domaines où le traitement des données et la prise de décision en temps réel sont cruciaux. L’Edge Computing est incontournable dans la recherche scientifique, en particulier dans les disciplines qui nécessitent une collecte et une analyse rapides des données.

Les facteurs à l’origine de l’informatique de pointe

Plusieurs facteurs motivent l’évolution vers l’informatique de pointe dans la recherche scientifique. Premièrement, le volume de données généré par les expériences scientifiques modernes est stupéfiant. Les méthodes traditionnelles de traitement des données, qui impliquent la transmission d’ensembles de données massifs à un serveur central pour analyse, deviennent peu pratiques et prennent du temps.

Deuxièmement, le besoin d’analyse en temps réel est plus prononcé que jamais. Dans de nombreux scénarios de recherche, le temps nécessaire au transfert des données pour les traiter peut les rendre obsolètes, ce qui rend indispensable une analyse immédiate sur site.

Enfin, des technologies de collecte de données plus sophistiquées ont nécessité le développement de capacités de traitement des données tout aussi sophistiquées. L’Edge Computing répond à ce besoin en rapprochant les puissantes capacités informatiques des sources de données, améliorant ainsi l’efficience et l’efficacité de la recherche scientifique.

La recherche scientifique, notre objectif en matière d'informatique de pointe pour cet article, s'intéresse particulièrement à conserver autant de données brutes que possible collectées par des capteurs modernes et sophistiqués. La surveillance et l'analyse en temps réel des données capturées à l'aide d'accélérateurs tels que NVIDIA L4 en périphérie fournissent des résumés. Pourtant, rien ne remplace la capture et la préservation de toutes les données pour une analyse future plus approfondie. C'est là que l'ultra-dense SSD Solidigm QLC entrez.

Le programme d'installation

L'astrophotographie, la pratique consistant à capturer des images de corps célestes et de vastes zones du ciel nocturne, est un excellent exemple de domaine qui bénéficie considérablement de l'informatique de pointe. Traditionnellement, l'astrophotographie est une discipline de patience, nécessitant de longs temps d'exposition et un post-traitement important des images pour extraire des données significatives. Dans le passé, nous avons examiné accélérer le processus avec un cluster NUC. Il est maintenant temps de passer au niveau supérieur.

Le serveur Edge

Nous avons utilisé le robuste Dell PowerEdge XR7620 comme plate-forme de serveur principale à la périphérie. Ces serveurs optimisés sont de faible profondeur, à double socket dans un format compact et offrent des solutions axées sur l'accélération. Contrairement aux serveurs Edge classiques, le serveur XR7620 répond à la maturation rapide de l'IA/ML en prenant en charge les charges de travail les plus exigeantes, notamment l'automatisation industrielle, la vidéo, l'analyse des points de vente, l'inférence IA et l'agrégation de périphériques Edge.

Spécifications clés du Dell PowerEdge XR7620

Pour une liste complète des spécifications, consultez notre revue complète ici : Dell PowerEdge XR7620.

Fonctionnalité Spécifications techniques
Processeur Deux processeurs Intel® Xeon® Scalable de 4e génération avec jusqu'à 32 cœurs par processeur
Mémoire 16 emplacements DIMM DDR5, prend en charge RDIMM 1 To maximum, vitesses jusqu'à 4800 5 MT/s. Prend en charge uniquement les DIMM DDRXNUMX ECC enregistrés
Baies de disques Baies avant : jusqu'à 4 disques SSD SAS/SATA/NVMe de 2.5 pouces, 61.44 To maximum, jusqu'à 8 disques directs NVMe E3.S, 51.2 To maximum

Ce serveur Dell PowerEdge n’est pas n’importe quelle technologie. Il est construit pour résister aux conditions les plus difficiles que la nature a à offrir. Pensez aux températures inférieures à zéro, aux vents hurlants et à l’isolement qui fait que le mot « éloigné » semble un euphémisme. Mais malgré tous les obstacles, il s’est révélé performant et inflexible, alimentant la recherche grâce à la puissance de ses processeurs de pointe et à une monstrueuse capacité d’analyse des données.

Avoir un serveur robuste supprime la pression liée au maintien de la sécurité et de la chaleur du serveur. Il ne s'agit pas seulement de la mise en scène ; il est également essentiel que le serveur puisse résister aux déplacements intenses d'un endroit sécurisé vers un endroit froid et isolé au milieu de nulle part.

Le télescope

Pour ce test, nous avons choisi un emplacement le long des Grands Lacs, au cœur d’une nature sauvage isolée, loin de la lueur envahissante des lumières de la ville. La pièce maîtresse de notre plate-forme d'astrophotographie est le télescope Celestron Nexstar de 11 pouces. Avec une ouverture F/1.9 et une distance focale de 540 mm, ce télescope est idéal pour l'astrophotographie dans des conditions de faible luminosité, offrant des détails remarquables pour l'exploration du ciel profond. Dans le calme profond de la nature sauvage, ce télescope se dresse telle une sentinelle, son objectif braqué sur le ciel, prêt à capturer le spectacle céleste.

La caméra One-Shot

La caméra couleur ZWO ASI6200MC Pro One Shot est attachée au Nexstar. Conçu dans le seul but de l'astrophotographie, cet appareil photo peut restituer des images haute résolution et riches en couleurs d'objets astronomiques. Le choix d'une caméra couleur mono-prise simplifie le processus d'imagerie, en capturant des images en couleur en une seule exposition sans avoir besoin de filtres supplémentaires. Cette fonctionnalité est inestimable dans les régions sauvages isolées, où la simplicité et l'efficacité sont primordiales.

Spécification Détails
Capteur CMOS SONY IMX455
Taille Plein cadre
Résolution 62 mégapixels 9576 × 6388
Taille Pixels 3.76μm
Modèle Bayer RVB
Tampon DDR3 256MB
Interfaces USB3.0 / USB2.0

Le ZWO ASI6200MC Pro est une caméra d'astrophotographie spécialement conçue, équipée d'un capteur CMOS SONY IMX455, offrant une résolution impressionnante de 62 mégapixels sur un capteur plein format. Il possède une taille de pixel de 3.76 μm, permettant des captures célestes détaillées et étendues avec une fréquence d'images maximale de 3.51 FPS en pleine résolution.

La caméra dispose d'un système de refroidissement intégré — un refroidisseur électrique thermique régulé à deux étages — pour abaisser la température du capteur afin de garantir des performances optimales en maintenant une température de 30 °C à 35 °C en dessous des niveaux ambiants, réduisant ainsi le bruit électronique pour des images plus précises. . Avec des fonctionnalités telles qu'un obturateur roulant, une large plage d'exposition et une mémoire tampon DDR256 substantielle de 3 Mo, cette caméra est conçue pour fournir des images de qualité exceptionnelle aux astronomes amateurs et professionnels.

Maintenir une connexion de données fiable dans des régions sauvages isolées n'est pas aussi difficile aujourd'hui avec Starlink. Ce service Internet par satellite offre une connectivité de données à haut débit, essentielle pour transmettre des données et recevoir des mises à jour en temps réel, mais avec une limitation considérable de la bande passante pour renvoyer des ensembles de données massifs au laboratoire.

Le stockage haute capacité

La préservation de chaque sous-trame de l’astrophotographie est vitale pour les chercheurs, car elle libère une richesse d’informations essentielles à l’avancement des connaissances astronomiques. Chaque sous-trame peut capturer des variations et des nuances incrémentielles dans les phénomènes célestes, ce qui est crucial pour une analyse et une compréhension détaillées. Cette pratique améliore la qualité de l'image grâce à la réduction du bruit et garantit la fiabilité des données en fournissant une redondance pour la vérification et en facilitant la correction des erreurs et l'étalonnage.

Spécification Solidigme D5-P5336 7.68 To
Compétences 7.68TB
Lecture / écriture séquentielle Jusqu'à 6.8 Go/s en lecture / 1.8 Go/s en écriture
IOPS aléatoires en lecture 4K/16K en écriture Jusqu'à 770 17.9 IOPS en lecture / XNUMX XNUMX IOPS en écriture
Écritures de lecteur par jour (DWPD) 0.42 DWPD avec 16K R/W
Garantie 5 ans

De plus, nous utilisons le disque Solidigm D61.44-P5 de 5336 To.

Spécification Solidigme D5-P5336 61.44 To
Compétences 61.44TB
Lecture / écriture séquentielle Jusqu'à 7 Go/s en lecture / 3 Go/s en écriture
IOPS aléatoires en lecture 4K/16K en écriture Jusqu'à 1 million d'IOPS en lecture / 42.6 XNUMX IOPS en écriture
Écritures de lecteur par jour (DWPD) 0.58 DWPD avec 16K R/W
Garantie 5 ans

Notre principal intérêt est de disposer d'un ensemble de données complet qui permet l'application de techniques informatiques avancées, telles que l'apprentissage automatique et l'IA, pour découvrir des modèles et des informations qui peuvent manquer dans l'analyse manuelle ou les méthodes traditionnelles. Le maintien de ces sous-cadres assure également la pérennité de la recherche, permettant le retraitement avec l'évolution des technologies. Il s’agit également d’un document historique issu d’études à long terme et d’efforts de collaboration, ce qui en fait une ressource inestimable.

L'approche innovante de StorageReview

Nous avons repoussé les limites de l'informatique de pointe et de son importance, et pas seulement pour les marchés typiques comme les cas d'utilisation industriels et de vente au détail. Emporter notre kit dans des endroits éloignés et documenter toutes les phases de capture et de compilation d'images d'astrophotographie nous aide à comprendre comment l'IA nous profite dans de nombreux aspects de la vie. Vous vous souviendrez peut-être de notre Examen d'Extreme Edge de l'année dernière, où nous avons installé notre plate-forme dans le désert pour capturer un ciel nocturne sans nous soucier de la lumière artificielle affectant nos images.

Dans le but de repousser les limites de l’astrophotographie, en particulier là où le stockage haute capacité et l’efficacité informatique sont primordiaux, une nouvelle approche de la déconvolution des images révolutionne notre capacité à capturer le cosmos avec une clarté sans précédent. Pour atteindre cet objectif, nous avons introduit une architecture révolutionnaire de réseau neuronal convolutif (CNN) qui réduit considérablement les artefacts traditionnellement associés aux processus de déconvolution d'image.

Le principal défi de l'astrophotographie réside dans la lutte contre les distorsions introduites par les interférences atmosphériques, les erreurs de montage et de guidage, ainsi que les limites des équipements d'observation. L’optique adaptative a atténué ces problèmes, mais son coût élevé et sa complexité laissent de nombreux observatoires en échec. La déconvolution d'images, le processus d'estimation et d'inversion des effets de la fonction d'étalement de points (PSF) pour clarifier les images, est un outil essentiel dans l'arsenal de l'astronome. Cependant, les algorithmes traditionnels comme Richardson-Lucy et la déconvolution statistique introduisent souvent des artefacts supplémentaires, nuisant à la fidélité de l'image.

Entrez dans la solution innovante proposée en collaboration avec Vikramaditya R. Chandra : une architecture CNN sur mesure explicitement conçue pour la restauration d'images astronomiques. Cette architecture estime non seulement le PSF avec une précision remarquable, mais applique également un algorithme de déconvolution de Richardson-Lucy amélioré par des techniques d'apprentissage profond pour minimiser l'introduction d'artefacts. Notre recherche démontre des performances supérieures par rapport aux méthodologies existantes en entraînant ce modèle sur les images que nous avons capturées et à partir des archives Hubble Legacy, présentant une voie claire vers des images astronomiques sans artefacts.

Au cœur de cette architecture se trouve une approche en deux phases : dans un premier temps, un réseau neuronal convolutif estime la PSF, qui est ensuite utilisée dans un algorithme de Richardson-Lucy modifié pour déconvolutionner l'image. La deuxième phase utilise un autre CNN profond, formé pour identifier et éliminer les artefacts résiduels, garantissant que l'image de sortie reste aussi fidèle que possible à l'objet astronomique d'origine. Ceci est réalisé sans recourir à des techniques de simplification excessive telles que le flou gaussien, qui peuvent également introduire des effets indésirables tels que la « sonnerie ».

L'importance de ce modèle s'étend au-delà de ses applications immédiates en astrophotographie. Pour l’informatique de pointe, où la puissance de traitement et la capacité de stockage sont primordiales, l’efficience et l’efficience de cette nouvelle architecture CNN promettent une nouvelle ère d’imagerie haute fidélité. La capacité de traiter et de stocker de grandes quantités de données optiques en périphérie ouvre de nouvelles possibilités de recherche, permettant une analyse et une prise de décision en temps réel dans le cadre de campagnes d'observation à travers l'industrie.

Images héritées de Hubble, flou artificiel (à gauche) et traitement CNN (à droite)

Les progrès des techniques de déconvolution entrepris dans notre laboratoire marquent un moment charnière dans l’imagerie de tous types. En tirant parti de manière innovante de l’apprentissage profond, nous sommes sur le point de libérer le potentiel supplémentaire d’une image numérique, démontré ici en capturant l’univers avec une clarté et une précision auparavant réservées aux configurations les plus haut de gamme. Nous entraînons ce modèle dans notre laboratoire depuis un certain temps, alors gardez un œil sur un rapport complet bientôt.

Ce que cela signifie pour l'astrophotographie

L'avancement d'une nouvelle architecture de réseau neuronal convolutif (CNN) pour la restauration d'images astronomiques par rapport aux techniques de déconvolution traditionnelles marque un développement crucial dans le domaine de l'astrophotographie. Contrairement aux méthodes conventionnelles, qui introduisent souvent des artefacts tels que du bruit et des images fantômes, l’approche CNN minimise ces problèmes, garantissant des images célestes plus claires et plus précises.

Cette technique améliore la clarté de l’image et permet une extraction plus précise des données des observations astronomiques. En tirant parti de l’apprentissage profond, nous améliorons considérablement la fidélité de l’astrophotographie, ouvrant la voie à une compréhension plus approfondie du cosmos avec un minimum de compromis dans le traitement de l’image.

Deux cas d'utilisation de l'inférence dans la recherche scientifique accélérée par l'IA basée sur Edge

Les méthodes de manipulation et de traitement des données jouent un rôle central dans la recherche scientifique, en particulier dans les domaines nécessitant une saisie et une analyse approfondies de données, comme l'astrophotographie. Nous avons décidé d'examiner deux cas d'utilisation d'inférence courants tirant parti des solutions de stockage Solidigm haute capacité et de l'infrastructure informatique avancée fournie par Dell pour gérer et interpréter les vastes ensembles de données générés en périphérie.

Cas 1 : Approche Sneaker Net

L'approche Sneaker Net est une méthode traditionnelle de transfert de données qui consiste à capturer des données localement sur des périphériques de stockage de grande capacité, puis à transporter physiquement ces supports de stockage vers un centre de données central ou une installation de traitement. Cette méthode rappelle les débuts de l’informatique, où les données étaient déplacées manuellement en raison du manque ou de la lenteur des connexions réseau. Dans la recherche scientifique accélérée par l’IA basée sur la périphérie, cette approche peut être bénéfique dans les scénarios où la transmission de données en temps réel est entravée par des limitations de bande passante ou une connectivité Internet peu fiable.

Le principal avantage de l’approche Sneaker Net réside dans sa simplicité et sa fiabilité. Les disques SSD haute capacité peuvent stocker des quantités massives de données, garantissant ainsi que de grands ensembles de données peuvent être transportés en toute sécurité sans connexion Internet continue. Cette méthode est particulièrement avantageuse dans les environnements éloignés ou difficiles où l’astrophotographie est fréquente, comme les zones sauvages isolées, éloignées des services Internet conventionnels.

Cependant, l’approche Sneaker Net présente également des limites importantes. Le plus évident est le retard dans le traitement et l’analyse des données, car le transport physique prend du temps, ce qui entrave les informations potentielles qui pourraient être dérivées des données. Il existe également un risque accru de perte ou de dommage de données pendant le transport. De plus, cette méthode n’exploite pas le potentiel d’analyse et de prise de décision en temps réel que peut offrir l’informatique de pointe, ce qui risque de passer à côté d’informations et d’interventions opportunes.

Cas 2 : Inférence de périphérie

L'inférence Edge représente une approche plus moderne de la gestion des données dans la recherche scientifique, particulièrement adaptée aux besoins des projets accélérés par l'IA. Ce processus implique la capture de données sur le terrain et l'utilisation d'un serveur Edge équipé d'un NVIDIA L4, pour exécuter une inférence de premier passage. Cette méthode permet une analyse immédiate des données dès leur génération, permettant une prise de décision en temps réel et des ajustements rapides des stratégies de capture de données en fonction des résultats préliminaires.

Les serveurs Edge sont conçus pour fonctionner dans les conditions difficiles souvent rencontrées dans la recherche sur le terrain, fournissant la puissance de calcul nécessaire aux algorithmes d'IA et d'apprentissage automatique directement à la source de données. Cette capacité est cruciale pour les tâches nécessitant une analyse immédiate des données, telles que l’identification de phénomènes astronomiques spécifiques dans de vastes ensembles de données capturés lors de séances d’astrophotographie.

Les avantages de l’inférence de bord sont multiples. Il réduit considérablement la latence du traitement des données, permettant des informations et des ajustements instantanés. Cette analyse en temps réel peut améliorer la qualité et la pertinence des données capturées, rendant ainsi les efforts de recherche plus efficients et efficaces. L'inférence Edge réduit également le besoin de transmission de données, conservant ainsi la bande passante pour les communications essentielles.

Cependant, l’inférence de périphérie pose également des problèmes. La configuration initiale et la maintenance de l'infrastructure informatique de pointe peuvent être complexes et coûteuses, nécessitant des investissements importants en matériel et en logiciels. Il est également nécessaire de disposer d'une expertise spécialisée pour gérer et exploiter efficacement les systèmes informatiques de pointe.

De plus, même si l’inférence de périphérie réduit les besoins de transmission de données, elle nécessite toujours une méthode de stockage des données à long terme et une analyse plus approfondie, ce qui nécessite une approche hybride combinant le traitement local et l’analyse centrale des données. Grâce à l’amélioration des technologies de calcul, de stockage et de GPU, ces défis deviennent moins problématiques.

L’approche Sneaker Net et l’inférence Edge offrent toutes deux des méthodes précieuses pour gérer les vastes ensembles de données générés dans le cadre de la recherche scientifique accélérée par l’IA basée sur l’Edge. Le choix entre ces méthodes dépend des exigences spécifiques du projet de recherche, notamment la nécessité d'une analyse en temps réel, la disponibilité des ressources informatiques sur le terrain et les considérations logistiques liées au transport des données. À mesure que la technologie progresse, le potentiel de solutions innovantes à ces défis promet d’améliorer encore l’efficience et l’efficacité de la recherche scientifique de pointe.

Conditions environnementales extrêmes

Dans le cadre de notre engagement en constante évolution à repousser les limites de la technologie et à comprendre ses limites, nous nous sommes lancés dans une aventure de test unique avec le serveur Dell PowerEdge XR7620 et les SSD Solidigm QLC. Il convient de noter qu'il n'est pas recommandé de s'aventurer en dehors des paramètres opérationnels spécifiés de toute technologie et peut annuler les garanties ou, pire encore, entraîner une panne de l'équipement. Cependant, par souci de curiosité scientifique et pour bien comprendre la robustesse de nos équipements, nous avons procédé avec prudence.

Nos tests pour ce projet ont été menés dans les rigueurs de l'hiver, avec des températures chutant jusqu'à -15°C et moins au milieu d'une tempête de neige incessante. Ces conditions vont bien au-delà de l’environnement d’exploitation normal de la plupart des équipements électroniques, en particulier du matériel serveur sophistiqué et des disques SSD conçus pour les tâches gourmandes en données. L'objectif était d'évaluer les performances et la fiabilité du serveur et du stockage face au froid et à l'humidité extrêmes que présentent ces conditions météorologiques.

Remarquablement, le serveur et les SSD ont fonctionné sans accroc. Il n’y a eu aucun effet négatif sur leur fonctionnement, aucune corruption de données et aucun dysfonctionnement matériel. Ces performances exceptionnelles dans de telles conditions de test en disent long sur la qualité de fabrication et la résilience de ces appareils. Le Dell PowerEdge XR7620, avec sa conception robuste, et les SSD Solidigm, avec leur technologie avancée, se sont révélés capables de résister aux facteurs de stress environnementaux qui vont bien au-delà des limites confortables d'un centre de données.

Tout en démontrant la durabilité et la fiabilité de l'équipement, ce test ne doit pas être considéré comme une approbation du fonctionnement de votre matériel en dehors des spécifications recommandées. Il s’agissait d’une expérience contrôlée conçue pour explorer les limites de ce que ces appareils peuvent gérer. Nos résultats réaffirment l’importance de choisir du matériel durable et de haute qualité pour les applications critiques, en particulier dans les scénarios d’informatique de pointe où les conditions peuvent être imprévisibles et loin d’être idéales.

Réflexions de clôture

Nous sommes séduits par les SSD d'entreprise haute capacité depuis que QLC NAND est arrivé sur le marché de manière significative. La plupart des charges de travail ne sont pas aussi gourmandes en écriture que le croit l'industrie ; cela est encore plus vrai en ce qui concerne la collecte de données en périphérie. Les cas d’utilisation de la collecte de données Edge et de l’inférence présentent un ensemble de défis totalement différents.

À l’instar du cas d’utilisation de l’astrophotographie que nous avons présenté ici, ils sont généralement limités d’une manière ou d’une autre par rapport à ce que l’on trouverait dans le centre de données. Comme pour nos efforts de recherche et d’IA de pointe, le serveur Dell ne dispose que de quatre baies. Il est donc essentiel de maximiser ces baies pour capturer nos données. Semblable à d'autres utilisations de pointe que nous avons examinées, comme conduite autonome, la capacité de capturer davantage de données sans s'arrêter est vitale.

La conclusion de notre exploration des applications uniques des SSD d'entreprise haute capacité, en particulier de la technologie QLC NAND, souligne un changement crucial dans la façon dont nous abordons la collecte et le traitement des données à la périphérie. Les SSD que nous avons utilisés lors de nos tests se révèlent particulièrement intéressants en raison de leurs mesures de capacité et de performances, ouvrant de nouvelles possibilités de recherche qui étaient auparavant limitées par les capacités de stockage.

Notre voyage à travers les subtilités de la collecte de données de pointe et des cas d'utilisation d'inférence, résumés par le projet d'astrophotographie, révèle une compréhension nuancée des besoins de stockage au-delà du centre de données. Dans des projets comme celui-ci, où chaque octet de données capturé, un fragment du cosmos, a de la valeur. Entre les contraintes météorologiques et de temps, le luxe de vastes baies de stockage et de racks sur racks d'équipement n'est pas toujours disponible.

Ce scénario n’est pas propre à l’astrophotographie, mais se retrouve dans diverses applications informatiques de pointe et disciplines de recherche. Ici, la capture et l’analyse de grandes quantités de données à la volée sont primordiales. Pour de nombreux secteurs, interrompre le déchargement des données est un luxe qui ne peut être ni se permettre ni se justifier. Les SSD résolvent ce dilemme grâce à leurs capacités de stockage étendues. Ils permettent des périodes prolongées de collecte de données sans arrêts fréquents pour décharger les données, garantissant ainsi la continuité et l'intégrité du processus de recherche.

Ces disques SSD haute capacité ouvrent de nouvelles frontières en matière de recherche en prenant en charge les exigences gourmandes en données des algorithmes d'IA et d'apprentissage automatique directement à la périphérie. Cette capacité est cruciale pour le traitement et l’inférence des données en temps réel, permettant des informations et des actions immédiates basées sur les données collectées. Qu'il s'agisse d'affiner les paramètres de capture de données sur la base d'une analyse préliminaire ou d'appliquer des algorithmes complexes pour filtrer le bruit céleste lors de découvertes astronomiques, le rôle de ces SSD ne peut être surestimé.

Les SSD Solidigm ne sont pas seulement des solutions de stockage, mais aussi des catalyseurs d'innovation. Ils représentent un pas en avant pour relever les défis uniques de l’informatique de pointe, en facilitant les efforts de recherche qui repoussent les limites de ce qui est possible. L’importance de solutions de stockage robustes, efficaces et de grande capacité ne fera que croître à mesure que nous continuerons à explorer l’immensité de l’espace et les subtilités de notre monde grâce à une recherche scientifique accélérée par l’IA. Ces technologies ne répondent pas seulement aux besoins actuels de la recherche ; ils anticipent l’avenir, jetant les bases des découvertes futures.

IA Solidigme

Ce rapport est sponsorisé par Solidigm. Tous les points de vue et opinions exprimés dans ce rapport sont basés sur notre vision impartiale du ou des produits à l'étude.

S'engager avec StorageReview

Newsletter |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS