StorageReview.com

L'IA en mer : l'université d'État de l'Oregon prend la mer pour étudier l'océan en temps réel

AI  ◇  Entreprise

« Ce qui nous intéresse, ce sont les technologies qui font évoluer la science. »

— Christopher Sullivan, directeur – Informatique de recherche et d'enseignement – ​​Faculté des sciences de la Terre, de l'océan et de l'atmosphère – Université d'État de l'Oregon

At Laboratoire d'écologie du plancton de l'Université d'État de l'Oregon, situé à l'intérieur du Centre des sciences marines de HatfieldLe débat sur les infrastructures commence par un objectif scientifique : comment la technologie peut-elle aider les chercheurs à mieux comprendre les océans, plus rapidement, tout en préservant chaque donnée unique collectée en mer ? La réponse repose de plus en plus sur la puissance de calcul, l’accélération GPU et le stockage NVMe haute densité, au service de la science et non l’inverse.

Le laboratoire étudie les fondements du réseau trophique marin en capturant des images haute résolution et des données télémétriques environnementales, puis en les transformant en connaissances. Ce travail n'est pas abstrait. Il s'agit d'une science de terrain qui dépend de navires, de capteurs et de créneaux horaires irremplaçables. La perte de données n'est pas un simple désagrément. C'est la perte d'un instant précieux dans l'océan, un instant qui ne se reproduira jamais.

Dell PowerEdge XE7745

Répondre aux grandes questions scientifiques exige un matériel performant. Nous accompagnons l'Université d'État de l'Ohio (OSU) dans la validation d'un serveur Dell PowerEdge XE7745 qui associe des GPU à des SSD NVMe haute densité, permettant aux chercheurs d'analyser, de préserver et de partager des données sans compromis. L'accent est mis avant tout sur l'intégrité et la fiabilité, puis sur la vitesse à grande échelle. C'est ainsi que la technologie transforme la pratique scientifique grâce à l'IA, et non plus seulement en théorie.

À l'intérieur du système

  • Serveur: Dell PowerEdge XE7745 (4U)
  • Processeurs: Double processeur AMD EPYC 9555 à 64 cœurs
  • DRACHME: 24 x 32 Go – 768 Go
  • GPU : Serveur 4 × NVIDIA RTX Pro 6000
  • Stockage: 8 × Solidigm D5-P5336 E3.S 30.72 To
  • Mise en réseau: Déchargement Ethernet 100 Gb

« Toute technologie introduit déjà des biais dans la science. Le défi consiste à trouver une technologie qui supprime ces limites. »

Le plancton est l'architecte invisible de la vie sur Terre. Ces organismes microscopiques sont le moteur de la vie sur notre planète : ils produisent environ la moitié de l'oxygène mondial et constituent la base de tous les réseaux trophiques marins. Ils absorbent d'énormes quantités de dioxyde de carbone, influencent les cycles climatiques mondiaux et servent d'indicateurs précoces des changements écosystémiques. Comprendre le plancton, c'est comprendre la santé des océans, leur rôle dans la régulation de l'atmosphère et, en fin de compte, la stabilité future de la planète.

Recherche océanographique sur l'IA et le plancton

Zooplancton, Crédit photo : Matt Wilson/Jay Clark, NOAA NMFS AFSC.

Pendant des décennies, la recherche sur le plancton s'est appuyée sur des filets permettant de collecter des échantillons en grande quantité, analysés ensuite au microscope. Ces méthodes ne fournissaient que des instantanés et laissaient souvent supposer que prédateurs et proies interagissaient constamment dans la même zone de la colonne d'eau. Les systèmes d'imagerie à haute résolution, capables de se déplacer verticalement dans l'océan, ont révélé une tout autre réalité. De nombreuses espèces de plancton et leurs prédateurs occupent des couches distinctes, séparées par des gradients de profondeur, de température et de nutriments. Cette structure était auparavant invisible. L'imagerie moderne permet aux chercheurs d'observer non seulement la présence des espèces, mais aussi leur distribution, leurs interactions et l'évolution de ces interactions.

Système d'imagerie de l'ichtyoplancton in situ (ISIIS), Crédit image : Université d'État de l'Oregon

L'OSU dispose de nombreux outils pour étudier le plancton, mais son instrument principal est le Système d'imagerie de l'ichtyoplancton in situ (ISIIS)ISIIS est une plateforme remorquée qui parcourt l'océan et transmet des informations via un câble océanographique en cuivre et fibre optique. Deux caméras 8K capturent les silhouettes du plancton au fur et à mesure que l'eau de mer circule dans le système, avec un débit d'images allant jusqu'à 160 litres par seconde, tout en enregistrant les données de température, de salinité et de profondeur.

Ce processus génère chaque jour des téraoctets de données. Les scientifiques de l'OSU souhaitent les analyser en temps quasi réel afin que les équipages des navires puissent adapter leurs itinéraires d'échantillonnage en fonction de ce qu'ils observent sous la surface.

L’objectif à long terme est de permettre aux modèles d’IA d’identifier automatiquement les organismes et de détecter les variations des populations de plancton susceptibles d’annoncer des changements environnementaux majeurs. La capture de ces tendances à grande échelle exige à la fois des systèmes d’imagerie avancés et une infrastructure informatique capable de transformer le chaos visuel en données quantifiables.

Aujourd'hui, les travaux de validation de l'Université d'État de l'Oregon se déroulent à terre, où le système Dell PowerEdge XE7745 traite les immenses ensembles d'images collectés par la plateforme ISIIS. Cet environnement permet aux chercheurs d'affiner leurs modèles, de vérifier l'intégrité des données et d'évaluer les performances du système sous des charges de travail scientifiques. L'objectif à long terme est de déployer cette capacité en mer, en intégrant la même architecture de calcul et de stockage à bord de navires de recherche afin que les données puissent être traitées et analysées directement en mer. Ce passage de la validation en laboratoire au déploiement en temps réel en mer est ce qui permettra, à terme, de boucler la boucle entre la collecte, l'analyse et la découverte des données.

« Notre flux de travail idéal est que, lorsque le navire arrive au port, les analyses scientifiques soient déjà terminées. »

La prochaine étape du développement de l'infrastructure de recherche de l'Université d'État de l'Oregon consiste à déployer l'informatique directement sur les vagues. La nouvelle flotte de navires de recherche de l'université, comprenant notamment les navires à venir, Navires de recherche de classe régionale comme le R/V TaaniCe système est conçu comme une plateforme de collecte et d'analyse de données semi-autonomes et à haute performance. Ces navires serviront de laboratoires mobiles, embarquant des instruments scientifiques, des réseaux de capteurs et, désormais, des systèmes de calcul pilotés par GPU capables d'analyser des téraoctets de données avant même de retourner à terre.

Navire de recherche régional R/V Taani

Image 3D du navire - Crédit photo : Université d'État de l'Oregon

Chaque campagne maritime accueillera plusieurs expériences simultanées, allant de l'imagerie du plancton et du suivi numérique des pêcheries à la cartographie acoustique et à la modélisation environnementale. En mer, le défi n'est pas la puissance, mais la densité. Chaque unité de rack à bord doit offrir des performances maximales avec une complexité minimale, compte tenu du personnel informatique limité disponible. La configuration validée du serveur Dell PowerEdge XE7745, associée aux SSD Solidigm E3.S et aux GPU NVIDIA RTX Pro 6000, est actuellement évaluée comme pierre angulaire de cette stratégie de centre de données embarqué. En traitant les données en quasi temps réel, les chercheurs de l'OSU pourront ajuster les itinéraires d'échantillonnage, détecter les anomalies et prendre des décisions scientifiques éclairées, même en mer.

Images segmentées du plancton, Source : Université d'État de l'Oregon

Cette approche permet également d'intégrer l'intelligence artificielle au flux de travail. Les modèles d'IA, entraînés sur des images historiques de plancton, peuvent classifier les organismes, identifier les tendances environnementales et même prédire les zones de forte concentration d'espèces cibles. Cette capacité transforme une expédition scientifique, d'une mission passive de collecte de données, en une exploration active et adaptative. Associée à un stockage NVMe fiable et redondant et à un réseau haut débit, elle offre un environnement de calcul en périphérie résilient, spécialement conçu pour la découverte.

L'objectif est de faire de chaque navire de recherche de l'OSU un observatoire autonome doté d'intelligence artificielle. Les données recueillies par les instruments du navire seront directement intégrées aux clusters de calcul embarqués, où elles pourront être analysées, archivées et transférées via des connexions Ethernet 100 Gb/s dès le retour du navire au port. À l'arrivée du navire, les scientifiques disposeront d'informations exploitables, de résultats validés et de la certitude qu'aucune donnée n'aura été perdue en mer.

« Lorsqu'on recueille des données environnementales en mer, chaque heure coûte des milliers de dollars. »

Les données recueillies à bord des navires de recherche de l'Université d'État de l'Oregon comptent parmi les informations les plus précieuses pour la communauté scientifique. Chaque minute de fonctionnement représente le temps de navigation, le carburant, l'équipage et l'équipement œuvrant de concert pour saisir des conditions qui ne se reproduiront peut-être jamais. La perte, même partielle, de ces données est inenvisageable. L'équipe de Sullivan a conçu son infrastructure autour d'un principe fondamental : chaque donnée doit être préservée, vérifiée et analysée avant même que le navire ne retourne au quai.

Pour atteindre cet objectif, l'OSU valide les Dell PowerEdge XE7745, une plateforme 4U refroidie par air conçue pour les charges de travail accélérées par GPU. Ce système associe deux processeurs AMD EPYC à un maximum de huit (quatre dans ce cas). Cartes graphiques serveur NVIDIA RTX Pro 6000 Basé sur l'architecture Blackwell, chaque GPU offre 96 Go de mémoire GDDR7 haute vitesse et des cœurs tenseurs avancés, spécialement conçus pour l'inférence IA et le traitement d'images, permettant aux chercheurs d'analyser des données environnementales haute résolution en temps réel.

Le nombre limité de baies de disques du XE7745 a fait de la capacité par emplacement un facteur déterminant, incitant OSU à en intégrer huit. SSD Solidigm D5-P5336 E3.S de 30.72 ToCette solution offre près de 250 To de stockage flash dans un format compact, combinant l'efficacité de la mémoire NAND QLC de Solidigm à un firmware d'entreprise optimisé pour des performances d'écriture soutenues et une intégrité des données garantie. Pour le navire de recherche Taani, où l'espace et le refroidissement sont des ressources précieuses, cette densité permet d'intégrer l'ensemble de la plateforme, la puissance de calcul, l'accélération GPU et le stockage redondant dans un seul châssis 4U.

« Nous examinons ces systèmes en détail pour voir jusqu'où ils peuvent aller. »

La phase de validation à l'Université d'État de l'Oregon vise à évaluer la capacité du serveur Dell PowerEdge XE7745 à prendre en charge l'intégralité du flux de travail d'imagerie du plancton. L'objectif n'est pas seulement de mesurer la vitesse, mais de confirmer que le système peut traiter les données de manière fiable, à l'échelle et au rythme requis lors des opérations à bord des navires.

Aujourd'hui, le laboratoire capture plus de 15 téraoctets d'images et de données environnementales par jour lors d'une mission de recherche classique. Grâce à la plateforme XE7745, l'équipe traite actuellement environ deux téraoctets de vidéo brute par jour. Ce flux de travail utilise 256 cœurs de processeur pour la segmentation et quatre GPU serveur NVIDIA RTX Pro 6000 pour l'inférence. Le pipeline ainsi obtenu est environ trois fois plus rapide que celui de la génération précédente.

Le constat le plus important est que le goulot d'étranglement actuel réside dans la segmentation du processeur, et non dans le débit de stockage ou la puissance de traitement des GPU. Les SSD Solidigm D5-P5336 en RAID 10 offrent des performances de lecture et d'écriture constantes et soutenues, sans jamais être en retard sur le pipeline de traitement. Les GPU conservent également une marge de débit suffisante, permettant ainsi une extension horizontale en fonction des ressources d'alimentation et de refroidissement disponibles. Autrement dit, le matériel n'est plus le facteur limitant. L'architecture révèle désormais la charge de travail scientifique réelle, permettant à l'équipe d'optimiser la phase de segmentation avec précision.

Solidigm P5336 pour la recherche océanographique en IA

SSD Solidigm P5336 de 30.72 To

L'impact opérationnel est considérable. Lors des expéditions précédentes, les chercheurs ne pouvaient qu'observer le flux vidéo en temps réel, sans pouvoir confirmer s'ils échantillonnaient une eau riche en plancton ou s'ils capturaient simplement des particules en suspension. Le plancton suit les courants et se concentre souvent dans des couches fines invisibles à l'œil nu. Sans traitement, une expédition de dix jours pouvait produire des heures de données d'une faible valeur scientifique.

Grâce au traitement quasi temps réel du XE7745, l'équipe scientifique peut désormais évaluer la qualité des données pendant leur collecte. Si les images révèlent une faible densité de plancton, le navire peut modifier sa profondeur ou se déplacer vers de nouvelles coordonnées sans quitter la mer. Cette capacité d'ajustement éclairé est l'une des principales raisons pour lesquelles le calcul accéléré par l'IA trouve sa place à bord des navires de recherche. Elle transforme l'expédition, passant d'une simple acquisition de données à une exploration scientifique active.

L'ajout de systèmes XE7745 supplémentaires permet d'augmenter la capacité de traitement pour gérer l'intégralité du volume de données quotidien. Cette capacité d'adaptation tient compte des contraintes physiques liées à la recherche embarquée : consommation d'énergie, dissipation thermique et densité des racks. Ces défis, d'ordre environnemental et non technologique, sont aujourd'hui mis en évidence précisément parce que la plateforme de calcul a démontré sa capacité à répondre à la demande.

« Si votre technologie peut changer la science, discutons-en. »

La compréhension scientifique progresse lorsque nous acquérons la capacité de voir ce qui était auparavant caché, et les océans regorgent de tels secrets. Les techniques d'imagerie utilisées à l'Université d'État de l'Oregon révèlent désormais des espèces de plancton rares qui jouent un rôle crucial dans le réseau trophique marin, tout en démontrant comment les changements environnementaux, tels que l'élévation de la température des océans, affectent leur survie. Le plancton réagit rapidement au stress, ce qui en fait un indicateur précoce des bouleversements majeurs des systèmes océaniques et climatiques. Son étude détaillée est essentielle pour comprendre comment l'océan soutient la vie et comment cet équilibre est susceptible d'évoluer.

Ces progrès reposent sur des outils qui évoluent au gré des questions scientifiques. La recherche moderne exige la capacité de collecter, de traiter et d'interpréter des ensembles de données massifs directement dans leur environnement de production. Le stockage NVMe haute capacité et l'accélération GPU permettent désormais de rapprocher le traitement des données de leur lieu d'acquisition, au lieu de dépendre entièrement de centres de données centralisés. Pour l'OSU, cela se traduit par une analyse en temps réel ou quasi réel à la périphérie du réseau, où les décisions scientifiques peuvent influencer le déroulement même de la collecte des données.

Recherche océanographique en IA Savana Stallsmith avec serveur GPU

Savana Stallsmith, étudiante à l'Université d'État de l'Oregon, utilise le pipeline d'IA Plankton.

La collaboration entre l'Université d'État de l'Oregon et ses partenaires technologiques témoigne d'une compréhension partagée des buts et objectifs. Les limites de la recherche ne résident pas dans les questions posées, mais plutôt dans les réponses apportées. Ces limites correspondent à la capacité pratique de traiter l'immense quantité d'informations que recèle l'océan. Lorsque la conception des ressources de calcul, du stockage et des flux de travail est alignée sur les besoins scientifiques, ces contraintes s'estompent.

Pour l'avenir, l'enjeu est de concevoir des systèmes capables de capturer, d'analyser et de comprendre les données sans nécessiter leur transfert entre plusieurs plateformes. Le traitement s'effectue en fonction des données, et non l'inverse. Les clusters de calcul embarqués, le stockage NVMe haute densité et l'inférence accélérée par GPU constituent des avancées vers ce modèle. Il ne s'agit pas d'une « IA utopique ». Ce projet démontre qu'une transformation majeure est déjà en cours dans le domaine du calcul scientifique.

L'océan est en pleine mutation. Les données sont cruciales. Le temps dont nous disposons pour comprendre ce phénomène est limité. Les travaux menés à l'Université d'État de l'Oregon démontrent ce qu'il est possible d'accomplir lorsque l'on utilise les technologies appropriées pour répondre aux bonnes questions, au bon moment et là où la science se pratique.

Pour en savoir plus sur les recherches de l'Oregon State University, rendez-vous à SC25 :

Conférence sur les technologies Dell
Date : mardi 18 novembre
Heure: 11: 30 am
Emplacement : Espace de discussion du stand principal Dell

Supermicro Talk
Date : mercredi 19 novembre
Heure: 5: 00 pm
Emplacement : Stand principal Supermicro n° 3504

S'engager avec StorageReview

Inscrivez-vous à notre infolettre |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS

Brian Beeler

Brian est situé à Cincinnati, Ohio et est l'analyste en chef et le président de StorageReview.com.