Home Enterprise JetStor SAS 616iSD 10G iSCSI SAN-test

JetStor SAS 616iSD 10G iSCSI SAN-test

by Kevin OBrien

De SAS 616iSD 10G maakt deel uit van een uitgebreide reeks opslagarrays op blokniveau die wordt aangeboden door JetStor. De iSCSI 616iSD biedt tot 48 TB opslag via 16 3.5-inch bays in een 3U-behuizing. JetStor beschikt over dubbele redundante actieve/actieve RAID-controllers en vier 10GbE-poorten, twee per controller. Elke controller wordt aangedreven door een Intel IOP342 64-bit Chevelon dual-core opslagprocessor en bevat functies zoals pariteitsondersteunende ASIC, iSCSI-ondersteunde engine en TCP Offload Engine (TOE). Mocht 48TB onvoldoende blijken, dan kan de 616iSD worden uitgebreid met vier JBOD-shelfs (SAS716J) voor een maximale capaciteit van 240TB per array.


De SAS 616iSD 10G maakt deel uit van een uitgebreide reeks opslagarrays op blokniveau die wordt aangeboden door JetStor. De iSCSI 616iSD biedt tot 48 TB opslag via 16 3.5-inch bays in een 3U-behuizing. JetStor beschikt over dubbele redundante actieve/actieve RAID-controllers en vier 10GbE-poorten, twee per controller. Elke controller wordt aangedreven door een Intel IOP342 64-bit Chevelon dual-core opslagprocessor en bevat functies zoals pariteitsondersteunende ASIC, iSCSI-ondersteunde engine en TCP Offload Engine (TOE). Mocht 48TB onvoldoende blijken, dan kan de 616iSD worden uitgebreid met vier JBOD-shelfs (SAS716J) voor een maximale capaciteit van 240TB per array.

Van nature is de JetStor SAS 616iSD 10G ontworpen om eenvoudig te zijn. Zet hem aan, geef hem toegang tot de Ethernet-structuur en u kunt aan de slag. JetStor's eenvoud in ontwerp werkt overal, met functies zoals een intern ontwerp zonder kabels, dat, hoewel waarschijnlijk nooit gezien, een groter servicegemak biedt als er iets misgaat. Het apparaat wordt ook geleverd met dubbele voedingen, turbokoelventilatoren en een garantie van drie jaar op alle componenten met telefonische en e-mailondersteuning gedurende de levensduur van het apparaat.

Jetstor SAS 616iSD 10G Specificaties

  • Hostpoorten: twee, 10 Gigabit Ethernet met iSCSI-protocol, SFP+ hostinterfaces per redundante controller
  • Schijfinterface: 3Gb/s SAS
  • Aangeboden harde schijven: 300 GB (15), 450 GB (15), 600 GB SAS (15k), 1 TB (7.2 k), 2 TB (7.2 k) en 3 TB (7.2 k)
  • Schijven: 16 (3.5")/ tot 160 via twee 3Gb/s SAS-uitbreidingspoorten
  • Ondersteunde RAID-modi: RAID 0, 0+1, 1, 3, 5, 6, 10, 30, 50 en RAID 60, Global Hot Spare Disk, Auto Rebuild
  • Intel IOP342 64-bits Chevelon dual-core opslagprocessor op elke controller
  • 2 GB cache (standaard) – 4 GB (optioneel) / DDR2-800 ECC geregistreerd SDRAM
  • Optionele batterijback-up
  • Twee RJ45/Ethernet-beheer-/monitorpoorten
  • SMTP-manager en SNMP-agent
  • Stroom en koeling
    • Vier turboventilatoren
    • Voeding 110 of 220 VAC, ±20% @ 6 ampère / 3 ampère piek
    • Twee 460W PS/Fan-modules met PFC
  • Mileu
    • Relatieve vochtigheid 10% tot 85% niet-condenserend (in bedrijf)
    • Bedrijfstemperatuur 50 ° F tot 104 ° F
  • 3U Fysieke afmetingen (B x D x H) 19″ breed, 22″ diep, 5.25″ hoog
  • Gewicht (zonder aandrijvingen) 40 lb. / 18 kg.
  • Ondersteunde besturingssystemen: VMWare ESX Server, vSphere, Windows Server 2008, Windows Server 2003, XenServer, Oracle/Solaris, Linux, MAC OS X en andere worden aangekondigd
  • Garantie: 3 jaar logic, 3 jaar voedingen, 5 jaar SAS-schijven, 3 of 5 jaar SATA-schijven

Ontwerp en bouw

De JetStor SAS 616iSD is een 16-bay 10GbE-uitgeruste dual-controller SAN. De voorkant van de 616iSD is voorzien van een eenvoudige gebruikersinterface die informatie weergeeft, zoals het huidige beheer-IP zonder dat u in uw router of DHCP hoeft te duiken om op te sporen welk IP-adres u moet gebruiken voor webgebaseerd beheer. De frontconsole bevat een LCD-scherm en een handvol knoppen om door menu's te bladeren om lokaal toegang te krijgen tot het SAN. Om de hardware-aspecten van het JetStor-model te beheren, klapt u gewoon de hele voorkant omhoog en krijgt u toegang tot de zestien 3.5-inch schijfposities eronder.

Onze review JetStor SAS 616iSD 10G omvatte twaalf Seagate Cheetah 15K.7 ST3600057SS 600GB harde schijven, hoewel het systeem kan worden geconfigureerd met verschillende schijven van 15K en 7,200 RPM. Elke schijf is gemonteerd in een eigen hot-swap caddy, die een gemakkelijke vervanging mogelijk maakt in het geval van een schijffout. Elke schijflade bevat ook een basisvergrendelingsmechanisme om te voorkomen dat per ongeluk de verkeerde schijf wordt uitgeworpen in een productieomgeving.

Om de SAS 616iSD 10G gemakkelijk in een rek te monteren, bevat JetStor een standaard niet-glijdende railkit die gemakkelijk in een paar minuten kan worden ingesteld. Aangezien het gewicht van de SAN gemakkelijk in de categorie "teamlift" valt, is het waarschijnlijk het beste om hulp te krijgen bij het optillen van de SAN in het rek zodra de rails zijn gemonteerd. De rails zijn eenvoudig in de ontvangende sleuven te richten en blijven stevig in onze houder zitten Eaton 42U rek zonder enige indicatie van doorzakken eenmaal gemonteerd.

Het zicht vanaf de achterkant van de JetStor SAS 616iSD 10G toont de redundante schijfcontrollers en voedingen. Beide worden snel verwijderd met duimschroeven, met behulp van een ingebouwde hendel en hendelmechanisme om beide te verwijderen en stevig op hun plaats te vergrendelen. Interface-aansluitingen aan de achterkant omvatten twee SFP+-aansluitingen per controller (één poort op elk is gevuld met een glasvezeltransceiver op onze testeenheid), één beheerpoort per controller, evenals één SFF-8088 SAS-connector per controller voor externe JBOD-uitbreiding met behulp van de SAS716J. Er zijn ook UPS- en RS-232-connectoren om communicatie met andere apparatuur mogelijk te maken.

In het onwaarschijnlijke geval dat een controller moet worden vervangen, kostte het ons niet meer dan 60 seconden om de module te verwijderen en terug te plaatsen nadat deze in ons rek was geïnstalleerd. Hoewel de vergrendelingshendels duimschroeven hebben, raadt JetStor nog steeds aan dat veldtechnici de schroeven vastdraaien met een platte schroevendraaier om ervoor te zorgen dat alles stevig is geïnstalleerd.

De voeding was net zo eenvoudig te verwijderen en opnieuw te installeren, hoewel het grotere formaat meer zorgvuldige inspanning vergde om omringende kabels en apparatuur achter in ons testrack vrij te maken.

De JetStor-webbeheertools die worden aangeboden om de SAS 616iSD te configureren, zijn eenvoudig te volgen, maar vrij eenvoudig qua ontwerp en implementatie. Vanaf de eerste login was het vrij eenvoudig om het systeem operationeel te krijgen, hoewel de interface soms traag leek. Voor een MKB- of kleinere bedrijfsomgeving zou het gemakkelijk zijn om een ​​paar van deze platforms samen te beheren, hoewel een omgeving met meer dan een handvol problemen kan veroorzaken als u zich op elk apparaat moet aanmelden om afzonderlijk te configureren.

Achtergrond en vergelijkingen testen
Als het gaat om het testen van bedrijfshardware, is de omgeving net zo belangrijk als de testprocessen die worden gebruikt om deze te evalueren. Bij StorageReview bieden we dezelfde hardware en infrastructuur als in veel datacenters waar de apparaten die we testen uiteindelijk voor bestemd zijn. Dit omvat zowel bedrijfsservers als de juiste infrastructuurapparatuur zoals netwerken, rackruimte, stroomconditionering/bewaking en vergelijkbare hardware van dezelfde klasse om goed te evalueren hoe een apparaat presteert. Geen van onze beoordelingen wordt betaald of gecontroleerd door de fabrikant van de apparatuur die we testen.

StorageReview Enterprise Test Lab-overzicht

StorageReview 10GbE Enterprise-testplatform:

Lenovo Think Server RD240

  • 2 x Intel Xeon X5650 (2.66 GHz, 12 MB cachegeheugen)
  • Windows Server 2008 Standard Edition R2 SP1 64-bits en CentOS 6.2 64-bits
  • Intel 5500+ ICH10R-chipset
  • Geheugen – 8 GB (2 x 4 GB) 1333 MHz DDR3 geregistreerde RDIMM's

Mellanox SX1036 10/40Gb Ethernet-switch en hardware

  • 36 40GbE-poorten (tot 64 10GbE-poorten)
  • QSFP-splitterkabels 40GbE tot 4x10GbE
  • Mellanox ConnectX-3 EN PCIe 3.0 dubbele 10G Ethernet-adapter

Onze huidige 10/40Gb Ethernet SAN- en NAS-testinfrastructuur bestaat uit ons Lenovo ThinkServer RD240-testplatform uitgerust met Mellanox ConnectX-3 PCIe-adapters die zijn aangesloten via de 36-poorts 10/40GbE-switch van Mellanox. In deze omgeving kan het opslagapparaat dat we testen de I/O-bottleneck zijn, in plaats van de netwerkapparatuur zelf.

Enterprise synthetische werklastanalyse
Voor beoordelingen van opslagarrays stellen we een zware belasting van 8 threads voor met een uitstekende wachtrij van 8 per thread, en testen we vervolgens met vaste intervallen in meerdere thread/wachtrijdiepteprofielen om de prestaties bij licht en zwaar gebruik te tonen. Voor tests met 100% leesactiviteit is preconditionering met dezelfde werkbelasting, hoewel omgedraaid naar 100% schrijven.

Voorconditionering en primaire steady-state tests:

  • Doorvoer (lezen+schrijven IOPS aggregaat)
  • Gemiddelde latentie (lees- en schrijflatentie samen gemiddeld)
  • Maximale latentie (piek lees- of schrijflatentie)
  • Latentie Standaarddeviatie (Lezen + Schrijven Standaarddeviatie samen gemiddeld)

Op dit moment omvat Enterprise Synthetic Workload Analysis veelvoorkomende sequentiële en willekeurige profielen, die kunnen proberen de activiteit in de echte wereld weer te geven. Deze werden uitgekozen om enige gelijkenis te vertonen met onze eerdere benchmarks, evenals een gemeenschappelijke basis voor vergelijking met algemeen gepubliceerde waarden zoals max. 4K lees- en schrijfsnelheid, evenals 8K 70/30 die vaak wordt gebruikt voor zakelijke schijven. We hebben ook twee verouderde gemengde workloads opgenomen, waaronder de traditionele bestandsserver en webserver die een brede mix van overdrachtsgroottes bieden. Deze laatste twee worden uitgefaseerd met toepassingsbenchmarks in de categorieën die op onze site worden geïntroduceerd, en vervangen door nieuwe synthetische workloads.

  • 1024K (opeenvolgend)
    • 100% lezen of 100% schrijven
  • 8K (opeenvolgend)
    • 100% lezen of 100% schrijven
  • 4K (willekeurig)
    • 100% lezen of 100% schrijven
  • 8K 70/30 (willekeurig)
    • 70% lezen, 30% schrijven
  • Bestandsserver (willekeurig)
    • 80% lezen, 20% schrijven
    • 10% 512b, 5% 1k, 5% 2k, 60% 4k, 2% 8k, 4% 16k, 4% 32k, 10% 64k
  • Webserver (willekeurig)
    • 100% gelezen
    • 22% 512b, 15% 1k, 8% 2k, 23% 4k, 15% 8k, 2% 16k, 6% 32k, 7% 64k, 1% 128k, 1% 512k

Om onze benchmarking te starten, kijken we naar de sequentiële prestaties van grote blokken met een belasting van 8 threads, elk met een uitstekende wachtrij van 8 I/O's, die is ontworpen om de verzadigingssnelheid van het SAN over het netwerk weer te geven, wat in dit geval is 10GbE over twee verbindingen met MPIO, één per controller. Tijdens onze tests hadden de RAID5- en RAID6-modi de voorkeur boven RAID10. Snelheden varieerden van maximaal 995 MB/s met RAID5 tot 928 MB/s met RAID10. De schrijfprestaties waren het sterkst met RAID6, met een snelheid van 617 MB/s, met RAID5 met 379 MB/s en RAID10 met slechts 150 MB/s.

De gemiddelde latentie tijdens onze sequentiële overdrachtsprestaties was 65 ms voor RAID5, 66 ms voor RAID6 en 70 ms voor RAID10 in onze 1024k leestest, en 105 ms voor RAID6, 172 ms voor RAID5 en 434 ms voor RAID10 in ons schrijfsegment.

Hoewel de gemiddelde latentie een belangrijke maatstaf is om te overwegen bij het bekijken van de algehele prestaties, is het net zo waardevol om te weten wat de latentie in het slechtste geval zou kunnen zijn. In het geval van de JetStor SAS 616iSD werden de maximale leesresponstijden beperkt tot 1,518-1,855 ms in leesactiviteit en 1,727-2,999 ms in schrijfactiviteit.

De laatste statistiek die we in onze tests bekijken, is de latentiestandaarddeviatie, om te zien hoe dicht de latentiespreiding over de duur van de test gegroepeerd was. De JetStor in RAID5 bood de meest consistente prestaties in lees- en schrijfactiviteit van grote blokken, waarbij RAID6 op de tweede plaats kwam en RAID10 de grootste spreiding had in onze beide lees- en schrijftests.

Terwijl de 1024k sequentiële overdrachtstest was ontworpen om de post van bandbreedteverzadiging te meten, kijkt onze volgende test naar sequentiële activiteit in kleine blokken met een 8K-overdracht om I/O-doorvoer te meten in het beste geval. Hoewel de meeste activiteit die een SAN in een productieomgeving kan waarnemen, willekeurig zal zijn naarmate meer systemen er toegang toe hebben, kan nachtelijke back-up of activiteit op de achtergrond tijdens inactieve tijd deze snelheden dicht benaderen. De maximale sequentiële 8K-leesprestaties die we hebben gemeten, kwamen uit op 78,686 IOPS in een RAID5-configuratie en daalden van 73,090 IOPS in RAID6 naar 59,224 IOPS in RAID10. Piek 8K sequentiële schrijfprestaties werden gemeten bij 30,089 IOPS in RAID6, met RAID10 met 27,622 IOPS en RAID5 met 22,049 IOPS.

De gemiddelde sequentiële latentie van kleine blokken was over de hele linie laag in onze 8K-overdrachtstest, waarbij de RAID5-lezing het snelst binnenkwam met een responstijd van 0.81 ms, RAID6 volgde met 0.87 ms en RAID10 met 1.08 ms. De schrijflatenties waren iets hoger gezien hun langzamere I/O-overdrachtsresultaten, met RAID6 van 2.12 ms, RAID10 met 2.31 ms en RAID5 met 2.9 ms.

De maximale leeslatentie in onze 8K sequentiële overdrachtstest mat een piek van ongeveer 1,000 ms over de hele linie in het leessegment van onze test, met een schrijfpieklatentie van 593 ms in RAID10 tot 1,195 ms in RAID6.

Kijkend naar de spreiding van de latentiestandaarddeviatie, behield de RAID6-modus de meest consistente sequentiële leesprestaties, waarbij RAID5 RAID10 iets inconsistenter was. RAID6 bood ook de beste 8K sequentiële standaarddeviatie in schrijfoverdrachten.

Onze volgende groep tests verschuift de focus naar willekeurige workloads, met als eerste 100% 4K-schrijven in het preconditioneringssegment. In termen van hoe de RAID-modi zich opstapelden, bood RAID10 de hoogste doorvoer, met RAID5 en RAID6 daaronder. Wat echter interessant was, waren de prestatiedalingen van de RAID10-array, hoogstwaarschijnlijk veroorzaakt door achtergrondonderhoud, dat de RAID5- en RAID6-opstellingen niet hadden.

Kijkend naar de gemiddelde latentie tijdens onze preconditioneringsfase, kun je voor elke RAID-modus zien hoe de onboard-cache de inkomende willekeurige activiteit gedurende 1-2 minuten bufferde, alvorens af te vlakken naar de prestaties van de schijven zelf.

Tijdens onze belasting van 8 threads, elk met 8 uitstekende I/O's, zweefde de pieklatentie tussen 200-500 ms voor elke RAID-modus met 100% 4K-schrijfactiviteit.

Als we onze focus verleggen naar standaarddeviatie voor latentie, kunnen we zien dat de responstijden het meest consistent waren met de RAID10-configuratie, gevolgd door RAID5 en RAID6.

Nadat het preconditioneringsproces was voltooid, namen we langere monsters van 100% 4K willekeurige lees- en willekeurige schrijfprestaties van elke RAID-modus. RAID6 bood de hoogste leessnelheden van 6,242 IOPS, hoewel langzamere schrijfprestaties van 1,492 IOPS. RAID10 bood de beste willekeurige schrijfprestaties van 3,186 IOPS, maar had een langzamere 4K willekeurige leessnelheid van 5,512 IOPS.

Met een uitstekende effectieve wachtrijdiepte van 64, hebben we 4K willekeurige lees- en schrijflatentie gemeten in elke RAID-modus. Willekeurige 4K-leeslatentie varieerde van 10.25 ms in RAID6 tot 11.61 ms in RAID10. Schrijflatentie geschaald van 20.08 ms in RAID10 tot 42.89 ms in RAID6.

In onze langere bemonsteringsperiode buiten de preconditioneringsfase hebben we piekresponstijden gemeten van 473-610 ms in leestransacties en 514-545 ms tijdens schrijfactiviteit.

Terwijl pieklatentie de slechtste responstijden over de bemonsteringsperiode laat zien, toont standaarddeviatie de spreiding van latentie over die hele testperiode. RAID5 bood de meest consistente willekeurige 4K leeslatentie, terwijl RAID10 de meest consistente 4K schrijflatentie bood.

De volgende preconditioneringstest werkt met een meer realistische spreiding van de lees-/schrijfwerklast, in vergelijking met de 100% schrijfactiviteit in onze 1024K-, 100% 8K- of 100% 4K-werklasten. Hier hebben we een 70% lees- en 30% schrijfmix van 8K willekeurige overdrachten. Als we kijken naar onze 8K 70/30 gemengde werkbelasting onder een zware belasting van 8 threads en 8 wachtrijen per thread, zien we dat RAID10 de hoogste doorvoer bood, gevolgd door RAID5 en vervolgens RAID6. De prestaties waren zeer consistent tijdens het preconditioneringsproces, met slechts kleine haperingen in de prestaties.

Kijkend naar de spreiding van de gemiddelde latentie tijdens onze 8K 70/30 werklast, was RAID10 de vlakste, met een meettijd van 12-13 ms gedurende de test, gevolgd door RAID6 met ongeveer 16-17 ms, waarbij RAID5 17-20 ms meet.

De piekresponstijden voor elk RAID-type waren redelijk consistent in de band van 300-500 ms, met een paar blips boven de 1,000 ms van de RAID-types RAID5 en RAID6.

Als we de verschillen in latentiestandaarddeviatie tussen de RAID-typen vergelijken, bood RAID10 de meest consistente latentie, gevolgd door RAID5 en vervolgens RAID6.

Vergeleken met de vaste werklast van 8 threads en 8 wachtrijen die we hebben uitgevoerd in de 100% 4K-, 8K- en 1024K-tests, schalen onze gemengde werklastprofielen de prestaties over een breed scala aan thread/wachtrij-combinaties. In deze tests variëren we onze werkbelasting van 2 threads en 2 wachtrijen tot 8 threads en 8 wachtrijen. Als we kijken naar de verschillen in doorvoer, liep elke RAID-modus ongeveer gelijk met elkaar in gebieden waar de effectieve wachtrijdiepte 16 en lager bleef. Toen het eenmaal boven de 32 ging, gezien in de 4T/8Q-, 8T/4Q- en 8T/8Q-workloads, bood de RAID10-modus de hoogste prestaties, gevolgd door RAID5 en vervolgens door RAID6. Onder dat bereik bood elke RAID-modus vergelijkbare prestaties.

Hoewel het kennen van het piekdoorvoerbereik belangrijk is, is het nog belangrijker om te weten hoe u uw belasting kunt afstemmen op de opslagarray. Hoge I/O-snelheden in combinatie met hoge latentie betekent gewoon een trage gebruikersinteractie, dus het is van cruciaal belang voor de bruikbaarheid om te weten welk prestatieniveau je eruit kunt persen voordat de latentie aanzienlijk begint toe te nemen. De goede plek in onze tests, die de hoogste doorvoer bood, maar ook de latentie relatief laag hield tussen 6-8 ms, was 8T/2Q, waar de prestaties varieerden tussen 2,250 en 2,750 IOPS.

Door de effectieve wachtrijdiepte te vergelijken met de pieklatentie van de JetStor SAS 616iSD, kon het SAN de hogere responstijden beperken tot minder dan 500 ms tot aan de 8T/8Q-workload. Op dat moment verdubbelde de pieklatentie voor RAID5 en RAID6.

Bij vergelijking van de latentiestandaarddeviatie in alle drie de RAID-types, bood RAID10 een klein voordeel, waarbij RAID6 meestal de grootste spreiding had. De goede plek voor de meest consistente latentie was echter de 8T/2Q-belasting, die optimaal was voor alle RAID-types.

De werkbelasting van de bestandsserver vertegenwoordigt een groter spectrum van overdrachtsgrootte dat elke afzonderlijke array raakt, dus in plaats van genoegen te nemen met een statische werklast van 4k of 8k, moet het SAN verzoeken van 512b tot 64K aan. Net als bij de andere volledig willekeurige workloads, bood de RAID10-configuratie de hoogste doorvoer, met een meting van ongeveer 4,500 IOPS gedurende ons preconditioneringsproces. RAID5 liep achter met een snelheid van 3,800 IOPS, gevolgd door RAID6 met ongeveer 3,500 IOPS. Elk RAID-type bood van begin tot eind vergelijkbare prestaties, met slechts kleine variaties.

Kijkend naar de gemiddelde latentie, bleef elke RAID-configuratie redelijk vlak gedurende de preconditioneringstest, waarbij de RAID10-modus zich vestigde op 14 ms, RAID5 op 16.5 ms en RAID6 daarboven op 18 ms.

Piekresponstijden waren meer verspreid, variërend van slechts 200 ms tot wel 1,200 ms tijdens de preconditioneringsfase. De RAID10-configuratie bleef de laagste, met een spreiding van 250 ms tot iets meer dan 800 ms. RAID5 en RAID6 piekten echter hoger, variërend van 300 ms tot meer dan 1,200 ms.

RAID10 bood de meest consistente latentiestandaarddeviatie, gevolgd door RAID5 en RAID6 die er een stap boven waren.

Bij het overschakelen naar onze geschaalde doorvoergrafiek van de bestandsserver, waar we de belasting verhogen van 2T/2Q naar 8T/8Q, zagen we een vergelijkbare trend waarbij er bij of onder een effectieve wachtrijdiepte van 16 zeer weinig prestatieverschil was tussen elk van de RAID-typen . Boven dat niveau bood RAID10 de hoogste prestaties, gevolgd door RAID5 en vervolgens RAID6.

Als we overschakelden naar de weergave van gemiddelde latentie met onze File Server-workload, schommelden de reactietijden tussen 5-8 ms terwijl de effectieve wachtrijdiepte op of onder 16 bleef, en sprongen vervolgens op tot 14-19 ms onder piekbelasting. De sweet spot, vergelijkbaar met de 8K 70/30-workload, was opnieuw 8T/2Q, waar de JetStor SAS 606iSD de hoogste doorvoer van 2,000-2,500 IOPS kon bieden met een latentie van 7-8ms.

In onze File Server-test bleef de maximale latentie binnen 400-500 ms voor RAID5 en RAID6 tot 8T/4Q en 8T/8Q, voordat de latentie aanzienlijk toenam. De maximale responstijden van RAID10 bleven consistent gedurende de gehele duur van onze tests.

De standaarddeviatie van alle RAID-types bleef constant inconsistent tijdens de duur van de variërende belastingstest. Bij hogere belastingen, waarbij configuraties een wachtrijdiepte van 8 bereikten, nam de variatie over de hele linie toe.

Onze laatste werklast is vrij uniek in de manier waarop we de preconditioneringsfase van de test analyseren in vergelijking met de hoofdoutput. Omdat het een werklast is die is ontworpen met 100% leesactiviteit, is het moeilijk om de echte leesprestaties van elk apparaat weer te geven zonder een goede voorbereidingsstap. Om de conditioneringswerklast hetzelfde te houden als de testwerklast, hebben we het patroon omgekeerd zodat het 100% schrijven is. Om deze reden zijn de preconditioneringsgrafieken langzamer dan de definitieve werklastcijfers.

In een webserverscenario met een schrijfvoorwaarde van 100% bood de RAID10-configuratie de hoogste prestaties, hoewel vergelijkbaar met het gedrag dat we opmerkten in de willekeurige 4K-test, zakte het in tijdens secties van de test terwijl het achtergrondactiviteit uitvoerde. De andere RAID-profielen hadden niet hetzelfde resultaat, hoewel ze over het algemeen ook langzamer waren.

In het preconditioneringsproces van de webserver met een belasting van 8T/8Q was er een grote spreiding van prestatieverschillen, waarbij RAID10 de snelste responstijden bood van 26-32 ms, RAID5 ongeveer 38-41 ms en RAID6 met 48-54 ms.

Als we de verschillen in maximale latentie in de preconditioneringswerklast van onze webserver vergelijken, bieden alle RAID-types een vergelijkbaar bereik van piekresponstijden van in totaal 200-1,600 ms.

Bij het vergelijken van maximale latentie waren er misschien niet al te veel verschillen, maar als we de focus verleggen naar latentiestandaarddeviatie, zien we dat RAID10 de kleinste spreiding in latentie bood, gevolgd door RAID5 en vervolgens RAID6.

Als we overschakelen van 100% schrijfactiviteit in onze preconditioneringsfase naar 100% leesactiviteit, is het verschil tussen elk RAID-type niet zo merkbaar tot de hogere effectieve wachtrijdieptes. Op hun hoogtepunt kon de RAID10-modus 5,100 IOPS ondersteunen, RAID5 met 4,800 en RAID6 met 4,500.

De goede plek met 100% leesactiviteit in ons webserverprofiel was nog steeds de 8T/2Q-belasting, die een responstijd van 6.2-6.6 ms bood met een doorvoer van 2,400-2,600 IOPS voordat de latentie piekte tot 13-15 ms.

Als we de maximale latentie in onze verschillende belastingstests vergelijken, behield de JetStor SAS 616iSD een bereik van 400-600 ms tot aan de 8T/8Q-workload, waarbij RAID5- en RAID10-configuraties tot 1,500 ms schoten.

Als we de verschillen in latentiestandaarddeviatie vergelijken, bood elk RAID-type op de JetStor SAN consistentere responstijden wanneer het onder een matige belasting stond, totdat het onder onze piekbelasting van 8T/8Q werd geplaatst. In het sweet spot-bereik van 8T/2Q bood RAID6 de meest consistente latentie, gevolgd door RAID10 en RAID5.

Energieverbruik

Zoals bij elk apparaat dat zich in een modern datacenter bevindt, staan ​​stroomverbruik en warmteafgifte altijd voorop, omdat ze twee keer invloed hebben op het stroomverbruik van het apparaat zelf en de koeling die nodig is om de warmte die het tijdens het gebruik creëert te compenseren. Bij de meeste SAN- en NAS-arrays zijn de schijven zelf het grootste onderdeel van het totale stroomverbruik, wat als je redelijk constant toegang hebt, weinig tijd betekent om inactief te zijn en te stoppen. In onze tests hebben we het vermogen gemeten in uitgeschakelde toestand, het systeem ingeschakeld maar de controllers uitgeschakeld, het systeem ingeschakeld en inactief, evenals het systeem ingeschakeld en een constant hoge I/O-belasting waargenomen.

Met twaalf 600 GB 15k SAS harde schijven geïnstalleerd, komt het grootste deel van het stroomverbruik voort uit het actief houden van deze schijven. Met de controllers uit had de array 216 watt nodig bij inactiviteit, wat toenam tot 298 watt met de controllers aan. Zelfs met een actieve belasting nam het stroomverbruik met slechts nog eens 7 watt toe tot 305 W met een sequentiële werklast van 8K. Met dubbele voedingen van 460 W vonden we dat de JetStor SAN een beetje overbevoorraad was wat betreft zijn stroombehoeften, aangezien hij op 66% gebruik bleef met geïnstalleerde harde schijven van 15,000 RPM. Zelfs als er vier ongebruikte bays waren, bleef er nog genoeg overhead over, zelfs als een stroomvoorziening uitviel en uit de vergelijking werd verwijderd.

Conclusie

De Jetstor SAS 616iSD 10G past in een ietwat amorfe categorie van opslagarrays, in die zin dat hij op zichzelf kan worden gebruikt met schijven met hoge prestaties of grote capaciteit om te voorzien in virtualisatie of algemene opslagbehoeften voor een MKB, of in combinatie met extra planken om opslagproblemen bij grote ondernemingen op te lossen. JetStor heeft de 616iSD goed ontworpen, alles van binnen en van buiten is goed doordacht en de unit leent zich uitstekend voor eenvoudige buitendienst. Items zoals een kabelloos intern ontwerp of gereedschapsloze vervanging van componenten betekenen dat technici heel weinig werk hoeven te doen om de SAS 616-SD draaiende te houden in een productieomgeving. De installatie is ook een fluitje van een cent, het is vrijwel plug-and-play, althans binnen de zakelijke betekenis van dergelijke dingen.

Wat de prestaties betreft, hebben we de array getest in gangbare configuraties van RAID5, RAID6 en RAID10. Het is zeker relevant om naar alle drie te kijken, aangezien onze tests aanzienlijke verschillen in elke modus lieten zien. RAID10 vertoonde consistent de hoogste prestaties, gevolgd door RAID5 en vervolgens RAID6 in termen van onbewerkte prestaties en laagste latentie. Aangezien een bedrijf overweegt om deze of een andere array te implementeren, is het vooral cruciaal voor het succes van de opslagimplementatie om de goede plek voor prestaties te begrijpen. In dit geval zagen we het beste prestatiedoel bij 8 threads, 2 wachtrijen waar de JetStor SAS 606iSD in staat was om de hoge doorvoer en lage latentie te bieden voor de meeste workloads en alle RAID-types. Prestaties kunnen verder worden opgeschaald dan dat punt, hoewel de latentie aanzienlijk zou toenemen. Wat het vermogen betreft, ontdekten we dat onze 12k SAS-configuratie met 15 schijven 305 watt verbruikt onder belasting, wat ruim onder de 460 watt is waarvoor elke voeding is ontworpen. Dat geeft het systeem voldoende overheadruimte, zelfs als het van een enkele PSU moet worden afgevoerd in het geval van een storing in een onderdeel.

Waar JetStor een beetje in de problemen komt, is dat ze proberen meer up-market naar grotere klanten te verplaatsen. In die gevallen wordt de beheerlaag erg belangrijk en dat is iets waar JetStor gewoon niet veel diepgang in heeft. In vergelijking met bijvoorbeeld EMC of NetApp, waar u grootschalige reken- en opslagplatforms kunt beheren via een enkel beheervenster, moet de JetStor SAN op zichzelf worden geconfigureerd. Het is niet bepaald een probleem als je met een paar systemen werkt, het is meer een kwestie van begrijpen welk segment van de markt deze box bespeelt. Het siert JetStor dat ze niet proberen om grote enterprise storage-arrays te vervangen door de SAS 616iSD; ze zijn stevig gericht op het middensegment waar dit ontwerp heel logisch is.

VOORDELEN

  • Mooi ontwerp van de behuizing/componenten
  • Zeer robuust ontwerp dat eenvoudig te onderhouden is
  • Biedt sterke, consistente prestaties in een breed scala aan workloads

NADELEN

  • Ontbreekt aan grootschalige enterprise data management software

Tot slot

JetStor is niet bepaald een begrip als het gaat om opslag, hoewel het misschien wel zou moeten zijn met bijna 20 jaar ervaring en een robuust aanbod. Specifiek voor deze review, de JetStor SAS 616iSD 10G doet alles wat hem gevraagd wordt en heeft voldoende flexibiliteit om te worden geconfigureerd met 10GbE en 15K harde schijven voor prestatiebehoeften, of 3.5″ harde schijven met hoge capaciteit voor bulkopslag. De array is eenvoudig te implementeren en is goed ontworpen, waardoor hij zich goed leent voor applicatie- en virtualisatieopslag voor het MKB en voor filialen/externe kantoren.

JetStor SAS 616iSD 10G-productpagina

Bespreek deze recensie