Het ION Data Accelerator-softwareplatform van Fusion-io maakt gebruik van ioMemory-flashopslag en open serverhardware om toepassingen en SAN-prestaties te versnellen door high-speed PCIe-flash te delen of te clusteren. ION Data Accelerator is ontworpen voor gebruik met Tier 1-serverhardware van een aantal grote leveranciers, waar het functioneert als een toepassingsversneller die blokopslagprotocollen ondersteunt, waaronder 8/16Gb Fibre Channel, QDR/FDR InfiniBand en 10Gbit iSCSI.
Het ION Data Accelerator-softwareplatform van Fusion-io maakt gebruik van ioMemory-flashopslag en open serverhardware om toepassingen en SAN-prestaties te versnellen door high-speed PCIe-flash te delen of te clusteren. ION Data Accelerator is ontworpen voor gebruik met Tier 1-serverhardware van een aantal grote leveranciers, waar het functioneert als een toepassingsversneller die blokopslagprotocollen ondersteunt, waaronder 8/16Gb Fibre Channel, QDR/FDR InfiniBand en 10Gbit iSCSI.
De mogelijkheden van ION Data Accelerator als toepassingsversnellerapparaat kunnen volledig worden benut bij gebruik in combinatie met een serverplatform zoals de Supermicro X9DRX+-F dat is gebouwd voor maximale prestaties in alle beschikbare PCIe-slots. Deze beoordeling zal zich richten op de prestaties van ION Data Accelerator bij gebruik met het X9DRX+-F moederbord in een SuperChassis 747 samen met Fusion-io's 3.2 TB ioScale PCIe-kaarten. Om ervoor te zorgen dat de netwerkprestaties geen bottleneck vormen, gebruiken we twee dual-port 16Gb QLogic 2600-serie HBA's voor SAN-connectiviteit.
ioScale begon als een applicatieversnellingsoplossing die alleen in grote hoeveelheden beschikbaar was voor bedrijfsapplicaties. Meer recentelijk heeft Fusion-io ioScale-kaarten beschikbaar gemaakt in kleinere hoeveelheden, binnen het bereik van een veel breder scala aan klanten. ION Data Accelerator-oplossingen met ioScale vormen een contrast met SAN en applicatieversnelling via SSD en gelaagde opslag. In theorie kan een PCIe-oplossing de prestaties opschalen met minder investeringen in nieuwe apparatuur en infrastructuur dan concurrerende op SSD gebaseerde architecturen vereisen. Met andere woorden, als de toepassingsversnellerbenadering van Fusion-io een meer gerichte versnelling kan bieden dan SSD-opslag, zouden ze nieuwe klanten voor deze technologie moeten blijven vinden, zelfs als er een meerprijs is voor ioScale, gezien per gigabyte.
ION Data Accelerator verbetert de prestaties van het opslagnetwerk, niet alleen door de meest veeleisende I/O-verzoeken te beheren en kopieën van hot data te bewaren om de latentie van harde schijven te vermijden, maar ook door opslagarrays te bevrijden van de noodzaak om snelle caches of lagen te beheren . Die lichtere doorvoervereisten kunnen de prestaties van de onderliggende massaopslagarrays verbeteren. ION Data Accelerator kan worden geïntegreerd met Fusion-io's ioTurbine caching-oplossing, die zowel lees- als schrijfversnelling biedt.
Systeemvereisten voor ION Data Accelerator
- Ondersteunde servers
- Dell: PowerEdge R720, PowerEdge R420
- HP: ProLiant DL370 G6, ProLiant DL380 G7, ProLiant DL380p Gen8, ProLiant DL580 G7
- IBM: x3650 M4
- Supermicro: Superserver 1026GT-TRF, Superserver 1027GR-TRF, Superserver 6037-TRXF
- Cisco: UCS C240 M3 (ondersteuning is voor single-node)
- Basis hardwarevereisten
- Opslag controllers
- Fibre Channel vereist QLogic 2500 Series Host Bus Adapters (HBA's).
- InfiniBand vereist Mellanox ConnectX-2 of ConnectX-3 InfiniBand Host Channel Adapters (HCA's).
- iSCSI vereist 10Gbit iSCSI NIC's van Intel, Emulex, Mellanox of Broadcom.
- ioGeheugen
- ION Data Accelerator ondersteunt alleen ioMemory, inclusief ioDrive, ioDrive Duo, ioDrive2, ioDrive2 Duo en ioScale.
- Alle ioMemory-producten binnen elk ION Data Accelerator-systeem moeten qua type en capaciteit identiek zijn.
- Minimale ondersteunde configuratie: één ioDrive (geen RAID-capaciteit tenzij u meer dan één ioDrive hebt).
- RAM: ION Data Accelerator vereist een basis van 8GB plus 5GB per TB aan ioMemory. Als u bijvoorbeeld 4.8 TB ioMemory heeft, moet uw systeem 8 GB + 4.8 * 5 GB of 32 GB RAM hebben.
- Harde schijven: Fusion-io raadt aan dat servers gespiegelde harde schijven hebben voor opstarten en toepassingen.
- Beheer NIC: de standaard meegeleverde NIC LOM op het ondersteunde hardwareplatform is voldoende.
- Opslag controllers
- Aanvullende HA-systeemvereisten
- Een PCIe-slot met een 40Gbit Mellanox ConnectX-3-interconnect beschikbaar voor gebruik.
- Beide internconnect-poorten moeten verbonden zijn.
- Elk ION Data Accelerator-systeem moet identiek worden geconfigureerd met ioDrives van hetzelfde type en met dezelfde capaciteiten.
- NTP (Network Time Protocol) moet worden geïmplementeerd
beheer
Ondernemingen kunnen Fusion ioSphere-beheer met ION Data Accelerator gebruiken voor gecentraliseerde controle via zowel een grafische gebruikersinterface als de opdrachtregel. ioSphere kan ook monitoring en beheer bieden voor alle ioMemory-apparaten in het datacenter en stroomlijnt het volgen van ioMemory-gezondheids- en levensverwachtingsinformatie tijdens een implementatie.
ION Data Accelerator kan ook worden gebruikt in een hoge-beschikbaarheidsconfiguratie met functionaliteit die is gebouwd op geïntegreerde RAID om te beschermen tegen componentstoringen en asymmetrische actief/actieve failover-clustering om te beschermen tegen systeemstoringen. ION Data Accelerator HA kan worden beheerd door de ioSphere GUI en een opdrachtregelinterface. ION Data Accelerator HA bevat replicatiefuncties op basis van Linbit's DRBD die elke schrijfbewerking synchroon repliceerde over een paar geclusterde ION Data Accelerator-nodes. Het maakt ook gebruik van de Corosync- en Pacemaker-tools voor clusterresourcebeheer en berichtenuitwisseling tijdens storingen.
Vanuit het oogpunt van bruikbaarheid heeft Fusion-io veel dingen goed gedaan door het installatieproces zo gemakkelijk genoeg te maken voor kleine IT-afdelingen om te beheren zonder een expert te zijn in alles wat met opslag of netwerken te maken heeft. De configuratie die we hebben getest, maakte gebruik van een Supermicro X9DRX+-F-moederbord met 10 PCIe 3.0-slots, waardoor we de server konden vullen met 8 3.2TB ioScale PCIe SSD's en twee dual-port 16Gb FC HBA's. Met behulp van de standaard 2.1.11 release ISO konden we in minder dan 15 minuten van een kale server een ION Accelerator maken.
Zodra het systeem aan de gang is, is de eerste stap het creëren van een opslagpool om LUN's uit te snijden. Gebruikers hebben de keuze uit drie opslagmodi, waaronder RAID0, RAID10 en directe toegang. We kozen voor RAID10 of Reliable Performance voor onze belangrijkste testomgeving, die nog steeds voldoende prestaties biedt, maar een ioMemory-storing aankan zonder gegevens te verliezen. Met die opslagpool is de volgende stap het inrichten van LUN's voor uw SAN-omgeving.
In onze testomgeving hebben we 12 LUN's ingericht voor VMmark en extra LUN's voor synthetische benchmarks. Het proces was heel eenvoudig, waarbij de gebruiker simpelweg de vereiste capaciteit invoerde, de initiatorgroep die toegang verleent en de sectorgrootte (die kan worden ingesteld op 512 bytes of 4K). Dankzij de interface kunnen LUN's eenmalig worden gemaakt, of meerdere in één instelling, om snel een omgeving uit te rollen. De volgende stap is het maken van initiatorgroepen voor meerdere FC-interfaces die toegang hebben tot een bepaalde LUN in een multipath- of gevirtualiseerde omgeving. Zoals hieronder te zien is, hadden we onze VMware-initiators in de ene groep en onze Windows-initiators voor FIO-testen in een andere.
Als de omgeving eenmaal is ingericht en actief is, blijft de ION Accelerator gebruikers voorzien van een schat aan managementinformatie. Alle prestatiebewaking wordt opgeslagen voor historische doeleinden, waardoor beheerders netwerk- en apparaatprestaties kunnen volgen tot aan de IOP, evenals systeemvitaliteit zoals flitsuithoudingsvermogen of temperaturen. In een voorbeeldrapport van VMmark-testen zijn de doorvoer over de geselecteerde tijdsperiode, evenals gemiddelde overdrachtssnelheden en thermische bewaking snel bij de hand. Deze gegevens kunnen ook worden beperkt tot specifieke ioMemory-apparaten.
Voor meer gedetailleerde ioMemory-informatie kunnen gebruikers inzoomen op specifieke kaarten om te kijken naar bevestigingspunten, het totale gebruikte uithoudingsvermogen en andere gedetailleerde informatie.
Analyse van applicatieprestaties
Het StorageReview Enterprise Lab maakt gebruik van een Op VMmark gebaseerde virtualisatiebenchmark om reken- en opslagapparaten te evalueren die vaak worden gebruikt in gevirtualiseerde omgevingen. De geavanceerde PCIe-gebruiks- en beheerfunctionaliteit van ION Data Accelerator is bedoeld om de prestaties van dergelijke omgevingen te verbeteren, waardoor het een duidelijke kandidaat is voor de VMware VMmark-benchmark. Ons VMmark-protocol maakt gebruik van een reeks subtests op basis van algemene virtualisatieworkloads en administratieve taken, waarbij de resultaten worden gemeten met behulp van een op tegels gebaseerde eenheid die overeenkomt met het vermogen van het systeem om een verscheidenheid aan virtuele workloads uit te voeren, zoals het klonen en implementeren van VM's, automatische VM-loadbalancing in een datacenter, VM-livemigratie (vMotion) en dynamische datastore-verplaatsing (storage vMotion).
Bij het meten van de prestaties van de ION Data Accelerator met vier 3.2 TB ioScale PCIe-kaarten, was de hoogste genormaliseerde VMmark 2.5.1-applicatiescore 15.40 met 10 tegels en de hoogste algemene score was 12.66 bij 10 tegels. Bij één tegel was de genormaliseerde applicatiescore 1.7, terwijl de algemene score bij één tegel 1.58 bereikte.
Enterprise synthetische benchmarks
Ons synthetisch benchmarkproces voor enterprise storage preconditioneert elk apparaat in een stabiele toestand met dezelfde werkbelasting waarmee het apparaat zal worden getest onder een zware belasting van 16 threads met een uitstekende wachtrij van 16 per thread, en vervolgens getest met vaste intervallen in meerdere threads/wachtrijen diepteprofielen om de prestaties bij licht en zwaar gebruik weer te geven.
Voorconditionering en primaire steady-state tests:
- Doorvoer (lezen+schrijven IOPS aggregaat)
- Gemiddelde latentie (lees- en schrijflatentie samen gemiddeld)
- Maximale latentie (piek lees- of schrijflatentie)
- Latentie Standaarddeviatie (Lezen + Schrijven Standaarddeviatie samen gemiddeld)
Onze analyse van ION Data Accelerator omvat vier profielen die vergelijkbaar zijn met onze eerdere benchmarks voor bedrijfsopslag en algemeen gepubliceerde waarden zoals max. 4k lees- en schrijfsnelheid en 8k 70/30, die gewoonlijk worden gepubliceerd in fabrikantspecificaties en benchmarks.
- 4k
- 100% lezen en 100% schrijven
- 8k
- 100% lezen en 100% schrijven
- 70% lezen/30% schrijven
- 128k
- 100% lezen en 100% schrijven
Het meten van de doorvoer van het ION Data Accelerator-systeem in onze 4k-tests onthult lees-IOPS van 301,638 en schrijf-IOPS van 324,506 wanneer geconfigureerd in een RAID0-array voor maximale prestaties. Opnieuw geconfigureerd als een RAID10-array, handhaafde het systeem een leesprestatie van 269,203 IOPS terwijl de schrijfprestatie uitkwam op 199,557 IOPS.
Het plotten van gemiddelde 4k lees- en schrijflatenties geeft vergelijkbare vertragingen aan voor lees- en schrijfbewerkingen voor de RAID0-array met respectievelijk 0.847 ms en 0.786 ms. In onze benchmark van de RAID10-array neemt de gemiddelde leeslatentie iets toe tot 0.949 ms terwijl de schrijflatentie 1.280 ms bereikt.
Maximale latency-resultaten laten een opmerkelijk hoogtepunt zien in 4k-schrijflatentie in de RAID10-configuratie, die op een bepaald moment tijdens de evaluatie een vertraging van 145.75 ms opliep.
De standaarddeviatie van 4k latentie weerspiegelt ook de grotere variabiliteit in schrijflatenties die de RAID10-array oplegt. In RAID0 hield de Fusion ION Data Accelerator-configuratie beide standaarddeviaties in de buurt van 0.62 ms, wat toenam tot 0.709 ms voor RAID10-leesbewerkingen en 1.619 ms voor schrijfbewerkingen.
Na het preconditioneren van de ioScale-kaarten voor 8k-workloads, hebben we de doorvoer gemeten van de twee arraytypen met 8k-overdrachten en een zware belasting van 16 threads en een wachtrijdiepte van 16, voor zowel 100% lees- als 100% schrijfbewerkingen. Het ION-systeem bereikte 330,646 lees-IOPS en 310,740 schrijf-IOPS geconfigureerd als een RAID0-array, die werd teruggebracht tot 171,341 IOPS voor lezen en 191,423 voor schrijven in RAID10.
Om een meer genuanceerd beeld te krijgen van de prestaties met 8k-overdrachten, hebben we vervolgens een test gebruikt die bestond uit 70% leesbewerkingen en 30% schrijfbewerkingen over een reeks thread- en wachtrijtellingen. De doorvoer bleef competitiever tussen de twee RAID-types in deze benchmark, waarbij RAID0 de grootste prestatievoordelen bood bij grotere werklasten in het algemeen, en in het bijzonder bij diepe wachtrijen.
Onze grafiek van gemiddelde latenties van de 8k 70/30-benchmark laat zeer vergelijkbare prestaties van beide RAID-configuraties zien, waarbij RAID0 RAID10 verslaat naarmate het aantal threads en wachtrijen toeneemt.
Maximale latentieresultaten tijdens deze test laten een minder consistent patroon zien, waarbij RAID10 een klein voordeel behoudt aan de lage en hoge uiteinden van het werklastspectrum.
Beide RAID-configuraties zorgden voor zeer consistente latentieprestaties tijdens de 8k 70/30 benchmark. Bij hoge wachtrijdieptes en wanneer het aantal threads hoger is dan 8, overtreft RAID0 RAID10.
Onze laatste synthetische benchmark gebruikt een veel grotere overdrachtsgrootte van 128 kB met tests voor zowel 100% leesbewerkingen als 100% schrijfbewerkingen. De grotere overdrachtsgrootte elimineert bijna het prestatievoordeel van een RAID0-array voor het ION-systeem, met prestatieresultaten voor zowel lees- als schrijfbewerkingen binnen 1% variatie over het arraytype.
Conclusie
Fusion-io biedt enkele van de meest geavanceerde apparaten voor applicatieversnelling die er zijn, en met zijn ioScale PCIe-kaarten die nu beschikbaar zijn voor een veel breder segment van de zakelijke markt, verwachten we dat deze technologie vaker en diverser zal worden gebruikt. De ION Data Accelerator van Fusion onthult één richting waarin PCIe-opslag evolueert: naar gecoördineerde en geautomatiseerde pooling van supersnelle opslagbronnen over meerdere hostservers. Tussen de verbeterde prestaties van ION en het uniforme beheer voor ioScale PCIe-kaarten over meerdere servers, heeft de ION Data Accelerator aangetoond dat PCIe een duidelijke toekomst en use cases heeft van SSD-gebaseerde benaderingen tot versnelling.
Als het gaat om bruikbaarheid en prestaties, heeft Fusion-io's ION Accelerator veel te bieden. Het uitrollen van de software op onze eigen server duurde van begin tot eind minder dan 15 minuten. Het inrichten van opslag nadat deze online was, duurde slechts enkele minuten, met intuïtieve menu's en ongecompliceerde instellingen om opslag uit te delen aan wachtende servers. Vanuit prestatieperspectief waren we meer dan onder de indruk van onze 4-poorts 16Gb FC-connectiviteit tijdens het testen, die meer dan 5.8 GB/s lezen en 4 GB/s sequentieel schrijven opleverde, met piek willekeurige I/O topping 301k IOPS gelezen en 324k IOPS schrijven. De applicatieprestaties zoals getest in VMmark 2.5.1 waren ook fantastisch, we konden met gemak 10-tiles verwerken, zelfs toen we onze configuratie terugschaalden naar vier ioScale PCIe SSD's in RAID10. Als een "roll your own flash SAN" op basishardware, legde Fusion-io de lat hoog met ION Accelerator.
VOORDELEN
- Stelt gebruikers in staat om de exacte flash-SAN te bouwen die ze nodig hebben, tot aan opslag, netwerkinterface en server
- Eenvoudig in te stellen en te beheren
- Uitstekende prestaties
- Inclusief ondersteuning voor HA-configuraties
NADELEN
- Beperkte lijst met serverondersteuning
Tot slot
De Fusion-io ION Data Accelerator biedt IT-beheerders een nieuwe manier om flash te implementeren in een gedeelde opslagomgeving zonder veel van de beperkingen van de reguliere SAN-markt. Fusion-io biedt een eenvoudige GUI-interface, ondersteuning voor de meeste reguliere servermerken en interfacekaarten, en HA-configuratieopties, terwijl het nog steeds een geweldige schaalbare IO uit één enkele doos levert.