Som en del av StorageReviews fortsatta framsteg inom både testprotokoll och utveckling av företagslabb tar vi en förnyad titt på första generationens flashenheter som vi tidigare har granskat. Dessa omprövningar av tidiga PCIe-flashlagringsenheter gav oss möjligheten att förfina och omkalibrera vår företagsgranskningsprocess innan vi lanserar nya recensioner av andra generationens PCIe-minneskort och applikationsacceleratorer. Vi har gått igenom vår reviderade testmetod under de senaste månaderna med första och andra generationens kort från branschledare när vi finslipar testprotokoll som är mer relevanta för köparen av företagslagring. I den här recensionen arbetar vi återigen med 640 GB Fusion ioDrive Duo – den här gången med mer sofistikerade tester över både Windows och Linux.
Hur StorageReview-teamet utvärderar företagslagring fortsätter att utvecklas, tack vare fortsatt input från branschledare och nyckelpartner. Denna samarbetsstrategi gör granskningsresultat som denna ännu mer detaljerade och relevanta för branschen i stort. Genom ett nära samarbete med tillverkare kan vi kontinuerligt införliva nya testidéer i våra recensioner och täcka artiklar som annars skulle kunna förbises. Läsare nedan hittar över 70 diagram dedikerade till att analysera ioDrive Duo nästan till detaljnivån; och detta inkluderar inte ens den nya serien av benchmarks på applikationsnivå som är under utveckling. Även om detaljerna kan verka ansträngande för vissa, för andra som behöver en specifik del av kit för att lösa ett förvaringsproblem, är dessa detaljer kritiska. Hela recensionen publiceras nedan på en enda sida, som alltid, för läsarens bekvämlighet.
Innan du dyker in i ioDrive:s prestanda är det viktigt att lyfta fram några av de viktigaste skillnaderna mellan Fusion-ios flashlagring och en typisk SSD. Flash på SSD-enheter (som namnet Solid State Drive korrekt antyder) är gömt bakom ett SATA- eller SAS-gränssnitt, vilket förvirrar NAND av kompatibilitetsskäl. Med ioDrive-produkten får användare i princip tillgång till ett flashminneslagringsnivå, som erbjuder mycket lägre latens och bättre övergripande prestanda än en SSD. Orsakerna till detta beror på arkitekturen och hur ioDrive-enheten gränssnitt mot värdsystemet.
Där en företags PCIe SSD ofta har flera block-enhetskontroller och ett extra chip för att RAID samman flera enheter på ett enda kort, tar Fusion-io en annan inställning till livet. Fusion ioMemory gränssnitt med NAND Flash som en processor skulle interagera med systemminnet, detta görs med en kombination av Fusion-ios NAND-kontroller (FPGA), som kommunicerar direkt över PCIe, och Fusion-ios drivrutin eller Virtual Storage Layer-programvara installerad på värdsystem för att översätta enheten till en traditionell block-enhet. Genom Fusion-ios Virtual Storage Layer eller VSL emulerar programvaran en blockenhet för kompatibilitet, även om Fusion-io nyligen har släppt en SDK som tillåter native access (förbigående av kärnblocklagret) inom vissa applikationer.
IoMemory är också icke-traditionellt i den meningen att det förbrukar systemresurser för att VSL-drivrutinerna ska fungera, vilket utnyttjar värdprocessorn samtidigt som det skapar ett fotavtryck i systemminnet. Enligt Fusion-io liknar denna arkitektur mer arkitekturen för RAM, därav namnet ioMemory. Fördelarna inkluderar snabbare filplatssökningar och även om ioMemory träffar CPU:n är dess användning mycket effektiv och driver faktiskt prestanda genom att sänka transaktionslatens. När det gäller hantering är en annan kärnarkitekturfördel eftersom Fusion-io använder en FPGA som NAND-kontroller, det möjliggör uppdateringar av mjukvara/firmware på mycket låg nivå som kan hantera buggfixar och prestandaförbättringar. Detta står i kontrast till vanliga SSD-kontroller, där grundläggande förändringar endast kan göras genom att tillverka en ny kontroller.
Fusion-io ioDrive Duo-specifikationer
- Single Level Cell (SLC)
- 320 GB ioDrive Duo SLC
- 1.5 GB/s läsbandbredd (64 kB)
- 1.5 GB/s skrivbandbredd (64 kB)
- 261,000 512 Läs IOPS (XNUMX-byte)
- 262,000 512 Write IOPS (XNUMX-byte)
- Åtkomstlatens 0.026 ms (512 byte)
- 640 GB ioDrive Duo SLC
- 1.5 GB/s läsbandbredd (64 kB)
- 1.5 GB/s skrivbandbredd (64 kB)
- 252,000 512 Läs IOPS (XNUMX-byte)
- 236,000 512 Write IOPS (XNUMX-byte)
- Åtkomstlatens 0.026 ms (512 byte)
- 320 GB ioDrive Duo SLC
- Multi Level Cell (MLC)
- 640 GB ioDrive Duo MLC
- 1.5 GB/s läsbandbredd (64 kB)
- 1.0 GB/s skrivbandbredd (64 kB)
- 196,000 512 Läs IOPS (XNUMX-byte)
- 285,000 512 Write IOPS (XNUMX-byte)
- Åtkomstlatens 0.029 ms (512 byte)
- 1.28 TB ioDrive Duo MLC
- 1.5 GB/s läsbandbredd (64 kB)
- 1.1 GB/s skrivbandbredd (64 kB)
- 185,000 512 Läs IOPS (XNUMX-byte)
- 278,000 512 Write IOPS (XNUMX-byte)
- Åtkomstlatens 0.03 ms (512 byte)
- 640 GB ioDrive Duo MLC
- PCI-Express 2.0x8
- Operativsystem
- Microsoft: Windows 64-bitars Microsoft XP/Vista/Win7/Server 2003/2008/2008 R2
- Linux: RHEL 5/6; SLES 10/11; OEL 5/6; CentOS 5/6; Debian Squeeze; Fedora 15/16;openSUSE 12; Ubuntu 10/11
- UNIX: Solaris 10 U8/U9/U10 x64; OpenSolaris 2009.06 x64; OSX 10.6/10.7, HP-UX* 11i
- Hypervisorer: VMware ESX 4.0/4.1/ESXi 4.1/5.0, Windows 2008 R2 med Hyper-V, Hyper-V Server 2008 R2
- Drifttemperatur: 0-55C
- Fem års garanti eller maximal uthållighet används
- VSL-version granskad: 3.1.1
Design och bygga
Fusion ioDrive Duo är ett Full-Height Half-Length x8 PCI-Express-kort, med två individuella ioDimms anslutna till huvudgränssnittskortet. Medan PCI-Express-kortet mekaniskt är en x8-enhet, använder det på Gen1-plattformar 8-banor för bandbredd, medan det på PCIe Gen2-system bara behöver 4-banor. Varje kort representerar en unik 320 GB ioMemory-enhet som använder 4 banor i PCIe-anslutningen. Designen är mycket kompakt och ren, inklusive ett robust stödfäste på baksidan av kortet. Detta hjälper till att stärka kortet för att hålla det fungerande under tuffa driftsförhållanden och ger det ett snyggt färdigt utseende.
Hjärtat (eller hjärtan) i den MLC-baserade ioDrive Duo är de två ioDimms. Varje identisk ioDimm representerar en ioDrive, med sin egen Xilinx Virtex-5 FPGA och 400 GB pool av MLC NAND. Den ioDrive Duo som vi granskade använde Samsung NAND, men Fusion-io är tillverkaragnostisk. NAND är uppdelad mellan 25 dubbelstaplade 16 GB-chips per enhet, med 320 GB som kan användas med lagerformatering. Det förhållandet sätter nivåerna för överprovisionering av aktier till 20 %, ungefär i nivå med de flesta flashenheter för företag. Fusion-io erbjuder också möjligheten att modifiera överprovisioneringsnivåerna för att möjliggöra anpassning och ökad prestanda genom att byta användarkapacitet för bakgrundsaktiviteter.
Ur funktionalitetssynpunkt inkluderar alla ioDrives indikeringslysdioder som visar enhetens status från start till avstängning. Beroende på vilka lysdioder som är aktiva kommer den att visa följande lägen för kortet:
- Avstängning
- Ström på (drivrutinen är inte laddad, enheten inte ansluten)
- Ström på (drivrutinen laddad, enheten inte ansluten)
- Aktiv skrivaktivitet
- Aktiv läsaktivitet
- Plats Beacon
För ett mer traditionellt tillvägagångssätt inkluderar ioDrive Duo också en standard HDD Activity LED-anslutning. Denna anslutning möjliggör en anslutning till ett datorfodrals frontmonterade HDD-aktivitetslampa till ioDrive Duo.
ioDrive Duo är passivt kyld, med tre kylflänsar; designad för att fungera i en servermiljö med forcerad kylning. Dessa kylflänsar kyler en Xilinx Virtex-5 FPGA på varje ioDimm samt en PCIe-switch som kopplar samman båda enheterna med den enda PCIe-platsen. Fusion-io listar ett rekommenderat luftflöde på 300LFM, med en omgivningstemperatur under 55C. För att förhindra skador är ioDrive designad för att strypa prestandan om den når en intern temperatur på 78C och stängs av vid 85C. Det bör noteras att dessa kort inte är designade för en arbetsstationsmiljö, eftersom arbetsstationer vanligtvis inte erbjuder kylningsstöd för PCIe-tillägg i lagerkonfigurationer. För att ta itu med dessa marknader, Fusion-io tillkännagav nyligen ioFX, som i princip är en enda ioDimm med aktiv kylning.
En annan skillnad mellan Fusion "Duo" ioMemory-enheter och många av de konkurrerande PCIe-lösningarna är att de kräver mer kraft än vad som vanligtvis stöds från en x8 PCIe 2.0-anslutning för att bibehålla full prestanda. PCIe 2.0 elektriska specifikationer gör att 25w kan dras från en x8-anslutning, vilket under tunga skrivförhållanden, twin-ioDimm-modeller som ioDrive Duo kan överskrida. Även om de kommer att överensstämma med specifikationerna utan att tillföra ytterligare ström, kommer full skrivprestanda att vara begränsad. För att lösa detta problem erbjuder Fusion-io två lösningar; den ena kräver en extern strömadapter, den andra tillåter kortet att dra mer än 25 watt i system som stöder det. För att avgöra vilket alternativ som är mest meningsfullt för en installation, har Fusion-io en serverkonfigurationsguide för de flesta tier-XNUMX-servrar som ger bästa möjliga installationsinstruktioner.
För att skydda användarens data erbjuder Fusion-io två nyckelfunktioner. För det första inkluderar Fusion-io-produkterna strömavbrottsfunktioner som säkerställer dataintegritet under oväntade strömavbrott. För mer ovanliga fel som en NAND-matris som misslyckas, är en fördel med NAND-arkitekturen på första generationens Fusion-io-enheter deras Flashback-redundans, vilket möjliggör ett enda NAND-fel utan att ta ner hela enheten. Andra generationens modeller erbjuder Adaptive Flashback, som stöder flera NAND-fel.
Mjukvara
Fusion-io leder vägen när det kommer till att erbjuda en bred portfölj av välpolerad intuitiv programvara, som få lagringsleverantörer är nära att matcha om de tillhandahåller någon programvara alls. Direkt från förpackningen erbjuder Fusion-io verktyg för att fullständigt hantera ioMemory-enheterna i alla större operativsystem genom både GUI och konsolapplikationer. Hanteringsfunktioner spänner över allt från att inkludera sätt att enkelt hantera överprovisionering för att få prestanda genom att handla med användarkapacitet, till att övervaka körstatistik, till till och med livestreaming av data om vad kortet gör på sekund för sekund. Ingen annan PCIe-lagringstillverkare är i närheten av att erbjuda denna nivå av stöd för enhetshantering, än mindre med denna nivå av intuitiv användarvänlighet.
ioSphere lågnivåformat (överprovisionering till högpresterande läge)
En av de mest intressanta funktionerna i ioSphere-programvaran är möjligheten att se vilken typ av aktivitet som drabbar ioMemory-enheten. Denna information sträcker sig från bandbredd och I/O-aktivitet till aktuell enhetstemperatur, återstående enhetsuthållighet eller till och med systemresurserna som används av VSL-drivrutinerna.
ioSphere Live Performance Streaming
För att se mer detaljerad information finns det också en sida som erbjuder en fullständig utskrift av specifikationer för den för närvarande valda ioMemory-enheten. Detta kan vara allt från den totala mängden information som överförs till eller från enheten till vad den nuvarande strömförbrukningen är genom PCIe-bussen.
ioShpere livstidsanvändningsinformation
Oavsett om du föredrar ett grafiskt användargränssnitt eller ett konsolgränssnitt för att få din information eller ställa in din ioDrive Duo, erbjuder Fusion-io också ett komplett sortiment av konsolbaserade verktyg för att hantera allt från polling av enhetsstatus till att formatera enheten. Alla dessa verktyg är inställda för att fungera i flera operativsystem, så oavsett vilken plattform som används; du behöver inte ladda ett extra OS för att hantera en Fusion-io-produkt.
Fusion-io Kommandoradsstatus (grundläggande)
Testbakgrund och jämförelser
När det kommer till att testa företagshårdvara är miljön lika viktig som testprocesserna som används för att utvärdera den. På StorageReview erbjuder vi samma hårdvara och infrastruktur som finns i många datacenter där de enheter vi testar i slutändan skulle vara avsedda för. Detta inkluderar företagsservrar såväl som lämplig infrastrukturutrustning som nätverk, rackutrymme, strömkonditionering/övervakning och jämförbar hårdvara av samma klass för att korrekt utvärdera hur en enhet presterar. Ingen av våra recensioner betalas för eller kontrolleras av tillverkaren av utrustningen vi testar; med relevanta jämförelser plockade efter eget gottfinnande från produkter vi har i vårt labb.
StorageReview Enterprise Testing Platform:
Lenovo ThinkServer RD240
- 2 x Intel Xeon X5650 (2.66 GHz, 12 MB cache)
- Windows Server 2008 Standard Edition R2 SP1 64-bitars och CentOS 6.2 64-bitars
- Intel 5500+ ICH10R Chipset
- Minne – 8GB (2 x 4GB) 1333Mhz DDR3-registrerade RDIMM
640 GB Fusion-io ioDrive Duo
- Släppt: 1H2009
- NAND-typ: MLC
- Styrenhet: 2 x Proprietary
- Enhetens synlighet: JBOD, mjukvaru-RAID beroende på OS
- Fusion-io VSL Windows: 3.1.1
- Fusion-io VSL Linux 3.1.1
300GB LSI WarpDrive SLP-300
- Släppt: 1H2010
- NAND Typ: SLC
- Styrenhet: 6 x LSI SandForce SF-1500 genom LSI SAS2008 PCIe till SAS Bridge
- Enhetens synlighet: Fast hårdvara RAID0
- LSI Windows: 2.10.43.00
- LSI Linus: Native CentOS 6.2-drivrutin
1.6TB OCZ Z-Drive R4
- Släppt: 2H2011
- NAND-typ: MLC
- Styrenhet: 8 x LSI SandForce SF-2200 genom anpassad OCZ VCA PCIe till SAS Bridge
- Enhetens synlighet: Fast hårdvara RAID0
- OCZ Windows-drivrutin: 1.3.6.17083
- OCZ Linux-drivrutin: 1.0.0.1480
Standard syntetiska benchmarks
Vi delar upp den syntetiska IOMeter-testdelen av den här recensionen i två delar. Den första är våra standardtester med lågt ködjup, som utförs vid ett ködjup på 4 per arbetare (totalt fyra arbetare fördelade på två chefer). De första testerna är mer i linje med enanvändarmiljöer, medan högre ködjupsintervall under andra halvan är mer som vad kortet skulle se i en server med I/O-förfrågningar staplade.
Vårt första test tittar på sekventiell läs- och skrivhastighet i rak linje i ett ihållande burst-tillstånd. Fusion-io listar en läshastighet på 1.5 GB/s och skrivhastighet på 1.0 GB/s på den 640 GB MLC-baserade ioDrive Duo.
Vi mätte sekventiell överföringsprestanda på 1,584 1,045 MB/s läsning och XNUMX XNUMX MB/s skriv.
Därefter tittar vi på slumpmässiga överföringar med stora block, med en överföring på 2 MB i IOMeter.
Med en slumpmässig överföring på 2 MB höll ioDrive Duo en läshastighet på 1,589 1046 MB/s och en skrivhastighet på XNUMX XNUMX MB/s.
Vårt nästa test tittar på slumpmässiga 4K-överföringshastigheter med lågt ködjup med totalt fyra arbetare med ett ködjup på 1 vardera.
På ett lågt ködjup erbjöd Fusion ioDrive Duo den högsta prestanda, med hastigheter som mätte 189 MB/s läsning och 366 MB/s skriv, eller 48,403 93,740 IOPS läsning och XNUMX XNUMX IOPS skriv.
Med prestanda och latens som går hand i hand tittade vi på genomsnittlig och toppfördröjning under vårt slumpmässiga överföringstest med låg ködjup 4K. Fusion ioDrive Duo mätte en genomsnittlig svarstid på 0.0422 ms med ett toppsvar på 2.08 ms.
Nästa hälften av våra syntetiska riktmärken är rampade tester, som täcker prestanda från tidiga ködjupsnivåer till antingen max 64 per arbetare (effektiv QD=256) eller 128 (effektiv QD=512). Det här avsnittet innehåller även våra serverprofiltester, som från början är designade för att visa hur väl företagsprodukter presterar under krävande blandade serverbelastningar.
Om man tittar på den slumpmässiga 4K-läsprestandan hos ioDrive Duo, bibehöll den nästan dubbelt så hög hastighet som både LSI WarpDrive och OCZ Z-Drive R4 vid ett ködjup på 1 och 2, med ledningen som halkade vid ett ködjup på 4 innan den överträffades av båda konkurrerande modellerna. I det här testet toppade prestanda på 140,000 64 IOPS avlästa vid ett ködjup på 120,000, även om det bibehöll hastigheter över 8 XNUMX IOPS från ett ködjup på XNUMX och högre.
Genom att byta till ett slumpmässigt skrivtest i 4K, visade ioDrive Duo en liknande prestandaprofil och slog de andra konkurrerande modellerna på lägre ködjup. I det här testet nådde prestandan av ioDrive Duo en topp med en hastighet på 224,000 4 IOPS-skriv vid ett ködjup på 201,000, och planade ut mellan 210,000 8 till 64 XNUMX IOPS mellan ett ködjup på XNUMX till XNUMX.
Vår sista grupp av syntetiska standardriktmärken tittar på skalad prestanda med hjälp av våra serverprofiler i IOMeter. Dessa tester mäter prestanda från ett lågt ködjup till ett max på 128 per arbetare (effektiv QD=512). Det här avsnittet är utformat för att visa hur väl företagsprodukter presterar under olika krävande blandade arbetsbelastningar i sprängförhållanden. I våra företagsfokuserade blandade arbetsbelastningar leder ioDrive Duo paketet på ett ködjup av 1 och 2, med undantag för filservertestet, och släpade sedan efter de andra enheterna på de högsta ködjupen.
Enterprise Real-World Benchmarks
Vår företagsspårning täcker en Microsoft Exchange-e-postservermiljö. Vi fångade aktiviteten på vår StorageReview-e-postserver under en period av dagar. Denna serverhårdvara består av en Dell PowerEdge 2970 som kör Windows Server 2003 R2-miljö som drivs av tre 73GB 10k SAS-hårddiskar i RAID5 på den integrerade Dell Perc 5/I-styrenheten. Spårningen består av många små överföringsförfrågningar, med en stark 95 % läsbelastning med 5 % skrivtrafik.
Eftersom vissa PCIe-enheter kräver högre belastning för att nå maximal prestanda, inkluderar vi både en lätt och tung profil för spårningsuppspelning. I detta begränsar vi det effektiva ködjupet till 8 i den svagare profilen och ökar det till 48 i Heavy-profilen.
Med ett effektivt ködjup begränsat till 8, vilket representerar lättare aktivitetsförhållanden, erbjöd ioDrive Duo de högsta överföringshastigheterna i vårt spårningstest för Mail Server med en hastighet på 969 MB/s i genomsnitt. Detta jämfört med 508MB/s i genomsnitt från LSI WarpDrive eller 625MB/s från OCZ Z-Drive R4 under samma förhållanden. Genom att utöka det tillåtna ködjupet till 48 tog Z-Drive R4 topplatsen med en genomsnittlig hastighet på 1,327 1,227 MB/s i genomsnitt, med ioDrive Duo nästa med en hastighet på 300 830 MB/s och WarpDrive SLP-XNUMX efterföljande med en hastighet på XNUMXMB/s.
En avvägning med att öka ködjupet för att öka överföringshastigheterna är att det kan påverka svarstiderna när de utestående I/O:erna ökar. Med en lätt belastning bibehöll ioDrive Duo sin överföringshastighet på 969MB/s med en svarstid på 0.06ms. För att Z-Drive R4 skulle överträffa den med en överföringshastighet på 1,327 3.5 MB/s ökade dess svarstid 0.21 gånger till 0.45 ms medan WarpDrive hade ett genomsnittligt svar på 830 ms för en överföringshastighet på XNUMX MB/s.
Syntetisk arbetsbelastningsanalys för företag (aktieinställningar)
Sättet vi ser på PCIe-lagringslösningar går djupare än att bara titta på traditionella burst- eller steady-state-prestanda. När man tittar på den genomsnittliga prestandan över en lång tidsperiod, tappar man sikte på detaljerna bakom hur enheten presterar under hela den perioden. Eftersom flashprestanda varierar mycket med tiden, analyserar vår nya benchmarking-process prestandan inom områden inklusive total genomströmning, genomsnittlig latens, toppfördröjning och standardavvikelse över hela förkonditioneringsfasen för varje enhet. Med avancerade företagsprodukter är latens ofta viktigare än genomströmning. Av denna anledning går vi långt för att visa de fulla prestandaegenskaperna för varje enhet vi använder vår Enterprise Test Lab.
Vi har också lagt till prestandajämförelser för att visa hur varje enhet presterar under olika drivrutiner i både Windows och Linux operativsystem. För Windows använder vi de senaste drivrutinerna vid tidpunkten för den ursprungliga granskningen, som varje enhet sedan testas i en 64-bitars Windows Server 2008 R2-miljö. För Linux använder vi 64-bitars CentOS 6.2-miljö, som varje Enterprise PCIe Application Accelerator stöder. Vårt huvudmål med denna testning är att visa hur OS-prestanda skiljer sig, eftersom att ha ett operativsystem listat som kompatibelt på ett produktblad betyder inte alltid att prestanda över dem är lika.
Alla enheter som testas går under samma testpolicy från början till slut. För närvarande, för varje enskild arbetsbelastning, raderas enheter säkert med hjälp av verktygen som tillhandahålls av leverantören, förkonditionerade till steady-state med samma arbetsbelastning som enheten kommer att testas med under tung belastning på 16 trådar med en enastående kö på 16 per tråd, och testades sedan i fastställda intervall i flera gäng-/ködjupsprofiler för att visa prestanda under lätt och tung användning. För tester med 100 % läsaktivitet är förkonditioneringen med samma arbetsbelastning, även om den har vänts till 100 % skrivning.
Förkonditionering och primära stationära tester:
- Genomströmning (Read+Write IOPS Aggregate)
- Genomsnittlig fördröjning (läs+skrivfördröjning i medeltal)
- Max fördröjning (maximal läs- eller skrivfördröjning)
- Latens standardavvikelse (läs+skriv standardavvikelse i genomsnitt)
För närvarande innehåller Enterprise Synthetic Workload Analysis fyra vanliga profiler, som kan försöka återspegla verklig aktivitet. Dessa valdes för att ha viss likhet med våra tidigare riktmärken, samt en gemensam grund för att jämföra med allmänt publicerade värden som max 4K läs- och skrivhastighet, samt 8K 70/30 som vanligtvis används för företagsenheter. Vi inkluderade också två äldre blandade arbetsbelastningar, inklusive den traditionella filservern och webbservern som erbjuder en bred blandning av överföringsstorlekar. Dessa två sista kommer att fasas ut med applikationsriktmärken i dessa kategorier när de introduceras på vår webbplats och ersätts med nya syntetiska arbetsbelastningar.
- 4K
- 100% Läs eller 100% Skriv
- 100 % 4K
- 8K 70/30
- 70 % läser, 30 % skriver
- 100 % 8K
- Fil server
- 80 % läser, 20 % skriver
- 10% 512b, 5% 1k, 5% 2k, 60% 4k, 2% 8k, 4% 16k, 4% 32k, 10% 64k
- webbserver
- 100% läst
- 22% 512b, 15% 1k, 8% 2k, 23% 4k, 15% 8k, 2% 16k, 6% 32k, 7% 64k, 1% 128k, 1% 512k
När vi tittade på 100 % 4K-skrivaktivitet under en tung belastning på 16 trådar och 16 köer under en 6-timmarsperiod fann vi att Fusion ioDrive Duo erbjöd de högsta toppöverföringshastigheterna i vår Lenovo ThinkServer RD240. Detta gällde för både Windows Server 2008 R2 64-bitars såväl som CentOS 6.2, som råkade ha ett litet försprång över Windows-prestandan. Näst på tur var 1.6 TB OCZ Z-Drive R4, dock endast i Windows. OCZ-drivrutinen för CentOS 6.2 [1.0.0.1480] svarade inte korrekt på förfrågningar om högre ködjup, oavsett antalet trådar, och bibehöll en hastighet på ungefär 7,600 300 IOPS under hela detta skede av testet. Näst på tur var LSI WarpDrive SLP-XNUMX, som erbjöd mycket liknande genomströmning i både Windows och Linux.
Om man tittar på genomsnittlig latens under varaktigheten av vårt 4K 100 % skrivförkonditioneringstest, var den snabbaste och långsammaste enheten OCZ Z-Drive R4. I en Windows-miljö, med drivrutinen helt fungerande, var den genomsnittliga latensen mycket snabbare än Fusion ioDrive Duo eller LSI WarpDrive. I en Linux-miljö med sin ganska svaga prestanda var den exponentiellt högre än de andra enheterna i denna kategori.
När du borrar in i den maximala latensutgången per intervall under 4K 100%-skrivförkonditioneringstestet kan du börja se hur stor en effektkontroller och NAND spelar in med en tung skrivmiljö. Fusion ioDrive Duo med MLC NAND kom in mellan den SLC-baserade LSI WarpDrive och den MLC-baserade OCZ Z-Drive R4 när det gäller toppar för latens. När vi jämförde prestandan i både Windows och Linux såg vi mer konsekvent produktion i Windows-miljön över Linux, med många färre toppar, men inte mindre toppar. Den MLC-baserade Z-Drive R4 i Windows hade stora toppar som landade långt över vår kartskala, med Linux-prestanda som var ganska stabil, även om det var långt ifrån tungt belastat med låg IOPS-prestanda. LSI WarpDrive erbjöd sin bästa prestanda i Windows, med en mycket plattare latenskurva, även om den fortfarande såg en topp på över 1,000 XNUMX ms.
När man överväger den maximala latensprestandan för en viss lagringsprodukt, är det område som ofta slängs över hur många av de tusentals eller miljoner I/O som hade ett högt svarsvärde. Det är därför det är viktigt att inte bara övervaka topplatens för att se de högsta topparna, utan också titta på standardavvikelsen, som visar variationen i latens. Även om en enhet har en ganska låg genomsnittlig latens med alla värden i genomsnitt, kan den fortfarande ha en ganska stor mängd I/O som kan anses vara oacceptabel beroende på vilket program du använder.
Med SLC NAND-konfigurationen bibehöll LSI WarpDrive en mycket god latensstandardavvikelse, med dess styrka främst i en Windows-miljö. Fusion ioDrive Duo kom in mot det övre intervallet för standardavvikelse, även om det var ganska konsekvent, som mönstret som finns i WarpDrive. Jämfört dess drivrutinsprestanda var den konsekvent snabbare i Linux i just detta test. OCZ Z-Drive R4 hade ett brett utbud av högre latensutdata under hela vårt test, även om den började jämna ut sig ibland när den nådde steady-state, även om den fortfarande hade perioder med hög latens igen.
Efter att förkonditioneringstesterna var klara började vi omedelbart med vår primära provtagning. I stationärt tillstånd var PCIe-lagringsenheten med den högsta genomströmningen i denna grupp OCZ Z-Drive R4 i Windows. Den mätte en topp på 229,811 56,978 IOPS-läser och en skrivhastighet på 140,230 42,644 IOPS. Näst på tur var Fusion ioDrive Duo, som mätte 300 4 IOPS-läsningar och 120,502 35,015 IOPS-skrivningar. Windows-prestanda för ioDrive Duo kom in strax under det, med en liten dipp i skrivprestanda. LSI WarpDrive SLP-XNUMX erbjöd sin starkaste XNUMXK-skrivhastighet i Windows, och mätte XNUMX XNUMX IOPS-läsningar och XNUMX XNUMX IOPS-skrivningar.
I steady-state mätning av hög belastning 4K läsning och 4K skrivning, kom OCZ Z-Drive R4 med sina klassledande genomströmningshastigheter i Windows i fronten, med en genomsnittlig latens på 4.49 ms läsning och 1.11 ms skriv. Fusion ioDrive Duo kom nästa med läshastigheter som mäter 6.00 ms i Linux och 6.25 ms i Windows, och 1.82 ms skriv i båda operativsystemen. Därefter kom WarpDrive med en läshastighet på 7.31 ms i Windows och 7.32 ms läs i Linux, med skrivhastigheter på 2.12 ms i Windows och 2.71 ms i Linux.
Om man tittar på topplatens under samplingstiden för vårt steady-state-test, kom den SLC-baserade LSI WarpDrive i lägst eller bäst i både Windows och Linux, följt av Fusion ioDrive Duo i Windows först med 426.15 ms toppläsning och 170.09 ms. peak write, och sedan i Linux med 1,208 156.91 ms peak läsning och 4 ms peak skrivning. I Windows hade OCZ Z-Drive R1,889 de högsta topparna, som mätte 5,299 XNUMX ms läsning och XNUMX XNUMX ms skriv i Windows.
Om man tittar på standardavvikelsen över perioden för vårt läs- och skrivtest i stationärt tillstånd i 4K, är den mest konsekventa PCIe Application Acceleratorn i vårt 4K-test för både läs- och skrivaktivitet LSI WarpDrive i Windows. Rangordnad efter konsekvent 4K-skrivprestanda kommer OCZ Z-Drive R4 i Windows nästa, följt av WarpDrive i Linux, följt av ioDrive Duo i Linux, sedan ioDrive Duo i Windows. Ranking efter konsekvent snabb läshastighet kom både Windows- och Linux-prestanda för ioDrive Duo in efter den SLC-baserade WarpDrive, sedan WarpDrive i Linux, följt av Z-Drive R4 i Windows.
Nästa förkonditioneringstest fungerar med en mer realistisk läs/skriv-arbetsbelastningsspridning, jämfört med 100 % skrivaktivitet i vårt 4K-test. Här har vi en 70 % läs- och 30 % skrivmix av 8K-överföringar. När vi tittade på vår 8K 70/30 blandade arbetsbelastning under en tung belastning på 16 trådar och 16 köer under en 6 timmars period, fann vi att Fusion ioDrive Duo fortfarande erbjöd de högsta toppöverföringshastigheterna i vår Lenovo ThinkServer. Detta gällde för både Windows Server 2008 R2 64-bitars och CentOS 6.2-miljön, som råkade ha ett litet försprång över Windows-prestandan. Näst på tur var 1.6 TB OCZ Z-Drive R4, dock endast i Windows. Näst på tur var LSI WarpDrive SLP-300, som erbjöd högre prestanda i en Windows-miljö.
Genom att byta till en titt på genomsnittlig latens i vårt 8K 70/30-test blir skillnaden mellan drivrutinsuppsättningarna mer uttalad. Fusion ioDrive Duo hade den mest likartade prestandan mellan både Linux och Windows, även om kanten på Linux-drivrutinuppsättningen blev mer uppenbar när enheten hamnade i steady-state. LSI WarpDrive visade en betydande spridning i genomsnittlig latens mellan drivrutiner, med Windows-drivrutinen som erbjuder högsta prestanda. OCZ Z-Drive R4 i Windows hade den lägsta genomsnittliga latensen ur gruppen, vilket gick hand i hand med den snabbaste genomströmningen. Linux-prestandan var dock återigen utanför listorna med i genomsnitt cirka 46 ms i Linux mot 6 ms eller så i Windows.
När man tittar på de högsta svarstiderna för ioDrive Duo, WarpDrive och Z-Drive R4, spelade många av samma egenskaper som vi såg i vårt 4K-test ut i vår 8K 70/30-arbetsbelastning med en inkluderad läsaktivitet. I det här testet började Fusion-io ioDrive Duo med den lägsta topplatenskurvan och började sedan ta fart lite efter två timmar när enheten började gå över till ett stabilt tillstånd. På den tiden kom den in över WarpDrive i Windows, som hade den lägsta kurvan av enheterna i denna grupp. Om man tittar på drivrutinskillnaderna mellan ioDrive Duo i Windows och Linux, hade Linux-drivrutinen högre toppar, även om den mot den senare hälften av testet bibehöll en lägre (snabbare) kurva. Z-Drive R4 å andra sidan i Windows hade högre toppar, även om den som helhet lugnade ner sig jämfört med dess beteende i en 100%-ig skrivbelastning.
Standardavvikelseprofilen i vår förkonditioneringsfas av 8K 70/30-arbetsbelastningen visade intressanta skillnader mellan korten i hur de presterade under testtiden. Medan WarpDrive konsekvent hade de snabbaste svarstiderna i Windows, lämnade dess latensprestanda i Linux lite att önska. ioDrive Duo visade sitt bästa ansikte i Linux, medan OCZ Z-Drive R4 producerade en mycket förbättrad latensstandardavvikelseprofil i detta test jämfört med 100% skriv-4K-testet.
Jämfört med den fasta arbetsbelastningen med 16 trådar och max 16 köer som vi utförde i 100 % 4K-skrivtestet, skalar våra profiler för blandad arbetsbelastning prestandan över ett brett utbud av kombinationer av tråd/kö. I dessa tester spänner vi över vår arbetsbelastningsintensitet från 2 trådar och 2 köer upp till 16 trådar och 16 köer. Den mest bisarra profilen är OCZ Z-Drive R4 som jämför dess Windows-prestanda med dess Linux-prestanda. Vid de tillfällen då det är snabbast i Windows är det som långsammast i Linux med ett ködjupsskalningsproblem i drivrutinen vi testade. På ett lågt tråd- och ködjup hade ioDrive Duo en stark ledning i prestanda jämfört med LSI SandForce-drivna WarpDrive och Z-Drive R4. När ködjupet ökade kunde de andra korten matcha eller överträffa dess prestanda. Genom att jämföra Windows- och Linux-drivrutinmiljöerna, erbjöd ioDrive Duo en nästan paritet i prestanda under hela arbetsbelastningen.
Genom att jämföra den genomsnittliga slutfördröjningen över det breda spannet av varierande nivå av tråd- och köaktivitet, bibehöll WarpDrive de lägsta svarstiderna i de flesta fall, tills Z-Drive R4 i Windows överträffade den vid högre ködjupsbelastningar. ioDrive Duo erbjöd nästan identisk prestanda i både Windows och Linux, med endast ett litet gap på sin högsta utdatanivå, vilket gav ledningen till Linux-drivrutinen.
Att titta på maximal latens över vår 8K 70/30-arbetsbelastning var intressant, eftersom det visade att även med ett lägre antal trådar och köer, såg enheterna fortfarande höga toppsvarstider. ioDrive Duo i Linux såg konsekventa toppar till 1,000 16 ms i de flesta arbetsbelastningar, medan Windows-drivrutinen var mycket lugnare. I detta specifika test kom ioDrive Duo i Windows med de lägsta toppsvarstiderna fram till 16T/XNUMXQ-belastningen, med WarpDrive precis bakom sig.
Även om enstaka höga toppar kan se nedslående ut, tittar vi på standardavvikelsens latensplot såg vi en mycket tämjare latensprofil för alla enheter utom Z-Drive R4 i Linux. Fram till de högsta belastningarna behöll ioDrive Duo i Windows den lägsta standardavvikelsen, där Linux-drivrutinen följde något efter, följt av WarpDrive och sedan Z-Drive R4 i Windows.
File Server-arbetsbelastningen representerar ett större spektrum av överföringsstorlekar som träffar varje enskild enhet, så istället för att sätta sig in i en statisk 4k- eller 8k-arbetsbelastning, måste enheten klara förfrågningar som sträcker sig från 512b till 64K. I det här avsnittet stod Z-Drive R4 i Windows ut med den högsta burst- och steady-state-prestanda, följt av ioDrive Duo. I burst-läge erbjöd ioDrive Duo i Windows högre hastigheter och vände sedan mot Linux-prestandan när enheten gick in i steady-state. WarpDrive kom härnäst, med dess Windows-prestanda som var högre i både burst- och steady-state-lägen.
Om man tittar på genomsnittlig latens över filserverns förkonditioneringstest, hade Z-Drive R4 ett starkt försprång över ioDrive Duo och WarpDrive i Windows. ioDrive hade mycket liten skillnad mellan Linux och Windows prestanda, medan WarpDrive visade ett större gap mellan operativsystem.
När man tittar på max latens under förkonditioneringsfasen för varje enhet, visade LSI WarpDrive en viss svaghet med sina Linux max svarstider med nästan 400 ms hopp över sina Windows-tider. Svarstopparna för ioDrive Duo i Linux var högre än Windows, även om de flesta under testets varaktighet var de lägsta i testet, medan Windows-sidan nästan inte hade några spikar med hög latens, även om de flöt högre i genomsnitt. Den MLC-baserade OCZ Z-Drive R4 fladdrade under större delen av filserverns förkonditioneringsprocessen, med några toppar på över 10,000 40,000-XNUMX XNUMX ms under testets första timme.
När man undersökte standardavvikelsen för enheterna som körs genom vårt förkonditioneringstest för filserver, fann man faktiskt den mest överraskande skillnaden med LSI WarpDrive, där dess Linux I/O-svarstid ökade avsevärt under testets varaktighet jämfört med dess Windows-prestanda. ioDrive Duo såg en liknande förändring när enheten nådde steady-state, där båda vägarna divergerade och Windows-responsen blev mindre grupperad. Sammantaget var enheten med bäst prestanda i detta avsnitt LSI WarpDrive under Windows, där den bibehöll den plattaste standardavvikelsekurvan under hela testet.
När vår förkonditioneringsprocess avslutades under en hög belastning på 16T/16Q, tittade vi på filserverns prestanda över ett brett spektrum av aktivitetsnivåer. Fusion-io ioDrive Duo bibehöll högsta prestanda vid låga tråd- och köantal, endast överträffad av OCZ Z-Drive R4 i genomströmning vid högre enastående I/O-nivåer.
Genom att analysera den genomsnittliga latensen under vårt varierande belastningstest, kom Z-Drive R4 överst med de snabbaste svarstiderna i genomsnitt när aktiviteten ökade i vårt test. När den utestående könivån ökade per trådantal, ökade latensen för ioDrive Duo på Linux-sidan, även om Windows-drivrutinen hade något lägre genomströmning.
Om man tittar på max latens under varaktigheten av vårt primära filservertest, visade ioDrive i Linux fortfarande sina högre 1,000 16 ms toppar vid låga och höga tråd-/köantalnivåer. Dess Windows-motsvarighet erbjöd dock de lägsta konsekventa maximala svarstiderna, fram till arbetsbelastningen på 16T/XNUMXQ.
Filserverns standardavvikelseprofil för både ioDrive Duo och WarpDrive höll sig ganska tätt ihop i både Windows och Linux fram till de högre effektiva ködjupen. I fallet med ioDrive Duo behöll Linux-drivrutinen bättre lugn på 16T/16Q-nivån, där Windows-prestandan var spridd.
Vår senaste arbetsbelastning är ganska unik i det sätt vi analyserar förkonditioneringsfasen av testversionen som huvudutgången. Eftersom en arbetsbelastning utformad med 100 % läsaktivitet är det svårt att visa varje enhets verkliga läsprestanda utan ett ordentligt förkonditioneringssteg. För att hålla konditioneringsarbetsbelastningen densamma som testarbetsbelastningen inverterade vi mönstret till 100 % skrivning. Av denna anledning är förkonditioneringsdiagrammen mycket mer dramatiska än de slutliga arbetsbelastningssiffrorna. Under dessa tuffa förhållanden bibehöll OCZ Z-Drive R4 den högsta genomströmningen från burst till stationärt tillstånd, med ioDrive Duo på nästa plats och WarpDrive på tredje plats.
Genomsnittlig latens över 100 % skrivwebbserverns förkonditioneringsprocessen visade att ioDrive Duo i Linux hade en fördel med något lägre svarstider än Windows-drivrutinuppsättningen. LSI WarpDrive visade i stort sett samma genomsnittliga svarstid, medan Z-Drive R4 hade en enorm spridning mellan Windows- och Linux-prestanda.
Om man tittar på max latens i webbserverns förkonditioneringskurva, hade Z-Drive R4 de högsta topparna, men när den väl planade ut bibehöll den ett färre antal spikar med hög latens. Om man tittar på ioDrive Duo, medan dess Linux-prestanda hade fördelen när det gäller genomströmning och genomsnittliga svarstider, hade den några av de högsta topparna i det här testet och tryckte uppåt på 1,200 300 ms, medan Windows-drivrutinen var mycket lugnare med sina toppar i allmänhet i 400-1,600 ms räckvidd (förutom en stor spik till över XNUMX XNUMX ms).
Den SLC-baserade LSI WarpDrive bibehöll den lägsta standardavvikelseprofilen under hela webbserverns förkonditioneringsprocessen i Windows, följd av Z-Drive R4 när den lugnat ner sig, följt igen av WarpDrive med dess Linux-drivrutin, och sedan av ioDrive Duo i Linux och sedan Windows.
Genom att byta tillbaka till en 100 % läs webbserver arbetsbelastning efter förkonditioneringsprocessen, erbjöd OCZ Z-Drive R4 definitivt den högsta prestandan i en Windows-prestanda, med mer än dubbelt så hög genomströmningshastighet. Samtidigt kontrasterades den mot dess Linux-prestanda, som var långsammast på samma punkter som den erbjöd den högsta prestanda i Windows. Med de minsta arbetsbelastningarna kom ioDrive Duo in igen med de snabbaste hastigheterna, även om den snabbt överträffades av Z-Drive R4 när det effektiva ködjupet ökade.
Både ioDrive Duo och WarpDrive förblev nära varandra i webbserverns genomsnittliga latenstest, även om båda lätt slogs av R4 i Windows.
Det var något överraskande att se några av de högre latensspikarna i intervallet 1,000 XNUMX ms kvar i det läsintensiva webbservertestet, även om beteendet ses mest på ioDrive Duo i Linux, men det noterades på alla tre enheterna kl. olika punkter i testet.
Standardavvikelsediagrammet för webbserveraktiviteten visade att ioDrive Duo hade konsekvent högre svarstider vid högre ködjupshastigheter, med en topp på 16T/16Q. Detta var medan Windows-prestandan förblev snäv tills de högsta arbetsbelastningarna. LSI WarpDrive bibehöll en ganska platt profil, fram till slutet på Linux-sidan där latensen startade fladderet.
Syntetisk arbetsbelastningsanalys för företag (högpresterande läge)
Av de tre PCIe Application Acceleratorerna i den här recensionen är det bara Fusion-io ioDrive Duo som erbjuder en metod för att ändra sektorstorleken eller användarsynligt formaterat utrymme för ökad prestanda. Även om det är möjligt att partitionera en del av enheten och inte använda den med de andra produkterna, är den processen inte lika intuitiv. Vissa är inte ens medvetna om konsekvenserna när man handlar med kapacitet för prestationsvinster.
Medan majoriteten av den här recensionen fokuserade på lagerkapaciteten hos ioDrive Duo, går denna återstående del tillbaka till vår nya Synthetic Workload Analysis för att se hur prestanda skiljer sig mellan högpresterande läge och lagerkonfiguration. Med en lagerstorlek på 320 GB per enhet har ioDrive Duo en nivå på 20 % överprovisionering mellan RAW NAND och användarsynlig. Om du formaterar ioDrive Duo till högpresterande läge minskar den kapaciteten till 256 GB, eller 36 % överprovisionering, vilket minskar den totala kapaciteten från 640 GB till 512 GB. Medan du handlar med en bra mängd tillgänglig kapacitet, blev vi förvånade över hur mycket det skulle påverka steady-state prestanda. I vissa fall såg vi prestanda mer än fördubblas.
Med ioDrive Duo i högpresterande läge förblev 4K 100 % skrivskurhastigheter ungefär desamma vid ~257k IOPS, men skillnaden i steady-state prestanda är dramatisk. Medan ioDrive Duo i lagerkonfiguration bibehöll genomströmningshastigheter på 41-42 90,000 IOPS mot slutet av förkonditioneringsfasen, höjde högprestandaläget upp till cirka 2 XNUMX IOPS. Det är mer än ett XNUMXx hopp genom att offra lite användarkapacitet.
Genom att gå hand i hand med snabbare genomströmning, minskade latensen också med hälften i 4K-skrivförkonditioneringsstadiet.
När man tittade på den maximala latensprofilen för 4K-skrivförkonditioneringstestet fanns många av samma egenskaper kvar, även om den här gången var mycket lägre. Windows 4K-latensen var något högre ursprungligen, även om den hade färre spikar med hög latens som sågs i Linux-miljön. När enheten formaterades till högpresterande läge hade Windows-profilen fortfarande mer jitter, men Linux-profilen hade bättre lugn och saknade de höga fördröjningsspikar som sett tidigare.
Det mest talande diagrammet som visar den dramatiska förbättringen av ioDrive Duo i högpresterande läge är latensstandardavvikelsens profil. Med ökningen av utrymmet för bakgrunds-GC-aktivitet, under en full 4K 100% skrivbelastning, minskade standardavvikelsen från 25-30ms före 2-5ms.
När vi jämförde våra stationära 4K 100 % läs- och skrivresultat mellan lager och högpresterande lägen såg vi ingen ökning i läsprestanda. Detta är inte så ovanligt, eftersom överprovisionering i allmänhet bara förbättrar skrivhastigheter i stationär tillstånd, utan att det påverkar läs- eller skrivbursthastigheterna. I det här fallet stannade 100 % 4K-läsprestanda på drygt 140,000 40.9 IOPS, med skrivprestanda i stationär tillstånd som hoppade upp från 42.6-90.4K upp till 91-XNUMXK IOPS.
Förbättringen av 4K-skrivlatens som vi ursprungligen observerade i förkonditioneringsfasen var i genomsnitt 2.80-2.82 ms på högpresterande läget ioDrive Duo, jämfört med 6-6.25 ms i lagerläge.
Även om vi inte mätte en märkbar minskning i 4K-avläsningsgenomsnittlig svarstid eller en ökning av genomströmning, erbjöd den högpresterande konfigurerade ioDrive Duo mycket lägre toppavläsningssvar. Peak 4K-skrivsvarstider minskade också dramatiskt.
Skillnaden i standardavvikelse mellan de två överprovisioneringslägena var natt och dag, med högpresterande ioDrive Duo som mätte 1.70-1.76 ms jämfört med 25.6-31.6 ms tidigare.
Medan prestandauppgången i slumpmässig 4K-skrivprestanda var imponerande, var vi mer intresserade av att se hur ioDrive Duo skulle förändras i en blandad arbetsbelastning med läsaktivitet inlagd i mixen. I vårt 8K 70/30 förkonditioneringstest ökade genomströmningen markant, från 51-53k IOPS-intervallet före ungefär 76K IOPS i högpresterande läge. Burst-hastigheter var ganska lika mellan formateringskonfigurationer, även om den överprovisionerade ioDrive Duo började sjunka in i steady-state snabbare.
Titta på latensen i vår 8K 70/30 arbetsbelastning, borta där de måttliga skillnaderna mellan Linux- och Windows-drivrutinen på ioDrive Duo i högpresterande läge. Genomsnittlig latens minskade avsevärt och förblev mycket konsekvent under förkonditioneringsprocessen.
Även om förbättringar av genomströmning och genomsnittlig latens är viktiga, är topplatens en annan faktor att vara uppmärksam på när du ändrar konfigurationen av ioDrive Duo. I det här fallet gav det extra överprovisionerade utrymmet disken tillräckligt med utrymme i bakgrunden för att undertrycka de flesta av de max latenshopp som vi såg i spikkonfigurationen. Med det sagt var de inte helt borta, men huvuddelen av aktiviteten sjönk till mycket lägre nivåer.
Om du tittar på latensstandardavvikelsen kan du se hela bilden av hur stor inverkan som ger ioDrive Duo lite extra överprovisioneringsutrymme kan ha. Standardavvikelsen minskade med en faktor 5, och stannade ungefär 2 ms under hela förkonditioneringsprocessen, jämfört med 8-12 ms tidigare.
ioDrive Duo fortsatte att visa prestandafördelar över hela linjen i våra huvudsakliga genomströmningstester där vi varierar belastningen mellan 2T/2Q och 16T/16Q.
Om man tittar på genomsnittliga latensskillnader i vår 8K 70/30-arbetsbelastning som jämför ioDrive Duo-stocken med högpresterande lägen, var skillnaden mest anmärkningsvärd vid de högre ködjupen vid varje trådantal.
Som vi såg i max latensstadiet i 8K 70/30 förkonditioneringstestet fanns många av samma höga toppar kvar under testets varaktighet, även om det fanns färre av dem.
Genom att jämföra latensstandardavvikelsen över hela linjen, gjorde överprovisionering den största inverkan vid vissa ökade ködjupsbelastningar, medan områden som 8T/16Q inte såg någon förändring alls.
Fusion ioDrive Duo såg inte så mycket av en förbättring av den totala genomströmningen genom att öka mängden överprovisionering. Prestandan ökade fortfarande, även om ökningen var blygsam, jämfört med det dramatiska hopp som finns i 100 % 4K-skrivning eller 8K 70/30 % arbetsbelastning.
Genomsnittlig latens under filserverns förkonditioneringstest förbättrades från ungefär 7-7.5 ms till drygt 6 ms när ioDrive Duo närmade sig prestanda i stabilt tillstånd.
Även om Fusion ioDrive Duo inte såg en dramatisk förbättring i genomströmning eller genomsnittlig latens, kunde den undertrycka många av de spikar med hög latens som finns i konfigurationen för lageröverprovisionering. Den största förbättringen skedde med Windows-drivrutinen, som bibehöll ett topplatenstak på cirka 50-75 ms i steady state jämfört med intervallet 225-250 ms tidigare.
Genom att analysera latensstandardavvikelsen i filserverns förkonditioneringstest höll den ökade överprovisioneringen fladder till ett minimum när enheten närmade sig stabilt tillstånd. Linux-latensstandardavvikelsen förbättrades inte så mycket, men Windows-standardavvikelsen sjönk från 12-14ms till strax under 3ms.
Genom att öka överprovisioneringen av Fusion ioDrive Duo kunde kortet öka i prestanda med ungefär 5,000 XNUMX IOPS över de flesta kombinationer av tråd- och ködjup, med den största ökningen vid högre ködjupsbelastningar.
Latency förbättrades i båda områdena, med Fusin ioDrive Duo i Windows som fick den största förbättringen vid 16T/16Q-belastningen, från långsammast till snabbast.
Om man jämförde toppfördröjningen i filserverns arbetsbelastning, lugnade ioDrive Duo ner mycket i Linux och förlorade många av sina 1,000 1,000 ms toppar från tidigare. Den här gången hade den bara en enda topp på XNUMX XNUMX ms i Windows-testet.
Standardavvikelsen över hela linjen sjönk bra, vilket visar hur mycket ioDrive Duo lugnade ner sig med den ökade mängden överprovisionering.
Även om vår webbserverförkonditioneringskurva inte är den bästa representationen av webbserveraktivitet, i själva verket är det motsatsen vid 100 % skrivning, men det visar fortfarande hur stor inverkan som ökad överprovisionering kan ha. Den totala genomströmningen ökade bra och överträffade till och med OCZ Z-Drive R4.
Genomsnittlig latens under varaktigheten av vårt förkonditioneringstest för webbservern halverades, från över 20 ms tidigare, till drygt 10 ms i högpresterande läge.
Nästan alla spikar med hög latens undertrycktes med ökad överprovisionering, där Linux-prestandan förbättrades mest.
Latensens standardavvikelse förbättrades dramatiskt under varaktigheten av webbserverns förkonditioneringssektion, med den största förändringen på Linux-sidan med kurvan nästan platt jämfört med aktiens prestanda.
Genom att byta tillbaka webbserverprofilen till 100 % läst såg vi liten eller ingen förbättring i genomströmningshastigheten mellan lager och ökad överprovisionering i just denna arbetsbelastning. Detta är dock inte förvånande, eftersom överprovisionering egentligen bara gynnar skrivrelaterad prestanda.
Den genomsnittliga latensen var nästan identisk över hela linjen, och visade små tecken på att förbättras med ytterligare överprovisionering.
Även om genomströmning och genomsnittlig latens inte förbättrades, försvann svarstiderna med hög latens helt i den här 100 % lästa webbserverprofilen när överprovisioneringsnivåerna ökades.
I likhet med den minskade toppfördröjningen i vår webbserverprofil med ioDrive Duo i högpresterande läge, sjönk även latensstandardavvikelsen en hel del i vårt Linux-test, medan Windows-testet såg minimala förbättringar.
Slutsats
När du tar en förnyad titt på ioDrive Duo är det flera saker som sticker ut. Med tanke på att Fusion-io var en tidig pionjär inom just denna iteration av lagringsteknologi och de äger flera delar av viktiga immateriella rättigheter kring lagring, borde det inte vara så förvånande att det övergripande paketet är så snävt, men precisionsnivån är värdig kreditera. Det är inte bara precision när det gäller prestanda, vilket även som tidigare generations teknik, det gör bra. Men precision när det gäller den polerade känslan överallt från förpackning, till mjukvarugränssnitt till konsekvent prestanda på många av deras plattformar som stöds, inklusive versionerna av Windows och Linux som vi testade. Medan den nuvarande ioDrive Duo har uppdaterats flera gånger sedan den första lanseringen, med tanke på att enheten kom ut i början av 2009, visar den väldigt liten ålder.
För en MLC-baserad enhet håller sig ioDrive Duo mycket väl mot den SLC-baserade LSI WarpDrive som kan anses vara dess närmaste konkurrent. Eftersom produkter designade perfekt för Enterprise Application Acceleration-segmentet utmärker sig båda modellerna med tunga arbetsbelastningar över flera OS-plattformar. I nästan varje test erbjöd ioDrive Duo konsekvent prestanda, även om WarpDrive med sin SLC-NAND när det gäller max latens klarade sig bättre än vår MLC-utrustade 640GB ioDrive Duo. När man jämförde den med den MLC-baserade OCZ Z-Drive R4, var det lätt att se hur båda dessa produkter är designade för distinkt olika marknader. Z-Drive erbjöd hög hastighet och hög kapacitet tack vare billigare konsumentklassade NAND och nyare generations kontroller, men dess maximala latens och standardavvikelse var mer inkonsekvent än ioDrive Duo eller WarpDrive. Z-Drives styrkor var mer på den lästunga sidan, medan ioDrive Duo och WarpDrive hittade sin plats i en skrivtung miljö. För distributioner utanför Windows, där ioDrive Duo och WarpDrive båda erbjöd liknande prestanda i Linux, stod Z-Drive R4:s prestanda i skarp kontrast till dess Windows-poäng, och gav exponentiellt långsammare prestanda genomgående.
Naturligtvis är ioDrive Duo med lagerkapacitet inte utan sina svagheter, vilket kan ses av dess frekventa 1,000 300 ms blipp i låga och höga ködjupstester i steady-state. Med tanke på den konsekventa standardavvikelsen var dock många av dessa blipp få tidshändelser, istället för att konsekvent träffa högre svarsfrekvens. Ett annat mindre orosmoment kan hittas beroende på plattform, eftersom Linux tenderade att vara den här produktens starka sida, även om det bara förbättrade sin Windows-prestanda något. I slutet av dagen skulle dock dessa latensproblem troligen inte dyka upp i den SLC-baserade ioDrive Duo, som kan ses som en närmare konkurrent till LSI WarpDrive, som bara är tillgänglig i en XNUMXGB SLC-konfiguration.
När vi testade ioDrive Duo i dess högpresterande läge, som sänkte den formaterade kapaciteten till 256 GB från 320 GB per ioDimm, mer än fördubblades prestandan i vissa fall. 4K slumpmässig skrivprestanda steg från 40,000 90,000 IOPS till XNUMX XNUMX IOPS och samtidigt sjönk topplatensen som en sten. För företagsanvändare som är villiga att byta kapacitet i namn av hastighet och låg latens, erbjuder Fusion-io ett enkelt sätt för slutanvändaren att göra dessa ändringar. Ingen av de konkurrerande PCIe-lösningarna erbjuder den typen av prestandakonfiguration om du inte är villig att manuellt partitionera av användarutrymmet och lämna en sektion oanvänd, vilket kanske inte är genomförbart i alla applikationer.
Fördelar
- Den tätaste integrationen av mjukvara och hårdvara från alla PCIe Application Accelerator-leverantörer
- Närmast prestandaparitet mellan Windows- och Linux-drivrutiner
- Stor genomströmning och latens i lagerläge som blir ännu bättre i högpresterande läge
- Stark prestanda med låg kö/lågt antal trådar
Nackdelar
- Installation och inledande installation kan vara svårare än andra lösningar (extern ström krävs, inget inbyggt OS-drivrutinstöd)
- Behöver mer systemresurser med VSL-fotavtryck som används för att presentera ioDrive som en minnesnivå
Bottom Line
Ur ett användarvänligt perspektiv sätter ioDrive Duo standarden för hur en PCIe Application Accelerator ska presenteras för slutanvändaren. Oavsett vilket operativsystem som används är upplevelsen nästan identisk, ner till de medföljande GUI- och konsolhanteringsverktygen. Från dag ett kan användaren sätta sig ner, oavsett OS, och få ioDrive Duos hårdvarustatus, format eller överprovisionera den efter eget tycke och sättas i produktion. ioDrive Duo är ett komplett erbjudande som är mer förfinat än något annat på företagslagringsmarknaden.
Uppdatering 8/17/12 - Vårt LSI Nytro WarpDrive recension har publicerats och lagts till i diagrammen som används i denna Fusion-io recension.








Amazon