SUSE Enterprise Storage är en mjukvarudefinierad lagringslösning som drivs av Ceph designad för att hjälpa företag att hantera de ständigt växande datamängderna. Vidare vill SUSE hjälpa till genom att dra fördel av gynnsam lagringsekonomi eftersom hårddiskarna fortsätter att bli större och flashpriserna fortsätter att falla. Även om Ceph vanligtvis är konfigurerad som en hybrid, är den i slutändan så flexibel som kundens efterfrågan ska vara. Medan mycket av den mjukvarudefinierade glädjen nuförtiden är fokuserad på primär lagring och hyperkonvergerade erbjudanden, hjälper Ceph också till en betydande hårdvaruutveckling. HP, Dell, Supermicro och andra har alla investerat kraftigt i täta 3.5-tums chassi med flera beräkningsnoder i ett försök att tillhandahålla de underliggande hårdvaruplattformarna som Ceph kräver. När det gäller den här specifika recensionen utnyttjade vi HPE-utrustning inklusive ProLiant-servrar och Apollo-chassier , men SUSE Enterprise Storage kan distribueras på nästan vad som helst.
SUSE Enterprise Storage är en mjukvarudefinierad lagringslösning som drivs av Ceph designad för att hjälpa företag att hantera de ständigt växande datamängderna. Vidare vill SUSE hjälpa till genom att dra fördel av gynnsam lagringsekonomi eftersom hårddiskarna fortsätter att bli större och flashpriserna fortsätter att falla. Även om Ceph vanligtvis är konfigurerad som en hybrid, är den i slutändan så flexibel som kundens efterfrågan ska vara. Medan mycket av den mjukvarudefinierade glädjen nuförtiden är fokuserad på primär lagring och hyperkonvergerade erbjudanden, hjälper Ceph också till en betydande hårdvaruutveckling. HP, Dell, Supermicro och andra har alla investerat kraftigt i täta 3.5-tums chassi med flera beräkningsnoder i ett försök att tillhandahålla de underliggande hårdvaruplattformarna som Ceph kräver. När det gäller den här specifika recensionen utnyttjade vi HPE-utrustning inklusive ProLiant-servrar och Apollo-chassier , men SUSE Enterprise Storage kan distribueras på nästan vad som helst.
Även om det ligger utanför ramen för denna recension att göra en djupdykning i Ceph, är det viktigt att ha en grundläggande förståelse för vad Ceph är. Ceph är en mjukvarulagringsplattform som är unik i sin förmåga att leverera objekt-, block- och fillagring i ett enhetligt system. En annan attraktiv egenskap hos Ceph är att den är mycket skalbar och i hög grad upp till exabyte data. Det kan köras på råvaruhårdvara (vilket betyder att inget speciellt behövs). Ceph är utformad för att undvika enstaka felpunkter. Och något som är intressant för alla, Ceph är fritt tillgänglig.
Användare kan konfigurera en Ceph-nod på råvaruhårdvara som använder flera intelligenta demoner, särskilt fyra: klustermonitorer (ceph-mon), metadataservrar (ceph-mds), objektlagringsenheter (ceph-osd) och representativ tillståndsöverföring ( RESTful) gateways (ceph-rgw). För att bättre skydda användardata och göra den feltolerant, replikerar Ceph data och strilar över flera noder för högre genomströmning.
SUSE Enterprise Storage använder Ceph som mycket stor, kostnadseffektiv bulklagring för flera typer av data. Data kommer bara att växa och Big Data är mycket värdefullt men tar upp enorma mängder kapacitet. Big Data kan ge företag insikter som kan vara oerhört värdefulla för deras resultat, men för att analysera denna data behöver de någonstans att lagra den under tiden. Förutom att kunna lagra enorma mängder data på ett kostnadseffektivt sätt är SUSE Enterprise Storage också mycket anpassningsbar. Eftersom programvaran är självhanterande och självläkande är den idealisk för att snabbt anpassa sig till förändringar i kraven. Det innebär att administratörer snabbt kan justera prestanda och tillhandahålla ytterligare lagringsutrymme utan avbrott. Anpassningsförmågan hjälper till att ge flexibilitet till råvaruhårdvara som används med SUSE Enterprise Storage.
SUSE Enterprise Storage-funktioner
- Cachenivåsättning
- Tunn proviantering
- Kopiera-på-skriv-kloner
- Radera kodning
- Heterogen OS block access (iSCSI)
- Enhetlig tillgång till objekt, block och filsystem (teknisk förhandsgranskning)
- API:er för programmatisk åtkomst
- OpenStack-integration
- Online skalbarhet av noder eller kapacitet
- Programvaruuppdateringar online
- Data-at-rest-kryptering
SUSE Enterprise Storage Hardware Configuration
Övervakningsnoder håller reda på klustertillstånd, men sitter inte i datavägen. I vårt fall är de tre monitornoderna 1U HPE ProLiant DL360-servrarna. För de flesta SUSE Enterprise Storage-kluster räcker det med en trio övervakningsnoder, även om ett företag kan distribuera fem eller fler om det finns ett mycket stort antal lagringsnoder.
SUSE-lagringsnoder skalas horisontellt och består av tre HPE Apollo 4200-noder och tre HPE Apollo 4510-noder. Data skrivs i tre exemplar över lagringsnoderna i vår konfiguration, naturligtvis kan detta ändras baserat på behov. Skyddsnivåer kan definieras på poolnivå.
- 3x HPE Apollo 4200 noder
- â € <2x Intel E5-2680 v3-processorer
- 320GB RAM
- M.2 boot kit
- 4x 480GB SSD
- 24x 6TB SATA 7.2k-enheter
- 1x 40Gb adapter med dubbla portar
- 3x HPE Apollo 4510 noder
- 2x e5-2690 v3-processorer
- 320GB RAM
- M.2 boot kit
- 4x 480GB SSD
- 24x 6TB SATA 7.2k-enheter
- 1x 40Gb adapter med dubbla portar
- 3x HPE ProLiant DL360 noder
- 1 E5-2660v3
- 64GB RAM
- 2x 80GB SSD
- 6x 480GB SSD
- 1x 40Gb adapter med dubbla portar
- 2x HP FlexFabric 5930-32QSFP+ switch
- Server konfiguration
- SUSE Linux Enterprise Server 12 SP1 med SUSE Enterprise Storage
- OSD:er utplacerade med ett 6:1-förhållande mellan hårddisk och SSD för journalenheter
- HPE Apollo 4200s och 4510s deltar tillsammans i ett enda lagringskluster för totalt 144 lagringsenheter
- DL360:erna fungerar i rollerna administratör, övervakare och Romana GUI
- iSCSI-gatewaytjänster distribueras på alla 6 lagringsnoder
SUSE Enterprise Storage Management
Det mesta av SUSE-företagslagringen hanteras via CLI men det finns också ett webbaserat GUI. För närvarande använder SUSE Calamari för sitt GUI, även om det kan ändras framöver. När användare har ställt in Calamari och öppnat får de en titt på vad man normalt förväntar sig av ett GUI. Huvudsidan har fyra huvudflikar som löper längst upp, inklusive: Dashboard, Workbench, Charts och Manage. Fliken Dashboard (den som standard öppnas) visar systemets tillstånd tillsammans med eventuella aktiva varningar. Det totala antalet OSD:er i klustret visas med den totala mängden upp och ner också indikerad. Antalet monitorer (totalt/och vad som körs) visas. Och det totala antalet pooler anges. Under dessa finns placeringsgruppens status inklusive aktiva och rena siffror samt ett färgkodssystem som visar användare som är rena (gröna), fungerande (gula) och smutsiga (röda).
Fliken Workbench ger användarna en grafisk representation av mängden OSD och vilka som körs korrekt och vilka som är nere. Från grafiken kan man se att medan de flesta kör korrekt indikerat med en grön färg finns det ett dun som är markerat i rött och är något större. På vänster sida kan användare sortera och filtrera efter OSD.
Via fliken Workbench kan användare också få en grafisk representation av prestandan för deras lagring. I exemplet nedan kan användare se sina läs + skriv IOPS, utnyttjandet av deras lagring och antalet värdar som rapporterar.
Med fliken Diagram kan användare välja ett kluster och få ett brutet linjediagram som visar klustrets prestanda, som visar både läsning och skrivning.
På fliken Hantera kan användare redigera kluster, OSD, pooler och visa loggar. Under OSD-underfliken kan användare se värdarna listade längst ner till vänster och vilka OSD:er finns i varje värd. Användare kan flytta OSD för att balansera belastningen.
Syntetisk arbetsbelastningsanalys för företag
Lagringsprestanda varierar när arrayen anpassas till sin arbetsbelastning, vilket innebär att lagringsenheter måste förkonditioneras innan varje fio syntetiska riktmärken för att säkerställa att riktmärkena är korrekta. I varje test förutsätter vi gruppen med samma arbetsbelastning som tillämpas i det primära testet. För testning körde vi SUSE Enterprise med en ojusterad standardkonfiguration. I framtiden kan SUSE-testning köras med specifik OS och Ceph tuning.
Förkonditionering och primära stationära tester:
- Genomströmning (Read+Write IOPS Aggregate)
- Genomsnittlig fördröjning (läs+skrivfördröjning i medeltal)
- Max fördröjning (maximal läs- eller skrivfördröjning)
- Latens standardavvikelse (läs+skriv standardavvikelse i genomsnitt)
Dell PowerEdge LoadGen-specifikationer
- Dell PowerEdge R730-servrar (2-4)
- CPU:er: Dual Intel Xeon E5-2690 v3 2.6GHz (12C/28T)
- Minne: 128 GB DDR4 RDIMM vardera
- Nätverk: Mellanox ConnectX-3 40GbE
Eftersom SUSE Enterprise Storage-klustret var inriktat på stora sekventiella överföringar, inkluderade vi ett slumpmässigt arbetsbelastningstest, samtidigt som vi fokuserade tre sekventiella överföringstester på klustret i ständigt ökande överföringsstorlekar. Varje arbetsbelastning applicerades med 10 trådar och ett enastående ködjup på 16. Slumpmässiga arbetsbelastningar applicerades med 2 klienter, med resultat kombinerade för en sammanlagd poäng, medan sekventiella resultat mättes med 2 och 4 klienter. Varje klient länkad till blockenheter i CEPH-klustret via RBD (RADOS Block Devices) protokoll.
Arbetsbelastningsprofiler
- 4k slumpmässigt
- 100% Läs och 100% Skriv
- 8k sekventiell
- 100% Läs och 100% Skriv
- 128k sekventiell
- 100% Läs och 100% Skriv
- 1024k sekventiell
- 100% Läs och 100% Skriv
I vårt slumpmässiga 4k syntetiska riktmärke kunde SUSE Enterprise Storage (hädanefter kallad SUSE för korthetens skull) nå en läskapacitet på 8,739 8,646 och 17,385 4,571 IOPS med individuella värdar med en sammanlagd läspoäng på 4,880 9,451 IOPS. På skrivgenomströmningen träffade enskilda värdar XNUMX XNUMX och XNUMX XNUMX IOPS med en sammanlagd poäng på XNUMX XNUMX IOPS.
Om man tittar på genomsnittlig latens, var båda värdarna, och därmed genomsnittet mellan dem, mycket nära både i läsning och skrivning. På lässidan hade de individuella värdarna latenser på 18.3 ms och 18.51 ms med ett sammanlagt 18.41 ms. Med skrivningar hade de enskilda värdarna 34.99 ms och 32.78 ms med sammanlagt 33.88 ms.
Max latens visade ganska konsekvent poäng i skrivning med 4,890 4,628 ms och 4,759 5,227.2 ms för individuella värdar och ett sammanlagt 7,125.6 6,176.4 ms. Med läslatens var det en mycket större avvikelse mellan de individuella värdarna med latenser från XNUMX XNUMX ms till XNUMX XNUMX ms, vilket gav oss en sammanlagd poäng på XNUMX XNUMX ms.
Standardavvikelsen såg återigen att latensen drog in mycket närmare igen. De individuella värdarna gav läslatenser på 36.7 ms och 37.21 ms med ett sammanlagt 36.96 ms. Skrivfördröjningar gick från 80.18 ms till 89.84 ms med en sammanlagd poäng på 85.01 ms.
Härifrån går vi över till sekventiella tester, den första är vår 8k. Här tittar vi på två uppsättningar test (SUSE 2 och SUSE 4) med två värdar i SUSE 2 och fyra värdar i SUSE 4 med sammanlagda poäng för varje uppsättning. SUSE 2 gav oss läskapaciteter på 66,610 66,763 och 5,235 5,375 IOPS och skrivhastigheter på 133,373 10,608 och 4 47,629 IOPS. För SUSE med två värdar har vi samlade poäng på 49,305 3,176 IOPS läsning och 3,756 193,771 IOPS skriv. SUSE med 14,280 värdar gav oss läskapaciteter från XNUMX XNUMX till XNUMX XNUMX IOPS och skrivhastigheter från XNUMX XNUMX till XNUMX XNUMX IOPS med sammanlagda poäng på XNUMX XNUMX IOPS läsning och XNUMX XNUMX IOPS skrivning.
Genom att byta till ett stort block 128k sekventiellt test gav SUSE med två värdar oss läskapaciteter på 2.32 GB/s och 2.34 GB/s med en sammanlagd läspoäng på 4.47 GB/s. De två värdsystemen gav oss skrivhastigheter på 568MB/s och 572MB/s med en sammanlagd skrivpoäng på 1.459GB/s. SUSE med fyra värdar gav oss läskapaciteter från 2 GB/s till 2.644 GB/s med ett samlat läsvärde på 9.365 GB/s. När man tittar på skrivkapaciteten gav SUSE med 4 värdar oss kapaciteter från 353MB/s till 373MB/s med en sammanlagd skrivpoäng på 1.46GB/s
Genom att byta till ett ännu större block 1,024 4.48k sekventiellt test gav SUSE med två värdar oss läskapaciteter på 4.5 GB/s och 8.98 GB/s med ett sammanlagt 869 GB/s. Med skrivhastigheter gav SUSE med två värdar oss en kapacitet på 885MB/s och 1.755MB/s med en sammanlagd skrivkapacitet på 2.553GB/s. De fyra värdsystemet gav oss läskapaciteter från 3.295 GB/s till 11.863 GB/s med en sammanlagd läskapacitet på 372 GB/s. Med skrivkapacitet gav de fyra värdarna SUSE oss kapaciteter från 618 MB/s till 1.828 MB/s med en sammanlagd skrivpoäng på XNUMX GB/s.
Slutsats
SUSE Enterprise Storage är en Ceph-driven SDS-lösning utformad för att hjälpa företag som kämpar med de ständigt växande datamängderna. SUSE använder Ceph som bulklagring för alla typer av data, vilket är fördelaktigt eftersom Big Data genereras i flera former. Cephs flexibilitet är också ett plus eftersom det kan distribueras på mer eller mindre vad som helst, vilket innebär att företag kan utnyttja SUSE Enterprise Storage med Ceph på befintliga investeringar (för vår granskning använde vi HPE ProLiant-servrar och Apollo-chassi). Flexibilitet är ett försäljningsargument, men SUSE Enterprise Storage är också mycket anpassningsbar, självhanterande och självläkande. Med andra ord kommer administratörer som använder SUSE Enterprise Storage snabbt att kunna göra ändringar i prestanda och tillhandahålla mer lagring utan avbrott.
På prestandasidan körde vi en lagerkonfiguration eller en ojusterad konfiguration. Med Ceph finns det massor av varianter som kan konfigureras. Istället för att justera operativsystemet eller Ceph är resultaten vi ser lager som hjälper till att sätta en baslinje för prestanda. SUSE Enterprise Storage är mer anpassad för stora sekventiella överföringar så fler av våra tester lutar på detta sätt. Om en användare har ett SUSE Enterprise Storage-kluster kommer de med största sannolikhet att använda det för stora sekvenser och kommer därför att vara mer intresserade av dessa resultat. Med det sagt körde vi fortfarande 4k slumpmässiga tester för att ge en övergripande uppfattning om hur systemet fungerar även när det presenteras med något som det inte nödvändigtvis är anpassat för.
I våra slumpmässiga 4k-tester körde vi två klienter, kallade Host 1 och Host 2 i diagrammen. Vi tittade på poängen för var och en samt den kombinerade eller sammanlagda poängen. För genomströmning gav SUSE Enterprise Storage oss en sammanlagd läspoäng på 17,385 9,451 IOPS och en sammanlagd skrivpoäng på 4 18.41 IOPS. Med 33.88k fördröjningar gav SUSE Enterprise Storage oss en sammanlagd genomsnittlig fördröjning på 6,176.4 ms läsning och 4,759 ms skrivning, sammanlagda max latenser på 36.96 85.01 ms läsning och XNUMX XNUMX ms skrivning, och en sammanlagd standardavvikelse på XNUMX ms läsning och XNUMX ms skrivning.
Större sekventiella tester gjordes med 4 värdar med antingen 2 eller 4 klienter samt de sammanlagda poängen för var och en av de 2 och 4 klienterna. Vi testade sekventiell prestanda med 8k, 128k och 1024k. Föga överraskande i varje test den sammanlagda 4 klientvärden för den övergripande bäst presterande. I 8k gav SUSE Enterprise Storage oss höga sammanlagda poäng på 193,771 14,280 IOPS-läsning och 128 9.365 IOPS-skrivning. I vårt 1.459 1024 benchmark var den höga sammanlagda poängen 11.863 GB/s läsning och 1.828 BG/s skriv. Och i vårt sista stora blocksekventiella riktmärke på XNUMXk gav SUSE Enterprise Storage oss ett högt sammanlagt betyg på XNUMX GB/s läsning och XNUMX GB/s skrivning.
Fördelar
- Mycket skalbar lösning för att utöka datamängder
- Mjukvarudefinierad innebär flexibilitet vid implementering
- Erbjuder traditionellt anslutningsstöd som iSCSI
- Kan ställas in för specifika arbetsbelastningar och exakta behov
Nackdelar
- Radom IO-stöd kan förbättras för att bredda användningsfallen
- Kräver starka Linux-baserade färdigheter för distribution och hantering
Bottom Line
SUSE Enterprise Storage ger stor skala, flexibilitet och en hög nivå av anpassningsförmåga för företag som vill lagra och utnyttja Big Data.
Anmäl dig till StorageReviews nyhetsbrev