Modern virtuell skrivbordsinfrastruktur (VDI) har funnits med oss i över 15 år, och under dessa många år har vi sett den implementeras i medicinska och finansiella företag, utbildningsinstitutioner, callcenter och andra organisationer som behöver säkra datorer som kan nås från alla plats med nätverksanslutning. En stor nackdel med VDI-lösningar är att de kan vara komplicerade att implementera, hantera och underhålla; Dessutom kan VDI, på grund av sin specialiserade natur, kräva en dedikerad, specialiserad personal. På grund av dessa skäl har användningen av VDI-teknik traditionellt varit begränsad till stora organisationer med tusentals slutanvändare.
Modern virtuell skrivbordsinfrastruktur (VDI) har funnits med oss i över 15 år, och under dessa många år har vi sett den implementeras i medicinska och finansiella företag, utbildningsinstitutioner, callcenter och andra organisationer som behöver säkra datorer som kan nås från alla plats med nätverksanslutning. En stor nackdel med VDI-lösningar är att de kan vara komplicerade att implementera, hantera och underhålla; Dessutom kan VDI, på grund av sin specialiserade natur, kräva en dedikerad, specialiserad personal. På grund av dessa skäl har användningen av VDI-teknik traditionellt varit begränsad till stora organisationer med tusentals slutanvändare.
Tidigare har vi arbetat med Leostream, en leverantör av VDI-mjukvara. Vi märkte att de har slagit sig ihop med Scale Computing (en av de första leverantörerna av hyperkonvergerade infrastruktursystem) för att erbjuda en VDI-lösning som inte nödvändigtvis är inriktad på att hanteras av stora institutioner med specialiserad personal, vilket har varit normen. Istället är deras lösning fokuserad på att administreras av små och medelstora företag (SMB), statliga och lokala myndigheter och utbildningsinstitutioner med ett mindre antal användare (säg mellan 25 till 1000 datorer). Genom att fokusera på denna marknad kan de undvika många av de inneboende komplexiteten och nackdelarna som uppenbarar sig när de försöker installera och hantera en VDI-lösning utformad för stora företag och större implementeringar. Intressant nog, på grund av sin enkelhet, har den uppmärksammats av och funnit en efterföljare bland många större företag.
Mer specifikt, det som gör Scale Computing/Leostream VDI-lösningen unik är att de hävdar att ett komplett (dvs hårdvara och mjukvara) VDI-system kan ställas in på mindre än fyra timmar; med andra ord, på bara ungefär en halv dag kan du skapa ett skala-datorkluster med fyra noder och använda Leostream för att ansluta användare till virtuella skrivbord. De säger också att företag kan göra detta utan att ha en dedikerad personal för att sätta upp och underhålla miljön – och på ett kostnadseffektivt sätt.
I denna artikel kommer vi att titta närmare på denna unika VDI-lösning från Scale Computing/Leostream. Vi kommer att kontrollera om deras påståenden är sanna och verifiera att en komplett VDI-miljö kan ställas in på mindre än fyra timmar, att miljön kan hanteras och underhållas utan att använda specialiserad personal, och att det är överkomligt att distribuera en småskalig VDI-miljö använder sin VDI-lösning.
Skalberäkning
Hyperkonvergerad infrastruktur (HCI) har blivit datacentrets älskling, och dess tillväxt förväntas fortsätta och ha en sammansatt årlig tillväxttakt (CAGR) på mer än 30 % under överskådlig framtid. Vad väldigt få inser är dock att termen hyperkonvergerad infrastruktur ursprungligen myntades redan 2012 av Arun Taneja för att beskriva Scale Computings HC3-plattform.
Scale Computing grundades 2006 och under de första sex åren var de en innovatör inom utskalad lagring designad för SMB-marknaden. Sedan började IT-världen vända; CPU:erna blev kraftfullare, RAM-minnet blev billigare, nätverket blev snabbare och lagringen blev tätare. Med dessa faktorer i åtanke tog Scale Computing det djärva draget att utnyttja dessa ändringar och lade till en hypervisor till sina lagringsnoder – och därmed utvecklades en av de första HCI-plattformarna. De faktorer som gör Scale Computing unika är att de är djupt fokuserade på SMB och distribuerade företagsmarknaden och att de lagt till Kernel-based Virtual Machine (KVM), en välkänd och ansedd hypervisor, till sin utskalningsplattform snarare än lägga till ett SDS-lagringssystem till en hypervisor.
Ett Scale Computing HCI-kluster består av mellan 3-8 HC3 hyperkonvergerade apparater och en Ethernet-switch. Vid behov kan flera kluster kopplas samman och hanteras från en central portal. Som nämnts ovan har var och en av dessa apparater en KVM-hypervisor och lagringsmotor på sig. HC3-klustret hanteras via en decentraliserad, distribuerad arkitektur som gör att någon av noderna kan gå offline utan att det påverkar driften eller hanteringen av klustret.
HC3-noder kommer som antingen 1U- eller 2U-servrar byggda på råvaruhårdvara. De finns tillgängliga i olika konfigurationer, allt från billiga apparater med 2.88 TB obearbetad lagringskapacitet (1.44 TB användbar) och 96 GB RAM med Intel Xeon E-2124-processorer, till högpresterande apparater med 155.52 TB obearbetad lagringskapacitet (77.76) TB användbar) och 2304 GB RAM med en 96 logisk kärna Intel-processor. Genom att ha en apparatmodell kan Scale Computing effektivt hålla sitt system överkomligt och, ännu viktigare, de kan säkerställa 100 % hård-/mjukvarukompatibilitet. Dessutom gör detta att Scale Computings supportorganisation (som vi blev mycket imponerade av) kan arbeta med den konfiguration du har i din miljö.
Vi fann att processen att installera ett HC3-kluster låg inom ramen för Scale Computings filosofi: att hålla saker och ting så enkla som möjligt. Vi rack tre HC3-serien HC1250D-noder, kopplade 10Gb Ethernet till en switch, kopplade ett tangentbord, en mus och en bildskärm till en av noderna, slog på den och svarade på några konfigurationsfrågor. Vi behövde inte installera någon programvara eftersom den var förinstallerad på apparaten.
När systemet väl hade startat fick vi en guide som guidade oss genom stegen som behövs för att konfigurera nätverksinställningar och kommunikation mellan noder och kluster. Vi slog sedan på de andra två noderna och följde liknande steg för att få dem att gå med i klustret.
Sammantaget kunde vi ställa in och konfigurera vårt HC3-kluster på mindre än 15 minuter. Vi tyckte att HC3-användarhanteringen var enkel och okomplicerad och tror att alla med genomsnittliga datorkunskaper skulle kunna klara det utan några svårigheter. Om du däremot har problem, inkluderar Scale Computing en entimmessession för nya användare för att guida dem genom installation, konfiguration och hantering av ett HC3-kluster.
När du lägger till ytterligare en nod till ditt HC3-kluster lägger den till både lagrings- och beräkningskapacitet till klustret. För att göra det, placerar du helt enkelt noden i racket, kabelar upp den och sätter på den. Noden kommer automatiskt att meddela sig själv för klustret och sedan, efter några klick på HC3-klusterhanteringsskärmen, kommer den att läggas till i klustret, och lagringen och beräkningen kommer att börja ombalanseras för att dra nytta av de extra resurserna.
Nätverk är ofta en smärtpunkt för HCI-lösningar, men med HC3-klustret fann vi det enkelt, intuitivt och okomplicerat. Det virtuella nätverket för virtuella datorer (VM) på ett HC3-kluster använder en virtuell brygga för att ansluta de virtuella datorerna till det externa nätverket och ställs in automatiskt. Du kan konfigurera den för att vara mer sofistikerad, men vi tror att standardnätverkskonfigurationen kommer att fungera bra för de flesta användare som Scale Computing riktar sig till.
Du kan övervaka HC3-klustret och de virtuella datorerna som finns på det från en webbaserad hanteringsskärm, som du kan komma åt genom att ansluta en webbläsare till IP-adressen eller DNS-namnet för valfri nod i klustret. Vi kände att hanteringsskärmen presenterar värdens och virtuella datorers hälsa på ett sådant sätt att en allmän IT-proffs kunde använda den för klustrets dagliga underhåll utan några svårigheter.
Tekniken bakom HC3-klusters lagring är deras egenutvecklade motor som kallas SCRIBE (Scale Computing Reliable Independent Block Engine). SCRIBE aggregerar diskarna i klustrens noder till en enda lagringspool. Data som finns i denna pool skyddas genom att använda ett bredrandigt, speglat lagringsschema som gör att alla noder eller diskar kan gå offline utan att påverka klustrets prestanda. Om ett problem uppstår använder SCRIBE en "många-till-en"-återbyggnadsprocess när det väl är löst. I den här ombyggnadsprocessen skickar många lagringskontroller och enheter data till ersättningsenheten för att fylla på den med data, vilket gör ombyggnadsprocessen mycket snabb och minskar belastningen på en enskild nod i klustret.
Vi frågade Scale Computing om att använda raderingskodning eller olika RAID-scheman för dataskydd, och de sa att de ansåg att de hellre skulle ha sina CPU:er som servar virtuella datorer än att ta itu med den extra komplexiteten. Dessutom gjorde billig lagring de marginella fördelarna med lagringseffektivitet omtvistade.
På beräkningssidan använder Scale Computing deras egenutvecklade HyperCore-automations- och orkestreringsteknik för att hålla applikationerna igång. Denna teknik använder maskinintelligens för att upptäcka och korrigera problem med infrastrukturen automatiskt. Genom att systemet korrigerar problem förenklas administrationen av systemet och IT-personalen kan fokusera på viktigare frågor. På grund av sin enkelhet och intuitiva hantering har Scale Computing-system hittat fotfäste i ett brett spektrum av vertikaler från kanten till datacentret.
Efter att vi skapat vår HC3-nod skapade vi CentOS 7 och Windows 10 virtuella datorer. Processen var likartad i båda fallen; vi använde HC3-konsolen för att skapa den virtuella datorn, pekade på en installations-ISO och installerade den precis som vi skulle ha gjort på en fysisk maskin. Den virtuella datorn krävde inte att vi skulle installera några speciella verktyg, agenter eller göra något speciellt för nätverket. När väl dessa virtuella datorer har gjorts kan de antingen användas som fullständiga kloner eller som mallar för andra virtuella datorer. Den verkliga kraften bakom Scale Computings lösning är att använda dem som mallar; klonerna från mallen har ett redirect-on-write-schema där varje klon bara kommer att konsumera diskutrymme när en skrivning äger rum, vilket gör att kloner kan skapas mycket snabbt. Till exempel kommer en 64 GB Windows 10 VM med 30 barn (varje barn har 5 GB skrivkapacitet) endast att ta upp 214 GB utrymme (64 GB + (5 GB x 30)) jämfört med 30 hela kloner som skulle ta upp 1920 64 GB utrymme (30 GB) x XNUMX).
Leostream
Leostream grundades 2002 och var en tidig aktör på VDI-marknaden och är något unik eftersom dess anslutningsmäklare är leverantörsneutral; dvs det fungerar på ett brett utbud av lokala och offentliga molnbaserade stationära datorer. Leostream har också det största utbudet av stödda protokoll som vi har sett, som stöder allt från RDP och HTML5 till HP RGS. Denna agnosticism har gjort det möjligt för Leostream att överleva shakeouts och sammanslagningar som har konsumerat andra aktörer på detta område. Med Leostream får du välja vilka teknologier som är rätt för dig, och det är detta som gör att det passar med Scale Computing så attraktivt: du får en infrastruktur som byggdes från grunden för SMB-marknaden kopplad till en anslutningsmäklare som designades att vara så flexibel som möjligt.
Leostream Connection Broker kan installeras på en CentOS eller RHEL 7.x basavbildning, och basavbildningen kan köras på en fysisk maskin, som en virtuell dator eller i molnet. Utöver operativsystemkraven kräver anslutningsmäklaren 2 GB RAM och 20 GB diskutrymme. För tillförlitlighet och lastbalansering kan du installera flera Leostream Connection Brokers. För vårt system installerade vi Leostream på en CentOS 7 VM.
Leostream Connection Broker inkluderar en PostgreSQL-databas, som är tillräcklig för många distributioner. Men om du ska ha många användare som loggar in samtidigt, vill du prata med Leostream om att använda en extern PostgreSQL- eller MS SQL Server-databas.
Vi var nöjda med hur enkelt det var att installera och konfigurera Leostream Connection Broker på vårt Scale Computing-system. Allt vi behövde göra var att ange ett curl-kommando från bash-skalet på vår CentOS VM, och på bara några minuter laddade den ner bitarna och installerade anslutningsmäklaren automatiskt. Vi gick sedan till en webbläsare och angav IP-adressen till den virtuella datorn som vi hade installerat anslutningsmäklaren på. Sedan, efter att vi loggat in som admin, ledde en guide oss genom licens- och konfigurationsprocessen. All integration med Scale Computing-systemet skedde sömlöst. Leostream har en gateway som kan läggas till för att ge fjärråtkomst för användare som inte har nätverksåtkomst till datacentret (dvs. virtuella datorer på HC3) och för att ge klientlös åtkomst med den inbyggda HTML5 RDP, VNC och SSH viewer, men vi valde att inte installera och använda det.
Vi använde sedan Leostream-konsolen för att skapa en pool av virtuella skrivbord, och vi använde Windows 10 för mallen för poolen. På denna virtuella dator installerade vi Leostream-agenten och de applikationer som användarna skulle behöva. Poolen som vi skapade hade högst 35 stationära datorer och minst tre gratis stationära datorer. Genom att sätta en miniminivå garanterade vi att nya användare inte skulle behöva vänta medan ett nytt skrivbord instansierades.
Det tog bara några minuter för de tre första skrivborden att skapas och startades automatiskt på olika noder i klustret.
För att testa det virtuella skrivbordet kopplade vi till det från tre olika källor: vårt befintliga skrivbord, en tunn klient och en surfplatta.
Leostream har en klient som heter Leostream Connect som kan användas för att ansluta till ett virtuellt skrivbord från ett Windows-, Linux- eller MacOS-system. Vi installerade Leostream Connect på en bärbar dator från Dell som kör Windows 10, och installationen av klienten gick utan problem. Förutom att specificera vilka alternativ vi ville att klienten skulle utföra, var allt som krävdes för vår räkning för att ansluta till vårt virtuella skrivbord att ange anslutningsmäklarens adress.
Vi kopplade till vårt virtuella skrivbord från vår bärbara Windows 10-dator och testade hur väl det virtuella skrivbordet betedde sig genom att använda olika kontorsapplikationer, strömma videor och spela musik. Det virtuella skrivbordet var väldigt lyhört i alla våra tester, och vi fann att vi till och med kunde spela upp videor i bakgrunden medan vi arbetade med Office-dokument utan att några videorutor tappade eller att våra Office-applikationer blev långsammare. Vi trodde inte att RDP skulle vara så presterande, men RDP kommer att räcka för många användningsfall och förenkla klientvalet eftersom RDP ingår i de flesta VDI-klienter.
För vårt nästa test kopplade vi till det virtuella skrivbordet med en Atrust t176L VDI-klient, en liten formfaktors tunn klient med fyra USB- och två DisplayPort-portar, som drivs av en Intel-processor som kör ett skräddarsytt Linux-operativsystem. Vi använde RDP-protokoll under våra tester med den här enheten. Den tunna klienten ansluts utan några problem; vi hade samma virtuella skrivbordsupplevelse som vi hade med Leostream Connect från vår bärbara dator och blev förvånade över att RDP fungerade så bra.
Eftersom en av fördelarna med VDI är möjligheten att ansluta till ditt skrivbord från en mängd enheter, för vårt sista test kopplade vi till vårt virtuella skrivbord från en Lenovo YT3-X90F/YOGA3 Tablet Pro. För att göra detta tog vi upp webbläsaren Chrome på vår surfplatta och angav vår anslutningsmäklares adress i adressfältet. Leostream är ganska smart på det sätt som anslutningen görs eftersom utan Leostream Gateway i spel var detta inte en HTML5-anslutning. Connection Broker tillhandahåller själv en webbportal för användare. Mäklaren skulle då, som standard, starta Remote Desktop-appen på din surfplatta för att ansluta dig till ditt skrivbord.
Med hjälp av surfplattan kunde vi skriva in text från enhetens popup-tangentbord på skärmen och Bluetooth-tangentbord som vi hade parat med surfplattan. Applikationerna var lyhörda och användbara, men vi skulle naturligtvis inte vilja använda en surfplatta med så liten skärm för tung dokumentredigering under normala omständigheter. För snabb åtkomst till skrivbordet när du är på språng skulle en surfplatta vara väldigt bekväm.
Hantering av virtuellt skrivbord
För profilhantering på Windows-datorer föreslår Scale Computing/Leostream att du använder FSLogix, som nu ägs av Microsoft och är gratis med olika utgåvor av Windows 10.
En av funktionerna som vi gillade i Leostream är möjligheten att ställa in tidspolicyer som anger när virtuella skrivbord ska slås på och av. Detta tillför inte bara ett lager av säkerhet, det frigör också resurser under lediga timmar för andra uppgifter som datautvinning eller rapportgenerering.
Även om det var opraktiskt för oss att sätta upp ett system med hundratals användare, försåg Scale Computing/Leostream oss med en fallstudie angående deras VDI-lösning. Paris Community Hospital i Illinois har en IT-personal på fyra för att hantera allt från servrar till stationära datorer. Den befintliga personalen kunde distribuera och hantera 125 virtuella Windows 10-datorer med VDI-lösningen utan att lägga till någon ytterligare personal – och de kunde minska tiden för att gå ombord på en ny användare från en vecka till två timmar. Dessutom har slutanvändarnas acceptans varit utmärkt eftersom läkare och sjuksköterskor kan logga in säkert och tillförlitligt var som helst med nätverksanslutning. Detta bekräftar vårt påstående att Scale Computing/Leostream är tillräckligt intuitivt för att administreras av en allmän IT-personal.
Fallstudien var intressant ur användbarhetssynpunkt, men vi ville få en uppfattning om hur många virtuella skrivbord som kunde köras på ett Scale Computing-kluster. Scale Computing/Leostream gav oss resultaten från ett LoginVSI-test som de hade kört mot ett HC1250D-kluster med fyra noder. Varje nod i klustret var en apparat fylld med två Intel Xeon Silver 4114-processorer @ 2.20 GHz och hybridlagring med både SSD- och HDD-diskar. Totalt hade HC1250D-klustret åtta processorer och 1.47 TB RAM. Var och en av de virtuella skrivborden hade två vCPU:er och 3 GB RAM, körde Windows 10 och hade Office 2016 Pro Plus installerat. LoginVSI VSlmax-testet visade att klustret med fyra noder kunde rymma 400 stationära datorer innan användarens upplevelse skulle börja försämras.
Våra sista tankar
I den här artikeln ville vi se om den kostnadseffektiva, småskaliga VDI-lösningen från Scale Computing/Leostream realistiskt kunde ställas in och vara fullt driftsatt på en halv dag eller mindre och hanteras av en allmän IT-personal. Det korta svaret är ja.
Vi kunde konfigurera ett skala-kluster med tre noder på mindre än 15 minuter och sedan installera Leostream Connection Broker med ett enda curl-kommando. Sedan lät vi några av våra medarbetare utan VDI-erfarenhet titta på vad som krävdes för att konfigurera och använda Scale Computing-systemet och Leostream Connection Broker; de var överens om att det var tillräckligt intuitivt för att det skulle kunna hanteras av en allmän IT-personal, med mycket liten oro.
Efter att ha tittat på den totala kostnaden för hårdvara och mjukvara, och dividerat med antalet VDI-användare LoginVSI uppgav att infrastrukturen kunde stödja, fann vi att kostnaden per plats för Leostream är $175 per användare för en evig licens, med $35 per år för support och underhåll. Så den totala kostnaden per plats skulle vara $210 första året och $35 därefter. Scale Computing kan hjälpa dig att anpassa klustret till rätt storlek för din användarbas. Du kan sedan dividera antalet användare med kostnaden för klustret för att få kostnaden per användare. Siffrorna som vi körde med Scale Computing visade att VDI-lösningen som vi satt ihop levererar en säker, SMB-färdig VDI-lösning till en rimlig kostnad.
Scale Computing kan nås på:
www.scalecomputing.com
[e-postskyddad]
Leostream nås på:
www.leostream.com
[e-postskyddad]
Ladda ner en PDF-version av denna rapport
Denna rapport sponsrades av Scale Computing. Alla åsikter och åsikter som uttrycks i denna rapport är baserade på vår opartiska syn på produkten/produkterna som övervägs.