Hem Företag Scale Computing: Packa upp och kör på nolltid

Scale Computing: Packa upp och kör på nolltid

by Harold Fritts

Scale Computing säger sig ha en lösning för HCI som kan installeras på några minuter, sättas i produktion på mindre än en timme och är specialbyggd för kantplaceringar. Scale Computing, som är ledande inom edge computing, virtualisering och hyperkonvergerade lösningar, har designat ett system som passar perfekt vid kanten och kan installeras på några minuter. StorageReview bestämde sig för att ta upp dem på uppgiften och dokumentera stegen från uppackning till uppstart för att se om det är så enkelt som de påstår.

Scale Computing säger sig ha en lösning för HCI som kan installeras på några minuter, sättas i produktion på mindre än en timme och är specialbyggd för kantplaceringar. Scale Computing, som är ledande inom edge computing, virtualisering och hyperkonvergerade lösningar, har designat ett system som passar perfekt vid kanten och kan installeras på några minuter. StorageReview bestämde sig för att ta upp dem på uppgiften och dokumentera stegen från uppackning till uppstart för att se om det är så enkelt som de påstår.

Scale Computing skickade ett 3-nodssystem, mailade tillhörande datablad och upprättade ett supportsamtal för att gå igenom installationen om vi behövde det. Detta är samma process som en typisk kund skulle uppleva när de köper ett Scale Computing HyperCore-kluster.

skala beräkning 3-nodskluster

SC//HyperCore

SC//HyperCore eliminerar behovet av traditionell virtualiseringsprogramvara, katastrofåterställningsprogramvara, servrar och delad lagring, och ersätter dessa med ett helt integrerat, högtillgängligt system för att köra applikationer. Med hjälp av patenterad HyperCore™-teknik identifierar, mildrar och korrigerar den självläkande plattformen automatiskt infrastrukturproblem i realtid, vilket gör det möjligt för applikationer att uppnå maximal drifttid. När användarvänlighet, hög tillgänglighet och TCO spelar roll kan Scale Computing HyperCore på NUC 11 (HE151) vara infrastrukturplattformen för din organisation.

Det första vi märkte under unboxningsceremonin var storleken på HE151. Dessa saker är små! Baserat på Intel Next Unit of Computing (NUC) 11-plattformen mäter chassit 117 x 112 x 54 [mm] (LxBxH). Kolla in specifikationerna för Scale Computing HyperCore på NUC11 nedan.

SC//Platform Setup and Configuration

När du packar upp Scale Computing Platform är det viktigt att hålla nodens serienummer och tillhörande mjukvarunyckel tillsammans eftersom de kommer att behöva matcha under den initiala konfigurationen för klustret. Genom att följa installationsdatabladet förbereder du dig för nästa steg i installationsprocessen.

Den initiala installationen är enkel. Placera noderna på önskad plats, anslut till strömmen och anslut två Ethernet-kablar. De två Ethernet-kablarna ger redundans i händelse av ett switchfel eller annan katastrof. Noderna startar inte förrän strömknappen trycks in på framsidan av enheten. Medan servrarna initieras, leta reda på korten med serienummer och programnycklar för varje nod.

Två HDMI-anslutningar finns tillgängliga på baksidan av enheten. Anslut en kabel till en av HDMI-portarna. Förhoppningsvis finns det en bildskärm i andra änden av den kabeln. Efter ungefär en minut kommer servern att fråga efter inloggningsinformationen. Det är viktigt att notera att inloggning i systemet via kommandoraden endast är nödvändigt under den första installationen.

När noderna har initierats kommer åtkomsten att ske via Cluster Manager GUI. Standardinloggningen är admin/admin. När du väl är inloggad frågar följande uppmaning om IP-adressen för åtkomst till Scale UI (information från Scale Computing). Ange sedan nodens IP-adress, följt av uppmaningar om hårdvarans serienummer och mjukvarunyckel. Bindestreck är valfria när du matar in nyckeln i noden.

Det var allt för nod 1. Följ nu samma steg på nod 2 och nod 3.

Efter att alla tre noderna har initierats loggar du tillbaka till varje system för att ange kommandon för att initiera noden och klustret. När du är inloggad anger du "sudo scnodeinit" för att initiera noden. Det tar ungefär en minut för detta kommando att slutföra. När det kommandot har slutförts anger du det andra kommandot, "sudo scclusterinit" för att instruera noden att gå med i klustret när de andra noderna är aktiva. Klusterkommandot tar cirka fem minuter att slutföra för en liten installation. En större klustermiljö kommer att ta längre tid att initiera.

När det har initierats kommer klustret att vara tillgängligt via Scale Computing UI. Logga in på Scale Computing UI med samma inloggningsinformation för noderna (admin/admin). Vid denna tidpunkt är klustret redo att ladda det önskade operativsystemet. Om du installerar Windows Server 10 installeras lämpliga drivrutiner automatiskt.

Scale Computing Cluster Manager

Scale Computing har gjort klusterhanteraren lika enkel att använda som att installera och skapa klustret. Det finns två metoder för att hantera Scale Computing Cluster: lokal klusterhanterare och Fleet Manager molnåtkomst. Den lokala klusterhanteraren är ett grafiskt användargränssnitt genom det installerade klustret. Vi hade bara ett lokalt kluster med tre noder, så detta skulle vanligtvis vara metoden för att hantera en liten installation som vår.

Fleet Manager är ett molnalternativ för att hantera kluster installerade på avlägsna platser och hanteringsverktyget för att komma åt installerade kluster var som helst. Fleet Manager nås via Scale Computing-molnet.
När du köper ett system från Scale Computing kommer det att vara nödvändigt att skapa ett konto på Scale Edge för support, öppna biljetter, åtkomst till programvara etc. Den inloggningsinformationen används för att komma åt SC//Fleet Manager och är specifik för din installerade kluster.

Lokal klusterhantering

Följande är skärmdumpar från vårt lokala kluster. Åtkomst till GUI ges genom att ansluta till IP-adressen för det lokala klustret, vanligtvis från samma nätverk. Gränssnittet är intuitivt och lätt att använda.

Detaljerna för varje nod i klustret visas för enkel identifiering. Varningsmeddelanden är markerade längst upp till höger på displayen, tillsammans med användarnamnet och möjligheten att logga ut. Det finns till och med ett alternativ att chatta med ScaleCare Support direkt från hanteringsfönstret.

Eftersom vår installation var ganska grundläggande, kanske informationen inte är alltför spännande, men det här är ett värdefullt verktyg i en produktionsmiljö. Visningsalternativ är tillgängliga längst ned till vänster på skärmen för att få hälsodetaljerna för klustret och noderna.

Skärmen är delad och visar antingen RAM- eller DISK-information i den övre halvan. När RAM-vyn är vald, kommer den övre sektionen också att visa den specifika virtuella datorn med allokerade, använda och lediga minnesdetaljer. Om du dubbelklickar på den virtuella datorn i den övre delen kommer du till den virtuella maskinen och det installerade operativsystemet.

Avsnittet nedan är baserat på konfigurationen som är specifik för den virtuella maskinen. Tvärs över mitten av skärmen finns den globala åtkomsten till virtuella datorer i det klustret. Detsamma gäller för ikonerna längst ner till vänster på den nedre delen av skärmen. Ikoner i varje VM-fönster påverkar endast utdata för den virtuella datorn.

Om du väljer kugghjulsikonen visas konfigurationerna för alla virtuella datorer i klustret.

Det är möjligt att välja verktyg specifika för den enskilda noden och komponenterna och se klustret. Genom att välja kugghjulsikonen i VM-vyn får du tillgång till filsystemet och det installerade operativsystemet, med möjlighet att mata ut specifika diskar. Beroende på konfigurationen av varje nod finns det möjlighet att bläddra igenom varje nod för att få filsystemdetaljer. Stackikonen ger dig information om eventuella ögonblicksbilder och alternativ för att göra en omedelbar ögonblicksbild.

Om du ändrar vyn från RAM till DISK i den övre delen av hanteringsfönstret ändras visningen i det avsnittet. Det finns också ett alternativ att utföra funktioner över alla noder i klustret samtidigt genom att klicka på ALLA virtuella datorer och välja åtgärd från rullgardinsmenyn.

Om du väljer kugghjulsikonen i mittfältet får du fler alternativ som är specifika för klustret. Vart och ett av dessa alternativ kommer att ge mer detaljer. Skärmen nedan visar klusterloggen.

Att välja en av ikonerna som är specifika för den virtuella datorn gör det möjligt att ändra nodens skärmutdata utan att påverka skärmarna över det återstående klustret. Genom att välja kugghjulsikonen på en viss virtuell dator får du möjlighet att utföra tester, slå på strömmen, kontrollera diskmål etc.

Att flytta en virtuell dator är snabbt och enkelt

Att flytta en virtuell dator är lika enkelt som att dra och släppa. Välj mätarikonen i noddisplayen. Ikonerna längst ner på nodskärmen ändras och ger alternativ för användarunderhåll, flytta en virtuell dator, radering av en virtuell dator, kloning och ögonblicksbilder.

Välj flyttikonen (som ser ut som en stack med en del som sticker ut till höger) för att flytta en virtuell dator. Om du väljer det ändras den övre halvan av managern och tillhandahåller den tillgängliga noden för att flytta den specifika virtuella datorn. Välj noden för att flytta den virtuella datorn.

Ett popup-fönster visas längst ned till höger med information om flytten.

När den virtuella datorn har flyttats kommer displayen att visa den nya platsen med detaljer för den noden.

Att flytta tillbaka den virtuella datorn till den ursprungliga platsen är lika enkelt.

Displayen visar de ändringar som gjorts när den virtuella datorn har flyttats till den valda platsen.

Det finns flera alternativ för att göra livet enkelt med den virtuella datorns nodvy. Behöver du göra en klon av en virtuell dator? Välj ikonen bredvid "kameran" för att visa en popup med alla lämpliga fält för att klona en virtuell dator.

Snapshots är lika enkelt. Klicka på kameran och ta en ögonblicksbild. Popup-fönstret ger en möjlighet att ge ögonblicksbilden en etikett.

Det går snabbt och lätt att redigera den virtuella datorn. Om du väljer skiftnyckeln visas en redigeringsruta för att ändra VM-parametrar, namn, starttyp, etc.

Om du väljer växeln i VM-vyn får du alternativ för att lägga till diskar och konfigurera nätverksportar.

Klicka på ikonen som ser ut som en extern disk och ange nödvändig information för att lägga till en enhet.

Den sista ikonen i VM-nodvyn ger alternativ för VM-specifika kommandon.

Ett popup-fönster tillhandahålls för att göra exporten av en virtuell dator smärtfri.

Ikonen som ser ut som en ruta med en pil som pekar på den på vänster sida av mittfältet öppnar ett popup-fönster som tillhandahåller inmatningsfält som är nödvändiga för att importera HyperCore VM.

Kontrollcentermenyn kan nås genom att välja kugghjulsikonen i mittfältet. Den här delen av den lokala klusterhanteraren tillhandahåller loggar, villkor, programuppdateringar, etc.

Skärmen är alfabetisk, med det första alternativet är "Klusterloggen." Alla händelser kommer att visas i detta fönster. Händelserna som visas är från några tester vi gjorde tidigare. Vi gjorde ett påtvingat strömavbrott för att se vad klustret skulle göra med virtuella datorer. Detaljerna kommer att ges längre ner i artikeln.

"Villkor" kommer att visa alla ovanliga tillstånd inom konfigurationen eller klustret.

"Kontroll" gör att hela klustret kan stängas av med ett enda klick. Scale Computing begär att de ska kontaktas innan de stängs av eftersom klustret också kommunicerar med Scales molntjänster för fjärrhantering och support.

Att välja "Media" ger möjlighet att se vilka system som är laddade och körs och även möjlighet att ladda upp nya ISO:er.

Kunder med distribuerade fjärrkluster kunde nås och hanteras från den här skärmen.

Skärmen "Fjärrsupport" länkar till stöd för Scale Computing för att ansluta och felsöka kluster.

Alla systemscheman skulle dyka upp på skärmen "Schedules".

Systeminställningar visas på den här skärmen.

SSL-certifikat kan hanteras från den här skärmen.

Om Scale Computing har en uppdatering för klustret, kommer den att visas på den här skärmen förutom en prompt "uppdateringar tillgängliga" nära versionsnumret högst upp på skärmen. Det sparar admintid på att söka efter tillgängliga uppdateringar.

Proaktivt når klustret ut till Scale Computing för att validera att klustret kör den senaste utgåvan, vilket säkerställer att miljön har tillgång till de senaste funktionerna och förbättringarna tillsammans med bugg- och säkerhetsfixar. Med uppdateringar som tillämpas på ett rullande sätt, är tillämpningen av dessa en icke-händelse för användaren och eventuella anslutningar till arbetsbelastningarna som körs på klustret.

Om det skulle uppstå behov av att lägga till eller ändra användarinformation kan det göras från skärmen "Användarhantering".

Det är också möjligt att kontakta Scale Computing Support från denna meny. Detta inkluderar alternativ för att öppna biljetter som kund eller partner, eller om ett omedelbart svar behövs visas numret för att ringa support. Det finns länkar till dokumentation och tillgång till användargemenskapen.

Scale Computing använder communitykonceptet mycket effektivt. Det finns en separat webbplats där användare kan dela information, be andra om hjälp, kontrollera konfigurationsalternativ och mer. Detta är ett utmärkt verktyg för alla som distribuerar dessa kluster.

Vad händer om en nod misslyckas i ett skalaberäkningskluster?

Vi ville se hur klustret skulle hantera en abrupt strömcykel, så kontakten drogs ut på en av noderna. Vi dokumenterade händelseförloppet, med systemmeddelanden från strömavbrott till strömåterställning.

Efter att kontakten drogs ut på TestVM2-noden ökade larmräknaren (som finns i det övre högra hörnet av displayen) med ett, och ett popup-fönster längst ner till höger indikerade ett problem med redundans.

När du tittar på klusterloggen i Control Center indikerade felmeddelanden en oåtkomlig nod med meddelanden, kritiska och varningsmeddelanden. SC//HyperCore-gränssnittet visade också nya meddelanden i det nedre högra hörnet. Dessa popup-fönster skulle visas oavsett den aktuella skärmen.

Nodvyn överst på chefsskärmen indikerade att den virtuella datorn var offline. Felräknaren i det övre högra hörnet ökade också, vilket indikerar ytterligare fel.

Infolarmen raderades för att endast ge aktuella larm för att fokusera på aktuellt problem.

Denna vy visar att den virtuella datorn från den misslyckade noden hade flyttats till en av de andra noderna. Detta var en automatiserad process som inte krävde några ingrepp. Resurserna från TestVM1 har uppdaterats för att återspegla belastningar, diskanvändning och tillgänglighet.

Klusterloggen uppdaterades också för att indikera den nya platsen för den virtuella datorn från den misslyckade noden, som visas som ett informationslarm eftersom den virtuella datorn var igång igen.

Nu när den virtuella datorn hade startat och var tillgänglig för användare, kopplades den "misslyckade" noden in och sattes på.

När noden väl var tillgänglig indikerade klusterloggen att den virtuella datorn skulle gå med i det ursprungliga klustret.

Noden visas som tillgänglig via bakplanet och larmen raderades från indikatorerna överst på chefsskärmen. Popup-fönsterna rensades också.

Detta är en större vy av informationen som popup-fönsterna reflekterade när den virtuella datorn försökte återansluta till den föredragna noden.

Displayen visar att noden är online, men den virtuella datorn har inte migrerats.

När den virtuella datorn hade återvänt till den önskade noden uppdaterades skärmen med plats och resurserna återställdes till det normala. Loggen indikerar också att den virtuella datorn hade återvänt till den föredragna noden.

Och allt är tillbaka till sitt ursprungliga skick.

Det viktigaste med denna sekvens är att hela processen var automatisk. Ingenting konfigurerades på klustret för att tvinga fram en flytt för den virtuella datorn från en misslyckad nod. Scale-klustret tog hand om alla processer från avstängning till start och omstart.

Om det är nödvändigt att stänga av en nod ber Scale Computing att support kontaktas innan systemet stängs av, vilket skickar ett larm till fjärrsystemet.

Den lokala klusterhanteraren ger massor av information och den övergripande konfigurationen. I händelse av ett fel ger klusterhanteraren omedelbara detaljer och automatiska åtgärder som vidtas av klustret.

SC// Fleet Manager Fjärrhantering

Scale Computing Fleet Manager är det första molnbaserade övervaknings- och hanteringsverktyget byggt för hyperkonvergerad kantberäkningsinfrastruktur i stor skala. SC//Fleet Manager gör det enkelt att säkert övervaka och hantera en hel flotta av kluster som kör Scale Computing HyperCore. För IT-chefer med flera kluster kommer underhållstiden att minska med 50 procent eller mer med den enkelhet som är designad i denna plattform.

SC//Fleet Manager konsoliderar realtidsförhållanden och resursutnyttjande för alla SC//HyperCore-kluster. SC//Fleet Manager eliminerar behovet av att navigera till individuella kluster UI, vilket ger chefer möjlighet att titta på varje kluster från en enda glasruta.

SC//Fleet Manager-funktioner:

  • Kontrollera anslutning och hälsa med en snabb blick från vilken webbläsare som helst på vilken enhet som helst, även mobil
  • Borra ner i ett specifikt kluster för att diagnostisera och åtgärda eventuella problem
  • Se CPU- och diskanvändning i realtid på kluster-, nod- och VM-nivåer
  • Gå ner till HyperCore-inloggningen för ett kluster
  • Se den aktuella firmwaren för alla kluster med ett ögonkast
  • Tillämpa en uppgradering av firmware till ett kluster med ett enda klick från SC//Fleet Manager
  • Övervaka firmwareuppgraderingar i realtid för kluster över hela flottan från en enda glasruta

SC//Flottschef i aktion

Att logga in på den molnbaserade SC//Fleet Manager ger detaljerad information om alla kluster globalt. Utseendet och känslan av GUI liknar den lokala chefen.

Det finns ikoner längst ner på skärmens vänstra sida för att komma åt klustret, utföra specifika hanteringsfunktioner och lägga till användare och organisationsdetaljer.

Detta är klustervyn med hälsodetaljer och minnes-, disk- och CPU-användning.

Genom att klicka på hastighetsmätarikonen ändras displayen till en instrumentpanelsvy som visar kluster- och nodhändelser.

Nodspecifika funktioner nås genom att välja kontaktikonen.

Genom att klicka på användarikonen visas en skärm där du kan lägga till eller ändra användarkonton.

Kugghjulsikonen visar organisationsinformationen.

Längst upp till höger på skärmen finns det ett alternativ att chatta med support eller se dokumentation utan att logga in i ett annat system. Den andra ikonen loggar ut användaren från SC//Fleet Manager-verktyget.

SC//Plattforms strömförbrukning

Detta SC//HyperCore-kluster körs på den kompakta och effektiva Intel NUC 11-plattformen och är mycket strömvänlig. Med tanke på de flexibla distributionsalternativen för Scale Computing-klustret, mätte vi strömförbrukningen från klustret vid start och normal drift med hjälp av vår XiTRON XT2640 effektanalysator.

Analysatorn visade att effekten ökade när varje nod slogs på under startprocessen. Vi fördröjde att trycka på strömknappen på varje nod med cirka 5 sekunder för att se det ökade draget från varje nod. Analysatorn mätte ett toppeffektförbrukning på under 150 watt under den snabba startprocessen innan dess baslinjeförbrukning minskade.

Med 3-nodsklustret online och våra 3 virtuella datorer aktiva förblev den totala strömförbrukningen på klustret mellan 90 och 115 watt. Detta är en bråkdel av vad en enda server i full storlek skulle förbruka, vilket gör dessa kompakta noder utplacerbara för praktiskt taget alla platser.

Fråga Scale Computing Community

Scale Computing har en mycket aktiv användargemenskap. Så mycket att det finns en dedikerad webbplats för användare och prenumeranter att ställa frågor, lägga upp resolutioner, få råd och interagera med andra Scale Computing-användare. Om svaret inte är tillgängligt på community-webbplatsen finns det naturligtvis alltid support dygnet runt.

Community-webbplatsen är tillgänglig på Community.scalecomputing.com. Att registrera sig är också enkelt. Registrerade användare kan kontrollera kunskapsbasen från hemsidan, öppna ett ärende eller kontrollera status, få onboarding-hjälp, komma åt användarforum och ladda ner programuppdateringar. Scale Computing har lagt ner mycket arbete på att upprätthålla denna typ av åtkomst.

Harrison Steel Castings Company – En tidig adoptör

När man överväger var små HCI-kluster kan tillföra värde, bubblar kantapplikationer omedelbart till toppen. Kantmarknaden är het just nu, med så många möjligheter för en liten och enkel lösning att installera och använda. Detaljhandeln är top of mind, med säkerhet förmodligen en nära tvåa. Men hur långt ner på listan skulle ett stålgjutningsföretag landa i vårt kantscenario?

ange Harrison Steel Castings Company. Scale Computing-kund, Harrison Steel Castings Company, gick med på att ägna några minuter åt att erbjuda sin syn på deras erfarenhet av Scale Computings HyperCore-lösning.

Som namnet antyder, är Indiana-företaget i branschen för att producera precisionskonstruerade stålgjutningslösningar. Var och en av dessa gjutgods kan ta veckor att producera, med felaktiga gjutgods måste skrotas i sin helhet om de bedöms vara defekta.

Stålgjutningar är inte så enkla som de kanske låter. Det finns stadier i processen som kräver specifika vibrationer, tillsats av uppmätt smält och temperaturövervakning, för att nämna några. Harrison behövde en kostnadseffektiv, lätthanterlig och pålitlig lösning för att hjälpa dem att samla in denna sensordata.

Detta industriella kantproblem är mycket vanligt. Företag upptäcker att om de effektivt kan spåra element som fukt, vibrationer, PSI, telemetridata från maskiner och andra viktiga data, kommer dessa nya handlingsbara insikter att påverka affärsverksamheten och lönsamheten.

Harrison är investerad i denna analysresa. De försöker upptäcka hur deras ingenjörer bättre kan använda data för att minska avfallet och i slutändan öka effektiviteten och lönsamheten. Deras ursprungliga HE150 HCI-kluster hanterar denna uppgift ganska effektivt och sitter på verkstadsgolvet som en aggregator av all denna sensordata. Varje natt batchar Harrison data och tar med dem till deras kärndatacenter som innehåller Scale Computings större HCI-system för vidare bearbetning och analys.

Efter ett framgångsrikt sex månaders proof of concept köpte de ett produktionskluster. Produktionsklustret H150 sattes i en testmiljö i sex månader och flyttades till slut i produktion. Det produktionsklustret har varit igång i sex månader utan klagomål på några enheter från dag ett.

Shane Rogers, IT-direktör, Harrison Steel Castings, har varit involverad i installationen av Scale Computing Platform från början och var förespråkaren för datainsamling för analys. På frågan om tillförlitlighet och misslyckanden sa Shane:

"Vi behöll POC-klustret, och de har körts i nästan två år utan misslyckanden. En gjuterimiljö är inte vacker. Mikrodamm är en enorm fråga som vi hanterar. Så för att hålla koll på systemet kommer jag att misslyckas med mina produktionsnoder då och då bara för att testa failover. Och de fungerar perfekt. Jag kommer att flytta runt noderna på klustret bara för att se till att varje nod används effektivt."

I slutändan är det denna enkla hantering som ger enorma fördelar för Harrison. Enkelheten att ställa upp systemet på dag 0 är utmärkt, som vi såg i våra labbtester. Ändå kan de pågående operativa fördelarna därifrån och ut vara utmanande att kvantifiera, men kunderna uppskattar det.

Avslutande tankar

Scale Computing HyperCore på NUC11 levererar som utlovat. Folket på Scale Computing sa till oss att det är möjligt att ha ett HyperCore-kluster igång på 30 minuter, och de träffade målet. Installation och konfiguration är intuitiva med en uppsättning verktyg som är lätta att navigera. Naturligtvis ger Scale Computing stöd via Zoom och kan leda vem som helst genom processen för att säkerställa att det inte finns några problem på vägen.

Stegen stavades ut med de datablad som tillhandahålls innan du installerade noderna, så det fanns inga överraskningar under processen.

Skalberäkning

Edge Computing Transformation, drivs av Intel®

Scale Computing Platform är ett Intel IoT RFP Ready Kit (Intel RRK). Intel RRK:er är fokuserade teknologierbjudanden som löser en klass av marknadsproblem, har distribuerats och testats på fältet och tillhandahåller medföljande hårdvara, mjukvara och support. Tekniken är skalbar och designad för att växa med kundernas krav – vilket möjliggör accelererad utveckling och tid till marknad.

Intel levererar energieffektiv prestanda och intelligens optimerad för företag. Med visionteknologi och djupinlärningsmöjligheter vid kanten kan ditt företag realisera nya användningsfall och snabbare svarstider. Vår inbyggda baslinjesvit med säkerhetsfunktioner gör det enklare att implementera en konsekvent säkerhetsmodell som hjälper till att skydda mot ett brett spektrum av hot.1

Med brett anslutningsstöd effektiviserar Intel datadelning mellan enheter och molnet. Våra specialiserade teknologier för virtualisering hjälper dig att förenkla din IT-miljö och öka effektiviteten och värdet av dina teknikinvesteringar. Och eftersom Intels produkter är designade för hög tillförlitlighet och lång livslängd kan du räkna med support i flera år.

Lösningar som är tillgängliga idag gör edge-implementering enkel och sömlös. Resultatet innebär full kapacitet att snabbt utveckla och distribuera ny teknik utan arkitektonisk komplexitet eller IT-personalbegränsningar.

1Inget datorsystem kan vara helt säkert. Kontrollera med din systemtillverkare eller återförsäljare, eller läs mer på intel.com.

Denna rapport är sponsrad av Scale Computing. Alla åsikter och åsikter som uttrycks i denna rapport är baserade på vår opartiska syn på produkten/produkterna som övervägs.

Engagera dig med StorageReview

Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | TikTok | Rssflöde