Nyligen avslöjade NetApp att man använder sina egna tjänster och apparater som en del av sin utvecklingsprocess, något som ibland kallas för att "äta sin egen hundmat". Deras berättelse om hur de använder sina verktyg internt är en intressant fallstudie för alla som funderar på att använda NetApp. Det senaste året har de varit en dynamo av nya releaser och uppdateringar. Som bara ett exempel släppte de ett all-flash, end-to-end NVMe-serverrack, den NetApp AFA EF600, bara förra månaden.
Nyligen avslöjade NetApp att man använder sina egna tjänster och apparater som en del av sin utvecklingsprocess, något som ibland kallas för att "äta sin egen hundmat". Deras berättelse om hur de använder sina verktyg internt är en intressant fallstudie för alla som funderar på att använda NetApp. Det senaste året har de varit en dynamo av nya releaser och uppdateringar. Som bara ett exempel släppte de ett all-flash, end-to-end NVMe-serverrack, den NetApp AFA EF600, bara förra månaden.
Både NetApps SolidFire- och HCI-teknikteam (Hyper-Converged Infrastructure) använder NetApp HCI-apparater och programvara som en del av sin utvecklingspipeline. Teamen använder Jenkins för att skapa kontinuerlig integration (CI) och implementeringsbyggen. Dessa versioner distribueras sedan genom NetApp Kubernetes Service (NKS) som körs på NetApp HCI-enheter med hybrid molnkontrollsvit aktiverad. Genom att använda NKS kan ingenjörsteamen flytta ut sina byggen till det offentliga moln som bäst passar deras behov för tillfället, Amazon EC2, Google Cloud Platform (GCP) eller Azure. Oftare använder teamen ett Istio-tjänstnät för att distribuera builds till flera moln för att tillhandahålla en hybrid multi-molnapplikation som tillåter testning mot flera mål samtidigt. NetApp hävdar att den här processen har gjort det möjligt för dem att minska tidsåtgången för att skapa nya pipelines för kontinuerlig integration och kontinuerlig driftsättning (CI/CD) för intern användning med så mycket som två storleksordningar. Detta är en verkligt enorm tidsbesparing, och jag önskar verkligen att de hade gjort de siffror som de baserar detta påstående på offentligt.
NetApp erkänner i sin skrivning att de fortfarande behövde göra en del förhandsarbete för att utveckla byggpipelines som matas in i deras datavävsarkitektur, men efter att ha ägnat veckor åt att sätta upp (CI/CD) pipelines själv, utsikterna till så betydande tidsbesparingar och förenklingar. denna process är mycket tilltalande. Ännu mer så, som när den en gång sattes upp, kan lösningen skalas upp för att hantera nästan alla lagstorlekar genom att pusha utbyggd till det offentliga molnet på detta sätt.
Anmäl dig till StorageReviews nyhetsbrev