A Scale Computing afirma ter uma solução para HCI que pode ser instalada em minutos, colocada em produção em menos de uma hora e desenvolvida especificamente para locais de ponta. Líder em computação de borda, virtualização e soluções hiperconvergentes, a Scale Computing projetou um sistema que se encaixa perfeitamente na borda e pode ser instalado em minutos. A StorageReview decidiu encará-los na tarefa e documentar as etapas desde o unboxing até a instalação e execução para ver se é tão fácil quanto eles afirmam.
A Scale Computing afirma ter uma solução para HCI que pode ser instalada em minutos, colocada em produção em menos de uma hora e desenvolvida especificamente para locais de ponta. Líder em computação de borda, virtualização e soluções hiperconvergentes, a Scale Computing projetou um sistema que se encaixa perfeitamente na borda e pode ser instalado em minutos. A StorageReview decidiu encará-los na tarefa e documentar as etapas desde o unboxing até a instalação e execução para ver se é tão fácil quanto eles afirmam.
A Scale Computing enviou um sistema de 3 nós, enviou planilhas de dados associadas por e-mail e configurou uma chamada de suporte para acompanhar a instalação, se necessário. Este é o mesmo processo que um cliente típico experimentaria ao comprar um cluster Scale Computing HyperCore.
SC // HiperCore
O SC//HyperCore elimina a necessidade de software de virtualização tradicional, software de recuperação de desastres, servidores e armazenamento compartilhado, substituindo-os por um sistema totalmente integrado e altamente disponível para executar aplicativos. Usando a tecnologia patenteada HyperCore™, a plataforma de autorreparação identifica, atenua e corrige automaticamente problemas de infraestrutura em tempo real, permitindo que os aplicativos atinjam o máximo de tempo de atividade. Quando facilidade de uso, alta disponibilidade e TCO são importantes, o Scale Computing HyperCore no NUC 11 (o HE151) pode ser a plataforma de infraestrutura para sua organização.
A primeira coisa que notamos durante a cerimônia de unboxing foi o tamanho do HE151. Essas coisas são minúsculas! Baseado na plataforma Intel Next Unit of Computing (NUC) 11, o chassi mede 117 x 112 x 54 [mm] (CxLxA). Confira as especificações do Scale Computing HyperCore no NUC11 abaixo.
SC // Instalação e configuração da plataforma
Ao desembalar a Scale Computing Platform, será essencial manter o número de série do nó e a chave de software associada juntos, pois eles precisarão corresponder durante a configuração inicial do cluster. Seguir a folha de dados de instalação irá prepará-lo para as próximas etapas do processo de configuração.
A configuração inicial é simples. Coloque os nós no local desejado, conecte à energia e conecte dois cabos Ethernet. Os dois cabos Ethernet fornecem redundância em caso de falha do switch ou outra catástrofe. Os nós não ligam até que o botão liga/desliga seja pressionado na parte frontal da unidade. Enquanto os servidores estão inicializando, localize as placas com os números de série e chaves de software para cada nó.
Duas conexões HDMI estão disponíveis na parte traseira da unidade. Conecte um cabo a uma das portas HDMI. Espero que haja um monitor na outra extremidade desse cabo. Após cerca de um minuto, o servidor solicitará as informações de login. É importante observar que o login no sistema via linha de comando só é necessário durante a configuração inicial.
Depois que os nós forem inicializados, o acesso será por meio da GUI do Cluster Manager. O login padrão é admin/admin. Uma vez logado, o prompt a seguir solicita o endereço IP para acessar a Scale UI (informações fornecidas pela Scale Computing). Em seguida, insira o endereço IP do nó, seguido de solicitações para o número de série do hardware e a chave do software. Os hífens são opcionais ao inserir a chave no nó.
Isso é tudo para o nó 1. Agora siga as mesmas etapas no nó 2 e no nó 3.
Depois que todos os três nós forem inicializados, efetue login novamente em cada sistema para inserir os comandos para inicializar o nó e o cluster. Uma vez logado, digite “sudo scnodeinit” para inicializar o nó. Leva cerca de um minuto para este comando ser concluído. Depois que o comando for concluído, insira o segundo comando, “sudo scclusterinit” para instruir o nó a ingressar no cluster quando os outros nós estiverem ativos. O comando cluster leva cerca de cinco minutos para ser concluído em uma instalação pequena. Um ambiente de cluster maior levará mais tempo para inicializar.
Uma vez inicializado, o cluster estará acessível por meio da interface do usuário Scale Computing. Faça login na IU do Scale Computing usando as mesmas informações de login para os nós (admin/admin). Neste ponto, o cluster está pronto para carregar o sistema operacional desejado. Se estiver instalando o Windows Server 10, os drivers apropriados serão instalados automaticamente.
Gerenciador de cluster de computação de escala
A Scale Computing tornou o gerenciador de cluster tão fácil de usar quanto instalar e criar o cluster. Existem dois métodos para gerenciar o Scale Computing Cluster: gerenciador de cluster local e acesso à nuvem do Fleet Manager. O gerenciador de cluster local é uma interface gráfica com o usuário por meio do cluster instalado. Tínhamos apenas um cluster local de três nós, então esse normalmente seria o método para gerenciar uma pequena instalação como a nossa.
O Fleet Manager é uma opção de nuvem para gerenciar clusters instalados em locais remotos e a ferramenta de gerenciamento para acessar clusters instalados de qualquer lugar. O Fleet Manager é acessado através da nuvem Scale Computing.
Ao adquirir um sistema da Scale Computing, será necessário configurar uma conta no Scale Edge para suporte, abertura de tickets, acesso a software, etc. Essas informações de login são usadas para acessar o SC//Fleet Manager e são específicas para o seu agrupamento(s).
Gerenciamento de cluster local
A seguir, são capturas de tela de nosso cluster local. O acesso à GUI é fornecido conectando-se ao endereço IP do cluster local, geralmente da mesma rede. A interface é intuitiva e fácil de usar.
Os detalhes de cada nó no cluster são exibidos para facilitar a identificação. As mensagens de aviso são destacadas no canto superior direito da tela, juntamente com o nome do usuário e a opção de logout. Existe até uma opção para conversar com o Suporte ScaleCare diretamente da janela de gerenciamento.
Como nossa instalação foi bastante básica, as informações podem não ser muito empolgantes, mas essa é uma ferramenta valiosa em um ambiente de produção. As opções de exibição estão disponíveis no lado esquerdo da tela para obter os detalhes de integridade do cluster e dos nós.
A exibição é dividida, mostrando informações de RAM ou DISK na metade superior. Quando a exibição RAM é selecionada, a seção superior também exibe a VM específica com detalhes de memória alocada, usada e livre. Clicar duas vezes na VM na seção superior levará você a essa máquina virtual e ao sistema operacional instalado.
A seção abaixo é baseada na configuração específica dessa máquina virtual. No meio da exibição está o acesso global às VMs nesse cluster. O mesmo vale para os ícones no lado esquerdo da parte inferior da tela. Os ícones dentro de cada janela da VM afetarão a saída apenas dessa VM.
Selecionar o ícone de engrenagem exibirá as configurações de todas as VMs no cluster.
É possível selecionar ferramentas específicas para o nó e componentes individuais e visualizar o cluster. A seleção do ícone de engrenagem na exibição da VM fornece acesso ao sistema de arquivos e ao sistema operacional instalado, com a capacidade de ejetar discos específicos. Dependendo da configuração de cada nó, existe a capacidade de percorrer cada nó para obter detalhes do sistema de arquivos. O ícone da pilha fornecerá detalhes sobre quaisquer instantâneos e opções para fazer um instantâneo imediato.
Alterar a exibição de RAM para DISK na seção superior da janela de gerenciamento alterará a exibição nessa seção. Há também uma opção para executar funções em todos os nós do cluster simultaneamente clicando no detalhe de TODAS as VMs e selecionando a ação no menu suspenso.
Selecionar o ícone de engrenagem na barra do meio fornecerá mais opções específicas para o cluster. Cada uma dessas opções fornecerá mais detalhes. A tela abaixo detalha o log do cluster.
A seleção de um dos ícones específicos da VM permite alterar a saída de exibição desse nó sem afetar as exibições no cluster restante. Selecionar o ícone de engrenagem em uma VM específica oferece a opção de realizar testes, desligar e ligar, verificar destinos de disco, etc.
Mover uma VM é rápido e fácil
Mover uma VM é tão simples quanto arrastar e soltar. Na exibição do nó, selecione o ícone do medidor. Os ícones na parte inferior da exibição do nó mudam e fornecem opções para manutenção do usuário, movimentação de uma VM, exclusão de uma VM, clonagem e instantâneos.
Selecione o ícone de movimento (que se parece com uma pilha com uma parte saindo para a direita) para mover uma VM. Selecionar isso mudará a metade superior do gerenciador e fornecerá o nó disponível para mover essa VM específica. Selecione o nó para mover a VM.
Um pop-up é exibido no canto inferior direito com informações sobre o movimento.
Quando a VM for movida, a exibição mostrará o novo local com detalhes desse nó.
Mover a VM de volta para o local original é igualmente simples.
A exibição indicará as alterações feitas quando a VM for movida para o local selecionado.
Existem várias opções para facilitar a vida com a exibição de nó da VM. Precisa fazer um clone de uma VM? Selecione o ícone ao lado da “câmera” para exibir um pop-up com todos os campos apropriados para clonar uma VM.
Os instantâneos são igualmente simples. Clique na câmera e tire uma foto. O pop-up oferece uma oportunidade de atribuir um rótulo ao instantâneo.
A edição da VM é rápida e acessível. Selecionar a chave inglesa exibirá uma caixa de edição para alterar os parâmetros da VM, nome, tipo de inicialização, etc.
Selecionar a engrenagem na exibição VM fornecerá opções para adicionar discos e configurar portas de rede.
Clique no ícone que se parece com um disco externo e forneça as informações necessárias para adicionar uma unidade.
O último ícone na exibição do nó da VM fornece opções para comandos específicos da VM.
Um pop-up é fornecido para facilitar a exportação de uma VM.
O ícone que se parece com uma caixa com uma seta apontando para ela localizado no lado esquerdo da barra central abrirá uma janela pop-up, fornecendo os campos de entrada necessários para importar a VM HyperCore.
O menu do centro de controle pode ser acessado selecionando o ícone de engrenagem na barra central. Esta seção do gerenciador de cluster local fornece logs, condições, atualizações de software, etc.
A exibição é alfabética, com a primeira opção sendo o “Registro do cluster”. Todos os eventos aparecerão nesta janela. Os eventos mostrados são de alguns testes que fizemos anteriormente. Realizamos uma queda de energia forçada para ver o que o cluster faria com as VMs. Os detalhes serão dados mais adiante no artigo.
“Condições” exibirá qualquer condição incomum dentro da configuração ou cluster.
“Control” permite que todo o cluster seja desligado com um único clique. A Scale Computing solicita que eles sejam contatados antes de desligar porque o cluster também se comunica com os serviços de nuvem Scale para gerenciamento e suporte remotos.
Selecionar “Mídia” fornece a capacidade de ver quais sistemas estão carregados e em execução e também a opção de carregar novos ISOs.
Os clientes com clusters remotos implantados podem ser acessados e gerenciados nessa tela.
A tela "Remote Support" é vinculada ao suporte Scale Computing para conectar e solucionar problemas de clusters.
Quaisquer agendamentos do sistema apareceriam na tela “Horários”.
As configurações do sistema são exibidas nesta tela.
Certificados SSL podem ser gerenciados a partir desta tela.
Se a Scale Computing tiver uma atualização para o cluster, ela será exibida nessa tela, além de um prompt de "atualizações disponíveis" próximo ao número da versão na parte superior da tela. Ele economiza um tempo de administrador procurando por atualizações disponíveis.
Proativamente, o cluster entra em contato com a Scale Computing para validar se o cluster está executando a versão mais recente, garantindo que o ambiente tenha acesso aos recursos e aprimoramentos mais recentes, além de correções de bugs e segurança. Com as atualizações sendo aplicadas de forma contínua, aplicá-las não é um evento para o usuário e quaisquer conexões nas cargas de trabalho em execução no cluster.
Caso seja necessário adicionar ou alterar as informações do usuário, isso pode ser feito na tela “Gerenciamento de usuários”.
Também é possível entrar em contato com o suporte da Scale Computing neste menu. Isso inclui opções para abrir tickets como cliente ou parceiro ou, se for necessária uma resposta imediata, o número para discar para o suporte é exibido. Existem links para documentação e acesso à comunidade de usuários.
A Scale Computing usa o conceito de comunidade de forma muito eficaz. Há um local separado na Web onde os usuários podem compartilhar informações, pedir ajuda a outras pessoas, verificar as opções de configuração e muito mais. Esta é uma excelente ferramenta para qualquer pessoa que esteja implantando esses clusters.
O que acontece se um nó falhar em um cluster de computação de escala?
Queríamos ver como o cluster lidaria com um ciclo de energia abrupto, então o plugue foi desligado em um dos nós. Documentamos a sequência de eventos, com mensagens do sistema desde falha de energia até restauração de energia.
Depois que o plugue foi puxado no nó TestVM2, o contador de alarme (localizado no canto superior direito da tela) aumentou em um e um pop-up no canto inferior direito indicou um problema de redundância.
Observando o log do cluster no Control Center, as mensagens de erro indicavam um nó inacessível com mensagens de aviso, críticas e de aviso. A IU do SC//HyperCore também exibia novas mensagens no canto inferior direito. Esses pop-ups seriam exibidos independentemente da tela atual.
A exibição do nó na parte superior da tela do gerenciador indicava que a VM estava offline. Os contadores de erros no canto superior direito também aumentaram, indicando erros adicionais.
Os alarmes de informações foram limpos para fornecer apenas os alarmes atuais para focar no problema em questão.
Essa exibição mostra que a VM do nó com falha foi movida para um dos outros nós. Este foi um processo automatizado que não exigiu nenhuma intervenção. Os recursos de TestVM1 foram atualizados para refletir cargas, uso de disco e disponibilidade.
O log do Cluster também foi atualizado para indicar a nova localização da VM do nó com falha, exibido como um alarme de informação desde que a VM voltou a funcionar.
Agora que a VM foi iniciada e estava disponível para os usuários, o nó “com falha” foi conectado e ligado.
Depois que o nó estava disponível, o log do cluster indicava que a VM voltaria ao cluster original.
O nó é mostrado como disponível por meio do backplane e os alarmes foram apagados dos indicadores na parte superior da tela do gerenciador. Os pop-ups também estavam limpando.
Esta é uma visão mais ampla das informações que os pop-ups refletiram quando a VM tentou ingressar novamente no nó preferencial.
A exibição mostra que o nó está online, mas a VM não migrou.
Depois que a VM retornou ao nó preferencial, a tela foi atualizada com a localização e os recursos foram restaurados ao normal. O log também indica que a VM retornou ao nó preferencial.
E tudo está de volta ao seu estado original.
A principal conclusão dessa sequência é que todo o processo foi automático. Nada foi configurado no cluster para forçar uma movimentação da VM de um nó com falha. O cluster Scale cuidou de todos os processos, desde o desligamento até a inicialização e reinicialização.
Caso seja necessário desligar um nó, a Scale Computing solicita que o suporte seja contatado antes de desligar o sistema, que envia um alarme para o sistema remoto.
O gerenciador de cluster local fornece muitas informações e a configuração geral. Em caso de falha, o gerenciador do cluster fornece detalhes imediatos e ações automáticas executadas pelo cluster.
Gerenciamento Remoto SC//Fleet Manager
O Scale Computing Fleet Manager é a primeira ferramenta de monitoramento e gerenciamento hospedada na nuvem criada para infraestrutura de computação de borda hiperconvertida em escala. O SC//Fleet Manager facilita o monitoramento e o gerenciamento seguro de toda uma frota de clusters executando o Scale Computing HyperCore. Para gerentes de TI com vários clusters, o tempo de manutenção será reduzido em 50% ou mais com a simplicidade projetada nesta plataforma.
O SC//Fleet Manager consolida as condições em tempo real e a utilização de recursos para todos os clusters SC//HyperCore. SC//Fleet Manager elimina a necessidade de navegar para UIs de cluster individuais, dando aos gerentes a capacidade de olhar para cada cluster de um único painel de vidro.
Recursos do SC // Fleet Manager:
- Verifique a Conectividade e a Saúde com uma olhada rápida de qualquer navegador em qualquer dispositivo, até mesmo móvel
- Faça uma busca detalhada em um cluster específico para diagnosticar e corrigir quaisquer problemas
- Visualize a utilização de CPU e disco em tempo real nos níveis de cluster, nó e VM
- Faça uma busca detalhada no login do HyperCore de qualquer cluster
- Visualize o firmware atual de todos os clusters rapidamente
- Aplique uma atualização de firmware a um cluster com um único clique do SC//Fleet Manager
- Monitore atualizações de firmware em tempo real para clusters em toda a frota a partir de um único painel de vidro
SC//Fleet Manager em ação
O login no SC//Fleet Manager hospedado na nuvem fornece informações detalhadas sobre todos os clusters globalmente. A aparência da GUI é semelhante à do gerenciador local.
Existem ícones no lado esquerdo da tela para acessar o cluster, executar funções de gerenciamento específicas e adicionar usuários e detalhes da organização.
Esta é a visualização do cluster com detalhes de integridade e utilização de memória, disco e CPU.
Clicar no ícone do velocímetro mudará a exibição para uma exibição de painel detalhando os eventos do cluster e do nó.
As funções específicas do nó são acessadas selecionando o ícone de plugue.
Clicar no ícone do usuário fornece uma tela para adicionar ou modificar contas de usuário.
O ícone de engrenagem exibirá os detalhes da organização.
No canto superior direito da tela, há uma opção para conversar com o suporte ou visualizar a documentação sem fazer login em outro sistema. O outro ícone desconectará o usuário da ferramenta SC//Fleet Manager.
SC//Consumo de energia da plataforma
Executando na compacta e eficiente plataforma Intel NUC 11, este cluster SC//HyperCore é muito amigável em termos de energia. Dadas as opções de implantação flexíveis para o cluster Scale Computing, medimos o consumo de energia do cluster na inicialização e nas operações normais usando nosso analisador de energia XiTRON XT2640.
O analisador mostrou o aumento de energia conforme cada nó era ativado durante o processo de inicialização. Atrasamos o pressionamento do botão liga / desliga em cada nó em cerca de 5 segundos para ver o aumento do consumo de cada nó. O analisador mediu um consumo de energia de pico de menos de 150 watts durante o processo de inicialização rápida antes de diminuir seu uso de energia de linha de base.
Com o cluster de 3 nós online e nossas 3 VMs ativas, o uso total de energia no cluster permaneceu entre 90 e 115 watts. Isso é uma fração do que um único servidor de tamanho normal consumiria, tornando esses nós compactos implantáveis em praticamente qualquer local.
Pergunte à comunidade Scale Computing
A Scale Computing tem uma comunidade de usuários muito ativa. Tanto que existe um site dedicado para usuários e assinantes fazerem perguntas, postarem resoluções, obterem conselhos e interagirem com outros usuários da Scale Computing. Obviamente, se a resposta não estiver disponível no site da comunidade, sempre haverá suporte 24 horas por dia, 7 dias por semana.
O site da Comunidade está disponível em Community.scalecomputing.com. A inscrição também é simples. Os usuários registrados podem verificar a base de conhecimento na página inicial, abrir um caso ou verificar o status, obter ajuda de integração, acessar os fóruns de usuários e baixar atualizações de software. A Scale Computing se esforçou muito para manter esse tipo de acesso.
Harrison Steel Castings Company – uma das primeiras a adotar
Ao considerar onde pequenos clusters de HCI podem agregar valor, os aplicativos de borda imediatamente chegam ao topo. O mercado de borda está quente agora, com tantas oportunidades para uma solução pequena e simples de instalar e operar. O varejo está em primeiro lugar, com a segurança provavelmente em segundo lugar. Mas até que ponto da lista uma empresa de fundição de aço cairia em nosso cenário de ponta?
Entrar Empresa de fundição de aço Harrison. O cliente da Scale Computing, Harrison Steel Castings Company, concordou em passar alguns minutos oferecendo sua experiência com a solução HyperCore da Scale Computing.
Como o nome indica, a empresa de Indiana está no negócio de produzir soluções de fundição de aço de engenharia de precisão. Cada uma dessas peças fundidas pode levar semanas para ser produzida, com peças fundidas impróprias tendo que ser totalmente descartadas se forem consideradas defeituosas.
Fundições de aço não são tão simples quanto podem parecer. Existem estágios dentro do processo que requerem vibrações específicas, adição de fundido medido e monitoramento de temperatura, para citar alguns. A Harrison precisava de uma solução econômica, fácil de gerenciar e confiável para ajudá-los a coletar os dados do sensor.
Esse problema de borda industrial é muito comum. As empresas estão descobrindo que, se puderem rastrear efetivamente elementos como umidade, vibração, PSI, dados de telemetria de máquinas e outros dados vitais, esses novos insights acionáveis afetarão as operações de negócios e a lucratividade.
Harrison está empenhado nessa jornada analítica. Eles estão tentando descobrir como seus engenheiros podem fazer melhor uso dos dados para reduzir o desperdício e, por fim, aumentar a eficiência e a lucratividade. Seu cluster HE150 HCI original lida com essa tarefa com bastante eficiência, ficando no chão de fábrica como um agregador de todos esses dados do sensor. Todas as noites, Harrison agrupa os dados e os traz para o centro de dados principal que contém os sistemas HCI maiores da Scale Computing para processamento e análise adicionais.
Após uma prova de conceito bem-sucedida de seis meses, eles adquiriram um cluster de produção. O cluster H150 de produção foi colocado em um ambiente de teste por seis meses e, por fim, passou para a produção. Esse cluster de produção está em execução há seis meses sem reclamações em nenhuma unidade desde o primeiro dia.
Shane Rogers, Diretor de TI da Harrison Steel Castings, esteve envolvido com a instalação da Scale Computing Platform desde o início e foi o defensor da coleta de dados para análise. Quando perguntado sobre confiabilidade e falhas, Shane disse:
“Mantivemos o cluster POC, que está em execução há quase dois anos sem falhas. Um ambiente de fundição não é bonito. Microdust é um grande problema com o qual lidamos. Portanto, para ficar por dentro do sistema, irei falhar meus nós de produção de vez em quando apenas para testar o failover. E funcionam perfeitamente. Vou mover os nós no cluster apenas para garantir que cada nó seja usado de maneira eficaz.”
Em última análise, é essa facilidade de gerenciamento que oferece enormes benefícios para Harrison. A simplicidade de levantar o sistema no dia 0 é excelente, como vimos em nossos testes de laboratório. Ainda assim, os benefícios operacionais contínuos daí em diante podem ser difíceis de quantificar, mas os clientes apreciam isso.
Considerações Finais
O Scale Computing HyperCore no NUC11 cumpre o prometido. O pessoal da Scale Computing nos disse que é possível ter um cluster HyperCore funcionando em 30 minutos, e eles acertaram em cheio. A instalação e a configuração são intuitivas com um conjunto de ferramentas de fácil navegação. Obviamente, a Scale Computing fornece suporte via Zoom e pode orientar qualquer pessoa no processo para garantir que não haja obstáculos ao longo do caminho.
As etapas foram detalhadas com as folhas de dados fornecidas antes da instalação dos nós, para que não houvesse surpresas durante o processo.
Transformação de computação de borda, desenvolvida pela Intel®
A Scale Computing Platform é um Intel IoT RFP Ready Kit (Intel RRK). Intel RRKs são ofertas de tecnologia focadas que resolvem uma classe de problemas de mercado, foram implantadas e testadas em campo e fornecem hardware, software e suporte agrupados. A tecnologia é escalável e projetada para crescer de acordo com os requisitos do cliente, permitindo um desenvolvimento acelerado e tempo de lançamento no mercado.
A Intel oferece desempenho com baixo consumo de energia e inteligência otimizada para negócios. Com tecnologia de visão e recursos de aprendizado profundo na borda, sua empresa pode realizar novos casos de uso e tempos de resposta mais rápidos. Nosso conjunto básico integrado de recursos de segurança facilita a implementação de um modelo de segurança consistente que ajuda a proteger contra uma ampla variedade de ameaças.1
Com amplo suporte de conectividade, a Intel agiliza o compartilhamento de dados entre dispositivos e a nuvem. Nossas tecnologias especializadas para virtualização ajudam você a simplificar seu ambiente de TI, aumentando a eficiência e o valor de seus investimentos em tecnologia. E como os produtos Intel são projetados para alta confiabilidade e longa vida útil, você pode contar com suporte por anos.
As soluções disponíveis hoje tornam a implementação de ponta simples e contínua. O resultado significa capacidade total para desenvolver e distribuir rapidamente novas tecnologias sem complexidade arquitetônica ou limitações de equipe de TI.
Este relatório é patrocinado pela Scale Computing. Todas as visões e opiniões expressas neste relatório são baseadas em nossa visão imparcial do(s) produto(s) em consideração.
Envolva-se com a StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | TikTok | RSS feed