Secure Access Service Edge, o futuro da rede segura
No mundo de hoje, vemos um rápido crescimento na força de trabalho móvel ou remota, que requer acesso seguro à rede junto com a rápida expansão de dados e aplicativos altamente distribuídos em vários provedores de IaaS e SaaS.
Como resultado, as arquiteturas e ferramentas de segurança tradicionais estão ficando para trás, deixando as empresas e os usuários vulneráveis. Com a grande mudança em usuários e aplicativos distribuídos, as equipes de TI devem desenvolver sua estratégia para proteger o acesso a várias nuvens. Sua abordagem de segurança dependerá de suas necessidades e estratégia de rede multicloud.
Se você é responsável por fornecer tecnologia e conectividade em sua organização, perguntas devem surgir como: Como posso facilitar essa transição em minha organização sem afetar a escala de recursos que tenho? E eu posso te dizer, a resposta está em SASE.
SASE, que significa Secure Access Service Edge, é uma arquitetura de rede que combina recursos VPN e SD-WAN com recursos de segurança nativos da nuvem, como gateways da web seguros, agentes de segurança de acesso à nuvem, firewalls e acesso à rede de confiança zero. Essas funcionalidades são fornecidas a partir da nuvem e geralmente são fornecidas como um serviço.
Pense no SASE como a combinação perfeita entre uma rede inteligente multi domínio e cibersegurança abrangente, simplificando o acesso à sua rede, melhorando seu modelo de segurança, aumentando o desempenho ideal da rede e reduzindo o número de fornecedores e dispositivos que sua equipe de TI deve lidar.
Em conversas com clientes da Cisco e nos projetos de rede dos quais participei, pude verificar em primeira mão a importância de considerar a segurança como um componente fundamental da estratégia de rede. Precisamente os eventos em que vivemos no novo normal destacam a necessidade de repensar como as redes e a segurança se tornarão, ainda mais, intrincadamente interligadas à medida que as organizações mudam a maneira como conectam sua força de trabalho distribuída.
De onde vem o SASE?
A principal tendência macro por trás do surgimento do SASE é a transição para várias nuvens, resultando em dados e aplicativos que estão literalmente em todos os lugares. Paralelamente, uma força de trabalho cada vez mais distribuída requer acesso seguro aos aplicativos com desempenho ideal. A rápida adoção de SD-WAN para se conectar a aplicativos de várias nuvens oferece às empresas a oportunidade de repensar como o acesso e a segurança são gerenciados do campus à nuvem e à extremidade da rede.
A empresa Gartner criou o termo SASE e o descreveu pela primeira vez em uma documentação técnica durante 2019, onde estabelece seus objetivos e como deve ser uma implementação SASE.
O objetivo do SASE é fornecer acesso seguro a aplicativos e dados de seu data center ou plataformas de nuvem, como Azure, AWS, Google Cloud ou provedores de SaaS baseados em identidade: indivíduos específicos, grupos de pessoas em determinados escritórios, dispositivos , IoT e até serviços. A borda de serviço ou borda de serviços refere-se ao ponto de presença global (PoP), IaaS ou instalações, onde o tráfego local das filiais e pontos de extremidade é protegido e encaminhado para o destino apropriado sem ter que viajar para os pontos focais do data center. Ao reunir os serviços de rede e segurança da nuvem, as organizações serão capazes de conectar com segurança qualquer usuário ou dispositivo a qualquer aplicativo com a melhor experiência.
O Gartner acredita que o SASE é uma visão de um modelo futuro de redes seguras, que as empresas se esforçam para alcançar; atualmente não é uma realidade para nenhum provedor. A Cisco vem trilhando esse caminho há vários anos por meio de aquisições importantes em redes (Meraki, Viptela) e segurança (OpenDNS, CloudLock, Duo), bem como muitas inovações desenvolvidas internamente. Hoje, SASE é melhor representado pela convergência da SD-WAN gerenciado na nuvem e segurança fornecida a partir da nuvem, dois recursos fundamentais que a Cisco desenvolveu extensivamente.
O caminho para SASE
Se sua organização fosse considerar a reunião dos elementos necessários para o SASE por conta própria, talvez fosse uma tarefa semelhante construir uma casa reunindo os quartos de diferentes casas existentes. Esta é a razão pela qual, na Cisco, integramos nossas ofertas de SD-WAN e funcionalidade de segurança em um único serviço nativo da nuvem, para aproximar os modelos de consumo “as-a-service” com a flexibilidade de adaptação as necessidades de organizações de todos os tamanhos.
Hoje, mais de 20.000 organizações começaram a jornada para o SASE implementando Cisco SD-WAN, e mais de 22.000 implementaram serviços de segurança em nuvem com o Cisco Umbrella.
Convido você a aprender mais sobre Cisco SD-WAN, nossa arquitetura de rede multi-domínio, fornecida em nuvem e otimizada para aplicativos que oferece desempenho confiável de aplicativos e permite visibilidade completa e informações oportunas sobre o desempenho de sua rede para fornecer a melhor experiência.
Para maiores informações, entre em contato conosco
Posted on By Author Thiago GonçalvesCategories Digital, Notícias, Security
Nos últimos meses, vimos uma aceleração de projetos de cloud. A velocidade, que habilitou a continuidade de operações, não necessariamente significou uma adoção perfeita ou integrada de tecnologias e processos. No clima econômico incerto pelo qual passamos, atingir o equilíbrio entre custo e desempenho é o nome do jogo quando se trata de recursos de TI, e é a chave para criar resiliência de negócios.
A TI corporativa é diariamente bombardeada com solicitações que vem de todos os departamentos. Com a migração digital, mais do que nunca, os departamentos de tecnologia da informação assumiram função vital de garantir que os aplicativos funcionem sem problemas, que os usuários fiquem satisfeitos e que as operações sejam mantidas.
Entregar soluções com desempenho e com o menor custo possível em ambientes locais e/ou de nuvem pública não é uma tarefa fácil. Isso exige o gerenciamento de cargas de trabalho de uma forma que considera muitos recursos diferentes – CPU, armazenamento, memória disponível em servidores bare metal, máquinas virtuais (VMs), contêineres, instâncias de nuvem, etc. – além de vários pontos de controle para cada dispositivo, e como esses dispositivos e recursos interagem uns com os outros.
Muito mais complexo
O equilíbrio entre custo e performance se torna mais complexo quando consideramos que alcançar o cenário ideal é efetivamente um alvo em constante movimento devido a:
A crescente frequência de atualizações de carga de trabalho (de aplicativos) e a derivação de uma série de novas implantações;
O número crescente de opções de posicionamento que um ambiente multicloud em expansão oferece;
A falta de visibilidade ponta a ponta da nuvem pública e custos de mudança no local, pré e pós-implantação.
Essa complexidade significa que as implicações e os riscos de cada decisão sobre onde colocar e como dimensionar as cargas de trabalho aumentam exponencialmente. Em um ambiente tão dinâmico, as equipes de TI podem encontrar-se lutando para atender às demandas de seus negócios, pois acabam gastando seu tempo perseguindo alertas e “apagando incêndios” em vez de apoiar uma plataforma de inovação.
Otimização automatizada
Para equilibrar os prós e os contras de cada ação de otimização com cuidado, é necessária uma visão holística da infraestrutura e dos aplicativos e suas interdependências associadas. Dado que nenhum ser humano pode otimizar constantemente as cargas de trabalho de forma eficaz em “escala e velocidade da nuvem”, os insights e a automação alimentados por inteligência artificial tornam-se essenciais. Esse ponto é chave.
Existem um bom número de ferramentas que permitem essa otimização automatizada dos ambientes. Um exemplo disso é o Cisco Intersight Workload Optimizer, que analisa continuamente o consumo de cargas de trabalho, custos e restrições de conformidade, ao mesmo tempo que direciona recursos automaticamente em tempo real, tanto no local quanto em nuvens públicas, de forma que garantam esse equilíbrio entre performance e custo.
Para maiores informações, entre em contato conosco!
Posted on By Author Thiago GonçalvesCategories Informações, Notícias, Security, SonicWall
Infraestrutura? Quem precisa disso. As organizações modernas estão reduzindo a prática de execução de software tradicional on-premise e infraestruturas relacionadas a favor de soluções de software como serviço (SaaS).O SaaS oferece opções atrativas e, muitas vezes, essenciais para reduzir o CapEx, as despesas operacionais elevadas e reduzir o tempo de implementação — convertendo tudo isso em agilidade empresarial.
Porém, o aumento da agilidade não está isento de riscos. Ansiosas para manter os projetos em movimento, muitas unidades de negócios internas comprarão novos aplicações SaaS sem a orientação ou a aprovação de equipes de TI ou de segurança adequadas. As organizações MultiSaaS são frequentemente usadas para gerenciar, proteger e relatar cada serviço SaaS separadamente, aumentando ainda mais os riscos com políticas de segurança inconsistentes.
Se sua empresa está implantando mais e mais aplicações SaaS, esteja atento a esses sete riscos de segurança principais para entender onde aplicar SaaS Security.
O phishing ainda é uma ameaça
E-mails continuam sendo o vetor de ameaça mais comum, com mais de 90% dos ataques cibernéticos bem-sucedidos, a partir de um e-mail de phishing. Os cibercriminosos usam e-mails de phishing para ludibriar as vítimas e levá-las a payloads, usando anexos ou URLs mal-intencionados, credenciais de colheita por meio de páginas de login falsas ou fraudes por meio de representação. Além disso, o número de ataques de phishing modernos também está aumentando em termos de sofisticação e os ataques são altamente direcionados.
O phishing evoluiu para ataques baseados na nuvem, à medida que as organizações continuam acelerando a adoção do e-mail por SaaS (por exemplo, Office 365 ou G Suite) e outras aplicações de produtividade. As aplicações na nuvem apresentam uma nova era para o phishing, pois os usuários precisam autenticar para acessar suas contas, e a autenticação é direcionada por meio de protocolos padrão do setor, como o OAuth.
Por exemplo, os criminosos cibernéticos tinham como alvo o O365 com ataques de phishing altamente sofisticados — inclusive o baseStriker, ZeroFont e PhishPoint — para contornar os controles de segurança da Microsoft. Muitos portais de e-mail protegidos, como o Mimecast, também não conseguiram impedir esses e-mails de phishing.
Em outro caso, o Gmail do Google sofreu um ataque de phishing em massa em 2017 com um e-mail que parecia autêntico e que pedia permissão e abria acesso a suas contas e documentos de e-mail. O ataque explorou o protocolo de OAuth da Google.
Invasões de conta abrem a porta
As invasões de contas (ATO) envolvem agentes de ameaça que comprometem as credenciais corporativas de um funcionário, lançando uma campanha de phishing de credencial contra uma organização ou comprando credenciais na Dark Web decorrentes de vazamentos de dados de terceiros. Em seguida, um agente de ameaça utiliza as credenciais roubadas para obter acesso adicional ou aumentar os privilégios. É possível que uma conta comprometida permaneça muito tempo sem ser descoberta por muito tempo — ou nunca seja encontrada.
O roubo de dados ainda é rentável, independentemente de onde é armazenado
O risco de violação de dados é uma grande preocupação para as organizações que se deslocam para a nuvem. A confirmação da medida de uso das aplicações SaaS implica transferir e armazenar dados fora do centro de dados corporativos, onde o departamento de TI da organização não tem controle ou visibilidade, mas ainda é responsável pela segurança dos dados. Os dados armazenados em aplicações SaaS podem ser dados de clientes, informações financeiras, informações de identificação pessoal (PII) e propriedade intelectual (IP). Os cibercriminosos normalmente iniciam um ataque direcionado ou exploram práticas de segurança e vulnerabilidades de aplicações ineficazes para exfiltrar dados.
Perda de controle pode resultar em acesso não autorizado
Outro risco de passar para a nuvem é que o departamento de TI não tem mais controle completo sobre qual usuário tem acesso a quais dados e o nível de acesso. Funcionários podem acidentalmente excluir dados resultando em perda de dados ou expor dados confidenciais a usuários não autorizados resultando em vazamento de dados.
Novo malware e ameaças zero-day desconhecidos
As aplicações SaaS, especialmente serviços de armazenamento de arquivos e de compartilhamento de arquivos (por exemplo, Dropbox, Box, OneDrive, etc.), tornaram-se um vetor de ameaça estratégica para propagar ransomware e malware zero-day. De acordo com o Bitglass, 44% das organizações digitalizadas tinham alguma forma de malware em pelo menos uma das suas aplicações em nuvem. Ataques que ocorrem em ambientes SaaS são difíceis de identificar e interromper, pois esses ataques podem ser realizados sem a conscientização dos usuários.
Uma vantagem de usar aplicações SaaS é que os arquivos e dados automaticamente sincronizam os vários dispositivos. Esse também pode ser um canal de propagação de malware. O invasor teria apenas que carregar um arquivo PDF ou Office mal-intencionado nas aplicações de compartilhamento de arquivos ou armazenamento de SaaS e os recursos de sincronização fariam o resto.
Conformidade e auditoria
As exigências do governo, como a GDPR, e regulações para setores, como saúde (HIPAA), varejo (PCI DSS) e finanças (SOX) requerem ferramentas de auditoria e de relatório para demonstrar conformidade na nuvem, além dos requisitos de proteção de dados. As organizações devem garantir que os dados confidenciais sejam protegidos, implantar recursos para registrar atividades de usuários e permitir trilhas de auditoria em todas as aplicações autorizadas.
As ameaças internas
Quando se trata de segurança, os funcionários são geralmente o elo mais vulnerável. As ameaças internas nem sempre incluem ações mal-intencionada. A negligência do usuário pode resultar em ataque interno acidental, que continua sendo o risco principal para organizações de todos os tamanhos. Esse risco não é isolado a senhas fracas, credenciais compartilhadas ou laptops perdidos\roubados. Ele se estende aos dados armazenados na nuvem, onde podem ser compartilhados com fontes externas e frequentemente acessados de qualquer dispositivo ou local.
O lado sombrio das ameaças internas inclui intenções maliciosas. Os insiders, como os funcionários e administradores de organizações e CSPs, que abusam de seu acesso autorizado a redes, sistemas e dados de uma organização ou CSP, podem causar danos intencionais ou exfiltrar informações.
Como proteger as aplicações SaaS
A rápida adoção de e-mail e das aplicações SaaS, juntamente com os avanços tecnológicos contínuos, resultou em várias opções de proteção para dados e e-mail SaaS.
Combinados com organizações enterprise, os fornecedores de segurança apresentaram os CASB (Cloud Access Security Brokers) como uma solução que oferece visibilidade, controle de acesso e proteção de dados em todos os serviços de computação em nuvem usando um gateway, proxy ou APIs.
Embora os CASBs tradicionais forneçam recursos robustos para organizações enterprise, nem sempre é uma solução prática para todas as organizações. Além de serem caros — com implantações geralmente complexas — poucos CASBs oferecem segurança de e-mail para e-mails baseados em SaaS, como o Office 365 Mail e Gmail, deixando para as organizações implementar e gerenciar controles de segurança separados.
O aumento da adoção de e-mail e aplicações SaaS nas organizações, criou a necessidade de uma solução de SaaS Security acessível e fácil de usar. Felizmente, existem algumas abordagens que podem ajudar a excluir ou eliminar novos riscos causados pelas aplicações SaaS.
Por exemplo, o SonicWall Cloud App Security (CAS) combina proteção de e-mail avançada e proteção de dados para e-mails e aplicações SaaS. Essa abordagem oferece proteção avançada contra ameaças de ataques de phishing direcionados, comprometimento de e-mail corporativo, ameaças zero-day, perda de dados e invasões de conta.
O Cloud App Security também se integra perfeitamente às aplicações SaaS autorizadas, mediante APIs nativas. Esta abordagem fornece segurança de e-mail e funcionalidades CASB que são fundamentais para proteger o cenário SaaS e garantir políticas consistentes em todas as aplicações na nuvem que estão sendo usadas.
Quando usado com Capture Security Center Analytics e integrado com os firewalls de próxima geração da SonicWall, o Cloud App Security fornece visibilidade do Shadow IT e controle por meio de descoberta automatizada na nuvem.
Para saber mais, entre em contato conosco!
Posted on By Author Thiago GonçalvesCategories Aruba, Hewlett Packard Enterprise, Informações, Notícias, Suporte
A automação baseada em IA simplifica as operações de rede
Nos próximos 2 anos, estima-se que mais de 50% dos dados serão gerados fora do data center ou na nuvem, provavelmente provenientes dos estimados 55 bilhões de dispositivos de IoT conectados em todo o mundo. As empresas estão combinando esses dados com novos aplicativos no Edge, viabilizando novas ideias e ações em tempo real para melhorar a eficiência operacional e criar novos fluxos de receita.
Mas, à medida que as empresas passam a capitalizar todos esses dados, o papel da infraestrutura e das operações de rede também muda. Quando você combina grandes volumes de dados com mobilidade onipresente e IoT, fica claro que uma nova abordagem de operações de rede é necessária. Uma que facilite a vida das operações de rede, reduzindo registros de problemas e garantindo SLAs que proporcionam experiências do usuário de qualidade internacional. Uma maneira de resolver rapidamente os problemas de conectividade é usar análise de causa raiz baseada em IA, recomendações precisas e correção automática, para que o departamento de TI possa se concentrar em gerar valor comercial, em vez de lidar com tarefas comuns. E uma abordagem em que a IA prevê e evita os problemas antes que aconteçam.
No entanto, as redes de hoje estão limitadas pela escala humana. Elas são tão ágeis e eficazes quanto as pessoas que as gerenciam. Normalmente, uma pessoa deve solucionar e reparar manualmente um problema de rede e o diagnóstico da causa raiz de um problema pode ser como encontrar uma agulha no palheiro. De acordo com a ZK Research, o engenheiro de rede comum gasta 10 horas por semana dedicadas a encontrar e corrigir problemas de Wi-Fi, e 60% ainda usam a captura de pacotes como a principal ferramenta de solução de problemas. Além disso, a pesquisa da Gartner mostra que aproximadamente 70% das operações de rede ainda são realizadas manualmente, criando atrasos na resolução de problemas. As redes podem e devem fazer mais para aliviar a carga das equipes de rede, oferecer ótimas experiências do usuário e melhorar os resultados dos negócios.
O que é AIOps?
O AIOps (Inteligência Artificial para operações de TI) combina big data e aprendizado de máquina para automatizar os processos de operações de TI, incluindo correlação de eventos, detecção de anomalias e determinação de causalidade – Gartner Inc., 2019
A AIOps da Aruba, impulsionada pelo Aruba Central – uma plataforma baseada em microsserviços nativos da nuvem – elimina as tarefas manuais de solução de problemas, reduz o tempo médio de resolução em até 90% para problemas de rede comuns e aumenta a capacidade da rede em até 25% por meio da otimização da configuração baseada em pares. A próxima geração de IA da Aruba combina exclusivamente análise de rede e análise centrada no usuário não apenas para identificar e informar a equipe sobre anomalias, mas também aplica décadas de experiência em rede para analisar e fornecer ações prescritivas com precisão superior a 95%.
A AIOPS QUE REDEFINE OS RESULTADOS DE TI
A AIOps da Aruba impacta os resultados de TI ajudando a:
1. Entender a causa raiz e resolver os problemas conhecidos rapidamente:
A AIOps da Aruba pode identificar problemas, como conectividade e autenticação, e usar a IA para determinar a causa raiz e fornecer recomendações prescritivas com mais de 95% de certeza. Por exemplo, com as Informações de IA, uma falha típica de autenticação 802.1x pode ser resolvida em menos de 5 minutos, enquanto levaria 20 ou mais horas-homem se usasse os métodos tradicionais.
E com o AI Assist, a AIOps da Aruba pode eliminar o processo demorado de coleta de dados, detectando automaticamente os eventos de falha, como porta do switch ou flaps de túnel da SD-WAN, coletando todas as informações necessárias para a solução de problemas e publicando um alerta ao administrador da rede e ao suporte da Aruba.
2. Identificar e resolver os problemas antes que afetem a empresa:
A AIOps da Aruba permite que o departamento de TI atenda aos SLAs, prevendo as complicações antes que se tornem um problema. Leia o exemplo de um grande varejista nacional na barra lateral à direita.
3. Otimizar o desempenho continuamente, com pouco esforço:
A AIOps da Aruba fornece otimizações de rede sem preocupações e sem dificuldades. As Informações de IA da Aruba analisam dados de dezenas de milhares de implantações e mais de 1 milhão de dispositivos de rede da Aruba. Por meio de nosso processo patenteado, temos capacidade para identificar anomalias, desenvolver otimizações e determinar quais redes de clientes se beneficiariam, independentemente do tamanho. Se uma melhoria feita por um cliente funcionar, as Informações de IA da Aruba fornecem a recomendação, sem nenhum custo, a qualquer outro cliente com necessidades semelhantes.
UM MODELO PARA OPERAÇÕES MAIS INTELIGENTES DE TI
A AIOps da Aruba é entregue via Aruba Central, nosso centro de comando centralizado, que também inclui visibilidade de gerenciamento e segurança unificados para operações com fio, sem fio, trabalho remoto e SD-WAN. Criado com uma arquitetura moderna de escala na Web que inclui microsserviços, contêineres e um data lake comum, o Aruba Central facilita a visualização e a resposta das análises de redes e usuários com IA, em um único painel.
Informações de IA
Mais de 30 Informações de IA individuais estão disponíveis para monitorar o desempenho da conectividade, gerenciamento de RF, roaming de clientes, utilização do tempo de antena e desempenho com fio e SD-WAN. Cada informação foi desenvolvida para reduzir os registros de problemas e garantir os SLAs, abordando os desafios de conectividade, desempenho e disponibilidade da rede.
Os recursos adicionais baseados em IA, criados para simplificar o tempo de resolução e melhorar a confiança do administrador, incluem uma pesquisa baseada em Processamento de Linguagem Natural (PNL), assistência de IA orientada a eventos e relatórios de análise de impacto de AIOps
• Pesquisa de IA: Permite que os administradores usem linguagem natural para pesquisar e encontrar informações relevantes rapidamente.
• AI Assist: Utiliza automação orientada a eventos para acionar a coleta de informações da solução de problemas, identificando os problemas antes que afetem a empresa e praticamente eliminando o processo demorado de coleta e análise de arquivos de log pela equipe. Depois que as informações de log são coletadas automaticamente, a equipe de TI é alertada com logs relevantes que podem ser visualizados e até compartilhados com o Aruba TAC, o que pode auxiliar mais rapidamente na determinação e correção das causas raiz.
• Relatórios de análise de impacto: Depois que as definições de rede ou as recomendações de configuração das Informações de IA são realizadas, esse recurso é exibido antes e depois dos dados de desempenho para ajudar a verificar a alteração alcançada no resultado desejado.
Análise centrada no usuário
Os dispositivos móveis e de IoT se tornaram essenciais para a empresa digital e devem estar sempre ativos com acesso em tempo real a aplicativos e serviços de rede. Para tanto, a TI precisa de uma maneira simples de monitorar, medir e acompanhar continuamente a experiência completa de ponta a ponta para todos os usuários ou dispositivos de IoT. O User Experience Insight (UXI) da Aruba fornece garantia de aplicativos para dispositivos de IoT e usuários e solução de problemas rápida por meio de sensores de fácil implantação. Ao simular as atividades do usuário final com frequência definida pelo administrador, os sensores de UXI realizam testes continuamente em aplicativos centrados no usuário e armazenam as análises capturadas por até 30 dias.
Um console baseado em nuvem ajuda os administradores a ver rapidamente a integridade da experiência geral, serviços de rede e aplicativos internos e baseados em nuvem.
Clicar em qualquer elemento exibe mais detalhes, enquanto a ferramenta de triagem para solução de problemas e a capacidade retroativa tornam a solução mais rápida.
Exemplos de informações e resultados disponíveis:
• Desempenho de conectividade do dispositivo: Todos os estágios das conexões, incluindo autenticação, DHCP e DNS, ajudam a identificar onde os usuários podem ter problemas no processo.
• Capacidade de resposta completa do aplicativo: A visibilidade contínua da capacidade de resposta dos aplicativos internos e hospedados na nuvem por local permite que as operações cheguem à frente dos problemas antes que os usuários relatem um problema.
Perfil e visão automatizados de dispositivos
Em média, leva apenas 5 minutos para um dispositivo de IoT ser atacado depois de conectado à Internet³. Com o aumento drástico de dispositivos de IoT conectados a redes sem e com fio, a visibilidade se tornou um componente crítico para manter os padrões de segurança e conformidade. As abordagens manuais para identificar novos dispositivos e atribuir permissões de acesso apropriadas se tornaram insustentáveis.
O Aruba ClearPass Device Insight se baseia na liderança da Aruba em visibilidade de rede e controle de acesso por meio de uma nova abordagem, usando o aprendizado de máquina e um conjunto exclusivo de métodos de descoberta ativos e passivos para identificar e criar um perfil de toda a variedade de dispositivos conectados às redes atualmente.
Os exemplos de informações e resultados disponíveis incluem:
• Visibilidade de espectro total: Cada dispositivo conectado é exibido para ajudar as equipes de segurança e de rede a eliminar pontos cegos.
• Crowdsourcing: Permite que a grande base instalada da Aruba compartilhe perfis de dispositivos IoT recém lançados com a comunidade para fornecer um banco de dados abrangente de dispositivos.
• Controle de acesso baseado em função: Depois que os dispositivos são identificados e criados o perfil, o Aruba ClearPass Policy Manager pode aplicar as políticas de acesso baseadas em funções apropriadas para garantir que usuários e dispositivos tenham apenas a permissões de TI necessárias.
VOLUME E VARIEDADE DE DADOS + CONHECIMENTO DE DOMÍNIO = AI EM QUE VOCÊ PODE CONFIAR
Para alcançar AIOps confiáveis, você precisa de uma IA excelente. A IA acionável que produz resultados confiáveis depende de três ingredientes principais: um vasto volume e variedade de dados, conhecimento de domínio e cientistas de dados experientes. A AIOps da Aruba aplica mais de 18 anos de experiência comprovada em redes com e sem fio, ao modelar dados de telemetria de mais de 1 milhão de dispositivos com fio, sem fio e SD-WAN para identificar anomalias e fornecer recomendações prescritivas em que os administradores de rede podem confiar.
O EDGE CAPACITADO COM IA
As empresas atuais que procuram converter dados em novos resultados de negócios dependem de uma rede sempre disponível e segura. Com a AIOps da Aruba, a TI pode reduzir os registros de problemas, garantir SLAs e oferecer a melhor experiência possível para os usuários. O volume e a variedade de dados combinados às décadas de conhecimento de domínio de rede e experiência em modelagem de dados da Aruba significam que as Informações de IA da Aruba podem ser implantadas com confiança. O User Experience Insight e o ClearPass Device Insight da Aruba também garantem o cumprimento dos SLAs do usuário e todo o ambiente permanece seguro.
Para maiores informações, entre em contato conosco!
Posted on By Author Thiago GonçalvesCategories Digital, Hewlett Packard Enterprise, Informações, Notícias, Novidades, Uncategorized
Proporcionando experiências de nuvem exclusivas para cargas de trabalho com uso intenso de dados da borda à nuvem
RESUMO EXECUTIVO
A realidade atual da transformação conduzida por dados
Os dados são o combustível da transformação empresarial. No entanto, preparar e aplicar dados à tomada de decisões é uma tarefa complexa. Implantar novas soluções de análise de dados rapidamente e de maneiras novas e inovadoras para construir valor para os negócios é outra área de foco. Em ambos os casos, aplicativos legados, silos de dados e ciclos de desenvolvimento lentos dificultam o progresso. Quanto mais dados forem exigidos por um aplicativo, mais difícil se torna para executar a manutenção desse aplicativo a partir de fontes de dados isoladas e em silos. Por exemplo, um ambiente complexo de machine learning (ML) depende de grandes quantidades de dados para ser decomposto em modelos.
De acordo com a Gartner, mais de 60% dos modelos de ML desenvolvidos com a intenção de operacionalizá-los, na verdade nunca o foram. Há muitos motivos para isso, mas a razão essencial é a falta de ferramentas para viabilizar e facilitar a operacionalização, que não se trata apenas de implantação.
Para obter valor dos dados com mais eficiência, as empresas estão transformando suas soluções locais baseadas em silos em implantações mais ágeis baseadas na nuvem. Para fazerem isso, estão recorrendo à contentorização de suas cargas de trabalho. Dados recentes da Gartner mostram que, até 2022, 75% de todas as organizações terão implantado contêineres.2 No entanto, essa é apenas parte da história. Contêineres são simplesmente uma infraestrutura – um meio de organizar aplicativos e dados. Geralmente, quando a contentorização é mencionada, imediatamente pensamos em tudo que está em execução em alguma nuvem. Entretanto, a IDC relata que 54% dessas novas cargas de trabalho baseadas em contêineres na verdade serão executadas no local.3 Fica clara a necessidade de uma solução unificada na borda, no local e na nuvem.
Este documento aborda os desafios que as empresas enfrentam à medida que se esforçam para acelerar suas iniciativas de transformação digital para melhorar a análise, a tomada de decisões e a capacidade de resposta do mercado, ao mesmo tempo que geram maior eficiência e portabilidade. Também compartilhamos as melhores práticas estabelecidas por meio de transformações conduzidas por dados bem-sucedidas.
Público-alvo
Este documento é destinado a CTOs e a arquitetos de infraestrutura e pode ser relevante para equipes de ciência de dados e Desenvolvimento e operações considerando uma infraestrutura contentorizada para operacionalização de dados.
Finalidade do documento
Este documento técnico corresponde desafios a abordagens inovadoras, porém diretas, para a implantação e a expansão de ambientes do Kubernetes, atualização de análises e modernização de aplicativos monolíticos legados.
DESAFIOS PARA ALCANÇAR UMA TRANSFORMAÇÃO CONDUZIDA POR DADOS
A transformação digital é uma iniciativa estratégica para a maioria das organizações corporativas que procuram obter insights de negócios a partir dos dados. Esses dados frequentemente ficam trancados em silos controlados por aplicativos legados, armazenados em cache para suportar aplicativos de borda ou armazenados em uma nuvem proprietária. Extrair os dados dos silos requer repensar o posicionamento dos dados, bem como a modernização e/ou a transformação de aplicativos. Ao combinar essas ideias, IA e machine learning podem acessar os dados para produzir os insights de negócios prometidos. Silos de dados e aplicativos legados com uso intenso de dados são a principal barreira a ser superada
Petabytes de dados empresariais são as entradas que alimentam IA/ML e geram insights de negócios, e esses dados – crescentes a cada ano – são armazenados em todos os lugares: no data center central, na borda e em várias nuvens públicas. Defender e proteger os dados onde quer que estejam armazenados, garantir que os aplicativos acessem os dados de que precisam, cumprir SLAs e prestar contas sobre o uso de cada recurso da organização são todos desafios constantes.
“Os recursos que conseguimos fornecer com essa plataforma de análise também servem para capacitação de nossos clientes de negócios. Os cientistas de dados ficam distribuídos por toda a empresa. Podemos capacitá-los com acesso à análise como serviço, onde quer que eles estejam, e fazer isso com rapidez, economia e arquitetura perfeita – tudo o que é importante.”
– Dave Carlisle, diretor de tecnologia (CTO) de TI da HPE
No mesmo nível do acesso aos dados, a implantação abrangente de cargas de trabalho via contêineres oferece muitos benefícios em relação às máquinas virtuais (VMs). A proliferação de contêineres e a necessidade de resiliência nas cargas de trabalho tornaram a orquestração de contêineres necessária – e o Kubernetes (K8s), um projeto de código aberto, se tornou efetivamente a solução de orquestração de contêineres padrão do setor.
O Kubernetes lida com muitos aspectos do gerenciamento de contêineres: detecção de serviços e balanceamento de cargas, reinicializações automáticas de contêineres, implantações e reversões automatizadas, otimização de recursos de host, entre outros. Com esse poder vem a complexidade na implantação e mudanças nos processos de desenvolvimento e TI. No entanto, o ecossistema exclusivo oferecido por cada grande fornecedor de nuvem para suporte ao Kubernetes confunde as organizações que procuram consistência e eficiência.
As empresas que desejam a flexibilidade para deslocar cargas de trabalho entre provedores de nuvem estão compreensivelmente preocupadas com a dependência de fornecedor.
A Hewlett Packard Enterprise descobriu que, à medida que as organizações lidam com o acesso aos dados e a implantação do Kubernetes em paralelo, comumente enfrentam os desafios a seguir.
Superando a gravidade dos dados
Grandes repositórios de dados exibem gravidade, tendendo a atrair a computação em direção aos dados. O acesso local aos dados é rápido e eficiente; o envio de grandes quantidades de dados através da rede não é.
Aproveitando todos os dados: Para obter insights melhores, IA, machine learning e outras estruturas de análise de dados precisam acessar mais dados, mas esses dados ficam espalhados no data center central, na borda e em várias nuvens públicas.
Equilibrar insights acelerados com o custo: A solução que for usada para gerenciar e obter valor dos dados deve ajudar uma organização em duas dimensões: custo e desempenho. Se o esforço para cortar custos for muito grande, as inferências resultantes demorarão demais para serem benéficas. Se não forem impostas verificações nos custos, os lucros serão consumidos em prol da velocidade.
Combinando diferentes tipos de dados: Os dados corporativos são armazenados em bancos de dados relacionais e não relacionais, planilhas, logs de eventos e em outras formas em diversos sistemas. Uma solução de acesso aos dados deve dar suporte a toda essa variedade.
Silos de TI inconsistentes
Silos de dados isolam e reduzem o valor de negócios dos dados que detêm – por trás de aplicativos independentes, protocolos fora de padrão, segurança exclusiva, controle de acesso e configurações de governança. Eliminar silos é um desafio constante.
Provisionamento complexo de dados: As empresas querem obter acesso aos dados isolados por trás de aplicativos legados sem ter que primeiro modernizar cada aplicativo, o que é demorado e caro. Além disso, os dados criados na borda ou armazenados em uma nuvem pública proprietária devem ser facilmente acessíveis para todas as cargas de trabalho que dependem deles.
Governança de dados inconsistente: Manter a conformidade consistente em cada fonte de dados com segurança, controles de acesso e políticas de governança é difícil.
Rígida configuração de aplicativos: As empresas enfrentam dificuldades quando cada linha de aplicativo de negócios opera em um único silo de TI e requer uma migração complexa sempre que ocorrerem mudanças na infraestrutura. Informações como endereços IP, protocolos de segurança e acesso e direitos de acesso frequentemente são codificadas e inibem a flexibilidade.
Lidando com a complexidade da implantação do Kubernetes
O Kubernetes (K8s) é um sistema de código aberto para automatização da implantação, expansão e gerenciamento de aplicativos contentorizados. É baseado em 15 anos de experiência em execução de cargas de trabalho de produção no Google™. Normalmente, as implantações do Kubernetes são uma coleção livremente integrada de componentes de software preparados artesanalmente para gerenciar clusters de contêineres em servidores host.
Especificando e implantando o Kubernetes e os softwares relacionados: As empresas podem implantar e configurar muitos componentes de software de uma implantação corporativa do Kubernetes, mas têm achado a experiência desanimadora e cara. Para esses ambientes de DIY, os custos das equipes geralmente são altos e a aquisição de equipes é difícil.
Gerenciamento inconsistente de clusters Kubernetes: Organizações com múltiplos clusters geralmente executam várias versões do Kubernetes, implantadas pela equipe de TI ou por provedores de nuvens públicas. Fornecer serviços consistentes e garantir a responsabilidade pelos custos é difícil.
Adaptando os clusters às necessidades dos negócios: Cada equipe de desenvolvimento de TI, IA/ML, ciência de dados e aplicativos legados precisa de coisas diferentes de seus clusters, como, por exemplo, GPUs, armazenamento ou computação, e interage com seus clusters de maneira diferente. Cada grupo também tem diferentes locais de hospedagem ideais, modelos de implantação e requisitos diários. Uma experiência com Kubernetes de abordagem única não atende às expectativas.
Simplificando os aplicativos legados para contêineres
Os contêineres simplificam a mobilidade dos aplicativos ao encapsular um aplicativo e suas dependências, como bibliotecas de software, configuração e dados. Os contêineres são semelhantes a máquinas virtuais (VMs), mas são livres para criação e uso (sem custo de licença) e são menores do que as VMs. Isso permite que um servidor host execute aplicativos mais contentorizados do que as VMs equivalentes.
Acesso previsível ao armazenamento persistente: Para cumprir os SLAs estabelecidos, as empresas precisam de desempenho e latência previsíveis para aplicativos legados contentorizados à medida que acessam seus dados persistentes, onde quer que esses contêineres de aplicativos sejam executados e seus dados estejam armazenados.
Agilidade da implantação: As empresas querem ter a capacidade de deslocar os aplicativos legados contentorizados entre os ambientes de nuvem à medida que as condições de negócios evoluem. Isso significa migrar os clusters Kubernetes atualmente executados em isolamento no data center central, na borda ou na nuvem pública.
Compilação e teste automatizados: Os benefícios de usar técnicas e ferramentas de desenvolvimento de nuvem normalmente não ficam disponíveis para equipes de aplicativos legados.
ABORDAGENS RECOMENDADAS
Otimizar o acesso aos dados e a implantação de cargas de trabalho para oferecer suporte a uma rápida tomada de decisões requer processos eficientes e uma estreita integração da tecnologia. Iniciativas bem-sucedidas demonstram características comuns; essas melhores práticas podem orientar as empresas à medida que planejam e executam suas próprias transformações.
Gerenciamento de carga de trabalho unificado
A agilidade e a eficiência são aprimoradas quando as empresas podem criar em qualquer lugar, implantar em qualquer lugar e gerenciar tudo junto. Esse plano de controle unificado pode automatizar e gerenciar todos os clusters Kubernetes implantados. A abrangência do controle deve incluir clusters externos hospedados por provedores de nuvens públicas como Amazon Web Services, Microsoft Azure, Google Cloud, entre outras plataformas de nuvem, além dos clusters existentes do K8s (por exemplo, K8s de código aberto ou terceiros) já disponibilizados. O plano de controle unificado abstrai os detalhes de cada interface de gerenciamento do provedor.
O plano de controle unificado também aprimora a governança: ele viabiliza cotas e políticas de segurança em todos os recursos disponíveis para cada unidade de negócios que a plataforma impõe por toda a empresa, no data center central, na borda e entre várias nuvens públicas.
Abordagem consistente para aplicativos como IA e ML
Operacionalizar cargas de trabalho de análise de dados produz insights úteis e oportunos a partir dessas cargas de trabalho. Normalmente, isso inclui a implantação com único clique de configurações de análise comuns para facilitar a consistência e o compartilhamento de soluções. Pode incluir também a automatização de tarefas repetitivas, como obter acesso a dados e expandir o treinamento de modelos ao substituir scripts feitos à mão e etapas manuais. Quando combinados com um sistema de arquivos distribuídos de alto desempenho para fornecer os dados, os cientistas de dados e engenheiros de ML (MLEs) podem trabalhar com mais eficiência e agregar valor aos negócios. Reunidos, esses elementos fornecem um fluxo de trabalho unificado e uma estrutura comum para trabalhar com os dados, experimentos, modelos e ferramentas da organização.
Contentorização de aplicativos legados
As empresas obtêm agilidade operacional com aplicativos legados contentorizados, incluindo Hadoop, que podem ser implantados em qualquer lugar. Isso também evita o custo da refatoração de aplicativos em microsserviços. Quando suportado por um plano de controle unificado, o Kubernetes permite que aplicativos legados de alta disponibilidade, resilientes e contentorizados sejam automaticamente implantados em qualquer cluster. Integrar um sistema de arquivos distribuídos de alto desempenho fornece aos aplicativos legados contentorizados acesso a seus dados persistentes. As equipes de testes e desenvolvedores responsáveis pelos aplicativos legados podem acelerar os ciclos de vida de desenvolvimento usando automação com estilo de nuvem com processos e ferramentas de integração contínua e implantação contínua (CI/CD).
Consistência entre borda, núcleo e nuvem pública
Unifique o monitoramento e o gerenciamento de cargas de trabalho em execução por toda a infraestrutura empresarial – data center central, borda e nuvem. Simplifique e proteja o acesso aos dados usando um sistema de arquivos distribuídos que fornece um espaço de nomes global e impõe políticas de segurança. Otimize o custo e o desempenho ao deslocar cargas de trabalho para qualquer lugar da infraestrutura empresarial à medida que as condições de negócios evoluem. Obtenha operações eficientes e consistentes por toda a infraestrutura empresarial ao usar uma única instância de ferramentas e processos automatizados associados.
Permita que cada equipe use a infraestrutura sem se preocupar com ela
Aumente a produtividade ao atender às necessidades exclusivas de cada equipe com configurações específicas para equipes das ferramentas e dos processos automatizados que usam. Isso permite que as equipes se concentrem em seus trabalhos em vez de lidarem com a infraestrutura. Incentive o uso de melhores práticas ao publicar e compartilhar novas configurações à medida que as necessidades e as melhores práticas evoluem. Aplique um sistema de arquivos distribuídos para otimizar o acesso da equipe a dados, enquanto impõe políticas de governança e segurança. Otimize a utilização dos principais recursos usados por ciência de dados, IA/ML e cargas de trabalho de análise de dados por meio de provisionamento automático – e reprovisionamento dinâmico – de valiosos recursos de CPU e GPU.
Principais requisitos
Resumindo, as melhores práticas requerem:
• Um plano de controle unificado que automatiza tudo de maneira independente da nuvem
• Um sistema de arquivos distribuídos de alto desempenho e em escala empresarial
• A capacidade de conectar aplicativos legados contentorizados a dados persistentes
VISÃO GERAL TÉCNICA DA HPE EZMERAL CONTAINER PLATFORM
A HPE Ezmeral Container Platform é uma solução de software completa que torna mais fácil, rápido e econômico implantar ambientes de IA e Big Data de grande escala, incluindo TensorFlow, Spark, Kafka, Hadoop e muito mais, quer seja no local, em várias nuvens públicas ou na borda.
Os usuários da plataforma podem criar ambientes distribuídos para ML, ciência de dados e análise em minutos, em vez de meses. Uma experiência de provisionamento de autoatendimento está incluída para oferecer os dados e as ferramentas de que as equipes de ciência de dados precisam enquanto fornecem segurança de nível empresarial e reduzem custos.
Conforme mostrado na Figura 1, a HPE Ezmeral Container Platform foi desenvolvida para oferecer suporte a engenheiros de dados, cientistas de dados, desenvolvedores de aplicativos e pessoal de Desenvolvimento e operações.
Várias tecnologias integradas à HPE Ezmeral Container Platform são essenciais para acelerar a transformação conduzida por dados.
Plano de controle unificado – protegido, expansível, de múltiplos clusters
O plano de controle unificado, protegido, expansível, de múltiplos locatários e múltiplos clusters otimiza o gerenciamento de clusters Kubernetes em escala empresarial e fornece uma visão de painel de controle único de todos os clusters e infraestruturas corporativos.
Conforme mostrado na Figura 2, o plano de controle unifica o gerenciamento de clusters sendo executados em diferentes versões do Kubernetes, em ambientes diferentes – nesse caso, no local e no EKS.
Os hosts da plataforma são máquinas físicas e/ou virtuais nos quais o software da HPE Ezmeral Container Platform é implantado. Os hosts podem residir no local, na borda e/ou em uma ou mais nuvens públicas.
Cada host da plataforma cumpre uma das seguintes funções:
• O host do controlador executa o software do plano de controle e controla o restante dos hosts na implantação. O serviço do controlador da plataforma pode ser executado no local, na borda ou em uma nuvem pública. Se a alta disponibilidade da plataforma estiver habilitada, então um host do controlador sombra e um host do arbitrador também serão usados.
• Os hosts de trabalho (nós) estão situados no local, na borda ou em uma nuvem pública e ficam sob o controle direto do controlador da plataforma. Há suporte para clusters com mais de 1.000 hosts de trabalho. Se o plano de controle tiver alta disponibilidade habilitada, então um host de trabalho servirá como o controlador sombra e outro host de trabalho como o arbitrador. Hosts de trabalho executam softwares (serviços) que lidam automaticamente com todo o gerenciamento de clusters virtuais de back-end, eliminando, portanto, a necessidade por suporte de TI complexo e demorado.
• Os hosts de gateway fazem o mapeamento do host do controlador e dos pontos de extremidade de IP de serviço privado para portas/endereços IP acessíveis publicamente quando implantados usando uma rede privada não roteável para nós e contêineres.
Principais recursos do controlador
O controlador aloca dinamicamente os recursos em hosts de trabalho para os clusters e trabalhos de cada locatário conforme a necessidade com base nas configurações do usuário e na disponibilidade de recursos. A alocação dinâmica de recursos permite que a plataforma alcance uma taxa de utilização de host muito mais alta do que as implantações tradicionais de Hadoop e Spark. Os clusters podem ser criados para executar uma ampla variedade de aplicativos, serviços e trabalhos de IA/ML/DL e Big Data.
A funcionalidade do Kubernetes na HPE Ezmeral Container Platform simplifica a criação e a atualização de clusters Kubernetes virtuais que podem ser localizados em hosts físicos locais, máquinas virtuais ou como instâncias de nuvem. O plano de controle flexível de múltiplos clusters e múltiplos locatários permite que você implante vários clusters Kubernetes de código aberto e/ou gerencie clusters Kubernetes de nuvem (por exemplo, EKS) sem necessidade de dependência ou modificação no Kubernetes nativo.
O controlador também fornece serviços de monitoramento e implantação, incluindo atualizações sem interrupção no local, e se integra com os serviços de autenticação e autorização corporativos existentes. Os clusters existentes podem ser importados para gerenciamento pelo controlador. Durante as atualizações, o controlador implementa um processo de atualização em fases para aumentar a disponibilidade dos clusters usando cache de proxy de autenticação e controle granular de falhas de atualização para manter o acesso ao cluster.
Malha de dados – Armazenamento persistente para cargas de trabalho legadas, de IA e ML
A HPE Ezmeral Data Fabric é pré-integrada à HPE Ezmeral Container Platform para unificar o acesso aos dados, a segurança e o gerenciamento. Ela fornece os recursos para lidar com trilhões de arquivos, milhares de nós e centenas de petabytes em milhares de hosts, clusters e racks do cliente em locais geográficos diferentes. Ela tem a capacidade única de se expandir entre data centers empresariais no local, clusters de borda e a nuvem pública. Junto com o modelo de locatário descrito a seguir, ela fornece segurança contínua de dados e aplicativos.
A interface de armazenamento de contêineres (CSI) padrão é usada para fornecer armazenamento de contêineres persistente para cargas de trabalho contentorizadas gerenciadas pelo Kubernetes. Essa abordagem permite uma integração transparente com clientes e ferramentas do Kubernetes existentes.
Aplicativos em execução em clusters virtuais que conseguem usar os protocolos de sistemas de arquivos HDFS podem acessar os caminhos dentro desse recurso usando uma conexão DataTap ou Dtap. O fornecimento de uma conexão Dtap é um recurso exclusivo da HPE Ezmeral Container Platform, mostrado na Figura 3. Ele implementa uma conexão de alto desempenho para armazenamento remoto para contêineres. Isso permite que aplicativos de Hadoop e IA/ML não modificados sejam executados em dados armazenados remotamente sem perda de desempenho.
DataTaps são associadas com um locatário, portanto múltiplos aplicativos e contêineres podem compartilhar uma DataTap enquanto a isolam de outros locatários. Uma instância especial de DataTap criada a partir de armazenamento local para os hosts de plataforma, conhecido como armazenamento de locatário, fornece armazenamento compartilhado persistente acessível por todos os nós usados por um determinado locatário.
O sistema de arquivos em cluster é o armazenamento no qual a plataforma lê e grava dados temporários gerados durante a execução de trabalhos em um determinado cluster. O sistema de arquivos em cluster é integrado ao cluster no armazenamento obtido do armazenamento local do host subjacente.
Diretórios de arquivos exclusivos para cada locatário são automaticamente criados como uma área restrita de armazenamento compartilhado dentro do espaço de armazenamento da plataforma do locatário, quer seja no local ou na nuvem pública. Esse armazenamento por locatário pode ser usado para isolar dados que deveriam ser acessíveis apenas por um locatário. Opcionalmente, ele pode ser usado para impor uma cota do uso do armazenamento do locatário.
A detecção de topologia permite que a HPE Ezmeral Data Fabric faça o acompanhamento de nós e racks em todo o data center. Então, os volumes de dados são colocados nos nós apropriados, dependendo de sua temperatura ou frequência de acesso – quentes, mornos e frios. Os volumes também são movidos automaticamente entre as camadas de dados, conforme a temperatura dos dados muda.
Um espaço de nomes global oferece aos usuários finais uma visão unificada e um método de acesso aos arquivos sem ter que se preocupar com o local físico deles.
A HPE Ezmeral Data Fabric expõe as interfaces NFS e POSIX aos clientes externos, que permitem que você implante tanto aplicativos legados quanto mais novos na mesma plataforma.
MODERNIZANDO CARGAS DE TRABALHO DO HADOOP
A plataforma de contêineres da HPE oferece um caminho para agilizar as implantações existentes de soluções Hadoop, respaldadas por um suporte corporativo 24×7. Essa á uma alternativa atraente para soluções que precisam passar por migrações de fim da vida útil. A orquestração com o Kubernetes viabiliza a capacidade de expansão e uma verdadeira implantação de nuvem híbrida para os componentes tanto dos aplicativos quanto dos dados. Continue a acessar o ambiente HDFS existente usando a tecnologia DataTap da HPE Ezmeral Data Fabric.
Segurança de nível empresarial
A HPE Ezmeral Container Platform inclui integrações com sistemas de segurança do sistema operacional para cima, incluindo serviços de Active Directory, LDAP, Login único (SSO) e Kerberos.
O suporte a múltiplos locatários permite que você restrinja o acesso à plataforma conforme necessário, por exemplo, por unidade de negócios, departamento ou equipe. Cada locatário tem seu próprio conjunto exclusivo de usuários autorizados, DataTaps, aplicativos e clusters virtuais que nunca são compartilhados com outros locatários. Os usuários com acesso a um locatário não podem acessar nem modificar nenhum aspecto de outro locatário, a menos que também estejam atribuídos a uma função naquele locatário.
A segurança baseada em funções permite que os administradores criem agrupamentos de usuários e recursos que restringem o acesso a trabalhos, dados ou clusters com base na associação e/ou funções do departamento, resultando em uma infraestrutura integrada, segura e de múltiplos locatários. A plataforma inclui três funções de usuários, administrador de plataforma, administrador de locatário e membro locatário, que controlam quem pode ver determinados dados e executar funções específicas. As funções são concedidas em uma base por locatário, e cada usuário pode ter no máximo uma função por locatário.
Uma forte segurança de dados é fornecida com autorização integrada, autenticação, entradas de controle de acesso (ACEs) a arquivos, integração com fontes de dados protegidas por Kerberos e criptografia. O TLS é usado para acesso seguro à plataforma, ao plano de controle unificado e aos pontos de extremidade do serviço.
Malha de serviço para microsserviços
A HPE Ezmeral Container Platform inclui a malha de serviço Istio pré-integrada para garantir níveis de serviço de aplicativos de microsserviço. Conforme cresce o número de implantações de microsserviços, eles podem ficar mais difíceis de entender e gerenciar; à medida que aumenta a complexidade, aumenta também a necessidade por detecção de serviços, balanceamento de cargas, recuperação de falhas, métricas e monitoramento.
A plataforma da malha de serviço Istio de código aberto atende aos complexos requisitos operacionais, incluindo comunicações seguras de serviço a serviço com fortes autenticação e autorização baseadas em identidade. Ela também otimiza os testes A/B, implantações canário, limitação de taxa, controle de acesso e autenticação de ponta a ponta.
A implantação e o gerenciamento de serviços Istio são totalmente integrados à interface de gerenciamento de cluster. Os administradores de plataformas e locatários podem habilitar a Istio no nível do locatário ou do cluster com um único clique do mouse, permitindo, portanto, que as equipes de TI implantem aplicativos com detecção de malha de serviço enquanto também oferecem suporte a aplicativos que não utilizam uma malha de serviço.
Gerenciamento de clusters sofisticado e automatizado
A interface de gerenciamento de clusters funciona com os serviços instalados em cada host para lidar automaticamente com todo o gerenciamento de clusters de back-end. O acesso seguro e autenticado à GUI repleta de recursos fornece fácil gerenciamento de clusters no estilo “apontar e clicar” de acordo com a função do usuário. Uma API RESTful permite o desenvolvimento de ferramentas personalizadas. Juntos, eles geram a flexibilidade para usar a interface para criar clusters, implantar aplicativos, gerenciar projetos de ML e muito mais.
Muitos painéis úteis estão incluídos na HPE Ezmeral Container Platform para ajudar a gerenciar e monitorar clusters Kubernetes. Esses painéis incluem o monitoramento detalhado no nível do cluster e o monitoramento de granularidade mais alta no nível do locatário.
Loja de aplicativos
A plataforma inclui uma loja de aplicativos que fornece implantação de único clique de soluções prontas para execução, incluindo ferramentas de Big Data e IA/ML. A ferramenta de código aberto integrada KubeDirector está incluída na HPE Ezmeral Container Platform. Essa ferramenta facilita para levar seus próprios aplicativos personalizados para os clusters Kubernetes. Além disso, como o Kubernetes de código aberto padrão certificado pela Cloud Native Computing Foundation (CNCF) é utilizado, os usuários possuem muitas outras opções padrão para trazer seus próprios aplicativos, assim como o uso de operadores e Helm Charts.
• Ferramentas de Big Data: muitos aplicativos de código aberto populares são fornecidos prontos para uso pela HPE quando a HPE Ezmeral Container Platform é inicialmente instalada. Essas imagens contêm um software de código aberto não modificado que é compatível com a HPE e esses fornecedores. Os usuários também podem adicionar seus próprios aplicativos a qualquer momento. A primeira linha de suporte é fornecida pela HPE.
• Ferramentas de ML/DL, análise e ciência de dados: A loja de aplicativos também inclui ferramentas de código aberto pré-configuradas, incluindo TensorFlow e PyTorch. Outras ferramentas também foram testadas quanto à compatibilidade com a plataforma e podem ser disponibilizadas para os clientes, incluindo tanto aplicativos de código aberto quanto comerciais.
• Ferramentas e aplicativos desenvolvidos internamente: Os clientes podem adicionar seus próprios aplicativos de linha de negócios e outras ferramentas à loja de aplicativos. A plataforma inclui uma bancada de aplicativos que permite que os clientes criem e adicionem novas imagens que possam ser implantadas por seus usuários; esse é o mesmo processo que a HPE usou para criar as imagens fornecidas.
As imagens da loja de aplicativos são independentes da plataforma em si. Qualquer ferramenta ou aplicativo pode ser adicionado ou removido de sua plataforma para atender às suas necessidades específicas. A HPE e os fornecedores de aplicativos podem fornecer novas imagens ou novas versões das imagens existentes, que serão marcadas na loja de aplicativos com um banner “Novo” ou “Atualização disponível”, e o bloco do aplicativo fornecerá um botão para atualizar para a nova versão.
Compromisso da HPE com o código aberto
A HPE Ezmeral Container Platform implementa o Kubernetes certificado pela CNCF com base em Kubernetes upstream 100% de código aberto. Vários projetos importantes de código aberto são integrados à plataforma, incluindo KubeDirector, Istio, Harbor™, SPIFFE e SPIRE. Essas são versões upstream com 100% de código aberto, e não bifurcações, garantindo que as melhorias feitas pela comunidade para esses projetos de código aberto fluam para os clientes da HPE.
A HPE é membro Gold da CNCF e tem colaborado ativamente com a comunidade de código aberto por muitos anos em projetos que incluem KubeDirector, SPIFFE e SPIRE. A HPE também é um Provedor de serviços certificado em Kubernetes (KCSP), um provedor de serviços pré-qualificado com profunda experiência em ajudar as empresas a adotarem e implantarem o Kubernetes com sucesso.
TRANSFORMAÇÃO MOVIDA PELA HPE EZMERAL CONTAINER PLATFORM
Muitas empresas oferecem suporte a tecnologias de código aberto. O valor da HPE Ezmeral Container Platform vem do investimento na integração que gera um produto completo, repleto de recursos e fácil de implantar que soluciona os desafios de negócios que as empresas enfrentam.
Implantação de soluções com único clique para IA, operações de ML e muito mais
As equipes de ciência de dados podem executar suas cargas de trabalho centradas em dados em contêineres com implantação de único clique a partir da loja de aplicativos integrada, usando imagens de contêineres pré configuradas para ferramentas populares de IA/ML. Elas podem copiar e modificar essas imagens para publicar suas próprias configurações ou criar imagens inteiramente novas para publicação, usando a bancada de aplicativos incluída – a mesma ferramenta que a HPE usou para criar as imagens de contêineres pré-configuradas.
A implantação de aplicativos legados contentorizados é feita pelo KubeDirector de código aberto integrado. O KubeDirector é, em termos gerais, um Controlador personalizado do Kubernetes. Essa abordagem permite a integração transparente com o gerenciamento de usuários e recursos do Kubernetes, além de ferramentas e clientes do Kubernetes existentes. A alternativa para usar o KubeDirector seria gravar seu próprio Operador Kubernetes (em código Go) para todos os aplicativos com estado que você queira adicionar ao seu cluster Kubernetes.
A interface da plataforma de contêineres da HPE também simplifica a expansão ou retração de clusters e até mesmo o controle da quantidade de recursos de GPU e CPU provisionados para um cluster. Isso garante máxima utilização desses recursos valiosos, simplifica implantações e, por fim, reduz os custos tanto no gerenciamento quanto na implantação.
OPERACIONALIZE CARGAS DE TRABALHO DE ML
Aumente a velocidade e a agilidade para ML ao operacionalizar os processos de ponta a ponta, desde o piloto do projeto até a produção. O HPE Ezmeral ML Ops é uma solução de software que estende a HPE Ezmeral Container Platform para permitir que as empresas implementem processos no estilo Desenvolvimento e operações para padronizar seus fluxos de trabalho de ML durante os estágios de criação, treinamento, implantação e monitoramento. Isso oferece às equipes de ciência de dados, de ponta a ponta, uma plataforma que atende às suas necessidades dessa área com a flexibilidade para executar suas cargas de trabalho de ML ou deep learning (DL) no local, em várias nuvens públicas ou em um modelo híbrido, além de atendimento aos requisitos de negócios dinâmicos de diversos casos de uso.
Modernização de cargas de trabalho monolíticas com estado
A maioria dos aplicativos de processos de negócios ou transacionais apresenta uma dificuldade para migrar para a nuvem e é complexa demais para refatorar em microsserviços nativos da nuvem de maneira econômica.
MODERNIZE APLICATIVOS LEGADOS – NENHUM APLICATIVO DEIXADO PARA TRÁS
Modernize os aplicativos legados usando a mesma abordagem que a HPE e os clientes da HPE têm usado para trazer aplicativos não nativos da nuvem para a HPE Ezmeral Container Platform.
A HPE Ezmeral Container Platform fornece acesso aos dados persistentes existentes, uma lacuna nas plataformas de contêineres anteriores, que bloqueava a modernização de aplicativos legados. Evite a dependência de um ecossistema de nuvens específico – os contêineres de aplicativos podem ser implantados da loja de aplicativos para o data center central, para a borda ou para qualquer plataforma de nuvem. Reduza o custo por meio de maior utilização da infraestrutura e ao eliminar a necessidade por licenças de hipervisor e virtualização.
A HPE Ezmeral Container Platform foi arquitetada e otimizada especificamente para ajudar a modernizar aplicativos com estado legados em contêineres e implantar em qualquer lugar usando Kubernetes. Ela oferece aos aplicativos legados contentorizados acesso aos dados persistentes existentes armazenados em qualquer lugar.
Os clientes podem usar as mesmas ferramentas e técnicas que a HPE para contentorizar e publicar aplicativos de Big Data tradicionais na loja de aplicativos. Os usuários obtêm implantação de único clique de aplicativos de linha de negócios e outros aplicativos empresariais tradicionais (aplicativos com estado).
Esses recursos exclusivos da HPE Ezmeral Container Platform permitem que as empresas finalmente tragam seus aplicativos legados para o ambiente de nuvem empresarial.
Implantação multinuvem
As organizações querem tomar decisões de implantação de nuvem com base em custos e níveis de serviço. Elas não estão interessadas em lidar com conjuntos concorrentes de silos de nuvem proprietários com restrições exclusivas. A HPE Ezmeral Container Platform fornece um console e uma implantação universais para fornecer gerenciamento de dados e contêineres multinuvem. Essa abordagem gera benefícios críticos:
• A organização pode implantar aplicativos em qualquer nuvem e depois migrar o aplicativo para uma nuvem diferente, já que as condições de negócios impõem uma agilidade crescente dos negócios.
• Os recursos de governança integrados são aprimorados por políticas que impõem restrições de implantação que refletem a soberania de dados e outros requisitos regulamentares. Uma governança consistente entre ambientes de nuvem e no local reduz os riscos.
• As políticas de segurança impõem funções em toda a empresa, separando recursos e cargas de trabalho de locatários e (opcionalmente) aplicando cotas de recursos de unidades de negócios. Políticas de segurança centralizadas, automaticamente aplicadas em toda a empresa e impostas pela plataforma, protegem os valiosos ativos de negócios.
Gerenciamento unificado de todos os clusters Kubernetes na borda, no núcleo e em nuvens públicas
Conforme mencionado anteriormente, a HPE Ezmeral Container Platform inclui um sofisticado painel de gerenciamento de clusters. O painel de clusters predefinido proporciona uma visão de todos os clusters gerenciados pelo plano de controle unificado, onde quer que esses clusters estejam implantados – no data center, na borda ou em várias nuvens públicas. Todos os clusters são gerenciados usando as mesmas ferramentas, simplificando a automação e melhorando a consistência.
O plano de controle unificado oferece suporte aos clusters sendo executados em qualquer ambiente Kubernetes certificado pela CNCF, incluindo clusters Amazon EKS – com extensões para os clusters Google Kubernetes Engine (GKE) e Azure Kubernetes Service (AKS).
O acesso dos aplicativos aos dados é otimizado por administradores de locatários e plataformas que definem DataTaps para dados persistentes. A organização automatizada dos dados em camadas fornecida pela HPE Ezmeral Data Fabric ajuda a garantir que a capacidade de armazenamento investida seja gerenciada com eficiência e usada todas as vezes. A plataforma impõe políticas de governança e segurança de dados.
O espaço de nomes global disponibiliza todos os dados para usuários autorizados, onde quer que estejam armazenados na infraestrutura empresarial.
A consistência e a simplificação do gerenciamento unificado requerem menos conjuntos de habilidades especializadas para definir, configurar e gerenciar, reduzindo, portanto, a complexidade e os custos operacionais.
COMEÇANDO A USAR A HPE EZMERAL CONTAINER PLATFORM
Cada organização tem um conjunto exclusivo de prioridades para sua jornada de transformação. A HPE pode auxiliar as organizações a desenvolver um roteiro baseado nos resultados comerciais necessários.
Para criar sua solução de análise de próxima geração, primeiro devemos compreender sua plataforma existente. A HPE pode fornecer orientação e recomendações, além de um plano passo a passo estabelecido e com escopo para que você possa tomar a decisão certa para seus negócios. Durante uma intensa semana de colaboração com nossa equipe chamada AMP, nossos especialistas analisam sua plataforma de estado atual, incluindo seus fluxos de trabalho/pipelines de dados, aplicativos analíticos, casos de uso, estruturas e fontes de dados e a infraestrutura subjacente. Posteriormente, mapeamos as descobertas do estado atual em relação aos resultados comerciais desejados, às limitações da plataforma atual, aos requisitos de desempenho e aos acordos de nível de serviço (SLAs). Por fim, prescrevemos um plano sistemático para alcançar as metas de estado futuro.
Identificando o conjunto de aplicativos iniciais
Os HPE Pointnext Services podem auxiliar na determinação do melhor lugar para começar. Exemplos incluem aplicativos legados que precisam ser modernizados em contêineres ou análises que requerem ciclos de implantação mais rápidos. Podem incluir também aplicativos atualmente implantados em várias nuvens públicas que precisam da implementação de uma responsabilidade consistente de governança e nível de serviço.
Os HPE Pointnext Services, como serviços de consultoria, assessoria, implementação e suporte, têm o conhecimento técnico de mais de 10.000 instalações para cumprir sua visão. E nossas ofertas como serviço do HPE GreenLake fornecem opções de como consumir nossas soluções, incluindo novos serviços na nuvem com pagamento conforme o uso para contêineres e operações de ML.
Serviços de consultoria e assessoria para acelerar o sucesso inicial
Implantar, operar e fazer a manutenção de contêineres pode ser complicado, devido à falta de habilidades, preparação tecnológica ou barreiras organizacionais. Desde o planejamento, contentorização de aplicativos, desenvolvimento/migração, validação do conceito e pré-produção até a produção em si, a HPE pode ajudar a acelerar a transformação de sua tecnologia, de seu pessoal e de sua economia, para que você possa migrar rapidamente conforme impulsiona a inovação.
Os HPE Pointnext Services têm anos de experiência fazendo a transição da maneira como os clientes desenvolvem e operam as cargas de trabalho de aplicativos. Criamos as arquiteturas, a rede, o armazenamento e a automação adequados para ajudar sua empresa a acelerar a inovação, utilizando nossa combinação de tecnologias e experiência.
O portfólio de serviços inclui a configuração, projeto, implantação, integração, treinamento e suporte para a HPE Ezmeral Container Platform e reduz o risco dos projetos de implantação enquanto simplifica as operações dos clientes.
Os serviços incluem o conhecimento técnico operacional, profissional e de consultoria. Durante a prestação desses serviços, os especialistas dos HPE Pointnext Services trabalham com os clientes para coordenar o planejamento, o projeto, a configuração, a implantação e a validação da solução, além do suporte e treinamento da organização. Os serviços podem ser prestados tanto remotamente quanto no local.
CONCLUSÃO
Todas as empresas percebem o valor dos dados para promover sua transformação digital. A HPE Ezmeral Container Platform fornece a malha de dados, a segurança e os serviços de implantação de contêineres necessários para colocar os dados corporativos para trabalhar e proporcionar insights valiosos mais rápido.
Para maiores informações, entre em contato conosco!
Posted on By Author Thiago GonçalvesCategories Hewlett Packard Enterprise, Informações, Suporte
De termostatos inteligentes a luzes com detecção de movimento, a Internet das Coisas (IoT) já se estabeleceu em muitos aspectos de nossas vidas diárias. Estimativas bem conservadoras falam de quase 41,6 bilhões de dispositivos ou coisas de IoT conectados gerando 79,4 zetabytes (ZB) de dados em 2025.1 Enquanto os clientes continuarão a se beneficiar dessa tendência – na forma de eficiência energética doméstica capacitada por sensores – acontecerá o mesmo com as organizações. Dos fabricantes de automóveis às empresas de petróleo e gás, negócios em todo o mundo estão apostando alto na IoT Industrial (IIoT). Eles buscam obter valor real para os negócios a partir de resultados como prever falhas de equipamentos, evitar acidentes, melhorar os diagnósticos e muito mais. Um dos requisitos da IIoT que está ficando cada vez mais importante é ter potência de computação disponível perto das fontes de dados. Ao contrário da IoT para cliente, em que o volume de dados gerado por cada dispositivo é normalmente baixo, as fontes do IIoT criam um valor significativo de dados. Infelizmente, muitas dessas implantações são bloqueadas por restrições técnicas e outras limitações que evitam que os negócios maximizem seu investimento em IoT.
Uma dessas limitações é o espaço físico restrito. Em muitas situações, é melhor que os dados dos sistemas de IoT sejam processados localmente, já que enviar os dados para a nuvem ou outra instalação remota, para análise, traria atrasos inaceitáveis. Ainda assim, as restrições de espaço fazem com que seja impossível ter um rack completo – ou mesmo parcial – de servidores perto dos sensores de IoT para executar esse processamento local. Por exemplo, pense nos veículos equipados com sistemas de assistência avançada a motoristas (ADAS) para evitar colisões. Dado que a segurança pública está em jogo, os dados dos ADAS deve ser analisado rápida e localmente. O problema é que os carros não podem ocupar muito espaço no porta-malas para armazenar o equipamento de computação necessário. Claro que é possível usar computadores de fator de forma menor para lidar com parte desse problema, mas o software de nível empresarial necessário para executar as análises necessárias não pode ser executado nesse hardware menor, pelo menos, não até agora.
Outro desafio, em alguns casos de uso de IIoT é a largura de banda limitada, seja porque os pipes de rede são menores do que o exigido pelos dados gerados ou porque as conexões de rede são intermitentes. Em qualquer um dos casos, a largura de banda limitada deixa mais difícil os dados dos sensores alcançarem a nuvem (ou o data center no local), onde eles podem ser combinados com outros dados para processamento mais profundo. As plataformas de petróleo, por exemplo, frequentemente ficam em locais remotos onde a conectividade de internet é um luxo, possível apenas com caminhões equipados com Wi-Fi que ficam circulando pela plataforma de quando em quando. Os sensores nessa plataformas são usados para prever melhor falhas iminentes de equipamentos, visando a reduzir o tempo não produtivo e otimizar a produção no campo de petróleo, mas esses resultados poderiam ser enormemente melhorados se os dados dos sensores de várias plataformas fossem analisados agregados – uma tarefa muito difícil ou até mesmo impossível devido às limitações de largura de banda. Um jeito de lidar com esse problema é simplesmente reescalonar ou resumir os dados antes de os enviar. Em muitas situações, essa solução funciona bem, porque o subconjunto de dados é suficiente para análise, mas só funciona quando há potência de processamento total na borda.
E, por fim, os requisitos de privacidade ou conformidade – como aqueles oriundos das regulamentações de residência de dados na UE – podem exigir que alguns dados fiquem na borda da IoT e não possam ser copiados para outros locais para mais processamento. A aplicação dessas políticas é problemática, porque geralmente não há um jeito bom de diferenciar os dados que precisam ficar no local e os dados que podem ser movidos. Em outros casos, os dados podem e devem ser processados em um cluster mais central com recursos maiores de computação, em que análises mais profundas podem ser executadas nos dados que chegam dos muitos dispositivos de borda diferentes. Por exemplo, considere esta situação no contexto da telemedicina. Enquanto os dados dos dispositivos médicos em uma borda podem ser usados para alguns diagnósticos básicos, diagnósticos mais precisos podem ser conseguidos analisando-se os dados de muitos outros dispositivos – possivelmente até de alguns em outros lugares do mundo. Então, seria importante agregar e analisar esses dados em um cluster central mais poderoso e enviar os resultados imediatamente de volta ao centro médico.
A MALHA DE DADOS LEVA A CONVERGÊNCIA ATÉ A BORDA, SUPERANDO OS OSBSTÁCULOS DA IoT
A HPE Data Fabric ajuda as organizações a obterem o potencial completo do seu investimento em IoT, lidando com esses desafios e muitos mais. Ela permite que os clientes implantem uma arquitetura em que eles podem agir localmente e aprender globalmente. Lidando com a necessidade de capturar, processar e analisar os dados gerados pelos dispositivos IoT, a HPE Data Fabric oferece processamento local seguro, agregação rápida de insights em uma base global e a capacidade de levar a inteligência de volta para a borda. Isso causa um impacto mais rápido e significativo nos negócios.
A HPE Data Fabric para borda e IoT oferece um cluster totalmente funcional que pode ser executado em um hardware comum em formato pequeno (como os NUCs da Intel®). Os clusters de borda são suportados em configurações de três a cinco nós, com cada um trazendo serviços de dados empresariais convergentes (como arquivos, tabelas, fluxos, Drill e Spark), juntamente com recursos relacionados de proteção e gerenciamento de dados (como segurança, instantâneos, espelhamento, replicação e compactação).
A HPE Data Fabric pode ser aplicada a muitos casos de uso diferentes, mas é especialmente adequada a ambientes de IoT onde:
O espaço é limitado, impedindo a implantação de um rack completo ou cluster de nós para armazenar e analisar os dados na fonte da IoT
A largura de banda é restrita, fazendo com que a conectividade de rede não esteja sempre disponível ou seja limitada
Os dados precisem ser processados para ação em tempo real na fonte da IoT e/ou os dados brutos precisem ser mantidos na fonte da IoT
Praticamente todos os setores têm (ou podem fazer uso de) implantações de IoT atendendo a esses critérios. Por exemplo,
Varejistas buscando melhorar a experiência do cliente na loja por meio de cupons digitais personalizados
Agricultura, em que os drones são usados para ajudar os fazendeiros aumentam seu ROI por meio do maior rendimento da colheita
Defesa, em que os drones são usados para melhorar a visão do campo de batalha
Energia renovável, com empresas desejando otimizar turbinas de vento e maximizar a geração de eletricidade
Cidades inteligentes buscando aumentar a eficiência energética por meio de pontos de iluminação mais inteligentes e outros dispositivos equipados com sensores
EXEMPLO DE CASO DE USO 1: PETRÓLEO E GÁS
Com o petróleo bruto sofrendo baixas históricas, as empresas de petróleo e gás estão procurando ativamente jeitos de cortar os custos de produção e agilizar suas operações. Essas empresas estão investindo pesadamente em tecnologia, incluindo IoT, para melhorar seu faturamento. Por exemplo, sensores anexados a várias partes das plataformas de petróleo estão sendo usados para prever a produção de petróleo e posicionar as sondas para o rendimento máximo.
Os desafios
• Os sensores das plataformas de petróleo geram grandes quantidades de dados
• As plataformas de petróleo frequentemente ficam em locais remotos, com largura de banda limitada, evitando a agregação e a análise globais dos dados
EXEMPLO DE CASO DE USO 2: FABRICAÇÃO DE AUTOMÓVEIS
Com os sistemas de assistência a motoristas (ADAS) ficando cada vez mais importantes, os fabricantes de automóveis estão equipando os veículos com sensores voltados a evitar colisões, ajudar a estacionar automaticamente e muito mais. Além dos casos de uso do ADAS, os sensores de IoT também estão sendo instalados em veículos para ajudar a prever as necessidades de manutenção e evitar quebras.
Desafios da IoT nos automóveis
• Os veículos têm espaço limitado. Os servidores de tamanho grande que normalmente vemos em data centers não cabem nos carros.
• Os veículos têm limitações de conectividade de rede, com alguns uploads de dados acontecendo apenas quando o veículo é recolhido para manutenção.
PRINCIPAIS RECURSOS
• Agregação de dados distribuídos: Oferece processamento local em alta velocidade, o que é especialmente útil para dados confidenciais ou com restrição de local, como dados pessoais identificáveis (PII) e consolida os dados de IoT dos sites na borda.
• Detecção de largura de banda: Ajusta o rendimento da borda para nuvem e ou data center, mesmo em ambientes que não estão conectados o tempo todo.
• Plano de dados global: Oferece uma visão global de todos os clusters distribuídos em um só espaço de nomes, simplificando aplicação, desenvolvimento e implantação.
• Análise convergente: Combina a tomada de decisões operacionais com análise em tempo real dos dados na borda.
• Segurança unificada: A segurança da IoT de ponta a ponta oferece autenticação, autorização e controle de acesso da borda até os clusters centrais. A borda também fornece criptografia confiável no cabo para dados transmitidos entre a borda e o data center principal.
• Baseado em padrões: A HPE Data Fabric respeita padrões, incluindo APIs POSIX e HDFS, para acesso a dados; ANSI SQL, para consultas; API Apache Kafka, para fluxos de eventos; e APIs HBase e OJAI para banco de dados NoSQL
• Confiabilidade de nível empresarial: Entrega um ambiente computacional confiável para tolerar várias falhas de hardware que podem ocorrer em implantações remotas e isoladas
CONCLUSÃO
A IoT promete trazer grande valor para um vasto conjunto de setores e casos de uso, levando organizações em todos os setores a aumentar seus investimentos nessa importante tecnologia. Conforme as implantações de IoT se aceleram, muitos vão perceber que os desafios na borda – incluindo a largura de banda limitada e as restrições de espaço – estão limitando todo o potencial da tecnologia. A HPE Data Fabric para borda e IoT trabalha dentro dessas restrições, permitindo que as organizações ajam localmente e aprendam globalmente.
Para saber mais, entre em contato conosco!
Posted on By Author Thiago GonçalvesCategories Fortinet, Informações, Notícias, Security
A Universidade César Vallejo é a maior instituição de ensino superior do Peru, com 107 mil alunos em seus 13 campi espalhados pelo país. Los Olivos é o campus principal, onde cerca de 40 mil pessoas estudam e trabalham.
A área de Inovação Tecnológica da universidade tem o constante desafio de gerir a comunicação, a segurança e a infraestrutura tecnológica de uma entidade dessa dimensão, sobretudo para concretizar sua visão: ser reconhecida como uma instituição inovadora. Assim, há muito anos a universidade se compromete em contar com ferramentas tecnológicas que permitam a conectividade à Internet de forma segura a alunos, professores e funcionários.
Antes da pandemia de covid-19, o objetivo da Universidade César Vallejo era conectar toda a população universitária em suas diferentes localidades, visto que oferecer acesso fácil e irrestrito ao conteúdo acadêmico e de pesquisa sempre foi uma prioridade. Por esse motivo, a entidade iniciou a implantação de diversas soluções Fortinet em todos os campi do país.
Com novas regulamentações frente à pandemia, as regras de conectividade mudaram, mas os desafios de segurança de TI permaneceram. A instituição migrou muitos de seus serviços para o digital para que alunos e professores pudessem se conectar remotamente e com segurança à plataforma virtual da universidade. Além de aulas, a plataforma disponibiliza vários aplicativos web e laboratórios virtuais.
Conectividade multiponto com segurança unificada
A Universidade César Vallejo possui campi espalhados por áreas geográficas distantes e com condições bem diferentes, sendo que alguns locais têm conectividade ruim devido à largura de banda limitada. Para superar esses entraves, a instituição implantou o acesso único à Internet para conectar todos os campi e operar de forma centralizada, com um único canal de saída. No entanto, devido às particularidades mencionadas e pela necessidade de garantir a conectividade, a universidade também instalou links dedicados para cada campus e uma conexão redundante, com diferentes prestadores de serviço, a fim de reduzir eventuais contingências.
Para gerenciar toda a rede comunicações, a universidade implementou o Fortinet Secure SD-WAN em cada campus. Além disso, o Fortinet Secure SD-Branch foi instalado para integrar o FortiGate next generation firewall com as soluções de switches para acesso seguro FortiSwitch e os pontos de acesso seguros FortiAP. A tecnologia melhorou significativamente a conectividade em cada campus, evitando interrupções nos serviços. O engenheiro Emerson Anibal Cajahuanca, coordenador de Infraestrutura e Inovação Acadêmica da Universidade César Vallejo, destaca como um diferencial da solução da Fortinet as funcionalidades SD-WAN e SD-Branch. “Se o link de um provedor tiver algum problema, nossa comunidade não será afetada porque a plataforma da Fortinet funciona perfeitamente para garantir que toda a navegação seja roteada para o outro provedor.”
A integração das soluções Secure SD-WAN e Secure SD-Branch garantiu uma arquitetura mais eficiente e segura das redes WAN e LAN, melhorando o serviço, a disponibilidade e a experiência dos alunos. Além disso, a plataforma é gerenciada a partir do console principal do FortiManager. “A solução completa da Fortinet nos dá mais visibilidade de tudo o que acontece em nossa rede. Agora sabemos quem está conectado e podemos aplicar políticas de segurança e controles para tornar a experiência mais segura. Com a Fortinet, temos controle sobre toda a rede de forma fácil, intuitiva e, acima de tudo, centralizada”, comemora Cajahuanca.
A integração da proteção contra ataques de dia zero de FortiSandbox com as soluções Secure SD-WAN e Secure SD Branch garante ainda mais segurança, com uma abordagem automatizada de proteção contra ataques de dia zero. Além disso, com a solução centralizada de relatórios e logs FortiAnalyzer, a equipe de TI da universidade recebe indicadores de rendimento e relatórios que oferecem visibilidade total dos eventos, gerando informes técnicos e de gerenciamento prontos para uso.
Solução eficiente e econômica
Como universidade, a César Vallejo possui aplicativos abertas na Internet e expostas a brechas de segurança. Portanto, o maior desafio era obter uma solução integrada para proteger suas redes LAN e WAN, mas que também fosse fácil de implantar (mesmo com a complexidade de uma grande rede) e tivesse gerenciamento simples, por meio de um único painel de administração.
Antes de implementar o FortiManager, a Universidade configurava de forma individual cada FortiGate, switches e pontos de acesso. Da mesma forma, eram geradas políticas de segurança específicas para cada dispositivo – o que demandava um esforço considerável da equipe de TI. Havia ainda o risco de alguma localidade ser ignorada ou uma política esquecida.
Com o FortiManager, esse processo passou a ser realizado com uma configuração única e aplicado automaticamente em cada um dos campi. Como resultado, o esforço da equipe foi reduzido, erros humanos passaram a ser evitados e o gerenciamento remoto foi otimizado. “Escolhemos a Fortinet não só pelo desempenho técnico, mas por sua integração, fácil implementação e por reunir tudo em um único console, com gerenciamento muito simples”, diz Cajahuanca.
Do ponto de vista da conectividade de rede, o impacto na instituição também foi significativo. Antes, a universidade tinha links MPLS para conectar os campi de diferentes localidades – um serviço caro em termos de largura de banda e suporte do provedor de serviços. Nesse modelo, um campus podia ficar incomunicável se o provedor tivesse problemas de conexão. Já com o Fortinet Secure SD-WAN, a universidade consegue excelente desempenho com alto nível de segurança e custo muito menor. “Hoje, com dois provedores de Internet diferentes, podemos garantir que todas as nossas aplicações críticas estejam conectadas ao nosso data center e funcionando. Além disso, com o Fortinet Secure SD-WAN
conseguimos não apenas saber qual link está ativo, mas também priorizar aplicações de acordo com sua importância na rede para manter a comunicação”, conta o coordenador.
Suporte: a chave para o sucesso
De acordo com Cajahuanca, outro aspecto de grande importância foi o apoio da equipe da Fortinet em todo o processo: “isso é algo que eu realmente gostei na Fortinet. O nível de integração entre a parte comercial e técnica tem sido crucial e nos dá confiança de que tudo que queremos fazer vai funcionar. Não só funcionará, como nos permitirá ir mais longe e obter mais benefícios técnicos e, acima de tudo, conectividade segura.”
Atualmente, a Universidade César Vallejo analisa os próximos passos que dará com a tecnologia implementada e avalia melhorias à sua rede. “Continuaremos adicionando soluções Fortinet para oferecer a mais alta segurança aos nossos usuários em todos os ambientes de conectividade”, conclui.
Para maiores informações, entre em contato conosco!
Posted on By Author Thiago GonçalvesCategories Aruba, Digital, Hewlett Packard Enterprise, Informações, Security, Suporte
Os desafios da segurança de rede evoluíram consideravelmente ao longo dos anos, à medida que os usuários se tornaram cada vez mais descentralizados e os ataques mais sofisticados e persistentes. As abordagens tradicionais de segurança, com foco principalmente no perímetro da rede, tornaram-se ineficazes como estratégias de segurança independentes. A segurança de rede moderna deve acomodar um conjunto diversificado de usuários e dispositivos em constante mudança, bem como ameaças muito mais predominantes, que visam partes anteriormente “confiáveis” da infraestrutura de rede.
O zero-trust surgiu como um modelo eficaz para atender melhor às mudanças nos requisitos de segurança da empresa moderna, supondo que todos os usuários, dispositivos, servidores e segmentos de rede são inerentemente inseguros e possivelmente hostis. O Aruba ESP com segurança zero-trust aprimora a postura geral da segurança de rede, aplicando um conjunto mais rigorosode práticas recomendadas e controles de segurança aos recursos de rede anteriormente confiáveis.
Aruba ESP: Principais Conceitos do Zero-Trust
O zero-trust varia significativamente, dependendo de qual domínio de segurança está sendo considerado. Embora os controles no nível de aplicativo tenham sido um ponto focal no zero-trust, uma estratégia abrangente também deve envolver a segurança de rede e o crescente número de dispositivos conectados, incluindo o trabalho em casa. O Aruba ESP com segurança zero-trust incorpora visibilidade abrangente, menos acesso à microssegmentação e controle, além de monitoramento e aplicação contínuos. Até as soluções VPN tradicionais são aprimoradas, garantindo que os mesmos controles aplicados às redes de campus ou filial também sejam estendidas ao trabalho em casa ou remoto.
Na era da IoT, os princípios básicos de boa segurança de rede costumam ser difíceis de implementar. Quando possível, todos os dispositivos e usuários devem ser identificados e autenticados corretamente antes de terem acesso à rede. Além da autenticação, os usuários e dispositivos devem receber a menor quantidade de acesso necessária para realizar as atividades críticas para os negócios, uma vez que estejam na rede. Isso significa autorizar quais recursos e aplicativos de rede determinados usuários ou dispositivos podem acessar. Por fim, todas as comunicações entre usuários finais e aplicativos devem ser criptografadas.
A Necessidade de Visibilidade Abrangente
Com o aumento da adoção da IoT, a visibilidade total do espectro de todos os dispositivos e usuários na rede tornou-se uma tarefa cada vez mais desafiadora. Sem visibilidade, é difícil aplicar controles críticos de segurança que são compatíveis com o modelo zero-trust. A automação, o aprendizado de máquina baseado em IA e a capacidade de identificar rapidamente os tipos de dispositivos são essenciais.
O Aruba ClearPass Device Insight usa uma combinação de técnicas ativas e passivas de descoberta e perfil para detectar todo o espectro de dispositivos conectados ou que tentam se conectar à rede. Isso inclui dispositivos comuns baseados no usuário, como laptops e tablets. A diferença em relação às ferramentas tradicionais é a capacidade de ver o conjunto cada vez mais diversificado de dispositivos de IoT que se tornaram cada vez mais difundidos nas redes de hoje.
Adoção de “Menos Acesso” e Microssegmentação
Depois que a visibilidade é estabelecida, a aplicação das práticas recomendadas do Zero-Trust relacionadas a “Menos Acesso” e microssegmentação consiste nas próximas etapas essenciais. Isso significa usar o melhor método de autenticação possível para cada endpoint na rede (ou seja, autenticação 802.1X completa e multifator para dispositivos do usuário) e aplicar uma política de controle de acesso que autorize o acesso apenas a recursos absolutamente necessários para esse dispositivo ou usuário.
O Aruba ClearPass Policy Manager viabiliza a criação de políticas de acesso baseadas em funções, que permitem que as equipes de TI e segurança operacionalizem essas práticas recomendadas, usando uma única função e privilégios de acesso associados, que são aplicados em qualquer lugar da rede – infraestrutura com ou sem fio, na filial ou no campus. Após o perfil, os dispositivos recebem automaticamente a política de controle de acesso adequada e são segmentados de outros dispositivos por meio dos recursos de Segmentação dinâmica da Aruba. A aplicação é fornecida pelo Policy Enforcement Firewall (PEF) da Aruba, um firewall de aplicativo completo incorporado à infraestrutura de rede da Aruba. A infraestrutura da Aruba também utiliza os protocolos de criptografia mais seguros, como o padrão WPA3, através de conexões de rede sem fio.
O ClearPass Policy Manager também é integrado a uma ampla variedade de soluções de autenticação, permitindo o uso da autenticação multifator e a capacidade de forçar a reautenticação nos principais pontos da rede. Por meio do ecossistema ClearPass, os clientes também podem incorporar facilmente outras soluções para atender aos requisitos Zero-Trust relacionados a informações contextuais e outra telemetria de segurança.
Isso significa que o ClearPass pode ser integrado a uma ampla gama de soluções, como as ferramentas de segurança de endpoint, para tomar decisões mais inteligentes de controle de acesso com base na postura de um dispositivo. As políticas de controle de acesso também podem ser alteradas com base no tipo de dispositivo que está sendo usado, de onde o usuário está se conectando e em outros critérios baseados em contexto.
Monitoramento e Aplicação Contínuos
Com o controle de acesso baseado em função para aplicar a segmentação granular, o monitoramento contínuo de usuários e dispositivos na rede constitui outra prática recomendada do Zero-Trust. Aborda os riscos relacionados a ameaças internas, malware avançado ou ameaças persistentes que contornam as defesas de perímetro tradicionais.
Defesa contra ameaças com IDS/IPS
Os recursos de defesa contra ameaças da Aruba defendem contra uma infinidade de ameaças, incluindo phishing, negação de serviço (DoS) e ataques de ransomware cada vez mais disseminados. Os gateways de SD-WAN 9000 da Aruba realizam a detecção e prevenção de invasão com base em identidade (IDS/IPS), trabalhando em conjunto com o Aruba Central, o ClearPass Policy Manager e o Policy Enforcement Firewall. O IDS/IPS com base em identidade realiza a inspeção de tráfego com base em padrões e assinaturas, tanto no tráfego de LAN da filial (leste-oeste) quanto no tráfego de SD-WAN (norte-sul) que flui através do gateway para fornecer segurança de rede da filial integrada. Um painel de segurança avançado no Aruba Central fornece às equipes de TI visibilidade em toda a rede, métricas multidimensionais de ameaças, dados de inteligência de ameaças, bem como correlação e gerenciamento deincidentes. Os eventos de ameaça são enviados aos sistemas SIEM e ClearPass para correção.
360 Security Exchange
Com mais de 150 integrações compostas pelas melhores soluções de segurança, que incluem conjuntos de ferramentas SOAR (Security Operations and Response), o ClearPass Policy Manager pode aplicar dinamicamente o acesso com base na telemetria de ameaças em tempo real proveniente de várias fontes. É possível criar políticas para tomar decisões de controle de acesso em tempo real com base nos alertas de firewalls de próxima geração (NGFWs), ferramentas de gerenciamento de informações e eventos de segurança (SIEM) e muitas outras fontes. As ações do ClearPass são totalmente configuráveis, desde a limitação do acesso (ou seja, apenas à Internet) até a remoção total de um dispositivo da rede para correção.
Aruba ESP (Plataforma de Serviços Edge)
Para ajudar nossos clientes a aproveitar as oportunidades no Edge, desenvolvemos o Aruba ESP, a primeira plataforma baseada em IA do setor, criada para unificar, automatizar e proteger o Edge. A segurança zero-trust é um componente essencial do Aruba ESP e, quando combinada com a AIOps e uma infraestrutura unificada, permite que as empresas reduzam os custos, simplifiquem as operações e mantenham a segurança.
Para mais informações, entre em contato conosco
Posted on By Author Thiago GonçalvesCategories Aruba, Hewlett Packard Enterprise, Informações, Suporte
Largura de banda aumentada e à prova de futuro da sua borda e campus
Uma nova era de conectividade
O local de trabalho digital está colocando enormes demandas de recursos em redes de campus. O crescimento do acesso sem fio crítico aos negócios, os serviços baseados em nuvem e as ferramentas multimídia e de colaboração intensivas em largura de banda determinam os gargalos de desempenho que afetam funcionários, clientes e a produtividade dos negócios. A tecnologia Wi-Fi continua avançando com APs 802.11ac e 802.11ax de vários gigabits e agora o campus com fio deve ser atualizado para uma base que aproveite ao máximo essa capacidade de desempenho aprimorada. Os sistemas de cabeamento atuais foram projetados para 1 Gigabit Ethernet e a migração para 10 Gigabit Ethernet várias vezes exigiu extensas atualizações de cabos. Felizmente, o padrão IEEE 802.3bz para Ethernet de vários gigabytes fornece alta velocidade e energia para access points de alta velocidade, como APs 802.11ax e 802.11ac, ao usar os cabos de par trançado CAT5e e CAT6 existentes, economizando as despesas de corte e substituição e a complexidade da nova infraestrutura de cabeamento. Na Aruba, uma empresa da Hewlett Packard Enterprise, chamamos essa tecnologia Ethernet de vários gigabits de HPE Smart Rate.
Demanda de Reformulação da Rede
O uso vertiginoso de smartphones, tablets e dispositivos de IoT combinados com cargas de trabalho de alta largura de banda que se movem pelas redes sem fio exige que a infraestrutura de rede do campus evolua para atender a essas demandas. Essa transformação significa que as empresas precisam atualizar a infraestrutura de WLAN para suportar maiores requisitos de tráfego, desempenho e segurança. Com um número cada vez maior de dispositivos móveis e de IoT dependentes do acesso sem fio, as redes devem ser capazes de acomodar uma mistura diversificada de tipos de dispositivos, aplicativos e serviços. Isso se reflete no surgimento – e rápida adoção – de APs de alto desempenho, como access points 802.11ax. Existem vários fatores importantes que impulsionam a transição para o Wave 2.
Crescimento do tráfego móvel: A adoção de dispositivos de IoT, BYOD e comunicações unificadas (UC) continuará a aumentar as demandas de largura de banda de WLAN.
Capacidade de acesso: Os novos dispositivos de alto desempenho estão aumentando significativamente as exigências de capacidade de largura de banda na infraestrutura de cabeamento de switch de suporte para quase 5 Gbps.
Quando as empresas substituem APs herdados, observarão um aumento imediato na capacidade de WLAN. No entanto, ainda permanece um gargalo que pode impedir que muitas empresas aproveitem esses avanços — a infraestrutura de cabeamento existente e a velocidade da porta do switch à qual o AP está conectado. A maior parte dos cabos Ethernet atualmente implantados no mundo está limitada a 1 Gbps a 100 metros. Até agora, adicionar largura de banda significou grandes investimentos em cabeamento.
A Rede de Campus Conectada, À Prova de Futuro
A tecnologia Etherner de vários gigabits da HPE Smart Rate soluciona esse gargalo de cabeamento sem remover e substituir o cabeamento de par trançado existente. A infraestrutura de cabeamento existente pode ser aproveitada para proteger os investimentos existentes e simplificar as atualizações para soluções de maior velocidade.
O que é HPE Smart Rate?
A HPE Smart Rate é uma interface de rede de par trançado de vários gigabits, interoperável com o ecossistema NBASE-T de produtos 2,5/5 Gbps, bem como com dispositivos padrão de mercado de 1GbE/10GbE. Ela permite que a maioria das instalações de cabos existentes encontradas em ambientes LAN do campus forneçam maior conectividade de largura de banda, distribuam energia PoE para dispositivos conectados e protejam o link com fio para investimentos sem fio de próxima geração.
A Smart Rate oferece 2,5 a 10 vezes mais capacidade de largura de banda da infraestrutura de cabo existente, sem atualizações de cabo dispendiosas e incômodas.
As portas de switch de vários gigas da Smart Rate são compatíveis com velocidades de até 100Mbps1, 1GbE, 2.5GbE, 5GbE e 10GbE2.
Com novos switches IEEE 802.3bt de alta potência, as portas do switch da Smart Rate fornecem até 60W de Power over Ethernet, independentemente da velocidade da porta. O mecanismo usado na Smart Rate para fornecer e receber energia sobre cabeamento estruturado de par trançado é totalmente compatível com as especificações IEEE 802.3bt e IEEE 802.3at PoE. Os clientes podem continuar a alimentar Access Points e acessórios existentes e futuros, independentemente dos requisitos de largura de banda e velocidade de link.
As portas Smart Rate são autonegociáveis, o que permite que o link Ethernet se estabeleça na velocidade mais alta que pode ser alcançada em uma determinada configuração de cabo.
As portas Smart Rate nos switches de rede da Aruba suportam a criptografia de camada MAC 802.1AE padrão do setor, para garantir a confidencialidade e a integridade dos dados com o objetivo de atingir uma melhor segurança entre os switches.
Considerações de cabeamento
Fatores como tipo de cabo e ruído ambiental influenciam o comprimento máximo do cabo do link. A presença de ruído ambiental (geralmente chamado ruído espúrio ou interferência espúria) degrada significativamente a Relação Sinal-Ruído (SNR) e, talvez, o alcance máximo do link. O modo de 2,5 Gbps será uma atualização muito conveniente, pois é compatível com os mesmos tipos de cabo que o do modo de 1Gbps. As distâncias suportadas para velocidades Ethernet e tipo de cabo disponíveis estão na tabela 1 a seguir:
Suporte para Padrões de Ethernet de Vários Gigabits
A Aruba fornece, de modo consistente, soluções compatíveis aos padrões, em vez de proprietárias, para o mercado. A tecnologia HPE Smart Rate foi a primeira a ser comercializada e é interoperável com o ecossistema NBASE-T de produtos Ethernet de vários gigabits de 2,5 G e 5 G hoje e o novo padrão IEEE 802.3bz. A tecnologia Power over Ethernet na Smart Rate é baseada nos padrões IEEE 802.3bt e IEEE 802.3at, que fornece até 60 watts (PSE)/51 watts (PD) em portas compatíveis com classe 6 e 30 watts (PSE)/25,5W (PD) em portas compatíveis com PoE +.
Soluções de Campus da Aruba
A Aruba adota uma abordagem mobile-first para criar a base para o local de trabalho digital e atender aos desafios de desempenho, visibilidade e segurança enfrentados pela TI na construção de uma infraestrutura. Com um portfólio integrado com e sem fio e avanços em gerenciamento e segurança de rede, as melhores empresas podem projetar sua rede corporativa para se prepararem para o local de trabalho digital.
WLAN
Os access points de alto desempenho da Aruba, incluindo o 802.11ax e o 802.11ac Wave 2, oferecem uma solução sem fio estável e de nível empresarial para que os usuários móveis possam fazer roaming ao acessar aplicativos e dados de negócios. À medida que as redes se tornam mais críticas e as empresas usam voz e vídeo por Wi-Fi, as redes com fio e sem fio precisam ser projetadas para oferecer suporte a esses aplicativos, proporcionando uma experiência de usuário eficiente e produtiva.
Switching
O portfólio de switches de rede da Aruba fornece uma base com fio e sem fio verdadeiramente integrada para o local de trabalho digital. Plataformas escaláveis e inovadoras fornecem potência e desempenho com segurança, política e otimização de aplicativos para redes de corporações, pequenas e médias empresas e filiais. As séries de switches Aruba 5400R, Aruba 3810 e 2930M suportam o gerenciamento Aruba AirWave e o Aruba ClearPass Policy Manager, e estão prontas para os mais recentes APs de alto desempenho com portas HPE Smart Rate.
A transição para o local de trabalho digital exige que a rede do campus evolua para atender às demandas de uma força de trabalho altamente móvel e ao aumento previsto de dispositivos de IoT. A Ethernet de vários gigabytes da HPE Smart Rate fornece a capacidade de largura de banda necessária para redes com fio restritas e a proteção de investimento para departamentos de TI que desejam proteger a infraestrutura de rede, à medida que surgem novas tecnologias sem fio. A tecnologia Smart Rate suporta taxas de dados de 1, 2,5, 5 e até 10Gbps com alimentação PoE sobre o cabeamento de par trançado existente e está disponível no portfólio integrado com e sem fio da Aruba.
Para mais informações, entre em contato conosco
Posted on By Author Thiago GonçalvesCategories Aruba, Hewlett Packard Enterprise, Informações, Suporte
Utilização do gerenciamento na nuvem e local da Aruba
As empresas não podem se dar ao luxo de fechar em resposta a incidentes provocados pelo homem, desastres naturais ou pandemias; portanto, o planejamento de contingência é essencial para garantir a continuidade dos negócios. A solução de acesso remoto da Aruba, com plataformas de gerenciamento na nuvem e no local, ajuda os departamentos de TI a lidar com a difícil tarefa de oferecer suporte a uma força de trabalho altamente móvel e que precisa de acesso aos mesmos recursos que os usuários corporativos. Ao fornecer uma solução versátil de rede remota, a TI pode estender com segurança a rede corporativa, a um custo menor e em grande escala, para superar facilmente a complexidade que torna as opções tradicionais de rede remota pouco adequadas para aplicativos de continuidade dos negócios em larga escala. Além disso, várias opções de failover garantem que sites remotos permaneçam ativos em caso de interrupção do serviço principal.
Access Points Remotos
Os APs remotos (RAPs) multifuncionais da Aruba oferecem acesso rápido e seguro à rede sem e com fio aos recursos da empresa para espaços de trabalho móveis, remotos e temporários. Embora qualquer Access Point possa ser usado como um RAP, os Access Points da Aruba, séries 203 e 303, são os modelos RAP mais populares, com recursos como um tamanho pequeno, capacidade de montagem em mesa, uma ou mais portas com fio locais, possibilidade de adicionar energia CA ou adaptadores de médio porte e suporte a saída PoE para alimentar ferramentas de escritório, como impressoras ou telefones VoIP.
Gerenciado em Nuvem
O Aruba Central é o único centro de comando nativo da nuvem do setor para operações multifuncionais de LAN, WLAN, VPN e SD-WAN em locais remotos, campus, filiais e data centers. É uma plataforma unificada de operações, garantia e segurança de rede que simplifica a implantação, o gerenciamento e a orquestração. Isso inclui o fornecimento de requisitos consistentes de conectividade para usuários remotos em satélites, residências e espaços de trabalho temporários usando túneis de sobreposição seguros. Os usuários finais que se conectam de redes Wi-Fi públicas ou privadas também podem instalar o cliente VPN Aruba VIA. Para obter mais informações, leia “Visão geral do Aruba Central para trabalhar em casa”.
Gerenciado no Local
Usando a mesma segurança que os Mobility Controllers em filiais maiores, os RAPs criam uma conexão VPN SSL/IPSec segura de volta ao Aruba Mobility Controller em qualquer transporte de área ampla, incluindo redes celulares, DSL e redes a cabo com simplicidade plug-and-play.
Outras opções de VPN incluem:
IAP-Conexões VPN que permitem aos APs
gerenciados pelo Aruba Central e as redes
independentes do Aruba Instant encerrarem as
sessões nos Mobility Controllers.
Aruba VIA para serviços de VPN que podem encerrar
sessões de usuário final de redes Wi-Fi públicas ou
privadas nos mesmos Mobility Controllers.
Com o software Aruba AirWave, os gerentes de rede de TI podem gerenciar e monitorar centralmente toda a rede distribuída, adequada para locais sem TI dedicada no local. Ao impulsionar o serviço gratuito Aruba Activate, a TI pode transportar RAPs da fábrica diretamente para um local remoto e colocar uma rede local online com zero-touch provisioning.
Assim como os Mobility Controllers na filial, os RAPs oferecem suporte ao gerenciamento centralizado de dados e aplicativos de voz e vídeo, incluindo telefones fixos de voz sobre IP (VoIP), impressoras e outros dispositivos de IoT. A instalação do RAP é plug-and-play, apresenta diagnósticos integrados e pode ser feita facilmente por qualquer funcionário. A instalação das atualizações de software é automática, o que elimina a necessidade de atualizar manualmente centenas ou milhares de sites.
Recursos Exclusivos da Aruba
Acesso contínuo a aplicativos
O RAP da Aruba, assim como o Mobility Controller, amplia a experiência do local de trabalho em qualquer lugar que possua conexão com a Internet ou o celular. Laptops e telefones VoIP funcionam exatamente como no escritório, incluindo discagem de quatro dígitos.
Conectividade WAN resiliente
Se um link de WAN com fio falhar, um intervalo selecionado de modelos de RAP e Mobility Controller pode alternar automaticamente para um modem celular moderno para fazer backup de discagem. O modem celular é conectado a um USB no RAP ou no Mobility Controller, permitindo uma ampla variedade de modems e provedores de serviços.
Conectividade sempre ativa
A solução da Aruba respalda a redundância nos data centers e entre eles. O RAP não precisa ser programado individualmente com informações de rota; ele é capaz de descobrir caminhos alternativos de forma automática. No data center, a alta disponibilidade local baseada em VRRP fornece failover rápido entre dispositivos. Se a conexão do data center se tornar indisponível, os RAPs e os Mobility Controllers podem executar failover em um controlador redundante em outro data center, fornecendo uma segunda linha de defesa.
Zero-Touch Provisioning
Os RAPs podem ser implantados sem que a TI toque nos dispositivos. O administrador simplesmente configura uma lista de RAPs autorizados no controlador. Quando um RAP se conecta e apresenta um certificado digital que corresponde à lista autorizada, ele automaticamente se torna parte da infraestrutura da empresa. As atualizações de configuração e software são carregadas automaticamente em tempo real, à medida que são feitas alterações na configuração.
Segurança com e sem fio
Os RAPs e os Mobility Controllers apresentam conexões seguras com e sem fio, que incluem criptografia e autenticação de usuário para proteger a rede remota. Além disso, o módulo Aruba Wireless Intrusion Prevention (WIP) fornece segurança avançada, e o módulo Policy Enforcement Firewall-V estende o reconhecimento de aplicativos e usuários ao site remoto.
Solução altamente escalável
A solução Aruba Remote Access é extremamente escalável e econômica de um escritório para outro e para milhares de escritórios satélites. Os Mobility Controllers agem como concentradores de VPN e comportam mais de 2.000 RAPs por controlador.
Conformidade regulamentar
SOX, HIPAA, PCI e GLBA e outros regulamentos determinam como os dados são tratados, incluindo a separação de dados e relatórios. O Policy Enforcement Firewall e o AirWave da Aruba são adequados exclusivamente para aplicar políticas administrativas e auxiliar nos relatórios de conformidade.
Gerenciamento centralizado
O gerenciamento e os relatórios podem ser executados pelo controlador Aruba ou AirWave. O AirWave fornece visibilidade na LAN da filial e inclui informações sobre usuários e dispositivos individuais. Ele também se vincula a outros softwares de gerenciamento de TI existentes, fornece amplos recursos de relatórios e oferece visualizações especializadas para suporte técnico, grupos de Segurança/Auditoria e gerenciamento executivo.
As soluções de acesso remoto comprovadas da Aruba para continuidade dos negócios oferecem uma experiência perfeita ao usuário, conectividade segura e robusta e plataformas abrangentes de gerenciamento de TI na nuvem ou no local, visando resposta e recuperação rápida em caso de uma grande interrupção nos negócios.
Para mais informações, entre em contato conosco
Posted on By Author Thiago GonçalvesCategories Aruba, Hewlett Packard Enterprise, Informações, Novidades, Suporte
É Hora De Pensar Diferente Sobre a Maneira De Gerenciar Sua Rede
Conforme os locais de trabalho se tornam mais digitais e a adoção dos aplicativos de nuvem e móveis cresce, as equipes de rede e TI que dão suporte a tudo isso precisam atender ao crescimento das demandas de acesso de rede com segurança e alta velocidade. Chegou a hora de aceitar o valor da nuvem.
Pequena ou grande empresa? Nós oferecemos total cobertura! Visitantes que fazem login a qualquer hora do dia? Não tem problema. Aplicativos de voz e de alto consumo de largura de banda estão sendo executados em sua rede? Nós fornecemos visibilidade e controle para você.
Criar e manter redes sem fio, com fio e WAN nas quais as empresas prosperam deve ser tão simples quanto usar o e-mail. Os dados relevantes têm que estar ao seu alcance. As alterações básicas de configuração devem ser fáceis e acessíveis de qualquer lugar e a qualquer momento. A rede gerenciada em nuvem da Aruba é a resposta.
Nem Todo Gerenciamento na Nuvem é Criado da Mesma Forma
Frequentemente, as soluções de nuvem são simplificadas, com o mínimo de recursos, para satisfazer itens de uma lista de verificação. Embora a simplicidade seja um dos componentes importantes de um serviço de gerenciamento de nuvem, as soluções de nível corporativo precisam oferecer mais.
A solução de rede gerenciada em nuvem da Aruba inclui o Aruba Central, para facilitar o uso do gerenciamento sem fio, com fio e WAN, juntamente com o portfólio de pontos de acesso Instant, switches e gateways remotos da Aruba. Tudo gerenciado centralmente por meio de uma interface baseada na web que é dimensionável, flexível e sempre disponível.
Gestão Integrada de Infraestruturas com Fio, Sem Fio e WAN
A força de qualquer rede gerenciada na nuvem está, em primeiro lugar, na infraestrutura de rede. Os dispositivos sem fio, com fio e WAN líderes de mercado da Aruba são projetados para oferecem bom desempenho e para serem provisionados e gerenciados a partir da nuvem.
Os pontos de acesso Aruba Instant compartilham da mesma segurança, resiliência e capacidade de expansão que nossos pontos de acesso de campus, com o benefício adicional dos recursos de gerenciamento baseados na nuvem. As funções de controladora integradas, o Adaptive Radio Management (ARM) e a tecnologia ClientMatch garantem que a sua rede sem fio seja otimizada automaticamente para confiabilidade e desempenho superior.
Os switches Aruba oferecem tanto o desempenho quanto a confiabilidade de que você precisa para o crescimento dos negócios, ao mesmo em tempo que oferece gerenciamento de nível corporativo. Portas Ethernet multi-gigabit, equipadas com a tecnologia HPE Smart Rate, significam que sua rede pode ser dimensionada com facilidade à medida que sua empresa cresce – preparando seus investimentos para o futuro.
Gateways Aruba fornecem serviços WAN integrados para cada filial ou local remoto. Eles são otimizados para serviços em nuvem e conectividade híbrida e projetados para oferecer o desempenho, a confiabilidade e a segurança necessários para suportar o grande número de dispositivos agora no local de trabalho. A otimização integrada de WAN, a visibilidade granular e a priorização de aplicativos garantem o melhor desempenho possível para aplicativos essenciais aos negócios.
Gerenciamento e monitoramento – o coração de uma rede gerenciada na nuvem
Com o Aruba Central, tudo, desde configurar a rede até monitorá-la e mantê-la, não requer esforço. Seja gerenciando um local ou milhares de locais remotos, uma interfaces que pode ser acessada de qualquer lugar oferecer a visibilidade e o controle de que precisa.
Com zero-touch provisioning, a TI pode enviar APS Instant, switches e gateways Aruba diretamente para os locais remotos, em que qualquer um pode simplesmente tirar os equipamentos da embalagem, ligá-los na tomada e conectá-los à rede. A configuração é baixada automaticamente do Aruba Central – e sua rede começa a funcionar em alguns minutos.
Depois de posto em operação, um painel abrangente oferece uma visão geral da sua rede, juntamente com visualizações de monitoramento de desempenho do aplicativo e do cliente. Análises profundas e detalhadas ajudam a isolar problemas e identificar dispositivos indesejados – garantindo o desempenho máximo, com alguns poucos cliques.
Monitoramento e controle simplificados de central de recepção e gateways de filial através de gerenciamento integrado de WAN (SD WAN) definido por software também são fornecidos. Fluxos de trabalho inteligentes fornecem a capacidade de examinar configurações específicas de dispositivo, política ou circuito para garantir que o desempenho da filial esteja alinhado com as expectativas da empresa e do usuário.
Além disso, o gerenciamento flexível de firmware, os modelos de configuração e a aplicação de políticas de usuários baseadas em função tornam a administração contínua de rede rápida e eficiente.
Serviços de valor agregado e gerenciamento de dispositivos móveis
Wi-Fi de visitante permite o acesso com marca para visitantes, terceirizados ou fornecedores e é simples e totalmente personalizável. Escolha dentre vários métodos de registro e crie páginas de login prontas para dispositivos móveis, com o seu logotipo, mensagens personalizadas de boas-vindas, termos e condições, planos de fundo, cores e imagens – ou simplesmente escolha um dos modelos existentes.
Análise de presença utiliza dados da rede Wi-Fi para compreender os tempos de permanência do usuário e os padrões de engajamento para melhorar as operações. As decisões inteligentes de comercialização, layout, marketing e pessoal podem ser tomadas como um resultado direto – aumentando assim o valor da TI e da rede muito além da intenção inicial.
Integridade de conectividade fornece monitoramento e análise proativos necessários para resolver problemas em todas as fases do processo de conexão, incluindo associação com pontos de acesso, autenticação de rede, atribuição de endereço e acessibilidade de serviço de nomes de domínio.
Os principais indicadores de desempenho são coletados e medidos para isolar a causa raiz e o impacto dos atrasos e falhas do dispositivo e do cliente, com uma pontuação de integridade relativa atribuída a cada fase.
A análise profunda e o registro detalhado também são realizados para fornecer insight adicional sobre as relações de causa e efeito, economizando tempo e recursos ao resolver problemas bem antes de os usuários serem afetados.
Por fim, com os aplicativos Aruba Central Mobile e Installer, sua rede está sempre ao seu alcance. Nunca foi tão fácil monitorar sua empresa, receber alertas e provisionar um AP, switch ou gateway com fácil leitura de código de barras.
Faça Um Investimento Inteligente em Nuvem
Projetado desde o início para a nuvem, o Aruba Central simplifica o gerenciamento de sua empresa distribuída. Não há necessidade de manter nenhum dispositivo e software e oferece segurança que atende aos exigentes requisitos de conformidade atuais.
A redundância integrada com cluster e distribuição em data centers em todo o mundo garante que você esteja sempre ativo e funcionando.
Para mais informações, entre em contato conosco
Posted on By Author Thiago GonçalvesCategories Aruba, Hewlett Packard Enterprise, Informações, Suporte
Estendendo os limites da conectividade remota segura
Em resposta à pandemia do COVID-19, as autoridades estão pedindo a todos que trabalhem em casa – o que fez com que as empresas enfrentassem desafios para garantir que seus funcionários pudessem efetivamente permanecer produtivos neste momento de crise.
A Aruba e os serviços que oferecemos desempenham um papel crítico na capacidade de nossos clientes de estender de forma rápida e segura os serviços corporativos aos funcionários enquanto trabalham em casa. A Aruba está respondendo a isso com a mesma abordagem de “colocamos o cliente em primeiro lugar”, que tem agradado nossos clientes em todo o mundo há mais de 17 anos.
As empresas bem-sucedidas dependem da capacidade dos funcionários de se conectarem, colaborarem e serem produtivos.
Conectividade em casa.
Algumas empresas, como as de depósitos e transporte, exigem que os funcionários estejam fisicamente presentes para desempenhar as funções. Porém, para a grande maioria das empresas, é essencial permitir que os funcionários trabalhem em casa. O cliente Virtual Intranet Access (VIA) da Aruba em execução no dispositivo de um funcionário estabelece uma conexão VPN protegida e permite que ele acesse recursos corporativos com segurança, sem a necessidade de dispositivos de rede adicionais em casa.
A rede corporativa estendida.
Para aqueles que exigem uma experiência de escritório em casa, os Remote Access Points (RAPs) da Aruba, que incluem Access Points gerenciados pelo controlador e na nuvem com VPN (IAP-VPN), oferecem várias opções para uma solução segura que suporta conectividade Wi-Fi e Ethernet.
Utilize o poder da nuvem.
Uma característica importante da entrega de serviços em nuvem é o aumento da capacidade, conforme necessário. Essa pandemia atual é um exemplo importante de como essa capacidade se mostra valiosa. O Aruba Central permite que as empresas gerenciem redes novas (e existentes) de maneira simples e sem presença no local. Quando a necessidade dessas instalações temporárias passar, você poderá voltar aos esquemas normais.
A pandemia do COVID-19 impôs desafios sem precedentes para as equipes de TI encarregadas de garantir a continuidade dos negócios, permitindo que uma força de trabalho fique em ambientes domésticos. A Aruba tem a honra de ajudar nossos clientes e parceiros a manter a eficiência nos negócios neste momento difícil.
Soluções que podem ajudar:
Amplie sua rede
Access Points da Aruba: Amplie sua rede para residências e pequenos escritórios. Seja trabalhando para uma grande empresa ou para pequenas e médias empresas, os Access Points da Aruba são ideais para os trabalhadores que precisam de acesso à rede em locais remotos, mantendo a conectividade com os serviços corporativos.
Virtual Intranet Agent (VIA): O software fácil de implantar e usar fornece conectividade de rede remota segura a recursos corporativos. Use as mesmas credenciais de autenticação corporativa. Aplique e imponha dinamicamente políticas de acesso com base na função do usuário.
Gerenciamento remoto e escalável
Aruba Central: A solução de painel único nativa da nuvem permite que a equipe de TI trabalhe remotamente, mantendo a visibilidade e o controle sobre todos os serviços vitais da rede, na sede e em todas as filiais.
Aruba AirWave: Visibilidade granular das redes com e sem fio de vários fornecedores. O acesso baseado em função e o VIA possibilitam o acesso remoto para manter a equipe de TI segura e saudável.