A Intel revelou planos para sua unidade de processamento de infraestrutura (IPU) de próxima geração em seu evento inaugural Intel Vision.
A Intel está apostando que as futuras operações do data center contarão com servidores cada vez mais poderosos rodando CPUs programáveis baseadas em ASIC, e está apostando no desenvolvimento de uma unidade de processamento de infraestrutura (IPU), um dispositivo de rede programável. A Intel visa reduzir a sobrecarga e melhorar o desempenho da CPU.
A Intel é um de um número crescente de fornecedores – incluindo Nvidia, AWS e AMD – trabalhando para construir smartNICs e DPUs para oferecer suporte a serviços de nuvem, computação, rede, armazenamento e segurança definidos por software projetados na borda, hospedagem ou provedor de serviços de rede para implantação rápida.
As IPUs originais da Intel combinavam CPUs Xeon e FPGAs, mas eventualmente evoluirão para ASICs poderosos que podem ser personalizados e controlados usando o software Infrastructure Programmer Development Kit (IPDK) baseado em sistemas abertos. O IPDK é executado no Linux e usa ferramentas de programação como SPDK, DPDK e P4 para dar aos desenvolvedores controle sobre virtualização de rede e armazenamento e configuração de carga de trabalho.
Na inauguração do Intel Vision no Texas esta semana, a Intel falou sobre outros novos chips e como a inteligência artificial funcionará em data centers. Ele estabeleceu um roteiro para o desenvolvimento de sua IPU e detalhou por que a combinação de equipamentos será uma parte importante de seus planos de data center.
Específico para seu roteiro de IPU, a Intel diz que entregará duas IPUs de 200 Gb até o final deste ano. Um, codinome Mount Evans, foi desenvolvido pela equipe do Google Cloud da Alphabet Inc.. E, neste ponto, servidores de data center e hiperescaladores de ponta serão direcionados.
A IPU Mount Evans baseada em ASIC pode suportar casos de uso existentes, como descarregamento de vSwitch, firewall e roteamento virtual. Ele implementa uma interface de armazenamento NVM acelerada por hardware aprimorada pela tecnologia Intel Optane para emular dispositivos NVMe.
A segunda IPU, codinome Oak Springs Canyon, é o FPGA de próxima geração do fornecedor que usa processadores Xeon D e FPGAs Intel Agilex para lidar com a rede com lógica programável personalizada. Ele fornece offload de função de virtualização de rede para cargas de trabalho como Open Virtual Switch (OVS) e funções de armazenamento como NVMe over Fabric.
Olhando para o futuro, a Intel diz que uma IPU de terceira geração chamada Mount Morgan e uma IPU baseada em FPGA chamada Hot Springs Canyon serão lançadas em 2023 ou 2024 e aumentarão a taxa de transferência da IPU para 400 Gb. A Intel espera enviar IPUs de 800 Gb em 2025 ou 2026.
Uma das chaves para a tecnologia IPU da Intel é um mecanismo de processamento de pacotes programável rápido que todos os dispositivos suportam. Seja um produto baseado em FPGA ou ASIC, os clientes podem programá-lo usando a linguagem de programação P4, que existe desde 2013, e suporta processos como localizar, alterar, modificar, criptografar e compactar, disse o vice-presidente sênior Nick McKeown. Presidente e gerente geral do Networking and Edge Group (NEX) da Intel. McKeon fundou várias startups de rede, incluindo a Barefoot Networks, que a Intel adquiriu em 2019, e recebeu a Medalha IEEE Alexander Graham Bell 2021 por contribuições excepcionais para comunicações e ciência e engenharia de redes.
“Os datacenters corporativos ou baseados em nuvem podem programar servidores e dispositivos do datacenter até a borda com semelhança de processamento de pacotes que permite controlar congestionamento de rede, encapsulamento, roteamento e outros recursos para controlar cargas de trabalho”, disse McKeown.
“E esperamos que essa tecnologia tenha muitas aplicações em firewalls, gateways, balanceamento de carga empresarial, descarregamento de armazenamento e muito mais.
Esperamos que as IPUs sejam dispositivos de computação extremamente eficientes para todos esses tipos de aplicativos de rede.”
“Quando olharmos para trás em alguns anos, acho que descobriremos que data centers corporativos e hiperescaladores pensarão na rede que interconecta CPUs e aceleradores… como algo que eles programam. Eles vão pensar nisso como IPUs que eles programam”, disse McKeown.
Em um artigo recente da Network World, o cofundador e diretor de negócios da Pensa, Soni Jiandani, disse que a ideia é permitir que as empresas executem sua infraestrutura de uma maneira que apenas os hiperescaladores podem pagar hoje. A AMD adquiriu recentemente a Pensa por US$ 1,9 bilhão para obter acesso à arquitetura baseada em DPU e à tecnologia desenvolvida pela Pensa. “Há uma variedade de casos de uso, como 5G e IoT, que precisam suportar muito tráfego de baixa latência”, disse Jiandani.
Os aplicativos de segurança também são casos de uso emergentes para IPUs, DPUs e smartNICs.
Segundo a VMware, em ambientes virtualizados, será importante colocar recursos como criptografia de tráfego de rede no smartNIC. “No nosso caso, também instalaremos firewalls NSX e software SDN totalmente virtualizado ou switches vSphere em smartNICs, o que permitirá que os clientes tenham sistemas de segurança distribuídos totalmente programáveis”, disse Paul Turner, vice-presidente de gerenciamento de produtos da VMware, em um comunicado anterior. entrevista sobre o surgimento de SmartNICs na empresa.
“Em termos de criptografia zero e processamento rápido, podemos fazer criptografia de taxa de linha com o IPU—200G hoje, 400G no futuro—dos algoritmos de criptografia mais populares. Nossos clientes podem então programar comportamentos que sejam mais adequados para seu ambiente, ou podem simplesmente adotar algoritmos de criptografia padrão”, disse McKeown, da Intel.
Leia também: 15 melhores bibliotecas UI JavaScript para criar aplicativos modernos