NVIDIA apresenta inovações no Hot Chips que melhoram o desempenho e a eficiência energética dos data centers. Em quatro palestras na conferência, engenheiros da empresa compartilhão detalhes sobre a plataforma NVIDIA Blackwell, novas pesquisas sobre resfriamento a líquido e agentes de IA para auxiliar no design de chips
Uma conferência de tecnologia avançada para arquitetos de processadores e sistemas da indústria e da academia se tornou um fórum fundamental para o mercado de computação de data centers, avaliado em trilhões de dólares. No Hot Chips 2024, que acontecerá na próxima semana, engenheiros sêniores da NVIDIA apresentarão os avanços mais recentes que impulsionam a plataforma NVIDIA Blackwell, além de pesquisas sobre resfriamento a líquido para data centers e agentes de IA para design de chips.
Eles compartilharão como:
- A NVIDIA Blackwell reúne múltiplos chips, sistemas e o software NVIDIA CUDA para impulsionar a próxima geração de IA em diversos casos de uso, indústrias e países.
- O NVIDIA GB200 NVL72 — uma solução de rack multi-node, resfriada a líquido, que conecta 72 GPUs Blackwell e 36 CPUs Grace — eleva o padrão de design de sistemas de IA.
- A tecnologia de interconexão NVLink oferece comunicação GPU para GPU, permitindo uma inferência de IA generativa com alto rendimento e baixa latência.
- O Sistema de Quantização Quasar da NVIDIA ultrapassa os limites da física para acelerar a computação de IA.
- Pesquisadores da NVIDIA estão desenvolvendo modelos de IA que auxiliam na construção de processadores para IA.
Uma palestra sobre a NVIDIA Blackwell, que ocorrerá na segunda-feira, 26 de agosto, também destacará novos detalhes arquitetônicos e exemplos de modelos de IA generativa rodando em silício Blackwell.
Precedendo essa palestra, três tutoriais no domingo, 25 de agosto, abordarão como soluções híbridas de resfriamento a líquido podem ajudar data centers a transitar para uma infraestrutura mais eficiente em termos energéticos e como modelos de IA incluindo agentes movidos por grandes modelos de linguagem (LLM), podem ajudar engenheiros a projetar a próxima geração de processadores.
Essas apresentações, em conjunto, mostram como os engenheiros da NVIDIA estão inovando em todas as áreas da computação e design de data centers para oferecer desempenho, eficiência e otimização sem precedentes.
Prepare-se para a Blackwell
A NVIDIA Blackwell é o desafio definitivo de computação full-stack. Ele compreende múltiplos chips da NVIDIA, incluindo a GPU Blackwell, a CPU Grace, a unidade de processamento de dados BlueField, a placa de interface de rede ConnectX, o switch NVLink, o switch Ethernet Spectrum e o switch InfiniBand Quantum.
Ajay Tirumala e Raymond Wong, diretores de arquitetura da NVIDIA, apresentarão uma primeira visão da plataforma e explicarão como essas tecnologias trabalham juntas para oferecer um novo padrão de desempenho em IA e computação acelerada, ao mesmo tempo que avançam na eficiência energética.
A solução multinode NVIDIA GB200 NVL72 é um exemplo perfeito. A inferência de LLMs requer geração de tokens com baixa latência e alto rendimento. O GB200 NVL72 atua como um sistema unificado para fornecer até 30x mais rapidez na inferência para cargas de trabalho LLM, desbloqueando a capacidade de executar modelos com trilhões de parâmetros em tempo real.
Tirumala e Wong também discutirão como o Sistema de Quantização Quasar da NVIDIA — que reúne inovações algorítmicas, bibliotecas e ferramentas de software da NVIDIA, e o segundo motor Transformer de geração do Blackwell — suporta alta precisão em modelos de baixa precisão, destacando exemplos com LLMs e IA generativa visual.
“A plataforma NVIDIA Blackwell representa um marco significativo na evolução da computação acelerada, unindo o que há de mais avançado em hardware e software para impulsionar a próxima geração de inteligência artificial. Combinando múltiplos chips, como as GPUs Blackwell e as CPUs Grace, estamos estabelecendo novos padrões de desempenho e eficiência energética, permitindo que empresas em todo o mundo desbloqueiem o verdadeiro potencial da IA em escala”, reforça Marcio Aguiar, diretor da divisão Enterprise da NVIDIA para América Latina.
Mantendo os data centers frios
O tradicional som de data centers resfriados a ar pode se tornar uma relíquia do passado à medida que pesquisadores desenvolvem soluções mais eficientes e sustentáveis que utilizam resfriamento híbrido, uma combinação de resfriamento a ar e a líquido.
Técnicas de resfriamento a líquido afastam o calor dos sistemas de forma mais eficiente do que o ar, facilitando a manutenção de sistemas de computação frios, mesmo ao processar grandes cargas de trabalho. O equipamento para resfriamento a líquido também ocupa menos espaço e consome menos energia do que os sistemas de resfriamento a ar, permitindo que data centers adicionem mais racks de servidores — e, portanto, mais poder de computação — em suas instalações.
Ali Heydari, diretor de resfriamento de data centers e infraestrutura da NVIDIA, apresentará vários designs para data centers resfriados de forma híbrida.
Alguns designs adaptam data centers resfriados a ar existentes com unidades de resfriamento a líquido, oferecendo uma solução rápida e fácil para adicionar capacidades de resfriamento a líquido a racks existentes. Outros designs exigem a instalação de tubulação para resfriamento a líquido direto ao chip, utilizando unidades de distribuição de resfriamento ou submergindo totalmente os servidores em tanques de resfriamento por imersão. Embora essas opções demandem um investimento inicial maior, elas resultam em economias substanciais tanto no consumo de energia quanto nos custos operacionais.
Heydari também compartilhará o trabalho de sua equipe como parte do programa COOLERCHIPS, do Departamento de Energia dos EUA, para desenvolver tecnologias avançadas de resfriamento de data centers. Como parte do projeto, a equipe está usando a plataforma NVIDIA Omniverse para criar gêmeos digitais informados por física que os ajudarão a modelar o consumo de energia e a eficiência de resfriamento para otimizar os designs de seus data centers.
Agentes de IA contribuem para o design de processadores NVIDIA
O design de semicondutores é um desafio colossal em escala microscópica. Engenheiros que desenvolvem processadores de ponta trabalham para colocar o máximo de poder computacional possível em um pedaço de silício de alguns centímetros, testando os limites do que é fisicamente possível.
Modelos de IA estão apoiando esse trabalho, melhorando a qualidade do design e a produtividade, aumentando a eficiência de processos manuais e automatizando algumas tarefas demoradas. Os modelos incluem ferramentas de predição e otimização para ajudar engenheiros a analisar e melhorar rapidamente os designs, bem como LLMs que podem ajudar engenheiros a responder perguntas, gerar código, depurar problemas de design e muito mais.
Mark Ren, diretor de pesquisa em automação de design da NVIDIA, fornecerá uma visão geral desses modelos e seus usos em um tutorial. Em uma segunda sessão, ele se concentrará em sistemas de IA baseados em agentes para design de chips.
Agentes de IA movidos por LLMs podem ser direcionados para completar tarefas de forma autônoma, desbloqueando amplas aplicações em diferentes indústrias. No design de microprocessadores, pesquisadores da NVIDIA estão desenvolvendo sistemas baseados em agentes que podem raciocinar e agir usando ferramentas personalizadas de design de circuitos, interagir com designers experientes e aprender com um banco de dados de experiências humanas e de agentes.
Os especialistas da NVIDIA não estão apenas construindo essa tecnologia — eles estão usando-a. Ren compartilhará exemplos de como os engenheiros podem usar agentes de IA para análise de relatórios de temporização, processos de otimização de clusters de células e geração de código. O trabalho de otimização de clusters de células recentemente ganhou o prêmio de melhor artigo no primeiro Workshop Internacional da IEEE sobre Design Assistido por LLM.