A AWS revela novo chip de inteligência artificial Trainium e Graviton 4, amplia parceria com a Nvidia

AWS anuncia lançamento do Trainium e Graviton 4, seus novos chips de inteligência artificial, e expande colaboração com a Nvidia.

aws-graviton4-and-aws-trainium2-prototype

O chip Graviton 4, à esquerda, é um chip microprocessador de propósito geral usado pela SAP e outros para cargas de trabalho grandes, enquanto o Trainium 2 é um chip acelerador de propósito especial para programas de redes neurais muito grandes, como AI gerativa.

Na sua conferência anual para desenvolvedores AWS re:Invent em Las Vegas, a Amazon anunciou na terça-feira uma nova versão do Trainium 2, seu chip dedicado para treinamento de redes neurais. O Trainium 2 é ajustado especificamente para treinar modelos de linguagem grandes (LLMs) e modelos de fundação – os tipos de programas de AI gerativa como o GPT-4 da OpenAI.

A empresa também revelou uma nova versão do seu microprocessador personalizado, o Graviton 4, e disse que está ampliando sua parceria com a Nvidia para executar os chips mais avançados da Nvidia em seu serviço de computação em nuvem.

Também: O futuro da computação em nuvem, de híbrida a edge e com inteligência artificial

O Trainium 2 é projetado para lidar com redes neurais com trilhões de parâmetros, ou pesos neurais, que são as funções do algoritmo do programa que lhe conferem escala e poder, em termos gerais. Escalar para parâmetros cada vez maiores é um foco de toda a indústria de IA.

A contagem de trilhão de parâmetros se tornou algo de obsessão na indústria devido ao fato de que se acredita que o cérebro humano contenha 100 trilhões de conexões neuronais – tornando um programa de rede neural com trilhão de parâmetros relacionado ao cérebro humano, não importando se isso é verdade ou não.

Os chips são “projetados para oferecer um desempenho de treinamento até quatro vezes mais rápido e uma capacidade de memória três vezes maior” do que seu antecessor, “melhorando a eficiência energética (desempenho/watt) até duas vezes”, disse a Amazon.

A Amazon está disponibilizando os chips em instâncias de seu serviço de computação em nuvem EC2 conhecidas como “Trn2”. A instância oferece 16 chips Trainium 2 operando em conjunto, que podem ser estendidos para 100.000 instâncias, segundo a Amazon. Essas instâncias maiores são interconectadas usando o sistema de rede da empresa, chamado Adaptador de Tecido Elástico, que pode proporcionar um total de 65 exaFLOPs de potência de computação. (Um exaFLOP é um bilhão de operações de ponto flutuante por segundo.)

Também: AWS revela zonas de nuvem local para uso exclusivo de clientes

Nessa escala de computação, a Amazon afirmou que “os clientes podem treinar um LLM de 300 bilhões de parâmetros em semanas em vez de meses”.

Além de atender aos clientes, a Amazon tem incentivos adicionais para continuar a avançar nos chips de IA. A empresa investiu $4 bilhões na startup de IA generativa Anthropic, um grupo que se separou da OpenAI. Esse investimento coloca a empresa em posição de competir com o acordo exclusivo da Microsoft com a OpenAI.

O chip Graviton 4, que é construído com base na propriedade intelectual de microprocessadores da ARM Holdings, concorre com processadores da Intel e da Advanced Micro Devices baseados no antigo padrão do chip x86. O Graviton 4 possui “30% melhor desempenho de computação”, disse a Amazon.

Também: Por que a Nvidia está ensinando robôs a girar canetas e como a IA gerativa está ajudando

Ao contrário dos chips Trainium para IA, os processadores Graviton são destinados a executar cargas de trabalho mais convencionais. A Amazon AWS afirmou que os clientes – incluindo Datadog, DirecTV, Discovery, Formula 1, Nielsen, Pinterest, SAP, Snowflake, Sprinklr, Stripe e Zendesk – usam os chips Graviton “para executar uma ampla gama de cargas de trabalho, como bancos de dados, análises, servidores web, processamento em lote, servidores de aplicativos e microsserviços.”

A SAP afirmou em comunicado que conseguiu obter “melhoria de desempenho de preço de 35% para cargas de trabalho analíticas” ao usar seu banco de dados em memória HANA nos chips Graviton, e que “estamos ansiosos para avaliar o Graviton4 e os benefícios que ele pode trazer para nossos clientes em comum.”

Os novos chips sucedem dois anos após a introdução em 2021 do Graviton 3 e do original Trainium.

A notícia da Amazon vem logo após a introdução feita pela Microsoft na semana passada de seus primeiros chips para IA. A Google, outro titã do setor de nuvem ao lado da Amazon e Microsoft, antecedeu ambos em 2016 com o primeiro chip de nuvem para IA, o TPU, ou Tensor Processing Unit, do qual já foram oferecidas várias gerações.

Também: Amazon transforma o Fire TV Cube em um cliente leve para empresas

Além dos dois novos chips, a Amazon disse ter estendido sua parceria estratégica com a gigante de chips de IA Nvidia. A AWS será o primeiro serviço de nuvem a executar o futuro produto multi-chip GH200 Grace Hopper da Nvidia, que combina a CPU ARM-based Grace e o chip GPU Hopper H100.

O chip GH200, que está previsto para começar a ser enviado no próximo ano, é a próxima versão do chip combo Grace Hopper, anunciado no início deste ano, que já está sendo enviado em sua versão inicial em computadores da Dell e outros.

Os chips GH200 serão hospedados na AWS por meio dos computadores de IA desenvolvidos especialmente pela Nvidia, os DGX, que, segundo as duas empresas, acelerarão o treinamento de redes neurais com mais de um trilhão de parâmetros.

A Nvidia afirmou que tornará a AWS seu “provedor de nuvem principal para pesquisa e desenvolvimento em ML.”