Microsoft revela o primeiro chip de IA, Maia 100, e a CPU Cobalt

Microsoft anuncia a inovadora Maia 100, o primeiro chip de Inteligência Artificial, e a revolucionária CPU Cobalt

Azure Cobalt

No Microsoft Ignite, o CEO da Microsoft, Satya Nadella, anunciou o processador Azure Cobalt.

Em sua conferência anual para desenvolvedores, a Ignite, a Microsoft revelou, na quarta-feira, o aguardado chip customizado de computação em nuvem para seu serviço Azure, chamado Azure Maia 100, otimizado para tarefas como IA generativa.

O Maia 100 é o primeiro de uma série de aceleradores Maia para IA, afirmou a empresa. Com 105 bilhões de transistores, é “um dos maiores chips fabricados com tecnologia de processo de 5 nanômetros”, disse a Microsoft, referindo-se ao tamanho dos recursos mais pequenos do chip, cinco bilionésimos de metro.

Com 105 bilhões de transistores, o Azure Maia 100 é “um dos maiores chips fabricados com tecnologia de processo de 5 nanômetros”, segundo a Microsoft, referindo-se ao tamanho dos recursos mais pequenos do chip, cinco bilionésimos de metro.

Também: Últimas ofertas de IA da Microsoft para desenvolvedores reveladas na Ignite 2023

Além disso, a empresa apresentou seu primeiro microprocessador desenvolvido internamente para computação em nuvem, o Azure Cobalt 100. Assim como o Maia, o processador é o primeiro de uma série planejada de microprocessadores. Ele é baseado na arquitetura de conjunto de instruções ARM da ARM Holdings, licenciada para uso por várias empresas, incluindo Nvidia e Apple. 

A Microsoft afirmou que o Cobalt 100 é um processador de 64 bits com 128 núcleos de computação integrados e que obtém uma redução de 40% no consumo de energia em comparação com outros chips baseados em ARM que o Azure tem usado. A empresa afirma que a parte Cobalt já está alimentando programas como Microsoft Teams e Azure SQL. 

A CPU Microsoft Azure Cobalt.

Os dois chips, Maia 100 e Cobalt 100, são alimentados por redes com velocidade de 200 gigabits por segundo, segundo a Microsoft, e podem oferecer uma taxa de transferência de dados de 12,5 gigabytes por segundo.

A Microsoft é a última das três principais fornecedoras de nuvem a oferecer silício personalizado para nuvem e IA. O Google foi pioneiro na corrida pelo silício personalizado com sua Unidade de Processamento Tensorial, ou TPU, em 2016. A Amazon seguiu o exemplo com vários chips, incluindo Graviton, Trainium e Inferentia. 

Rumores sobre os esforços da Microsoft têm circulado há anos, ampliados por divulgações ocasionais, como o vazamento do verão passado de um documento de planejamento da empresa. 

Também: Azure AI Studio sobe ao palco na Ignite 2023: Desbloqueie o potencial dessa caixa de ferramentas de IA

A Microsoft destacou que continua a colaborar com a Nvidia e a AMD para obter chips para o Azure. Ela planeja adicionar o mais recente chip GPU “Hopper” da Nvidia, o H200, no próximo ano, além do GPU concorrente da AMD, o MI300.

Os chips da Microsoft ajudarão em programas como GitHub Copilot, mas também serão usados para executar IA generativa da startup de IA OpenAI, na qual a Microsoft investiu US$ 11 bilhões para garantir direitos exclusivos a programas como ChatGPT e GPT-4. 

Um rack personalizado para o acelerador de IA Maia 100 e seu “companheiro” dentro de uma câmara térmica em um laboratório da Microsoft em Redmond, Washington.

No OpenAI’s developer conference na semana passada em San Francisco, o CEO da Microsoft, Satya Nadella, prometeu construir “o melhor poder de computação” para a OpenAI “enquanto vocês avançam agressivamente em sua estratégia.” 

Também: OpenAI revela GPTs personalizados, Store e Assistant API no Dev Day

A Microsoft e a OpenAI estão tentando simultaneamente atrair empresas para o uso de IA generativa. A Microsoft está vendo um grande crescimento nos negócios de IA generativa, disse Nadella ao Wall Street no mês passado. O número de clientes pagantes da empresa pelo software GitHub Copilot aumentou 40% no terceiro trimestre em relação ao trimestre anterior.

“Temos mais de 1 milhão de usuários pagantes do Copilot em mais de 37.000 organizações que assinam o Copilot para negócios”, disse Nadella, “com grande progresso fora dos Estados Unidos.”

Também no Ignite, a Microsoft anunciou que está estendendo o Copilot para o Azure com uma prévia pública do Copilot for Azure, uma ferramenta que, segundo a empresa, fornecerá aos administradores de sistema um “companheiro de IA” que ajudará a “gerar insights profundos instantaneamente.”

Também: CEO da OpenAI: Estamos felizes se a Microsoft fizer uma venda, e eles estão felizes se fizermos uma venda

Além das inovações em chips, a Microsoft anunciou a disponibilidade geral dos programas de banco de dados da Oracle executando em hardware da Oracle na região Azure US East. A Microsoft é a única operadora de nuvem a oferecer banco de dados Oracle em infraestrutura própria da Oracle, afirmou a empresa.

Outras notícias de parceria incluem a disponibilidade geral do serviço de computação de borda da Microsoft, o Arc, para a suíte de virtualização vSphere da VMware.