O Futuro da Inferência de AI Eficiente O Chip Inovador da EnCharge AI

A revolucionária fusão de computação analógica e digital da EnCharge AI tem o potencial de melhorar significativamente a eficiência energética da inteligência artificial geradora durante tarefas de previsão.

“`html

Melhorando a eficiência do GenAI com um novo chip.

📷encharge-2024-verma-chip-prototype-01

2024 está se moldando para ser o ano em que a inteligência artificial generativa (GenAI) dá um salto adiante, à medida que negócios e eletrônicos de consumo começam a usar a tecnologia para previsões em grande volume, também conhecidas como inferência. Mas para dar esse salto, precisamos enfrentar o desafio de executar esses modelos de IA complexos em dispositivos com restrição energética. Entra a EnCharge AI, uma startup de semicondutores que acabou de receber uma bolsa de US$ 18,6 milhões da Agência de Projetos de Pesquisa Avançada de Defesa dos Estados Unidos (DARPA) para desenvolver circuitos de baixo consumo de energia para inferência.

🤝 A EnCharge AI está se associando com a Universidade de Princeton para avançar no desenvolvimento de circuitos inovadores que poderiam revolucionar a inferência de IA. Ao combinar componentes digitais e analógicos, a EnCharge AI visa melhorar drasticamente a eficiência energética dos cálculos de IA. Sua abordagem, conhecida como computação na memória (IMC), visa reduzir o consumo de energia do acesso à memória, o aspecto mais intensivo em energia da computação.

O Poder do Analógico

✍️ O avanço da EnCharge AI reside em seu uso criativo de circuitos analógicos. Embora a computação analógica seja reconhecida há muito tempo como mais eficiente em termos energéticos do que a digital, fazê-la funcionar sempre foi um desafio. A EnCharge AI encontrou uma forma de superar os obstáculos. Em vez de tentar realizar todo o processo de computação de forma analógica, eles se concentram em tornar a operação de “acumulação” mais eficiente. Nesta abordagem, a multiplicação de matrizes ainda é tratada por circuitos digitais, enquanto a acumulação é feita de forma analógica usando capacitores. Essa combinação permite acumulações paralelas de multiplicação de matrizes a um custo energético muito menor do que os circuitos digitais tradicionais.

💡 A chave aqui é que os programas de IA dependem muito de tarefas intensivas em memória e, ao otimizar essas tarefas, a eficiência geral da computação de IA pode ser muito melhorada. A tecnologia inovadora da EnCharge AI promete ser “30x” mais eficiente do que esforços anteriores.

🤖 Os Desafios da Computação Analógica

🐍 A computação analógica tem sido notoriamente difícil de implementar e muitas tentativas anteriores fracassaram. O principal problema da computação analógica é o ruído inerente, que afeta a precisão e confiabilidade dos cálculos. Mas a EnCharge AI superou esse obstáculo ao usar capacitores em vez de medir correntes. Os capacitores armazenam carga em vez de usar correntes, reduzindo o ruído e aumentando a eficiência energética.

💪 Outra vantagem da abordagem da EnCharge AI é o uso econômico de capacitores. Ao contrário de métodos de computação analógica anteriores que exigiam técnicas de fabricação exóticas, os capacitores podem ser facilmente incorporados aos processos padrão de fabricação de semicondutores. Na verdade, os capacitores são feitos das camadas metálicas comuns usadas para interconectar transistores, ou seja, eles são essencialmente gratuitos.

Um Grande Salto em Eficiência Energética

🚀 Os protótipos da EnCharge AI já demonstraram uma melhoria significativa em eficiência energética. Eles alcançaram uma taxa de processamento de 150 trilhões de operações por segundo por watt ao lidar com inferência de rede neural em quantização de oito bits. Em comparação, abordagens anteriores como a da Mythic alcançaram, no máximo, dezenas de TOPS por watt. Isso significa que os chips da EnCharge AI são “30x” mais eficientes do que as soluções anteriores.

🌐 Mas a eficiência não é o único desafio no mercado de IA. A escala é outro fator crítico. A OpenAI e outras organizações estão construindo modelos incrivelmente grandes com trilhões de pesos de rede neural, que não cabem inteiramente na cache SRAM do chip. O software inteligente da EnCharge AI gerencia de forma eficiente a memória on-chip e off-chip, garantindo que os dados relevantes estejam acessíveis quando necessário, mesmo que estejam armazenados em memória externa como DRAM.

Perguntas e Respostas:P: Como a EnCharge AI enfrenta os desafios de memória de modelos de IA grandes? – R: O software inteligente da EnCharge AI virtualiza o acesso tanto à memória on-chip quanto à off-chip, organizando os dados de maneira eficiente para garantir um processamento eficiente e rápido. Esta abordagem permite lidar com modelos grandes que excedem a capacidade da cache SRAM on-chip. – P: A tecnologia da EnCharge AI é aplicável tanto para inferência quanto para treinamento? – R: Embora os produtos iniciais se concentrem em inferência, a EnCharge AI acredita que sua abordagem baseada em capacitores pode ser escalável para treinamento também. No entanto, mais trabalho de software precisa ser feito para tornar isso realidade.

O Caminho à Frente

“““html

🏭 EnCharge AI planeja vender seus próprios chips aceleradores e placas de sistema associadas para AI em edge computing, visando aplicações em data centers corporativos, automóveis e computadores pessoais. Seu objetivo é fornecer uma solução para ambientes com restrições de energia onde tamanho, custo e eficiência energética são primordiais.

🔮 Olhando para o futuro, a inovação da EnCharge AI pode ter implicações de longo alcance para a indústria de AI. Suas inovações em computação analógica e otimização de memória poderiam abrir caminho para uma inferência e treinamento de AI mais eficientes energeticamente. Isso poderia levar à adoção de AI em uma ampla gama de aplicações, desde eletrônicos de consumo até processos industriais críticos.

📚 Referências: 1. ChatGPT and Llama: AI models by OpenAI and Meta 2. Edge computing and AI 3. Analog computing for AI: A challenge and a breakthrough 4. Inference optimization with in-memory compute 5. New AI chips from Nvidia and Intel

👥 Compartilhe seus pensamentos sobre esse desenvolvimento emocionante! Como você acha que a inovação da EnCharge AI moldará o futuro da inferência de AI? Deixe-nos saber nos comentários abaixo e compartilhe este artigo com seus amigos nas redes sociais! 🚀

“`