Uma equipe da Universidade de Pequim anunciou, em outubro deste ano, o desenvolvimento de um chip analógico de alta precisão baseado em memórias resistivas (ReRAM). O projeto é liderado pelo professor assistente Sun Zhong, do Instituto de Inteligência Artificial, em parceria com o professor Cai Yimao e o professor assistente Wang Zongwei, da Escola de Circuitos Integrados. O chip alcança, pela primeira vez, precisão de 24 bits em computação analógica, o que permite executar tarefas complexas de inteligência artificial com menos hardware e menor consumo de energia.
A tecnologia segue um caminho diferente do adotado pelos grandes clusters de computação usados no treinamento de modelos de IA, que hoje escalam de dezenas de milhares para centenas de milhares, ou até milhões, de aceleradores digitais. Em vez de ampliar a quantidade de chips, a equipe chinesa aposta em uma arquitetura alternativa, capaz de aumentar a precisão da computação analógica a níveis comparáveis aos da computação digital moderna.
O chip eleva a precisão relativa de cerca de 1% para uma parte em dez milhões, o equivalente a 24 bits. Esse avanço abre espaço para aplicações em treinamento de grandes modelos de IA, computação de inteligência incorporada e comunicações 6G. Além disso, o projeto pode ser fabricado em processos maduros de 28 nanômetros ou superiores, o que reduz a dependência de tecnologias avançadas de litografia.
Por trás dessas aplicações está o mesmo desafio matemático: o cálculo matricial. A inferência em modelos de IA depende de multiplicações de matrizes, enquanto o treinamento envolve a resolução de sistemas de equações matriciais. O sucesso das GPUs da Nvidia, por exemplo, está diretamente ligado à eficiência dessas arquiteturas na execução desse tipo de operação.
Sun Zhong pesquisa computação analógica há anos. Segundo ele, essa abordagem dominou o cenário entre as décadas de 1930 e 1960, mas perdeu espaço não por ineficiência, mas sim por limitações de precisão. Com novos dispositivos e métodos, a computação analógica volta a ser considerada uma alternativa viável à computação digital tradicional.
De acordo com o pesquisador, todo sistema computacional segue um de dois paradigmas: digital ou analógico. Os chips atuais, como CPUs, GPUs, TPUs e NPUs, usam lógica binária e dependem de bilhões de transistores operando de forma sincronizada, o que gera alto consumo energético. Na computação analógica, os cálculos ocorrem diretamente por meio das leis da física, com menos etapas intermediárias.
A eficiência da computação digital avançou por décadas graças à miniaturização contínua prevista pela Lei de Moore. Com o enfraquecimento dessa tendência, surgem limites físicos e energéticos. Nesse contexto, a computação analógica reaparece como uma opção para reduzir consumo de energia e complexidade de hardware. O principal obstáculo sempre foi a precisão, afetada por ruídos e instabilidades.
O avanço da equipe da Universidade de Pequim está na superação desse problema. O grupo reduziu o erro relativo de aproximadamente 1% para 0,00001% (10⁻⁷), alcançando precisão equivalente à aritmética de ponto flutuante de 32 bits, comum em GPUs. O resultado combina circuitos analógicos iterativos, algoritmos de refinamento progressivo e uma arquitetura baseada em ReRAM. O sistema realiza cálculos aproximados de forma rápida e refina os resultados em iterações sucessivas, mantendo eficiência energética.
Segundo Sun, a inovação ocorre em três níveis. No nível do dispositivo, o chip usa memórias resistivas compatíveis com processos industriais já existentes. No nível do circuito, a equipe desenvolveu uma arquitetura de realimentação que eleva a precisão sem aumentar o consumo de energia. No nível do algoritmo, técnicas de decomposição e iteração permitem calcular matrizes de alta precisão a partir de unidades analógicas simples.
Atualmente, o protótipo está em fase de laboratório. O foco inicial são aplicações de médio porte, como treinamento de modelos de IA, computação científica e simulações físicas. O chip também mostra potencial para acelerar métodos de segunda ordem no treinamento de redes neurais, que oferecem melhor desempenho, mas são pouco utilizados devido ao custo computacional.
No médio e longo prazo, a equipe prevê aplicações em supercomputação, incluindo simulações climáticas, física de partículas e dinâmica de fluidos, áreas que dependem da resolução de grandes sistemas de equações diferenciais. A estratégia de escalabilidade envolve ampliar gradualmente o tamanho das matrizes, de 16×16 para 128×128 e, depois, 512×512, mantendo compatibilidade com processos industriais padrão.
Para Sun, o projeto tem valor estratégico além do avanço técnico. Segundo ele, manter arquiteturas alternativas maduras é essencial para responder a futuras mudanças tecnológicas. Assim como as GPUs estavam prontas quando a era da inteligência artificial ganhou escala, a computação analógica de alta precisão pode se tornar uma opção relevante quando novas demandas surgirem. A China, afirma o pesquisador, busca estar preparada para esse cenário.
Fonte: news.qq.com


Adicionar Comentário