Nova arquitetura sugere corte bilionário em custos de data center
Universidade de Sydney – Pesquisadores anunciaram um computador formado por uma rede de nanofios de prata capaz de reorganizar suas conexões em tempo real, tal qual sinapses humanas. O avanço promete reduzir drasticamente o consumo elétrico da inteligência artificial, aliviando margens e capex de empresas que dependem de grandes fazendas de servidores.
- Em resumo: modelo neuromórfico aprende e “esquece” dados gastando fração da energia usada por GPUs.
Por que o mercado está de olho no salto de eficiência
Data centers já respondem por até 3% da eletricidade global, e a corrida por modelos de linguagem amplia essa conta. Conforme estimativas da Bloomberg Intelligence, cada novo bilhão de usuários de IA generativa adiciona centenas de megawatts à rede. A proposta australiana ataca exatamente esse gargalo.
Um dos maiores problemas da IA atual é o gasto massivo de eletricidade, enquanto o cérebro humano opera com a potência de uma lâmpada fraca.
Da pesquisa ao bolso: possíveis efeitos na cadeia de hardware
Como o processamento e a memória ficam distribuídos na mesma malha de nanofios, o chip dispensa módulos DRAM separados. Isso pode enxugar listas de materiais e acelerar a amortização de plantas fabris, pressionando fornecedores tradicionais de semicondutores a revisitarem margens e contratos.
Como isso afeta o seu bolso? Menor custo operacional tende a baratear serviços de nuvem e assinaturas baseadas em IA. Para mais detalhes sobre inovações que mexem com o mercado, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Universidade de Sydney