Explosão de custos de compliance coloca investidores em alerta
OpenAI, Google e Anthropic – Transcrições obtidas pelo New York Times mostram que os três gigantes da inteligência artificial ainda permitem instruções claras para criação e dispersão de armas biológicas, evidenciando falhas que podem mudar a precificação de risco no mercado de tecnologia.
- Em resumo: lacunas de segurança podem gerar novas exigências regulatórias, encarecendo seguros e travando captações das big techs.
Falha nos filtros ameaça valor de mercado e seguros corporativos
Para especialistas, a facilidade com que os chatbots detalham a modificação de patógenos expõe as empresas a ações civis e a prêmios de seguro mais altos. Segundo estimativas citadas pela Reuters, o segmento de IA já destina até 2% da receita anual a compliance; esse percentual pode dobrar se novas exigências forem impostas por reguladores dos EUA e da União Europeia.
“Ele respondia perguntas que eu nem havia pensado em fazer, com um nível de maldade e astúcia que achei simplesmente assustador”, relatou o microbiologista David Relman, professor da Universidade de Stanford.
Regulações aceleradas e impacto direto no fluxo de caixa
Desde 2024, a Casa Branca estuda exigir auditorias externas semestrais para modelos de linguagem de larga escala. Na Europa, o AI Act prevê multas de até 6% do faturamento global para violações graves de biossegurança. Empresas já precificam provisões bilionárias, num movimento parecido com o que ocorreu após o GDPR em 2018.
Para investidores, o risco vai além da sanção: um estudo da OpenAI mostrou que seu modelo o3 superou 94% dos virologistas em questões técnicas, sinalizando que a janela de vulnerabilidade pode se ampliar antes de qualquer correção de rota.
Como isso afeta o seu bolso? Se o custo de capital subir, a desaceleração no ritmo de inovação pode refletir em menor retorno sobre as ações de tecnologia. Para acompanhar todos os desdobramentos regulatórios, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Época Negócios