Os reguladores ficam atrás dos bancos na IA, já que o Mythos da Anthropic levanta preocupações de supervisão – Nacional

A capacidade dos bancos centrais e dos reguladores financeiros para monitorizar e combater os riscos colocados por poderosos inteligência artificial modelos como o Mythos da Anthropic foram questionados depois que uma pesquisa descobriu que as autoridades ficam significativamente atrás das empresas financeiras na adoção da IA e carecem de dados sobre os danos emergentes.
As instituições financeiras estão a adoptar a IA a uma taxa mais do dobro da dos seus supervisores, com apenas dois em cada 10 reguladores a reportarem “adoção avançada de IA”, mostrou uma pesquisa publicada na terça-feira pelo Centro de Finanças Alternativas de Cambridge.
Apenas 24 por cento das autoridades inquiridas recolhem dados sobre a adopção da IA pela indústria, enquanto 43 por cento não têm planos para começar nos próximos dois anos, concluiu o relatório.
“Este ponto cego empírico pode minar o otimismo prevalecente [on AI]. As autoridades não podem aproveitar ou supervisionar com sucesso a IA se estiverem a navegar na sua adoção e riscos sem dados concretos”, afirma o relatório.
A investigação, preparada em conjunto com o Banco de Compensações Internacionais, o Fundo Monetário Internacional e outras instituições multilaterais, envolveu o levantamento de 350 instituições financeiras tradicionais e fintechs, mais de 140 fornecedores de IA e 130 bancos centrais e autoridades financeiras abrangendo 151 países.
Receba as últimas notícias nacionais
Receba as últimas notícias do Canadá em sua caixa de entrada conforme acontecem, para que você não perca nenhuma história de tendência.
Os reguladores e os organismos globais de normalização intensificaram os alertas sobre os riscos colocados pela implementação da IA em todo o setor financeiro.
No início de abril, a Anthropic lançou o Mythos, visto por especialistas em segurança cibernética como colocando desafios significativos para o setor bancário e seus sistemas tecnológicos legados.
Começa o processo de Elon Musk contra a OpenAI
Reguladores em todo o mundo têm conversado com os bancos sobre o grau de preparação dos seus sistemas legados para modelos emergentes de IA de fronteira.
O relatório destaca o Mythos como um exemplo de sistemas da próxima geração que poderão em breve ser capazes de explorar vulnerabilidades de software em grande escala, limitando potencialmente a eficácia dos mecanismos existentes de governação humana e de supervisão.
“Os reguladores geralmente mantêm o princípio de que as empresas financeiras devem permanecer responsáveis pelos danos, incluindo ataques cibernéticos, quer a IA seja construída internamente ou fornecida por terceiros, mas essa posição torna-se mais difícil de aplicar no contexto de sistemas mais autónomos que são fornecidos e geridos por fornecedores terceiros”, escreveram os autores.
O relatório afirma que os próprios reguladores devem adotar capacidades de IA de agente, capazes de tomar ações sem supervisão humana, para corresponder aos sistemas que supervisionam.
Harish Natarajan, gestor prático de competitividade e inovação do Banco Mundial, disse num evento de lançamento do relatório que as autoridades das economias de mercado emergentes muitas vezes carecem dos dados e das competências necessárias para incorporar a IA.
O relatório também sinalizou preocupações sobre a crescente dependência do sector financeiro de um punhado de poderosos fornecedores de IA.
Concluiu que 69 por cento de todos os entrevistados confiam na OpenAI, aumentando para 76 por cento na indústria, criando o que descreveu como uma “notável consideração crítica de risco de terceiros” que poderia expor o sistema financeiro global a vulnerabilidades de resiliência, choques de preços ou perturbações no fornecimento.
No momento da pesquisa, realizada entre outubro de 2025 e janeiro de 2026, pouco mais da metade dos entrevistados usavam modelos do Google e pouco mais de um terço usavam o Antrópico.




