Uso de IA Anthropic é suspenso por ordem de Trump nas agências federais dos EUA
O uso de IA Anthropic foi alvo de uma decisão do ex-presidente Donald Trump, que ordenou a suspensão imediata das tecnologias desenvolvidas pela empresa em todas as agências federais dos Estados Unidos. A Anthropic, concorrente da OpenAI, é conhecida pelo seu sistema Claude, uma inteligência artificial avançada que vinha sendo utilizada em contratos militares.
Trump justificou a medida alegando que a Anthropic impõe restrições ao uso de seus modelos para vigilância em massa e armamentos autônomos, o que, segundo ele, compromete a autonomia das Forças Armadas e a segurança nacional. A decisão reforça o posicionamento do governo em garantir que o controle das operações militares permaneça sob liderança militar e não sob influência de empresas privadas.
Conflito entre governo e Anthropic sobre o uso de IA
O uso de IA Anthropic em operações federais gerou um embate entre o governo americano e a empresa. Trump afirmou que a postura da Anthropic coloca em risco a segurança dos soldados e a proteção do país. Por isso, estabeleceu um prazo de seis meses para que órgãos como o Departamento de Defesa deixem de utilizar as soluções da empresa.
Durante esse período, a Anthropic deverá colaborar com as autoridades, sob pena de enfrentar medidas legais severas. A empresa, contudo, mantém sua posição ética de não permitir o uso irrestrito de suas ferramentas para fins militares, especialmente em vigilância em massa e armamentos autônomos.
Histórico e impacto do uso de IA Anthropic em operações militares
Desde 2025, a Anthropic mantém um contrato de US$ 200 milhões com o Pentágono para fornecer modelos de IA aplicados em diversas operações militares. O Claude foi utilizado em ações que contribuíram para a derrubada do regime de Nicolás Maduro na Venezuela, evidenciando a influência da tecnologia em conflitos geopolíticos.
O CEO da Anthropic, Dario Amodei, tem sido vocal contra o uso indiscriminado da IA para fins militares, defendendo limites éticos claros. Ele enfatiza a importância da supervisão humana e o respeito aos valores democráticos, especialmente contra o uso em vigilância doméstica em massa e armamentos totalmente autônomos.
Possíveis desdobramentos da suspensão do uso de IA Anthropic
A decisão de Trump coincide com o prazo final dado pelo governo para que a Anthropic aceitasse o uso integral de sua tecnologia pelo Pentágono. Caso contrário, o governo ameaça aplicar a Lei de Produção de Defesa, que permite a exigência forçada de recursos em nome da segurança nacional.
Além disso, a Anthropic pode ser classificada como risco para a cadeia de suprimentos, uma designação que normalmente atinge empresas de países adversários, o que prejudicaria sua reputação e relacionamento com o setor público.
- Suspensão do uso da IA em agências federais
- Prazo de seis meses para adaptação
- Possibilidade de medidas legais contra a Anthropic
- Risco de classificação como ameaça à cadeia de suprimentos
Perguntas frequentes sobre o uso de IA Anthropic
Qual a principal razão para a suspensão do uso de IA Anthropic?
A suspensão foi motivada pela recusa da Anthropic em permitir o uso irrestrito de suas tecnologias para vigilância em massa e armamentos autônomos, considerados essenciais pelo governo para a segurança nacional.
Qual é o papel da Anthropic nas operações militares dos EUA?
A Anthropic fornece modelos de inteligência artificial que são aplicados em diversas operações militares, incluindo vigilância e apoio estratégico, sob contrato com o Pentágono desde 2025.
Quais são as consequências para a Anthropic com essa decisão?
A empresa pode enfrentar medidas legais, perder contratos governamentais e ser classificada como risco para a cadeia de suprimentos, o que afetaria sua reputação e negócios futuros.
Para mais informações sobre tecnologia e políticas públicas, visite Em Foco Hoje. Também é possível acompanhar análises sobre inteligência artificial no site da Departamento de Defesa dos EUA.



