A Inteligência Artificial no Campo de Batalha: O confronto entre ética e pragmatismo militar
Em meio a tensões geopolíticas globais, um drama silencioso se desenrolava em Washington: a empresa de inteligência artificial Anthropic recusou ordens do Pentágono, desafiando a imposição de limites éticos em sua tecnologia. Este embate, que parece uma disputa corporativa, na verdade sinaliza a chegada da inteligência artificial no centro das operações militares, levantando questões urgentes sobre a delegação de decisões letais a máquinas e quem detém o controle sobre seu uso.
A controvérsia surgiu após o uso da ferramenta Claude, da Anthropic, em uma operação americana na Venezuela, seguida por uma exigência do Departamento de Defesa dos EUA para acesso irrestrito à tecnologia. A recusa da empresa em remover suas salvaguardas éticas, como a proibição de vigilância em massa e armas totalmente autônomas, escalou para um confronto legal e político, culminando em ordens de suspensão de uso pelo então presidente Donald Trump.
Este episódio, detalhado por veículos como a revista Time e o Wall Street Journal, revela um profundo vácuo na governança da IA em contextos militares. Especialistas da Universidade de Oxford alertam que as lacunas existentes são antigas e persistirão, evidenciando a falta de um quadro regulatório robusto para lidar com os riscos inerentes à integração da IA em operações de defesa. Conforme informações divulgadas pelo Wall Street Journal e Axios, confirmadas pela revista Time.
O Alerta da Anthropic: Quando a Ética Confronta o Poder Militar
O confronto entre a Anthropic e o Pentágono, que ganhou destaque nas últimas semanas, marca um ponto de inflexão na relação entre a indústria de tecnologia de ponta e o aparato militar. A empresa de inteligência artificial, conhecida por sua abordagem focada em segurança e ética, viu-se em uma posição delicada ao ser questionada sobre o uso de sua tecnologia em operações sensíveis.
Fontes indicam que a ferramenta Claude, da Anthropic, foi utilizada em uma operação que resultou na captura do então presidente venezuelano Nicolás Maduro em janeiro. Após o ocorrido, um executivo da Anthropic buscou esclarecimentos junto à Palantir, intermediária tecnológica entre o Vale do Silício e o governo dos EUA, sobre o emprego de seu software. Essa indagação, contudo, gerou alarme em Washington.
Emil Michael, Subsecretário de Defesa e Diretor de Tecnologia do Pentágono, expressou preocupação com a possibilidade de a Anthropic, em futuros conflitos, poder “desligar seu modelo no meio de uma operação”, colocando vidas em risco. A Anthropic, por sua vez, contesta essa interpretação, afirmando que a pergunta foi rotineira e que nunca tentou limitar o uso do Pentágono em casos específicos.
A Escalada da Tensão: Exigências e Contra-ataques no Cenário da IA
A resposta do Pentágono à indagação da Anthropic foi uma exigência por acesso irrestrito à tecnologia da empresa para “todos os usos legais”. Tal demanda foi prontamente recusada pela Anthropic, que se baseia em princípios éticos rigorosos para o desenvolvimento e aplicação de sua inteligência artificial. Essa recusa desencadeou uma rápida escalada de tensões.
Pete Hegseth, Secretário de Defesa de Trump, classificou a Anthropic como um “risco para a cadeia de suprimentos”, um rótulo geralmente reservado a empresas ligadas a adversários estrangeiros. Esta medida, incomum contra uma empresa americana, sublinhou a gravidade da discórdia.
Em resposta à pressão, a Anthropic tomou a medida drástica de processar o Pentágono, acusando o departamento de exceder sua autoridade e violar salvaguardas éticas e direitos fundamentais. A empresa acredita ter fortes chances de vencer a disputa jurídica, um indicativo da solidez de seus argumentos legais e éticos.
O então presidente Donald Trump interveio diretamente, ordenando que todas as agências federais parassem de usar a tecnologia da Anthropic. Em uma postagem na plataforma Truth Social, escrita inteiramente em maiúsculas, Trump declarou: “Os EUA jamais permitirão que uma empresa progressista (‘woke’) e radical de esquerda dite como nossas grandes forças armadas lutam e vencem guerras.” O termo “woke”, no vocabulário de Trump e seus seguidores, é usado como um insulto depreciativo para ideias progressistas relacionadas a gênero, desigualdade ou justiça social.
Anthropic: A Gênese de uma IA Focada em Segurança Existencial
A trajetória da Anthropic é singular e fundamental para entender sua postura no conflito com o Pentágono. Fundada em 2021 por ex-pesquisadores da OpenAI, a empresa nasceu com a premissa explícita de que a inteligência artificial representa um dos maiores riscos existenciais para a humanidade. Essa convicção impulsionou o compromisso de seus fundadores em desenvolver a tecnologia de forma segura e ética.
Em julho de 2025, a Anthropic firmou um contrato de US$ 200 milhões com o Departamento de Defesa, um marco por ser o primeiro acordo desse tipo com um laboratório de IA que integra seus modelos em redes classificadas para fluxos de trabalho de missão crítica. O CEO da Anthropic, Dario Amodei, justificou a parceria em um texto publicado em janeiro, argumentando que o apoio às forças militares e de inteligência dos EUA é necessário para “responder a ameaças autocráticas” e “igualá-las e superá-las militarmente”.
Amodei estabeleceu, porém, duas “linhas vermelhas” inegociáveis no contrato com o Pentágono: o Claude não poderia ser utilizado para vigilância doméstica em massa nem para o desenvolvimento de armas totalmente autônomas. Essas restrições são baseadas em um documento interno da empresa, considerado sua “alma”, que visa “prevenir catástrofes em larga escala”, incluindo o uso ilegítimo da IA para tomada de poder.
As Linhas Vermelhas da IA: Navegando entre Defesa e Risco Autônomo
A decisão da Anthropic de impor “linhas vermelhas” ao uso de sua tecnologia pelo Pentágono reflete uma profunda preocupação com os perigos inerentes ao desenvolvimento acelerado da inteligência artificial, especialmente em contextos militares. As restrições impostas visam evitar que a IA seja utilizada de maneiras que possam minar a segurança humana e os direitos fundamentais.
Uma das principais preocupações da Anthropic, explicitada por seu CEO Dario Amodei, é a confiabilidade dos sistemas de IA de última geração para alimentar armas totalmente autônomas. Embora a “autonomia” em sistemas de IA possa se referir à capacidade de atingir objetivos com supervisão humana mínima, o uso em armamentos levanta sérias questões éticas e de controle.
O “viés de automação” é um problema amplamente discutido por especialistas em inteligência artificial. Esse fenômeno ocorre quando as regras de uso de um sistema são vagas, levando os operadores humanos a confiarem excessivamente nas recomendações da máquina. Em situações de alta pressão, a IA pode gradualmente corroer o julgamento humano, levando à aceitação acrítica de suas sugestões, o que pode ter consequências letais, como a identificação errônea de alvos ou a prisão de inocentes, como já ocorreu em departamentos de polícia nos EUA com sistemas de reconhecimento facial.
Vigilância em Massa e o Vácuo de Responsabilidade Legal na Era da IA
A segunda “linha vermelha” estabelecida pela Anthropic, a oposição à vigilância em massa, ganha particular relevância diante de planos anunciados pelo governo dos EUA para utilizar IA, através da Palantir, no rastreamento em tempo real e histórico financeiro de imigrantes sem documentos. Essa medida levanta preocupações sobre a expansão da vigilância e a erosão da privacidade, mesmo fora de zonas de guerra.
Embora a vigilância em massa já seja uma realidade em diversos graus e populações, a questão crucial reside no controle sobre como essa tecnologia é utilizada. As restrições impostas pela Anthropic, nesse contexto, funcionam como um dos poucos mecanismos concretos de controle e equilíbrio disponíveis, em um cenário onde a regulamentação ainda é incipiente.
O problema reside na força dessas restrições, que dependem do mecanismo que as impõe. Quando o Pentágono rejeitou os limites éticos da Anthropic, a empresa se viu isolada, sem um arcabouço legal robusto ou regulamentação internacional para ampará-la, restando-lhe apenas as cláusulas contratuais como proteção. A ausência de definições claras sobre o que constitui um uso “lícito” de IA em contextos militares agrava a situação, criando um “vácuo de responsabilidade” onde a determinação de quem é responsável por eventuais violações se torna nebulosa.
O Dilema Legal: O Que é Lícito na Guerra Autônoma?
A relutância do Departamento de Defesa em aceitar que uma empresa privada imponha limites à sua tecnologia é, para muitos, compreensível. Argumenta-se que o uso da IA em operações militares é tão crucial que deveria ser regulamentado por leis aprovadas por representantes democraticamente eleitos. No entanto, o Congresso dos EUA ainda não aprovou legislação específica sobre o tema.
Nesse vácuo legislativo, a exigência do Pentágono por liberdade para usar o Claude em “todos os usos lícitos” se torna complexa. A ausência de uma definição consensual no direito internacional sobre o que constitui uma arma autônoma letal é um obstáculo significativo. O direito internacional humanitário, moldado em torno de decisões humanas diretas, como um soldado apertando um gatilho ou um comandante dando uma ordem, não contempla sistemas que detectam, selecionam e eliminam alvos com mínima ou nenhuma intervenção humana.
Essa falta de clareza gera um “vácuo de responsabilidade”, onde determinar quem é o responsável em caso de violação por um sistema autônomo se torna um desafio. Se um drone com IA matar civis, a culpa recai sobre o programador, o comandante, a empresa fabricante, ou o próprio sistema? O direito internacional não oferece respostas inequívocas. Assim, o que é considerado “uso lícito” acaba sendo, na prática, o que cada Estado decide que é.
O Momento Oppenheimer da IA: Urgência e o Risco da Catástrofe
A discussão sobre armas autônomas, que formalmente começou em 2013, tem sido lenta, resultando em diretrizes voluntárias. Em 2024, o Ministro das Relações Exteriores da Áustria comparou o momento atual ao “momento Oppenheimer da nossa geração”, referindo-se à tomada de consciência sobre o poder destrutivo da bomba atômica. A tecnologia já existe, e agora é crucial decidir como controlá-la.
Diferentemente das armas nucleares, os sistemas autônomos são baratos, produzidos em massa e difíceis de rastrear, tornando seu controle por meio de tratados mais desafiador. Em 2024, a Assembleia Geral da ONU adotou uma resolução criando um fórum para discutir os desafios e preocupações com o uso de armas autônomas, com 166 votos a favor, demonstrando a preocupação quase universal. Contudo, o que falta são mecanismos de aplicação e um tratado vinculativo, algo que o Secretário-Geral da ONU, António Guterres, tem defendido.
Alguns especialistas temem que, assim como ocorreu com outras armas, um tratado vinculativo só seja firmado após uma catástrofe, um cenário que a intervenção da Anthropic busca, de certa forma, antecipar e prevenir.
A Lógica da Velocidade: IA no Campo de Batalha Moderno
Enquanto diplomatas e advogados debatem, engenheiros continuam a desenvolver e implementar tecnologias de IA. O General Stanley McChrystal, ex-comandante das forças americanas no Afeganistão, já havia destacado a capacidade sem precedentes de ver, decidir e matar a distância em questão de minutos. Essa capacidade agora se expande para a delegação da própria decisão a máquinas.
A Ucrânia tem sido um campo de testes para essa evolução. Em dezembro de 2024, perto de Kharkiv, as forças ucranianas realizaram a primeira operação totalmente não tripulada, com dezenas de veículos terrestres autônomos e drones atacando posições russas sem a presença de soldados em terra. A lógica tática é clara: os operadores lançam os sistemas sabendo que a comunicação será bloqueada, e o sucesso depende da capacidade de ação autônoma programada.
Esses sistemas navegam de forma independente, evitam interferências eletrônicas e prosseguem com a missão mesmo sem supervisão humana. Os drones já representam uma parcela significativa das baixas na guerra, e a tendência é de crescente autonomia. Na região do Golfo, o Almirante Brad Cooper, chefe do Comando Central dos EUA, reconheceu a IA como ferramenta fundamental para identificar alvos, permitindo uma análise de dados em segundos para decisões mais rápidas e inteligentes que as do inimigo.
O Fim do Contrato e o Inesperado Triunfo da Anthropic no Mercado
A história da disputa entre a Anthropic e o Pentágono teve um desfecho paradoxal. Dario Amodei declarou que a empresa não poderia, “em sã consciência, atender ao pedido deles”, o que resultou na perda do contrato com o Departamento de Defesa. Contudo, o que se seguiu foi surpreendente.
Horas após o anúncio da rescisão do contrato, a OpenAI, concorrente da Anthropic, fechou um acordo com o Departamento de Defesa. No entanto, no dia seguinte, o aplicativo Claude da Anthropic superou o ChatGPT da OpenAI na App Store da Apple pela primeira vez. A empresa registrou mais de um milhão de novos cadastros diários, alcançando o primeiro lugar em mais de 20 países e vendo suas vendas dispararem entre o público em geral.
O apoio à posição da Anthropic também se manifestou em outras frentes. Coalizões de trabalhadores de gigantes como Amazon, Google e Microsoft pediram publicamente que suas empresas seguissem o exemplo da Anthropic. Dezenas de cientistas e pesquisadores de empresas concorrentes assinaram um parecer jurídico em apoio à Anthropic. Até mesmo um general aposentado da Força Aérea, que liderou o controverso programa de drones com IA do Projeto Maven, expressou simpatia pela postura da Anthropic, apesar de sua ligação histórica com o Pentágono. Essa demonstração de apoio, inclusive de seus próprios engenheiros, consolidou a posição da Anthropic em um mercado altamente competitivo, onde o talento é um ativo valioso.