A Anthropic, concorrente da OpenAI, anunciou na última quinta-feira (07) que fornecerá seu modelo de IA, o Claude, para agências de defesa e inteligência dos EUA. As informações são do Business Wire.
Tal acordo coloca a Anthropic ao lado de empresas como Amazon Web Services (AWS) e Palantir, que já fornecem tecnologias para o governo dos EUA, especialmente em áreas como processamento de dados e análise de documentos.
O uso de IA pelo governo dos EUA tem crescido rapidamente, com contratos federais relacionados à tecnologia aumentando 150% entre 2022 e 2023, alcançando US$ 675 milhões. O Departamento de Defesa (DoD) é um dos principais beneficiários desse aumento.
Leia mais:
- Anthropic lança plano Claude Enterprise para competir com OpenAI
- Claude.AI: como usar inteligência artificial
- Claude 3.5 Sonnet: nova IA da Anthropic diz superar GPT-4o e Gemini
Não é o primeiro anúncio desta semana em que uma empresa que produz modelos de IA revela que irá ajudar os interesses militares americanos, já que a Meta confirmou que o seu modelo, chamado Llama, também vai ser usado por agências de defesa do país.
Uso militar do Claude terá algumas restrições
- O modelo Claude estará disponível através da plataforma da Palantir na AWS, ajudando agências de defesa e inteligência a processar grandes volumes de dados e melhorar a análise de inteligência, aumentando a eficiência operacional.
- No entanto, a Anthropic impõe restrições quanto ao uso de sua IA em atividades como desinformação, vigilância doméstica e design de armas.
- Este movimento segue o exemplo de outras grandes empresas de tecnologia, já que além da Meta, empresas como Microsoft e OpenAI também firmaram acordos com o governo dos EUA para fornecer suas soluções de IA, principalmente em áreas de segurança e defesa.
No entanto, esses laços têm gerado controvérsias, com protestos internos de funcionários, como o Google, devido ao uso de IA em contextos militares.
O post Anthropic: mais uma empresa vai fornecer IA aos militares nos EUA apareceu primeiro em Olhar Digital.