OpenAI compartilha ressalvas da Anthropic sobre exigências do Pentágono

Anthropic declarou que deseja trabalhar com o Pentágono, mas que as preocupações com o uso de IA em armas e vigilância em massa decorrem da preocupação de que a tecnologia ainda seja pouco confiável nesses casos; empresa corre risco de perder contrato de US$ 200 milhões

Hadas Gold, da CNN
Compartilhar matéria

A OpenAI, criadora do ChatGPT, compartilha das mesmas ressalvas de segurança que a Anthropic em relação ao trabalho com o Pentágono, confirmou um porta-voz da OpenAI à CNN.

Isso significa que, mesmo que o Pentágono decida cancelar o contrato com a Anthropic em favor da OpenAI, terá que lidar com as mesmas preocupações sobre o uso de IA em armas e vigilância em massa de cidadãos norte-americanos.

O CEO da OpenAI, Sam Altman, disse em entrevista à CNBC na manhã desta sexta-feira (27) que é importante que as empresas trabalhem com o Pentágono, "desde que cumpram as proteções legais" e "as restrições" que a OpenAI e muitas outras empresas do setor de IA têm em relação ao uso de IA nas forças armadas.

"Apesar de todas as minhas diferenças com a Anthropic, confio bastante neles como empresa e acho que eles realmente se preocupam com a segurança. Fico feliz que estejam apoiando nossos militares", continuou Altman. "Não sei como isso vai terminar", afirmou.

Um funcionário do Pentágono disse à CNN que o Departamento “continuará a expandir os recursos de IA” e que “implantará recursos de IA para todos os casos de uso legítimos”, ao ser questionado sobre a declaração de Altman.

“O Departamento continuará garantindo a segurança de todos os modelos utilizados, independentemente do nível de classificação”, acrescentou o funcionário.

Uma fonte familiarizada com a situação disse que Altman procurou o Pentágono diretamente esta semana, expressando preocupação com a declaração do secretário de Defesa dos Estados Unidos, Pete Hegseth, de que a Anthropic representa um risco para a cadeia de suprimentos ou que usaria a medida legal Defense Procurement Act para obrigar a Anthropic a trabalhar com as Forças Armadas.

O sistema Claude, da Anthropic, foi o primeiro modelo de IA a ser usado em sistemas classificados das Forças Armadas. Mas o Pentágono deu à empresa o prazo até esta sexta-feira (27) para concordar em abandonar as salvaguardas internas e permitir que o sistema seja usado para “todo uso legítimo”. Caso a Anthropic não concorde, perderá um contrato de US$ 200 milhões com o Pentágono e poderá ser considerada um "risco na cadeia de suprimentos", a mesma classificação dada a empresas ligadas a adversários estrangeiros.

A Anthropic declarou que deseja trabalhar com o Pentágono, mas que as preocupações com o uso de IA em armas e vigilância em massa decorrem da preocupação de que a tecnologia ainda seja pouco confiável nesses casos. A empresa também afirmou que as leis e regulamentações atuais não levam em conta adequadamente os avanços na IA.

Em um memorando enviado à equipe da OpenAI na quinta-feira (26), obtido pela CNN, Altman disse que “esta não é mais apenas uma questão entre a Anthropic e o Departamento de Guerra; esta é uma questão para toda a indústria e é importante esclarecer a posição (da OpenAI)”. Ele acrescentou que a OpenAI tem uma proposta para o Pentágono que, segundo eles, permitirá “que os modelos (da OpenAI) sejam implantados em ambientes confidenciais e que esteja de acordo com os princípios” da OpenAI.

“Acreditamos que esta disputa não se trata de como a IA será usada, mas sim de controle. Acreditamos que uma empresa privada americana não pode ser mais poderosa do que o governo americano democraticamente eleito, embora as empresas possam ter muita influência e participação”, apontou Altman no comunicado, divulgado inicialmente pelo Wall Street Journal.

“A forma como a situação atual se desenvolveu coloca em risco nossa segurança nacional, além de levar o governo a recorrer a ações que podem comprometer a liderança americana em IA. Gostaríamos de tentar ajudar a reduzir a tensão”, escreveu Altman.

A OpenAI é uma das várias empresas de IA que assinaram contratos com o Pentágono para "desenvolver protótipos de capacidades de IA de ponta para enfrentar desafios críticos de segurança nacional, tanto em contextos de combate quanto empresariais", declarou o Pentágono na época. Mas o Claude, da Anthropic, era o único modelo usado no sistema secreto das Forças Armadas até recentemente.

Um oficial do Pentágono disse à CNN esta semana que o Grok, de Elon Musk, agora está "aprovado para uso em ambientes secretos", enquanto as outras empresas, incluindo a OpenAI, estavam "próximas de serem aprovadas".

*Haley Britzky, da CNN, contribuiu com esta matéria

inglês
Acompanhe Economia nas Redes Sociais