A OpenAI substituiu a Anthropic num acordo com o Pentágono no valor de até 200 milhões de dólares, mas ao fazê-lo, pode ter entregado a seu maior rival uma vitória ao colocá-lo no topo da App Store.
Vídeo Recomendado
Claude, da Anthropic, subiu para o primeiro lugar na App Store da Apple durante o fim de semana, destronando o ChatGPT poucos dias após o CEO da OpenAI, Sam Altman, anunciar que sua empresa havia substituído a Anthropic ao fechar um acordo de nove dígitos com o Departamento de Guerra dos EUA.
Antes do lançamento dos anúncios da Anthropic no Super Bowl — que fizeram uma brincadeira com a movimentação da OpenAI de incluir anúncios no ChatGPT — a Anthropic estava na 42ª posição na App Store da Apple. Desde então, permaneceu entre as 10 aplicações mais baixadas, mas o contrato da OpenAI com o Pentágono pode ter ajudado a colocá-la na primeira posição durante o fim de semana. Claude estava na 5ª posição, em comparação com a 2ª do ChatGPT, na Google Play Store na segunda-feira.
Nos últimos dias, usuários do ChatGPT protestaram online contra o contrato da OpenAI com o Pentágono, espalhando a mensagem de “Cancelar o ChatGPT” no Reddit e no X. Alguns usuários publicaram guias para excluir contas do ChatGPT e migrar para Claude. Outros acusaram a OpenAI de oportunismo, apontando que Altman tinha apoiado anteriormente a posição da Anthropic, antes de assinar o acordo que a Anthropic rejeitou.
À medida que Claude conquistou o primeiro lugar, o ChatGPT caiu para segundo, e o Gemini, da Google, ficou atrás, em quarto lugar na App Store. Desde o início do ano, o número de usuários ativos gratuitos do Claude aumentou mais de 60%, e as inscrições diárias quadruplicaram.
A ascensão do Claude ocorre após o conflito público entre a Anthropic e o Pentágono sobre como a tecnologia de IA pode ser usada pelo exército. O Secretário de Defesa, Pete Hegseth, alertou o CEO da Anthropic, Dario Amodei, de que se a empresa se recusasse a permitir que seus modelos de IA fossem utilizados para “todos os propósitos legais”, incluindo possíveis aplicações em vigilância e armas totalmente autônomas, o Pentágono encerraria seu contrato e rotularia a Anthropic como um risco à segurança nacional. Amodei rejeitou os termos de forma categórica.
“Ameaças não mudam nossa posição: não podemos, de consciência tranquila, atender ao pedido deles”, afirmou Amodei em uma declaração.
Após a recusa de Amodei, o presidente Donald Trump respondeu em uma publicação no Truth Social, chamando a empresa de “empresa de IA de Esquerda Radical” e ordenando que todas as agências federais eliminassem a tecnologia da Anthropic em seis meses. Hegseth posteriormente afirmou, em uma publicação no X, que estava designando a empresa como um “risco na cadeia de suprimentos para a segurança nacional”, um rótulo geralmente aplicado a empresas com ligações a adversários estrangeiros.
Horas depois, e apesar de sua posição inicial alinhada com Amodei, Altman anunciou que a OpenAI havia chegado a um acordo com o Pentágono para implantar os modelos da empresa em sua rede classificada.
Altman argumentou, em uma publicação no X, que o acordo da OpenAI inclui as mesmas salvaguardas de segurança essenciais que a Anthropic exigiu, incluindo a proibição de usar a tecnologia para vigilância em massa doméstica e a responsabilidade humana pelo uso da força, como o emprego de armas autônomas. Como parte do acordo, a OpenAI impôs limitações que impedem o uso de sua IA para fins que violem suas linhas vermelhas, afirmou Altman.
“O DOW concorda com esses princípios, os reflete na lei e na política, e os incorporamos ao nosso acordo”, escreveu Altman na publicação.
A OpenAI não respondeu imediatamente ao pedido de comentário da Fortune.
Durante o fim de semana, Altman defendeu a decisão da empresa de fechar um acordo com o Pentágono, afirmando que ela construirá um sistema que o Departamento de Guerra pode usar em “leis e diretrizes sobre armas autônomas e vigilância”.
“Mas nós decidimos qual sistema construir, e o DOW entende que há muitos riscos que compreendemos profundamente. Podemos, e vamos, incorporar muitas proteções nesse sistema, incluindo garantir que as linhas vermelhas não sejam ultrapassadas”, escreveu.
Amodei, por sua vez, chamou a designação do governo de “retaliatória e punitiva” em uma entrevista à CBS News. Ele acrescentou que a Anthropic ainda está aberta a trabalhar com o exército dentro de seus limites previamente estabelecidos, mas que definiu suas linhas vermelhas porque “acreditamos que ultrapassá-las é contrário aos valores americanos, e queríamos defender esses valores”.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
O Claude da Anthropic ultrapassa o ChatGPT na App Store enquanto os utilizadores boicotam devido ao contrato de $200 milhões do Pentágono com a OpenAI
A OpenAI substituiu a Anthropic num acordo com o Pentágono no valor de até 200 milhões de dólares, mas ao fazê-lo, pode ter entregado a seu maior rival uma vitória ao colocá-lo no topo da App Store.
Vídeo Recomendado
Claude, da Anthropic, subiu para o primeiro lugar na App Store da Apple durante o fim de semana, destronando o ChatGPT poucos dias após o CEO da OpenAI, Sam Altman, anunciar que sua empresa havia substituído a Anthropic ao fechar um acordo de nove dígitos com o Departamento de Guerra dos EUA.
Antes do lançamento dos anúncios da Anthropic no Super Bowl — que fizeram uma brincadeira com a movimentação da OpenAI de incluir anúncios no ChatGPT — a Anthropic estava na 42ª posição na App Store da Apple. Desde então, permaneceu entre as 10 aplicações mais baixadas, mas o contrato da OpenAI com o Pentágono pode ter ajudado a colocá-la na primeira posição durante o fim de semana. Claude estava na 5ª posição, em comparação com a 2ª do ChatGPT, na Google Play Store na segunda-feira.
Nos últimos dias, usuários do ChatGPT protestaram online contra o contrato da OpenAI com o Pentágono, espalhando a mensagem de “Cancelar o ChatGPT” no Reddit e no X. Alguns usuários publicaram guias para excluir contas do ChatGPT e migrar para Claude. Outros acusaram a OpenAI de oportunismo, apontando que Altman tinha apoiado anteriormente a posição da Anthropic, antes de assinar o acordo que a Anthropic rejeitou.
À medida que Claude conquistou o primeiro lugar, o ChatGPT caiu para segundo, e o Gemini, da Google, ficou atrás, em quarto lugar na App Store. Desde o início do ano, o número de usuários ativos gratuitos do Claude aumentou mais de 60%, e as inscrições diárias quadruplicaram.
A ascensão do Claude ocorre após o conflito público entre a Anthropic e o Pentágono sobre como a tecnologia de IA pode ser usada pelo exército. O Secretário de Defesa, Pete Hegseth, alertou o CEO da Anthropic, Dario Amodei, de que se a empresa se recusasse a permitir que seus modelos de IA fossem utilizados para “todos os propósitos legais”, incluindo possíveis aplicações em vigilância e armas totalmente autônomas, o Pentágono encerraria seu contrato e rotularia a Anthropic como um risco à segurança nacional. Amodei rejeitou os termos de forma categórica.
“Ameaças não mudam nossa posição: não podemos, de consciência tranquila, atender ao pedido deles”, afirmou Amodei em uma declaração.
Após a recusa de Amodei, o presidente Donald Trump respondeu em uma publicação no Truth Social, chamando a empresa de “empresa de IA de Esquerda Radical” e ordenando que todas as agências federais eliminassem a tecnologia da Anthropic em seis meses. Hegseth posteriormente afirmou, em uma publicação no X, que estava designando a empresa como um “risco na cadeia de suprimentos para a segurança nacional”, um rótulo geralmente aplicado a empresas com ligações a adversários estrangeiros.
Horas depois, e apesar de sua posição inicial alinhada com Amodei, Altman anunciou que a OpenAI havia chegado a um acordo com o Pentágono para implantar os modelos da empresa em sua rede classificada.
Altman argumentou, em uma publicação no X, que o acordo da OpenAI inclui as mesmas salvaguardas de segurança essenciais que a Anthropic exigiu, incluindo a proibição de usar a tecnologia para vigilância em massa doméstica e a responsabilidade humana pelo uso da força, como o emprego de armas autônomas. Como parte do acordo, a OpenAI impôs limitações que impedem o uso de sua IA para fins que violem suas linhas vermelhas, afirmou Altman.
“O DOW concorda com esses princípios, os reflete na lei e na política, e os incorporamos ao nosso acordo”, escreveu Altman na publicação.
A OpenAI não respondeu imediatamente ao pedido de comentário da Fortune.
Durante o fim de semana, Altman defendeu a decisão da empresa de fechar um acordo com o Pentágono, afirmando que ela construirá um sistema que o Departamento de Guerra pode usar em “leis e diretrizes sobre armas autônomas e vigilância”.
“Mas nós decidimos qual sistema construir, e o DOW entende que há muitos riscos que compreendemos profundamente. Podemos, e vamos, incorporar muitas proteções nesse sistema, incluindo garantir que as linhas vermelhas não sejam ultrapassadas”, escreveu.
Amodei, por sua vez, chamou a designação do governo de “retaliatória e punitiva” em uma entrevista à CBS News. Ele acrescentou que a Anthropic ainda está aberta a trabalhar com o exército dentro de seus limites previamente estabelecidos, mas que definiu suas linhas vermelhas porque “acreditamos que ultrapassá-las é contrário aos valores americanos, e queríamos defender esses valores”.