Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
O acordo da OpenAI com o Pentágono foi anunciado apenas horas após a proibição federal da Anthropic.
Quando e como foi anunciado?
O CEO da OpenAI, Sam Altman, anunciou na sexta-feira à noite que a empresa tinha assinado um acordo com o Departamento de Defesa dos EUA. Isso aconteceu no mesmo dia em que Trump proibiu a Anthropic para agências federais, declarando-a como um "risco na cadeia de abastecimento de segurança nacional".
Escopo do acordo:
Os modelos GPT da OpenAI podem ser utilizados em redes militares classificadas/classificadas.
O valor do contrato está estimado em cerca de $200 milhões.
A OpenAI oferece seus modelos através de sua própria API na nuvem.
Segurança e "Guardrails" Éticos
A OpenAI enfatiza que mantém as mesmas duas principais restrições que a Anthropic rejeitou:
A vigilância em massa doméstica é proibida.
A supervisão humana é obrigatória para sistemas de armas totalmente autônomas; os modelos não podem ser usados livremente para "todos os propósitos legítimos".
A OpenAI afirma oferecer "guardrails mais fortes": uma combinação de fatores legais + técnicos + de processo + humanos. Altman também acrescentou que o rótulo de "risco na cadeia de abastecimento" aplicado à Anthropic foi injusto. Por que tão rápido?
Aparentemente, o Pentágono tinha travado meses de negociações com a Anthropic. Imediatamente após a Anthropic ser excluída por ordem de Trump, a OpenAI interveio e fechou o acordo, obtendo a aceitação de restrições semelhantes. Alguns comentaristas veem isso como uma "vantagem competitiva" e "pragmatismo" – enquanto a administração Trump criticou a Anthropic como "de esquerda", a OpenAI foi considerada mais flexível/collaborativa.
Reações e comentários.
Alguns dizem: "O Pentágono rejeitou os termos da Anthropic, mas aceitou os da OpenAI, uma contradição interessante."
Há críticas: "Não é uma verdadeira barreira, apenas PR" ou "a supervisão humana é fraca, ligada à própria política do Pentágono."
O próprio blog da OpenAI compartilha detalhes; solicita que acordos semelhantes sejam oferecidos a todas as empresas de IA.
Resumindo: a Anthropic resistiu por princípio e perdeu, a OpenAI venceu ao manter os mesmos ( ou princípios semelhantes, dando um grande passo no mercado de IA militar. Este evento intensificou ainda mais a postura do governo contra empresas que exigem "segurança" e a competição entre empresas de IA.
)
O Presidente dos EUA, Donald Trump, proibiu as tecnologias de inteligência artificial da Anthropic em todas as agências do governo federal. Numa declaração na sua conta Truth Social, Trump descreveu a Anthropic como uma "empresa radical de esquerda, astuta" e, após uma disputa com o Pentágono, afirmou: "Parar imediatamente toda a utilização, não precisamos dela, não a queremos."
O Pentágono declarou a Anthropic como um "risco para a segurança nacional" após a empresa tentar restringir os seus modelos de IA para fins militares (especificamente, uso irrestrito), concedendo às agências federais um período de transição de seis meses. Esta decisão levou a que a Anthropic perdesse contratos governamentais; empresas rivais (como a OpenAI) anunciaram novos acordos com o Pentágono.