Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
DeepSeek低调推出R1论文V2版本,披露了几项关键技术进展。
Na questão da autenticidade do conteúdo gerado por grandes modelos, eles oferecem uma interpretação oficial. Em relação ao fenômeno de o modelo mencionar frequentemente a OpenAI e o ChatGPT nas respostas, a DeepSeek explica que isso não foi uma designação intencional, mas sim uma consequência do estado objetivo dos dados de treino — uma grande quantidade de conteúdo externo gerado existe objetivamente nos corpus de páginas web, e esses conteúdos, ao serem incorporados no treino do modelo base, tiveram uma influência indireta, mas mensurável. Essa descoberta é de grande importância para compreender as características comportamentais dos LLMs e sua dependência de dados.
Mais importante ainda, é o planejamento deles para as direções futuras de capacidade. A tese define claramente que "saída estruturada" e "uso de ferramentas" são os principais focos de desenvolvimento do R2. A saída estruturada permite que o modelo organize informações em formatos específicos, aumentando sua utilidade em aplicações práticas; o uso de ferramentas envolve a capacidade do modelo de interagir com sistemas externos, o que é crucial para expandir os limites de aplicação prática de modelos de raciocínio. Essas direções de iteração tecnológica refletem uma tendência de transição de geração de texto puro para multimodalidade e forte capacidade de interação.
等等,他们还在甩锅训练数据?说什么客观现状...行吧,这理由确实站得住脚
Estruturação de saída e uso de ferramentas parecem bons, só tenho medo de ser mais um progresso de papel
Saída estruturada + chamada de ferramenta, isso é o que todos os jogadores querem, apenas conversar realmente não tem muita competitividade
A atualização do DeepSeek parece bastante sólida desta vez, sem aquele tom de exagero
Sobre os dados de treinamento, na verdade, ninguém consegue evitar isso, e ao invés de esconder, é melhor ser honesto
Se o R2 realmente fizer um bom trabalho com as capacidades das ferramentas, esse pode ser o momento realmente digno de atenção
A questão da qualidade do conjunto de dados realmente preocupa toda a indústria, o DeepSeek se arriscou a dizer isso abertamente, o que também é uma demonstração de sinceridade
Essa atualização não trouxe muitas surpresas, mas pelo menos é lógica e não engana as pessoas
Ter os dados de treino a influenciar o comportamento do modelo é verdade, aquela quantidade de lixo gerado por IA na internet realmente contamina
O R2 deve estar a chegar, multimodalidade é o futuro
O importante é se realmente funciona bem, não seja apenas para parecer bem na teoria
Nos dados de treinamento, tudo é uma sombra do ChatGPT... Agora, qualquer coisa que diga parece uma repetição do adversário.
Saída estruturada + uso de ferramentas, parece que estão preparando a próxima geração de praticidade. O R2 vai realmente chegar?
A questão da poluição de dados, todo o setor não consegue escapar dela. DeepSeek ter a coragem de falar sobre isso parece mais honesto.
A ambição do R2 não é pequena, passando de geração de texto para interação multimodal. Um pouco radical, mas eu gosto.
Este roteiro técnico revela bastante, está insinuando onde está seu limite máximo.
O uso de ferramentas é realmente crucial. Sem isso, mesmo um LLM forte é apenas uma peça decorativa.
A versão V2 do artigo foi lançada há tanto tempo que só agora alguém discute. A popularidade realmente não é das melhores.
É bastante interessante que os dados de treino estejam cheios de vestígios do ChatGPT, na verdade, é uma questão do DNA da internet
Será que o R2 vai decolar diretamente? Estou um pouco ansioso
No entanto, a combinação de saída estruturada + chamadas de ferramentas é a chave, parece ser a verdadeira inovação prática.
A DeepSeek está mais uma vez agindo de forma discreta... só publica o artigo depois de terminar o trabalho.
Se as capacidades das ferramentas forem realmente bem desenvolvidas, isso poderá ameaçar de fato o ecossistema da OpenAI.
Saída estruturada e chamadas de ferramentas são confiáveis, se o R2 realmente conseguir fazer isso será incrível
A discrição do DeepSeek é de verdade, sempre lançando artigos silenciosamente, muito melhor do que aqueles que ficam gritando o tempo todo
Se os dados de treino forem todos de ChatGPT, não é de admirar que o modelo sempre mencione eles, não importa o quanto tentem lavar isso
Quando a capacidade de usar ferramentas for realmente desenvolvida, o modelo de raciocínio será realmente útil, estou cansado de apenas conversar
---
Saída estruturada + chamada de ferramentas, essa é a verdadeira chave para abrir a porta da utilidade, a era da geração de texto puro realmente está a acabar
---
Espera aí, eles dizem "impacto indireto mas mensurável"... Não é isso que implica que o modelo pode ser influenciado pelos dados de treino?
---
O roteiro R2 é interessante, parece que o DeepSeek está a seguir o seu próprio caminho, sem seguir a tendência do raciocínio puro
---
Os dados de treino estão cheios de conteúdo externo, como é que esse sistema garante independência...