DeepSeek quietly launched R1 paper V2, disclosing several key technological advances.



Regarding the authenticity issue of content generated by large models, they provided an official interpretation. In response to the phenomenon of models frequently mentioning OpenAI and ChatGPT in their responses, DeepSeek explained that this was not intentional design, but rather stemmed from the objective reality of training data — web corpora objectively contain large amounts of externally generated content, which when incorporated into base model training, produced indirect but measurable effects. This finding is significant for understanding LLM behavioral characteristics and data dependency.

More notably is their planning for future capability directions. The paper explicitly lists "structured output" and "tool use" as core development directions for R2. Structured output allows models to organize information according to specific formats, enhancing usability in practical applications; tool use involves the model's ability to interact with external systems, which is crucial for expanding the practical application boundaries of reasoning models. These technical iteration directions reflect a transition from pure text generation toward multimodal and strong interactive capabilities.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 8
  • Репост
  • Поделиться
комментарий
0/400
SignatureLiquidatorvip
· 19ч назад
Ха, DeepSeek снова занимается чем-то тихо и незаметно, даже не знаю, когда выйдет новая версия. Подождите, они еще обвиняют в тренировочных данных? Говорят о текущем объективном положении... Ладно, это действительно обоснованное оправдание. Структурированный вывод и использование инструментов звучат неплохо, только боюсь, что это снова будет только на бумаге, как прогресс-бар.
Посмотреть ОригиналОтветить0
SatsStackingvip
· 01-10 09:19
嗯...данные о загрязнении возложены довольно прямо, но эта аргументация действительно обоснована структурированный вывод + вызов инструментов — это то, что действительно хотят игроки, чистый чат действительно не имеет особых конкурентных преимуществ обновление DeepSeek в этот раз кажется достаточно стабильным, без преувеличений по поводу обучающих данных, по сути, никто не может их обойти, и лучше быть честным, чем скрывать если R2 действительно хорошо реализует возможности инструментов, это, возможно, и есть тот самый момент, достойный внимания проблема качества датасетов действительно мешает всей индустрии, и DeepSeek смело говорит об этом — это тоже проявление искренности это обновление кажется не очень впечатляющим, но по крайней мере логика последовательна, не вводит в заблуждение
Посмотреть ОригиналОтветить0
LightningWalletvip
· 01-09 12:25
Ха, у DeepSeek в этом обновлении есть чего-то интересное — структурированный вывод + интеграция инструментов, похоже, они действительно готовят что-то серьезное. Насчет влияния обучающих данных на поведение модели — совершенно справедливое замечание, весь этот хлам, сгенерированный ИИ в интернете, действительно может заразить систему. R2 выходит скоро, да? Мультимодальность — вот будущее. Главное — чтобы это действительно хорошо работало на практике, а не просто выглядело красиво на бумаге.
Посмотреть ОригиналОтветить0
SchrodingerWalletvip
· 01-08 07:45
又是DeepSeek又低调又进步,真有你的,就不能发个声明让我们知道吗 训练数据里全是ChatGPT的影子...这下好了,说什么都像在复读对手 结构化输出+工具使用,听起来就是在铺垫下一代的实用性,R2要来真的了吗 Данные загрязнения — это проблема всей индустрии, DeepSeek смело говорит об этом, что делает его более честным R2的野心不小啊,从文本生成直接跳向多模态交互,有点激进但我喜欢 Эта техническая дорожная карта очень ясна, она намекает на собственный потолок 工具使用这块真的是关键,没有这个LLM再强也是花瓶 论文V2出了这么久才有人讨论,热度确实不如人意
Посмотреть ОригиналОтветить0
MemeTokenGeniusvip
· 01-08 07:41
Ха-ха, Deepseek опять тихо творит чудеса, структурированный вывод и использование инструментов — это действительно супер В обучающих данных полно следов ChatGPT, довольно забавно, по сути это вопрос интернет-ДНК Взлетит ли R2 напрямую, немного с нетерпением жду
Посмотреть ОригиналОтветить0
GasGuzzlervip
· 01-08 07:41
Датическая токсичность действительно трудно игнорировать, наличие следов ChatGPT в обучающем наборе данных сложно назвать полностью без влияния. Но именно структурированный вывод + вызов инструментов — это ключ, кажется, именно это и есть настоящий прорыв в практическом применении. DeepSeek снова занимается этой скрытной разработкой, настолько скромно, что это удивительно... опубликовать статью только после завершения работы. Если возможности инструментов действительно будут хорошо реализованы, только тогда они смогут по-настоящему угрожать экосистеме OpenAI.
Посмотреть ОригиналОтветить0
ForkPrincevip
· 01-08 07:29
嗯...данные загрязнения наконец-то кто-то осмелился хорошо обсудить, это не баг, а фича ха-ха структурированное вывод и вызов инструментов — это надежно, если R2 действительно сможет сделать это, это будет круто DeepSeek действительно скромный, каждый раз он тихо публикует статьи, гораздо лучше, чем некоторые, которые всё время кричат в обучающих данных полно материалов ChatGPT, неудивительно, что модель постоянно о них упоминает, как бы ни пытались их "очистить" если бы навыки использования инструментов развились, тогда бы модель действительно могла бы найти свое место, я уже устал от чистого чата
Посмотреть ОригиналОтветить0
wrekt_but_learningvip
· 01-08 07:21
Данные решают всё, неудивительно, что постоянно упоминается OpenAI... Значит, DeepSeek намекает, что в обучающем наборе есть проблема? --- Структурированный вывод + вызов инструментов — вот ключ к открытию двери к практической полезности, эпоха чистого текстового генерации действительно подходит к концу --- Подождите, они говорят о "косвенном, но измеримом влиянии"... разве это не признание того, что модель может быть смещена обучающими данными? --- Дорожная карта R2 интересна, кажется, DeepSeek идет своим путем, не следуя за трендом чистого рассуждения --- В обучающих данных полно внешнего контента, как это обеспечить независимость этого?
Посмотреть ОригиналОтветить0
  • Закрепить