DeepSeek:正测试新的长文本模型结构 支持1M上下文
资讯解读
AI资讯解读
先看这条资讯为什么重要,再判断它会影响哪条主线和哪些公司。
这类资讯通常先看什么:先看这条资讯为什么重要,再判断它会影响哪条主线和哪些公司。
这条资讯到底为什么重要
关键数据 • 上下文长度: 1M tokens ↑(约75万字) • 能力提升:相比现有API版本提升约8倍 • 测试范围:网页端和APP端优先部署 利好还是利空: 中长期偏利好 主要风险 • 1M上下文推理成本大幅增加,商业化可持续性待验证 • API服务未同步升级,可能影响开发者生态建设进度 • 海外头部厂商持续迭代,技术领先窗口期可能较短 一句话总结: 国产大模型长文本能力突破,算力需求和垂直应用落地加速,产业链进入能力变现关键期。
先看核心要点
长文本处理能力大幅提升 DeepSeek正在网页和APP端测试支持 1M上下文 ↑ 的新模型结构,相比API服务现有的128K上下文提升约 8倍
这意味着模型可处理约75万字的超长文本,能够应对复杂文档分析、长篇代码审查等场景
技术驱动,算力和架构优化是关键 分层服务策略渐显 API服务维持V3.2版本的128K上下文不变,而网页和APP端率先测试1M能力,体现出差异化产品布局
人工智能为什么值得看
短期看: 提升国产AI大模型市场信心,利好 AI应用开发 和 企业级服务商 环节
长文本能力突破将加速在法律、医疗、金融等文档密集型行业的落地应用,刺激B端需求释放
📄
资讯原文
《科创板日报》13日讯,DeepSeek官方助手在开发者交流群中表示:DeepSeek 网页/APP正在测试新的长文本模型结构,支持1M上下文。而API 服务不变,仍为V3.2,仅支持128K上下文。(记者 黄心怡)