🧭
先看这份研报的核心结论
核心事件: 2025年9月29日,DeepSeek-V3.2-Exp正式发布,参数量685B,系实验性版本,在V3.1-Terminus基础上引入DSA(稀疏注意力机制),针对长文本的训练和推理效率进行了探索性优化
📌
核心要点
核心事件: 2025年9月29日,DeepSeek-V3.2-Exp正式发布,参数量685B,系实验性版本,在V3.1-Terminus基础上引入DSA(稀疏注意力机制),针对长文本的训练和推理效率进行了探索性优化
行业地位: 国内大模型技术持续突破,在成本控制和效率优化方面走在全球前列,为商业化落地和出海奠定基础
核心优势: 长文本处理效率显著提升,计算复杂度从O(L²)降至O(Lk) API成本大幅下降50%以上,增强市场竞争力 训练流程优化,兼顾效率与性能表现
💡
为什么值得继续看
DeepSeek-V3.2-Exp引入DeepSeek Sparse Attention(DSA)稀疏注意力机制,通过闪电索引器(Lightning Indexer)实现细粒度稀疏注意力,在几乎不影响模型输出效果的前提下,大幅提升长文本训练和推理效率
⚠️
风险提示
⚠️ 风险提示 1. AI技术发展不及预期: 大模型创新伴随参数量及模态的增速能力天花板尚未达到,但模型效果本身仍存瓶颈及问题,若AI技术发展不及预期,投入厂商存在失败风险
下游应用需求不及预期: 人工智能本质是通过供给创新催生需求扩容,目前大模型仍处于商业模式摸索期,若本轮技术变革无法真实带动下游需求,投入厂商将受到影响