今天分享的是:2025年DeepSeek模型优势:算力、成本角度解读报告
报告共计:页
《2025年DeepSeek模型优势:算力、成本角度解读报告》主要从算力、成本方面剖析了DeepSeek模型的优势,探讨国内AI发展现状与挑战。
1. 算力发展与大模型需求:算力从传统的信息计算力发展到涵盖信息计算力、数据存储力、网络运载力的现代算力。随着技术发展,经历大型机、PC、云计算和人工智能时代,人工智能大模型对算力需求剧增。万亿模型的数据量需超$1.5×10^{13}$,计算次数约$1.5×10^{25}$,高昂的算力成本成为发展瓶颈。
2. 国内外AI发展模式与限制:国际企业如OpenAI通过华尔街融资购买最新GPU,训练大模型并提供服务。国内AI发展模式与之类似,但面临美国的限制,包括禁止高端AI芯片出口、限制AI加速器互联带宽、禁止特定芯片代工和HBM芯片供应等,导致国内AI优质算力与国外存在差距。
3. DeepSeek模型优势与技术创新:DeepSeek V3在多个测评中表现出色,且训练成本低。其创新技术有DeepSeekMoE,采用1共享专家 + 256路由专家架构,每个Token只需过360亿参数,减少计算量;MLA技术通过低秩压缩KV,使KV Cache使用降低93.3%,提升推理性能并降低成本;自研轻量级框架,结合FP8训练、DualPipe等技术,提升算力密度和系统性能。此外,通过PTX优化绕开CUDA护城河,虽未完全绕开,但对国产硬件设计有借鉴意义。
4. 未来展望:以DeepSeek为代表的国内大模型在成本上具有优势,但受算力限制,短期内全面超越国外先进模型较难。未来需中芯国际等企业突破工艺瓶颈,华为等提供高算力支持,提升国内AI竞争力。
以下为报告节选内容