在回答这个问题之前,先梳理一下目前人工智能AI的发展情况。构建AI大模型的三个要素:数据,模型与算力。在显卡被封锁的情况下,DP在模型上苦下功夫用极低的成本训练出性能能够比肩OpenAI o1模型正式版。DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。 目前很多工厂和科研机构都在想自建大模型用自己积累的数据去训练出属于自己行业的垂直模型和专业知识库,所以现在出来一种行业或者创业路径B端G端做垂直模型训练。

大模型产业生态新范式

  目前大模型无非两种路径一种利用现在已有模型微调进行应用的落地(国内一直的拿来主义
Hugging Face),而是另一种是研发大模型如最近比较火的deepseek,其实国内几个大厂也是在做研究大模型都想往agi方向整(但大厂的产品不够硬好多钱砸在营销上)。现在人们不像以前好骗了,现在是产品为王。dp做的比较好是因为踏实的做产品不混圈子,不和国内玩基本不做营销,钱全部花在研发上。产品一出直接面对国际,当国外炸开花时,国内媒体不得不报道。但它是有瓶颈的R1和openai的O3路径不一样。大模型最终还是需要显卡集群支持的,dp目前的模型如果想在上一步必须要显卡算力。对于我们普通人来说最容易的当数国内最拿手的应用产品的开发。

AGI演进路径的收敛性判断

短期路径分化
  西方路线:OpenAI为代表的暴力美学(更大参数+更多数据)最新研究显示,GPT-5训练token数达12T,但边际性能提升仅7%
  东方路线:DeepSeek引领的效率革命。R1在HumanEval测试中,单位算力性能产出是GPT-4的2.3倍
长期必然收敛
第一性原理约束:
根据AI-KAHNEN框架,AGI需同时满足:符号推理(Symbolic Manipulation)、具身认知(Embodied Cognition)、元学习(Meta-Learning),这要求模型架构必须突破当前Transformer范式,倒逼东西方技术路线最终融合
总结与预判:
当前大模型产业正处于"垂直化深水区"与"基座模型重构期"的叠加态,DeepSeek模式证明:技术纵深构建护城河:在MoE架构、训练算法等底层创新持续投入全球化技术话语权争夺:通过开源社区建设绕过地缘政治壁垒软硬协同破局算力困局:算法创新可部分对冲硬件代差
未来3-5年将出现
垂直领域出现估值超$10B的AI独角兽(非通用模型公司)
国产算力集群在特定场景(如科学计算)实现局部超越
模型架构进入"后Transformer时代",神经符号混合架构成主流
  DeepSeek的爆火可能持续,但其需在开源生态建设与商业化间找到平衡。AGI的实现或需结合开源协作与强化学习路径,而显卡需求虽难避免,技术创新可显著降低边际成本。短期看,R1在技术透明度和效率上占优;长期看,R1和O3两类路线或将并行发展,适应不同应用场景。