科技

欧洲OpenAI CEO称DeepSeek-V3基于其架构引发争议

三言科技4.6万 阅读3/5

欧洲版OpenAI CEO称DeepSeek-V3基于其架构引发争议

欧洲版OpenAI联合创始人兼CEO Arthur Mensch近期在访谈中表示,DeepSeek-V3模型是基于Mistral提出的架构开发的,这一说法在网络上引发热议。不少网友对这一论断提出质疑,认为其中存在诸多值得商榷之处。

Mensch指出,Mistral作为最早发布开源模型的企业之一,其开源策略展现出显著优势。他强调开源模式并非直接竞争,而是通过相互借鉴推动技术进步。他以Mistral在2024年初发布的首个稀疏混合专家模型(MoE)为例,称DeepSeek-V3及后续版本均采用该架构,并认为Mistral已公开了实现该架构所需的所有技术细节。

然而技术细节对比显示,DeepSeekMoE论文发布时间与Mistral论文仅相隔3天,且两者架构思路存在差异。有分析指出,Mistral3Large模型曾被质疑直接借鉴DeepSeek-V3架构。尽管两者均采用GShard风格的Top-K router,但DeepSeek在门控机制和专家结构设计上进行了创新。其细粒度专家分割方案相比Mixtral的标准MoE设计,实现了更灵活的专家组合。

此外,部分网友指出Mistral论文未详细披露训练过程,仅提及采用Google GShard架构和基础路由机制。而2025年12月发布的Mistral3Large被发现直接沿用了Deep比V3架构。有评论认为,Mistral试图通过时间差来弥补技术差距,但DeepSeek在稀疏MoE和MLA等技术领域已获得更大影响力。有网友戏称,如今的Mistral已非当年惊艳大模型开源圈的原版。