随后这个报告引起轩然大波,一些行业专家看完这个解读之后直言,黑的太业余,简直是对中国科技的诋毁。
Semianalysis统计的数据显示,DeepSeek的使用率由过年时高点的7.5%下滑到如今的3%。另一张表格统计显示,2月25日-5月25日,DeepSeek官网访问量下降29%。
同期,两大海外竞争对手ChatGPT和谷歌Gemini交出的成绩单是,增长40.6%和85.8%。
另一个数据来自全球知名AI模型集成平台Poe。它们统计的数据显示,R1的使用率从2月7%的高点腰斩至4月底的3%,而第三方平台托管的Token流量占比从3月的42%骤降至5月的16%。
被吐槽的原因,这些机构核心统计对象是DeepSeek官网,不包括腾讯元宝、百度、夸克等深度接入DeepSeek的第三方渠道。
也难怪一些行业专家会吐槽上述国外机构的报告,当DeepSeek成为“水电煤”一样的存在,仅官网的流量数据怎么能体现其影响力的全貌?
不久前,Rokid创始人祝铭明回忆今年早些时候与梁文锋的一次交流时提到,“我问他有没想过扩充服务器,投入更多资源接住这波流量。”
那阵子,DeepSeek正处于流量高峰,太多用户同时涌入,导致官网时常出现“服务器繁忙”的提示,一定程度上影响了用户体验。
“从长远来看,我们希望建立一个生态系统,让行业直接使用我们的技术和成果。其他公司基于我们的模型开发B2B/B2C服务,而我们专注于基础研究。如果产业链完整,我们无须亲自做应用。当然,如果有必要,我们完全有能力去做,但研究和创新始终是我们的核心优先级。”之前接受采访的梁文峰说道。
行业一些大佬对梁文锋评价很直观,他对技术的追求很纯粹,成就感来自所有人用他的技术。
DeepSeek使用率从年初的50%暴跌至3%的主要原因如下,结合多份证据交叉分析:
一、核心原因:R2模型更新延迟与技术瓶颈
1.训练数据质量不足
-R2模型需要比前代R1更大规模的高质量训练数据,但国内可用的训练数据质量较低,导致模型在生成内容时出现严重“幻觉”(即虚构事实或逻辑错误)。
-R1基于OpenAI的全球认证数据集开发,而R2需依赖本土数据,但国内数据在专业性(如医疗、法律领域)和多样性上存在明显短板。
2.高端GPU短缺拖累研发
-美国芯片出口限制导致高端GPU(如英伟达A100/H100)供应严重不足,大幅降低训练效率。
-DeepSeek虽尝试用华为昇腾910B替代,但其计算效率仅为A100的82%,且调试耗时增加。
二、直接后果:用户体验恶化与用户流失
1.幻觉问题引发信任危机
-R2因数据缺陷导致幻觉率居高不下,尤其在专业领域(如医学、法律)错误频出,用户反馈“逻辑混乱、结果不可靠”。
-对比显示,R1通过优化曾将幻觉率降低3%-5%,但R2未能延续这一改进。
2.竞争对手抢占市场
-同期OpenAI的GPT-4o因新增文生图等功能,使用率暴涨85.8%;谷歌Gemini流量增长40.6%。
-快手“可灵”模型在视频生成领域份额超30%,进一步分流用户。
三、深层挑战:商业化与生态短板
1.企业用户转向私有部署
-大量企业选择本地部署开源模型,导致DeepSeek云端流量流失。
2.多轮对话能力薄弱
-用户指出其上下文理解能力弱于竞品,响应速度慢。
四、积极贡献仍受认可
尽管面临困境,DeepSeek的突破性价值未被否定:
-打破技术垄断:以低成本、高性能打破西方AI垄断,推动全球科技公平竞争。
-开源生态建设:开放模型权重及轻量版,吸引全球超百万开发者参与优化,形成活跃社区。
-技术里程碑:R1曾性能比肩OpenAI-o1,数学解题准确率达87.5%。
总结
DeepSeek使用率暴跌的核心是R2延期更新引发的连锁反应:
-直接诱因:数据质量差→幻觉严重→用户信任崩塌;
-加速因素:GPU短缺→研发滞后→错失市场窗口;
-外部压力:竞品快速迭代+用户转向私有部署。
其根本挑战在于突破“数据-算力-商业化”三角瓶颈,但开源策略与技术贡献仍为行业留下重要遗产。
知友们怎么看?欢迎评论区留言~
|