相关证件: 
会员类型:
会员年限:3年
发布时间: 2025/2/26 9:30:59 | 36 次阅读
据路透社zui新报道,六名知情人士共同透露,由于对 DeepSeek 低成本人工智能模型的需求激增,中国企业正在增加英伟达 H20 人工智能芯片的订单,这或许有助于缓解人们对 DeepSeek 可能致使人工智能芯片需求下滑的担忧。
此前,DeepSeek 爆火给英伟达带来了不小的冲击。2025 年 1 月,DeepSeek 发布 R1 模型的开源版本,英伟达股价在消息公布当天单日暴跌 16.9%,市值在短短三天内蒸发了 6000 亿美元。市场之所以有如此大的反应,一个重要原因是 DeepSeek 展现出了颠覆式的成本下降。它仅使用 2000 余个芯片集群,花费 560 万美元左右就能训练出高性能的 V3 模型,远低于其他国际 AI 大模型,为行业在低成本训练方面提供了新的思路与范例,让更多企业看到了以较低成本开发大模型的可能性。
然而,正如英伟达 CEO 黄仁勋所言,DeepSeek 对英伟达股票的冲击,源于投资者的误解。尽管 DeepSeek 在预训练 AI 模型方面取得了进步,但后期训练依旧重要,且需要大量资源。更为关键的是,部署 DeepSeek 推理应用同样需要大量的英伟达芯片。随着 AI 落地加速,英伟达作为quan球zuiling先的计算芯片公司,仍然是zui大的受益者。
DeepSeek 部署热潮带来大量芯片需求
此前,DeepSeek 发布 R1 模型时,投资者抛售英伟达股票,主要担心的是 DeepSeek 的开源和低成本逻辑将终结?Scalling Law 的发展。所谓的?Scalling Law,是指在自然语言处理(NLP)和多模态模型领域中,随着模型规模、数据量和计算资源的增加,模型的性能会相应提升,并且这种提升呈幂律关系。
在大模型领域,?Scalling Law 主要包括 Scale Out 和 Scale Up 两个方向。其中,Scale Out 即横向扩展、向外扩展,通过将多个低性能的机器组成一个分布式集群,来共同抵御高并发流量的冲击;Scale Up 即纵向扩展、向上扩展,在一个计算节点内通过购买性能更好的硬件,提升系统的并发处理能力。显然,DeepSeek 对 Scale Out 的冲击更大,也就是说计算芯片的需求没那么多了。然而,DeepSeek 部署量大幅提升之后,人们发现 DeepSeek 阻碍 Scale Out 发展的逻辑是错误的。
DeepSeek 带来的算法效率的提升并未抑制算力需求,反而因更多用户和场景的加入,推动大模型的普及与应用落地,带动数据中心、边缘及端侧算力建设。这使得为了满足不断增长的算力需求,通过 scale out 来扩展计算能力变得更为重要。换句话说,企业若要在数据中心部署 DeepSeek 进行大规模的模型训练和推理任务,对高算力、高内存带宽的芯片需求巨大。
已经有多位业内人士表示,DeepSeek 服务器的瓶颈主要在于 GPU 推理资源。若应用像 DeepSeek guan网一样经常宕机,会严重影响用户体验。
是谁在大规模购买英伟达 H20
六名知情人士中的两位称,自 DeepSeek 上个月进入quan球公众视野以来,腾讯、阿里巴巴和字节跳动对 H20 的订单 “大幅增加”。目前,腾讯和阿里巴巴已全面拥抱 DeepSeek,字节跳动则扮演着 DeepSeek 挑战者的角色,此前字节跳动的豆包大模型是国内pai名di一的大模型。
目前,腾讯旗下的多个产品都已宣布接入 DeepSeek,包括腾讯元宝、腾讯文档、QQ 浏览器、微信搜索、《和平精英》手游等。数据显示,元宝自 2 月 13 日接入 DeepSeek-R1 模型后,一周内完成四次重大更新,新增图片理解、深度思考等功能,并通过微信搜索导流实现单日安卓新增xia载量 160 万,iOS pai名从 200 名外跃升至第二。