当芯片厂商开始押注应用层,游戏规则就变了。
2025年底,硅谷流传着一个未被官方确认的数字:英伟达对OpenAI的最新一轮投资,估值可能将后者推至3400亿美元。这不是简单的财务投资,而是一场精心设计的战略联姻,全球最先进的AI芯片制造商,与最激进的模型能力探索者,正在编织一张覆盖基础设施、模型层、应用层的垄断网络。
这不是阴谋论的臆测,而是产业逻辑演进的必然。当算力成为新时代的石油,控制油田的人开始投资炼油厂,甚至加油站。
从”卖铲人”到”坐庄者”:英伟达的野心跃迁
英伟达CEO黄仁勋从不掩饰对OpenAI的偏爱。在2024年的GTC大会上,他亲自将第一台DGXH200超级计算机交给OpenAI,这个仪式性的动作背后,是两家公司长达十年的深度绑定。OpenAI训练GPT-4、GPT-4o乃至传说中的GPT-5,消耗的英伟达GPU数量以十万计。
但英伟达的棋局远不止卖芯片。2024年,该公司参与了OpenAI高达66亿美元的融资轮,这是其历史上最大的一笔对外投资。与此同时,英伟达还领投了埃隆·马斯克的xAI60亿美元融资,并投资了Cohere、MistralAI、Adept等多家大模型公司。
这种”广撒网”策略看似矛盾,既支持OpenAI这个领跑者,又押注其竞争对手。但细究之下,逻辑异常清晰:英伟达不在乎谁赢得模型战争,它要确保的是所有参赛者都必须买它的”门票”。通过股权投资,英伟达不仅锁定了这些公司的算力采购承诺,更深度介入了它们的芯片定制需求。OpenAI的GPT-4架构优化、xAI的Colossus超级计算机设计,都有英伟达工程师的参与。
更隐秘的布局在于软件生态。CUDA护城河之外,英伟达正在构建NVIDIAAIEnterprise套件,将模型训练、推理优化、部署工具打包成订阅服务。当客户使用OpenAI的API时,底层优化的很可能是英伟达的TensorRT;当开发者调用HuggingFace的模型时,推理加速可能来自英伟达的Triton推理服务器。
这种”硬件+软件+股权”的三重绑定,让英伟达从产业链的上游(芯片)向中游(模型)和下游(应用)延伸。一位硅谷风投合伙人评价:”黄仁勋想做的不是Intel,而是AI时代的微软,既控制操作系统,又绑定核心应用。”
OpenAI的”算力成瘾”与反噬风险
OpenAI对英伟达的依赖,已经到了”成瘾”的程度。据行业估算,OpenAI每年在算力上的支出超过30亿美元,其中绝大部分流向英伟达。这种依赖关系在2023-2024年的”芯片荒”中暴露无遗:当全球科技公司抢购H100时,OpenAI不得不与微软合作,通过Azure的优先供应协议保障训练需求。
但成瘾者总想摆脱控制。OpenAI的应对策略是”多源化+自研”的双轨制。一方面,它与微软、甲骨文、CoreWeave等云厂商合作,试图分散算力来源;另一方面,它秘密推进自研芯片项目,代号”Athena”(雅典娜),计划减少对英伟达GPU的依赖。
然而,自研芯片的门槛远超想象。谷歌TPU经历了十年迭代才勉强追上英伟达A100的性能,亚马逊Trainium、微软Maia的进展也不尽如人意。OpenAI虽然挖来了谷歌TPU团队的核心成员,但距离量产至少还有3-5年时间。在这期间,它不得不继续接受英伟达的”输血”,以及随之而来的股权稀释。
更微妙的博弈在于定价权。英伟达H100的单价高达3-4万美元,且供不应求。当OpenAI通过股权融资获得英伟达的资金时,这部分资金很可能以”预付款”的形式回流到英伟达的芯片销售中。这种”左手倒右手”的资本游戏,让OpenAI的估值膨胀与英伟达的营收增长形成了闭环。
但风险同样明显。2025年,DeepSeek、阿里Qwen等开源模型的崛起,证明了”算力效率”可以部分替代”算力规模”。DeepSeek-V3仅用2048块H800(英伟达特供中国的降级版GPU)就训练出对标GPT-4o的模型,成本仅为后者的1/20。这种”小力出奇迹”的路径,动摇了”堆卡即正义”的行业共识。
如果模型效率持续提升,OpenAI对英伟达高端芯片的需求可能见顶。届时,英伟达的股权投资将变成”沉没成本”,而OpenAI的估值泡沫也可能破裂。这场联姻的脆弱性,在于双方都押注了同一个前提:模型规模定律(ScalingLaw)将继续有效。
产业链的”黑洞效应”:从创新到窒息
英伟达与OpenAI的绑定,正在对整个AI产业链产生”黑洞效应”,资源、人才、注意力被无限吸入这个双头垄断体系,边缘玩家面临窒息。
在基础设施层,这种垄断已经显性化。2024年,英伟达占据了AI训练芯片市场90%以上的份额,而OpenAI及其关联公司(如微软)消耗了其中相当大比例。其他模型公司,如Anthropic、Cohere,即便能买到芯片,也要付出更高的溢价和更长的等待周期。这迫使它们接受英伟达的股权投资,形成”要么加入,要么出局”的囚徒困境。
在模型层,竞争格局正在固化。OpenAI凭借算力优势,率先实现了GPT-4级别的多模态能力,并通过ChatGPTPlus、API、企业版构建了完整的商业化闭环。追赶者如谷歌Gemini、MetaLlama,虽然技术差距在缩小,但生态差距在拉大,开发者默认使用OpenAI的API,不是因为它是最好的,而是因为它是”标准”。
在应用层,创新的空间被压缩。当基础模型被少数几家公司控制,应用创业者的议价能力极低。OpenAI可以随时复制任何有潜力的应用功能(如代码助手、图像生成、语音合成),并以更低的价格提供给数亿用户。2024年,多家AI应用创业公司抱怨,OpenAI的更新”直接杀死了我们的商业模式”。
更深远的影响在于研究方向的单一化。当”大力出奇迹”成为唯一被验证的路径,学术界和工业界对高效模型架构、小样本学习、神经符号混合等替代路线的投入大幅减少。2025年,NeurIPS会议上关于”模型效率”的论文占比降至历史低点,而”ScalingLaw”相关研究则人满为患。
这种”路径依赖”的风险在于:如果ScalingLaw遇到瓶颈(如数据枯竭、能耗极限),整个产业可能陷入集体性技术停滞。而英伟达和OpenAI作为既得利益者,缺乏动力去探索替代路径。
反垄断的达摩克利斯之剑
监管者已经注意到了这种垄断风险。2024年,美国司法部对英伟达启动反垄断调查,重点关注其是否滥用市场支配地位,强制客户购买其软件服务。欧盟也在审查英伟达对OpenAI、Mistral等公司的投资,评估是否构成”扼杀式并购”。
但反垄断执法在AI领域面临特殊挑战。传统的反垄断框架关注价格垄断和市场分割,但AI市场的核心资源是数据和算力,其分配机制更为隐蔽。英伟达可以通过”优先供货”而非”拒绝供货”来排挤竞争对手,OpenAI可以通过API定价策略而非直接封杀来压制应用层创新。这些行为很难用现有的法律条文界定。
更复杂的维度在于地缘政治。美国将英伟达和OpenAI视为AI霸权的”国家队”,通过出口管制限制中国获取高端芯片,同时扶持OpenAI的全球扩张。在这种背景下,反垄断执法可能被让位于国家战略利益。2025年,美国商务部甚至考虑放宽对英伟达的部分并购审查,以”保持对中国AI产业的领先优势”。
破局者:开源生态与算力民主化
垄断的裂缝往往来自边缘。2024-2025年,DeepSeek、阿里Qwen、MetaLlama等开源模型的爆发,证明了”去英伟达化”的可能性。
DeepSeek的MoE架构(混合专家模型)将推理成本降低至OpenAI的1/10,且完全开源。这意味着中小开发者无需依赖OpenAI的API,也无需购买昂贵的H100集群,就能构建有竞争力的AI应用。阿里Qwen的32B量化版本可在消费级显卡上运行,进一步降低了算力门槛。
在硬件层,AMDMI300系列、英特尔Gaudi3、以及中国华为的昇腾910B,正在蚕食英伟达的市场份额。虽然单卡性能仍有差距,但通过软件优化和集群架构创新,部分场景已经可以实现替代。2025年,中国AI芯片在本土市场的占比首次突破20%,这是一个标志性转折点。
云厂商的”反水”同样值得关注。微软、谷歌、亚马逊都在加速自研芯片(Maia、TPU、Trainium),试图摆脱对英伟达的依赖。虽然这些芯片目前主要用于推理而非训练,但随着模型效率提升,推理芯片的市场占比将持续扩大。英伟达如果不能在推理市场保持领先,其垄断地位将出现松动。
Aiii人工智能创研院(Aiii.org.cn)精选文章《英伟达投资OpenAI:算力巨头与模型巨头的绑定,将如何垄断 AI 产业链?》文中所述为作者独立观点,不代表Aiii人工智能创研院立场。如有侵权请联系删除。如若转载请注明出处:https://www.aiii.org.cn/234.html

微信小程序