哈希游戏- 哈希游戏官方网站- APP下载探针前沿科技专题:CorewaveNeoCloud行业的领军者
2025-11-26哈希游戏,哈希游戏官方网站,哈希游戏APP下载2018年加密货币市场的寒冬,公司在币价大跌、市场萧条之际,逆势大量收购被低价抛售的GPU,为未来管理GPU集群打下了基础。2019年,公司正式更名为CoreWeave,并将业务重心从加密货币挖矿全面转向提供基于GPU的高性能计算云服务,至2025年CoreWeave已经稳坐Neocloud行业一把手的位置。截至2025年初,CoreWeave已在美国和欧洲运营着32个数据中心,管理着超过25万块NVIDIA GPU,并计划进一步扩张。公司在2024年被《时代》杂志评为全球最具影响力的100家公司之一。

CoreWeave的创始团队由三位核心成员组成:Michael Intrator、Brian Venturo和Brannin McBee。这三位创始人的背景并非计算机科学或工程领域,而是深耕于金融和商品交易,在创立CoreWeave之前,他们曾共同经营一家名为Hudson Ridge Asset Management LLC的天然气对冲基金。因此也奠定了公司爱上杠杆、激进的底色,开创性地将GPU作为抵押品进行大规模债务融资,以支持公司的快速扩张。
Michael Intrator 1986年出生于纽约,毕业于普林斯顿大学计算机科学专业。他最早在2010年左右进入加密货币领域,曾是纽约最早的比特币矿工之一,并于2013年共同创办了专注于以太坊挖矿的矿业公司 Hashfast。2017年,他预见到GPU在AI时代的潜力,将挖矿设施转型为GPU云服务,2019年正式创立CoreWeave并担任CEO至今。他以极强的执行力和对GPU生态的深刻理解著称,被业内称为“AI基础设施的狂人”,2025年CoreWeave上市后个人身家一度超过60亿美元。
Brian Venturo 是 CoreWeave 技术路线与产品落地的核心大脑。同样出身加密货币挖矿行业,他早在2012年就与Michael Intrator一起运营大型GPU矿场,对GPU集群的冷却、供电、网络、调度有着近乎偏执的极致优化能力。2019年CoreWeave成立时,他负责将原本用于挖矿的设施改造成高性能AI云平台,主导开发了公司核心的Kubernetes原生GPU调度系统和SchedGPU调度器。外界评价他“可能是全球最懂大规模GPU集群工程的人之一”。
Brannin McBee 是创始团队中负责战略、商务与资本运作的关键人物。他在加密货币行业同样资历深厚,曾在2014年与Michael、Brian共同运营过多个大型矿场项目。CoreWeave成立后,他主导了与NVIDIA、OpenAI、Microsoft等巨头的战略合作谈判,并一手搭建了公司独特的“合同担保债务融资”模式(拿长期租赁合同去银行和机构借钱扩建数据中心)。正是他的融资能力让CoreWeave在2021-2024年间实现爆炸式扩张。上市后他仍负责整体战略与投资者关系。
Chetan Kapoor 是创始团队里唯一没有加密货币挖矿背景的人,却是最早加入CoreWeave的“传统科技人”。他曾在Google、Microsoft等公司负责大规模数据中心运营,拥有丰富的传统云计算经验。2019年底加入CoreWeave后,负责把原本“矿场风格”的设施改造为满足企业级AI客户合规、稳定性和SLA要求的数据中心。他主导了SOC 2、ISO 27001、HIPAA等一系列认证体系搭建。
目前CoreWeave的扩张战略高度依赖于大规模的债务融资(“长期算力合同 + GPU 抵押 + 多元化债务工具”),为了快速建设数据中心和采购昂贵的GPU硬件,公司采取了激进的资本部署策略。2025年,公司获得了高达75亿美元的债务融资。CoreWeave 在 AI 算力紧缺周期中,将高端GPU(如 H100/GB200)作为核心抵押品,搭配长期算力合同 / 预付款增信,形成可规模化复制的结构化债务融资范式;2023 年 8 月约 23 亿美元 GPU 抵押债务为其标志性落地,后续持续通过 DDTL 等工具扩产,将 GPU 抵押从单点交易升级为 “抵押、采购、出租、再融资” 的闭环。
在股权融资方面,CoreWeave最引人注目的是其与NVIDIA的战略合作,NVIDIA不仅是其供应商和客户,更是持有公司约7%的股份,这笔投资确保了CoreWeave在GPU供应上的优先权。此外,CoreWeave的主要客户也通过股权投资的方式与其深度绑定。例如,在与OpenAI达成总价值224亿美元的算力供应协议的同时,OpenAI还承诺通过私募方式向CoreWeave投资3.5亿美元,这部分投资在CoreWeave IPO时完成。
“Neocloud”(新云)是业界用来描述像CoreWeave这样专为满足现代AI和机器学习工作负载需求而从头构建的新型云计算模式。它代表了与传统通用云计算(General-Purpose Cloud)在设计理念、技术架构、服务模式和目标客群上的根本性区别。传统云计算巨头如亚马逊AWS、微软Azure和谷歌云(GCP),其服务组合极其广泛,旨在满足从网站托管、数据库管理到企业应用等几乎所有类型的计算需求。AI和机器学习只是它们众多服务中的一部分,其基础设施和平台设计必须兼顾通用性和普适性。
在硬件层面,“Neocloud”与传统云的最大区别在于其对GPU加速计算的极致专注和对裸金属服务的强调。传统云服务商虽然也提供GPU实例,但其基础设施主要是围绕CPU构建的,GPU只是作为一种可选的加速配件。其数据中心设计、机架密度、供电和散热系统都需要同时满足CPU和GPU的需求,这在一定程度上限制了其支持高密度GPU集群的能力。而“Neocloud”提供商如CoreWeave,其数据中心从一开始就是为GPU而生的。它们能够支持每机架40-100千瓦的高功耗密度,并广泛采用液冷等先进散热技术,以应对大规模GPU集群产生的热量。
更重要的是,“Neocloud”普遍提供对GPU的裸金属访问。这意味着客户可以独占物理GPU硬件,无需与其他用户共享,也无需经过虚拟化层(Hypervisor)的调度。这消除了虚拟化带来的性能抖动和资源争抢问题,确保了AI工作负载能够获得稳定、可预测的峰值性能。相比之下,传统云提供的GPU实例通常是虚拟化的,虽然提供了更好的资源隔离和灵活性,但在性能上不可避免地会有所损耗。对于追求极致性能的AI模型训练任务而言,这种性能差异至关重要,也是“Neocloud”吸引顶级AI实验室的核心卖点之一。
在性能层面,“Neocloud”通过软硬件的深度协同优化,为AI训练和推理任务提供了远超传统云的性能表现。CoreWeave声称,其优化的基础设施能够比传统云提供商的虚拟化环境提供高达20%的性能提升。这一优势来源于多个方面。首先,裸金属访问避免了虚拟化开销。其次,“Neocloud”提供商通常会对其整个技术栈进行深度优化,包括使用高速的InfiniBand网络来连接GPU节点,以实现低延迟、高带宽的节点间通信。此外,它们还会针对特定的AI框架(如TensorFlow、PyTorch)和模型进行性能调优,确保硬件和软件能够完美协同工作。CoreWeave在MLPerf等行业基准测试中的优异表现也印证了其性能优势。MLPerf是衡量AI系统训练和推理性能的黄金标准,CoreWeave多次在该测试中提交并取得领先成绩。

CoreWeave最核心、最独特的竞争优势在于其与NVIDIA建立的深度、独家战略合作关系。这种关系远超普通的供应商与客户关系,涵盖了资本、技术、市场和供应链等多个层面,使其被业界公认为NVIDIA的“亲儿子”。首先,在资本层面,NVIDIA是CoreWeave的战略投资者,持有其约7%的股份,并且是CoreWeave IPO时的关键支持者。这种股权关系将双方的利益紧密捆绑在一起,确保了合作的长期稳定性。其次,在供应链层面,CoreWeave享有NVIDIA最新、最紧俏GPU产品的优先供应权。它确保了CoreWeave能够持续获得如H100、H200以及最新的Blackwell架构(GB200、GB300)等顶级芯片,从而快速扩张其算力规模,并率先向市场推出基于最新硬件的AI云服务。此外,双方还签署了具有里程碑意义的合作协议。一份价值63亿美元的协议规定,NVIDIA将在2032年前购买CoreWeave未售出的云容量,为CoreWeave提供了强大的财务保障和风险对冲。同时,NVIDIA也借助CoreWeave的专业能力,将其GPU产品快速部署到AI优化的数据中心环境中,从而更深入地渗透到AI价值链的各个环节。
除了强大的硬件基础设施,CoreWeave还通过其专有的软件平台和AI生命周期管理工具,构建了差异化的竞争优势。公司不仅仅是一个硬件资源的出租方,更是一个提供端到端AI解决方案的技术平台。其专有的“Mission Control”平台旨在简化和加速AI开发的整个生命周期,从模型设计、工程开发、训练、部署到监控,提供一体化的管理体验。这个平台集成了资源调度、环境配置、数据管理、模型版本控制和性能监控等多种功能,帮助AI团队更高效地协作和管理复杂的AI项目。为了进一步增强其软件能力,CoreWeave还积极通过收购来完善其技术栈。例如,公司在2025年3月以约17亿美元的价格收购了Weights & Biases,这是一家知名的AI开发平台提供商,其产品被广泛用于模型迭代、实验跟踪和推理部署,增强了CoreWeave在AI生命周期管理领域的实力。此外,公司还收购了OpenPipe(一个强化学习平台)和Marimo(一个AI原生的Python笔记本工具),以丰富其开发者工具链 。通过将强大的硬件与易用、高效的软件平台相结合,CoreWeave为客户提供了超越单纯算力租赁的附加价值,使其平台更具粘性,从而能够更好地锁定客户,并提升长期竞争力。

从财报看CoreWeave的收入模式高度依赖于与客户签订的长期、大额合同。根据公司披露的信息,其2024年收入的96%来自于此类长期承诺合同,这些合同通常是“照付不议”(take-or-pay)协议,客户承诺在未来数年内购买固定数量的算力,即使实际使用量未达到承诺水平也需支付费用。这种商业模式虽然带来了客户集中度较高的风险,但也确保了公司在进行大规模资本支出(如建设数据中心、采购GPU)时有稳定的现金流作为支撑。截至2025年第三季度末,CoreWeave的收入积压(revenue backlog)已达到556亿美元。公司的主要客户群体包括全球顶尖的AI实验室、大型科技公司和新兴AI企业。其中,微软是其最大的客户,在2024年贡献了公司62%的收入,另一位重要客户还包括Meta,近期,CoreWeave还与Meta达成了一项价值高达142亿美元的算力供应协议,进一步多元化其收入来源,降低了对单一客户的依赖。
流动性风险管理要求银行防止某一时间段内风险在业务品种上过度集中,并防范资金流缺口。同时,还得提前准备“B计划”:一旦自身财务状况恶化,交易对手要求提前终止或追加信用时,能迅速找到应急融资渠道。把这套逻辑搬到云计算,就是:如何把库存里的“算力”像央行准备金一样调度到最需要的地方,既满足瞬时弹性,又不让资源闲置成死库存。规模越大,池子越深,边际调度成本越低,弹性就像银行的大额支付系统一样,随用随取,几乎“零摩擦”。返回搜狐,查看更多


