
当人工智能成为科技产业的核心驱动力,支撑AI运行的电力资源正逐渐成为制约行业发展的关键瓶颈。2026年3月17日,总部位于特拉维夫的初创公司Niv-AI正式结束隐身模式,带着1200万美元种子轮融资进入公众视野,目标直指GPU算力与电力效率的优化难题。
在英伟达GTC年度客户大会上,CEO黄仁勋的一番话点出了AI行业的痛点:“这些AI工厂浪费了太多电力,每一分未被利用的瓦特都是损失的收入。”随着大模型训练对算力需求的指数级增长,数据中心正面临着前所未有的电力管理挑战。当数千台GPU协同运行时,计算任务切换和GPU间通信会引发毫秒级的电力需求波动,这种波动让数据中心与电网的协同陷入困境。为避免电力供应中断,数据中心要么投资临时储能设备,要么限制GPU运行功率,这两种方式都会大幅降低昂贵芯片的投资回报率,最高可能导致30%的算力被闲置。
Niv-AI联合创始人兼CEO Tomer Timor表示,当前的数据中心建设模式已经难以为继。这家成立于2025年的初创公司,由Glilot Capital、Grove Ventures等多家知名投资机构联合投资,其核心团队拥有深厚的芯片设计与数据中心运营经验。公司的解决方案从精准感知开始,通过部署机架级传感器,以毫秒级精度监测GPU的电力使用情况,绘制不同深度学习任务的电力特征图谱。
这种精细化监测是优化的基础。传统数据中心的电力管理往往停留在机柜甚至整个机房层面,无法捕捉到GPU内部的瞬时电力变化。Niv-AI的传感器技术能够深入到GPU级别的电力监测,让数据中心运营者第一次真正了解每一块芯片的电力消耗规律。在此基础上,公司计划开发AI驱动的电力管理模型,打造数据中心工程师的“电力 copilots”,通过预测和同步数据中心的电力负载,实现算力与电力供应的动态匹配。
Grove Ventures合伙人Lior Handelsman指出,Niv-AI的价值在于填补了数据中心与电网之间的“智能层”空白。当前电网对数据中心的大规模电力需求存在天然的担忧,而数据中心也面临着电力成本高企和算力闲置的双重压力。Niv-AI的解决方案试图同时解决这两个问题:一方面帮助数据中心充分利用已购买的电力资源,释放被限制的GPU算力;另一方面为电网提供更可预测的电力需求曲线,提升能源系统的整体稳定性。
据了解,Niv-AI已经开始在自有GPU和合作设计伙伴的设备上部署监测系统,计划在未来6到8个月内将完整的运营系统部署到美国的部分数据中心。对于面临土地使用限制和供应链瓶颈的超大规模数据中心运营商而言,这种无需大规模硬件升级的算力优化方案无疑具有巨大吸引力。通过软件定义的电力管理,数据中心可以在不增加电力基础设施投入的前提下,提升现有GPU集群的有效算力输出。
在AI训练成本持续高企的背景下,Niv-AI的技术有望成为行业的关键转折点。随着大模型应用的普及,电力成本已经成为AI企业的主要支出之一,甚至超过了硬件采购成本。如果能够通过精细化管理将GPU的电力效率提升10%-20%,将为行业节省数十亿美元的运营成本。更重要的是,这种技术进步将推动AI产业向更可持续的方向发展,减少数据中心对能源的过度消耗。
从长远来看,Niv-AI的愿景是构建数据中心与电网之间的智能协同生态。当数据中心能够精准预测并调整电力需求,电网也能更高效地分配电力资源,这将为可再生能源的大规模接入创造条件。毕竟,AI产业的可持续发展,不仅需要算力的突破,更需要能源利用模式的革新。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/nivai-zou-chu-yin-shen-mo-shi-yong-hao-miao-ji-chuan-gan-ji