脸书前隐私事务主管:AI下一轮转型将聚焦效率提升与成本削减

亿通速配 万生平台 2025-12-24 3 0
   

  核心要点

  ▸ 脸书前隐私事务主管克里斯・凯利表示,人工智能企业的发展重心将转向提升人工智能模型的训练效率

  ▸ 随着数据中心的需求激增,降低运营成本与能耗将成为行业核心要务。▸ 标普全球数据显示,2025 年超大规模云计算服务商掀起‘全球建设热潮’,本年度数据中心基础设施相关交易规模已累计突破 610 亿美元。

  脸书前首席隐私官克里斯・凯利于本周一表示,人工智能行业本轮发展热潮的下一阶段,核心方向将是提升技术应用效率



  当下,全球头部人工智能企业都在加紧布局,搭建支撑人工智能算力需求的基础设施。凯利在接受美国消费者新闻与商业频道《财经早班车》栏目采访时指出,人工智能行业必须优化这类高能耗的基础设施建设模式

  ‘人类的大脑运转仅需 20 瓦的能耗,我们推演、思考问题,根本无需千兆瓦级的能源中心来支撑。’凯利说,‘我认为,如何挖掘效率潜力,将成为头部人工智能企业的核心探索方向之一。’

  曾任脸书总法律顾问的凯利补充道,那些能在降低数据中心运营成本方面实现技术突破的企业,终将在人工智能赛道的竞争中脱颖而出。

  标普全球的统计数据显示,2025 年,各大超大规模云计算服务商掀起一轮全球数据中心建设热潮,全年该领域的基础设施相关交易规模已累计超 610 亿美元。

  单是开放人工智能公司,就在未来数年敲定了超 1.4 万亿美元的人工智能领域投入计划,其中包括与显卡巨头英伟达、基础设施行业龙头及科维夫公司达成的一系列重磅合作。

  然而,这场如火如荼的数据中心建设潮,也让外界的担忧日益加剧:本就承压的电网系统,该如何为这些算力基建提供充足的电力支撑。

  英伟达与开放人工智能曾在今年 9 月联合官宣一项合作计划,涉及的算力基建规模至少需要 10 千兆瓦的供电量,这一耗电量约等于 800 万户美国家庭的年度总用电量

  纽约独立系统运营商的数据显示,这 10 千兆瓦的用电量,也与纽约市 2024 年夏季用电高峰期的总需求量基本持平。

  2024 年 12 月,深度求索公司推出一款免费开源的大型语言模型,该公司宣称这款模型的研发总成本不足 600 万美元,远低于美国同行的研发投入,这一消息也进一步加剧了行业对‘成本管控’的关注与焦虑。

  凯利表示,他预判未来将有多家中国人工智能企业跻身行业前列

  凯利补充道,开源人工智能模型(尤其是中国企业研发的开源模型),将让更多人得以低成本获取‘基础算力资源’,也能更便捷地使用生成式人工智能与智能体类人工智能技术。

 

评论