Nvidia再快也救不了?科学家示警AGI真正阻碍在算力天花板
* 来源 : * 作者 : admin * 发表时间 : 2025-12-15
硬件扩展逼近物理极限,AGI发展或遇“算力墙”
艾伦人工智能研究所研究科学家、卡内基美隆大学助理教授蒂姆·德特梅斯在博客中对通用人工智能(AGI)及超智能的发展提出深刻质疑:现阶段运算处理器技术已接近物理极限,有限的扩展能力将成为实现AGI的最大阻碍。他强调,AGI理论讨论常流于哲学,但最终需依赖实际运算能力支撑,预测现有硬件扩展空间或仅剩1-2年,之后提升将面临物理不可行性。
自2018年以来,GPU性能提升逐步趋近瓶颈,后续改进主要依赖低精度数据类型与张量核心优化,但加速效果未达业界宣称的剧烈程度。德特梅斯指出,单一GPU性能虽近极限,但通过硬件整合创新(如英伟达GB200 NVL72系统将加速器从8台增至72台,实现约30倍推理性能提升),仍可延长使用寿命。
批评AI实验室忽视物理挑战,赞中国务实策略
德特梅斯理解数百亿美元AI基础设施投入的合理性(推理需求增加),但警告若模型效能与创新无法持续提升,硬件反成负担。他批评美国AI实验室过度关注“谁先实现AGI”的竞赛,忽视物理世界执行能力的挑战——真正的AGI需突破纯数字领域,进入具体执行物理任务阶段,而“实体化”扩展难题同样巨大。相较之下,他称赞中国在AI应用上的务实策略,强调AI价值应落脚于提升生产力与实用性。
艾伦人工智能研究所研究科学家、卡内基美隆大学助理教授蒂姆·德特梅斯在博客中对通用人工智能(AGI)及超智能的发展提出深刻质疑:现阶段运算处理器技术已接近物理极限,有限的扩展能力将成为实现AGI的最大阻碍。他强调,AGI理论讨论常流于哲学,但最终需依赖实际运算能力支撑,预测现有硬件扩展空间或仅剩1-2年,之后提升将面临物理不可行性。
自2018年以来,GPU性能提升逐步趋近瓶颈,后续改进主要依赖低精度数据类型与张量核心优化,但加速效果未达业界宣称的剧烈程度。德特梅斯指出,单一GPU性能虽近极限,但通过硬件整合创新(如英伟达GB200 NVL72系统将加速器从8台增至72台,实现约30倍推理性能提升),仍可延长使用寿命。
批评AI实验室忽视物理挑战,赞中国务实策略
德特梅斯理解数百亿美元AI基础设施投入的合理性(推理需求增加),但警告若模型效能与创新无法持续提升,硬件反成负担。他批评美国AI实验室过度关注“谁先实现AGI”的竞赛,忽视物理世界执行能力的挑战——真正的AGI需突破纯数字领域,进入具体执行物理任务阶段,而“实体化”扩展难题同样巨大。相较之下,他称赞中国在AI应用上的务实策略,强调AI价值应落脚于提升生产力与实用性。






关闭返回