文章来源于互联网:清华翟季冬:DeepSeek 百倍算力效能背后的系统革命 | 智者访谈

一线 AI 洞察,智者深度思考
深入产业变革,共创 AI 未来

03:35 DeepSeek 与算力需求未来趋势
06:41 算力效能评估新视角
10:26 中美硬件差异下的软件思考
17:41 万卡集群训练难点
24:41 Infra 如何为下一代大模型做好准备
27:19 大规模异构集群的算力管理
29:42 智算供需错配:系统软件如何补位
访谈文字整理
-
KV Cache 管理:推理过程会产生大量中间结果(KV Cache)用于降低计算量。如何管理这些数据很关键,比如可以采用页面式管理,但页面大小是固定还是根据负载特征动态调整,都需要仔细设计。 -
多卡协同:当模型较大时需要多 GPU 配合,比如在 8 个 GPU 上进行大模型推理,如何优化卡间并行也是一大挑战。 -
算法优化:还可以从量化等角度进行优化,充分发挥底层算力性能。
翟季冬,清华大学计算机系长聘教授,博士生导师,高性能计算研究所所长。青海大学计算机技术与应用学院院长。CCF高性能计算专委副主任、CCF杰出会员。清程极智首席科学家。
-
小米 Daniel Povey:后语音识别时代,人工智能走向何方? -
清华赵明国:学习、优化与仿生,重新思考人形机器人发展 -
北大王立威:理论视角看大模型,涌现、泛化、可解释性与数理应用 -
腾讯王迪:万亿 MoE 大模型系统工程之道 -
上海交大卢策吾:关于具身智能,Scaling Law 和大模型
文章来源于互联网:清华翟季冬:DeepSeek 百倍算力效能背后的系统革命 | 智者访谈