Skip to content

Leveraging LLMs to Automate Energy-Aware Refactoring of Parallel Scientific Codes

grok-3-latest
Score: 0.53
Published: at 17:05

Summary: 本文提出 LASSI-EE 框架,利用大型语言模型通过多阶段、自我校正的管道自动化重构并行科学代码,在 NVIDIA A100 GPU 上实现平均 47% 的能量节省,展示了 LLM 在能效优化中的潜力。

Keywords: LLM, Code Generation, Energy Efficiency, Parallel Computing, Optimization

Authors: Matthew T. Dearing, Yiheng Tao, Xingfu Wu, Zhiling Lan, Valerie Taylor

Institution(s): University of Illinois Chicago, Argonne National Laboratory

Problem Background

高性能计算(HPC)系统对能源的需求日益增加,现有 exascale 系统功耗高达 24-39 MW,对基础设施和环境造成显著压力。 当前大型语言模型(LLMs)在代码生成中主要关注功能正确性,忽视了并行科学代码的性能和能效问题,因此需要一种自动化方法来优化代码能耗。

Method

Experiment

Further Thoughts

LASSI-EE 展示了 Agentic AI 在代码优化中的潜力,未来可以探索 LLM 在自动化实验设计或跨领域代码迁移中的应用;此外,框架可进一步整合实时硬件反馈(如动态功耗变化)指导优化,或通过多模型协作(如分工上下文总结与代码生成)提升效果;跨架构扩展(如支持 OpenMP 或 SYCL)也值得研究,以实现更广泛的适用性。