计算机科学 > 机器学习
[提交于 2025年6月25日
]
标题: GPU内核科学家:一种用于迭代内核优化的LLM驱动框架
标题: GPU Kernel Scientist: An LLM-Driven Framework for Iterative Kernel Optimization
摘要: 优化GPU内核以实现高性能是一项复杂的任务,通常需要深入的架构知识、广泛的分析和迭代实验。 当针对新型或文档不全的GPU架构时,这一挑战会进一步加剧,因为传统的开发辅助工具较为匮乏。 本文介绍了一种由大语言模型驱动的“GPU内核科学家”,这是一种用于迭代优化加速器内核的自动化方法。 我们的方法在多阶段、演进的过程中使用大语言模型:(a) 有策略地选择有前景的先前代码版本作为新迭代的基础;(b) 基于现有代码和从通用GPU文献中吸收的知识,生成优化实验的假设;(c) 通过代码修改自主实施这些实验,并将结果提交到外部评估系统,仅使用观察到的时间数据作为性能反馈。 我们详细说明了这种方法如何应对AMD MI300目标架构的挑战,并利用大语言模型弥补有限的领域特定人类专业知识。 由于在论文提交日期时,正在进行的性能竞赛的定量结果被保密,我们展示了架构设计、操作流程和定性见解,突出了大语言模型驱动的代理在民主化和加速GPU内核优化方面的潜力,尤其是在资源受限或快速发展的硬件环境中。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.