Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.12308

帮助 | 高级搜索

计算机科学 > 计算与语言

arXiv:2507.12308 (cs)
[提交于 2025年7月16日 ]

标题: 描述链:改进代码大语言模型用于VHDL代码生成和总结

标题: Chain-of-Descriptions: Improving Code LLMs for VHDL Code Generation and Summarization

Authors:Prashanth Vijayaraghavan, Apoorva Nitsure, Charles Mackin, Luyao Shi, Stefano Ambrogio, Arvind Haran, Viresh Paruthi, Ali Elzein, Dan Coops, David Beymer, Tyler Baldwin, Ehsan Degan
摘要: 大型语言模型(LLMs)已被广泛应用于各种自然语言处理任务和领域,展示了它们的适应性和有效性。 在电子设计自动化(EDA)领域,LLMs 在诸如寄存器传输级(RTL)代码生成和摘要等任务中展现出潜力。 然而,尽管通用代码相关任务的LLMs数量众多,但针对硬件描述语言(HDL),特别是VHDL的评估和优化研究却十分匮乏。 在本研究中,我们使用多种指标和两个数据集——VHDL-Eval和VHDL-Xform,评估现有代码LLMs在VHDL代码生成和摘要方面的性能。 后者是一个内部数据集,旨在衡量LLMs对功能等效代码的理解能力。 我们的研究结果表明,这些模型在不同指标上表现不佳,突显了它们在该领域适用性的显著差距。 为解决这一挑战,我们提出了链式描述(CoDes),一种新颖的方法,以提高LLMs在VHDL代码生成和摘要任务中的性能。 CoDes涉及根据以下内容生成一系列中间描述步骤:(i) 代码生成的问题陈述,以及(ii) 用于摘要的VHDL代码。 然后将这些步骤与原始输入提示(问题陈述或代码)结合,并作为输入提供给LLMs以生成最终输出。 我们的实验表明,CoDes方法在两个数据集上的各种指标上显著优于标准提示策略。 这种方法不仅提高了VHDL代码生成和摘要的质量,还为未来旨在提升VHDL代码LLMs的研究提供了一个框架。
摘要: Large Language Models (LLMs) have become widely used across diverse NLP tasks and domains, demonstrating their adaptability and effectiveness. In the realm of Electronic Design Automation (EDA), LLMs show promise for tasks like Register-Transfer Level (RTL) code generation and summarization. However, despite the proliferation of LLMs for general code-related tasks, there's a dearth of research focused on evaluating and refining these models for hardware description languages (HDLs), notably VHDL. In this study, we evaluate the performance of existing code LLMs for VHDL code generation and summarization using various metrics and two datasets -- VHDL-Eval and VHDL-Xform. The latter, an in-house dataset, aims to gauge LLMs' understanding of functionally equivalent code. Our findings reveal consistent underperformance of these models across different metrics, underscoring a significant gap in their suitability for this domain. To address this challenge, we propose Chain-of-Descriptions (CoDes), a novel approach to enhance the performance of LLMs for VHDL code generation and summarization tasks. CoDes involves generating a series of intermediate descriptive steps based on: (i) the problem statement for code generation, and (ii) the VHDL code for summarization. These steps are then integrated with the original input prompt (problem statement or code) and provided as input to the LLMs to generate the final output. Our experiments demonstrate that the CoDes approach significantly surpasses the standard prompting strategy across various metrics on both datasets. This method not only improves the quality of VHDL code generation and summarization but also serves as a framework for future research aimed at enhancing code LLMs for VHDL.
评论: 10页(6页正文+4页补充材料),5张图,2024年ACM/IEEE国际机器学习辅助设计研讨会论文集。2024年(MLCAD'24)
主题: 计算与语言 (cs.CL) ; 人工智能 (cs.AI); 硬件架构 (cs.AR)
引用方式: arXiv:2507.12308 [cs.CL]
  (或者 arXiv:2507.12308v1 [cs.CL] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.12308
通过 DataCite 发表的 arXiv DOI
相关 DOI: https://doi.org/10.1145/3670474.3685966
链接到相关资源的 DOI

提交历史

来自: Prashanth Vijayaraghavan [查看电子邮件]
[v1] 星期三, 2025 年 7 月 16 日 15:05:30 UTC (519 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs.AI
cs.AR
cs.CL

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号