计算机科学 > 神经与进化计算
[提交于 2025年1月25日
(v1)
,最后修订 2025年5月28日 (此版本, v2)]
标题: 大型语言模型能否作为网络结构组合问题的进化优化器被信任?
标题: Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems?
摘要: 大型语言模型(LLMs)在跨多个领域的语言理解和推理方面表现出色。 最近,人们越来越关注利用LLMs不仅作为优化任务的助手,而是作为积极的优化器,特别是针对网络结构的组合问题。 然而,在LLMs可以可靠地部署在此角色之前,必须解决一个基本问题:LLMs能否迭代地操作始终符合问题约束的解决方案? 在本工作中,我们提出了一种系统框架,以评估LLMs参与问题结构的能力。 我们不将模型视为黑盒生成器,而是采用常用的进化算子作为优化器,并提出了一个全面的评估框架,严格评估LLM生成的算子在进化过程不同阶段的输出保真度。 为了提高鲁棒性,我们引入了一种混合错误纠正机制,以减轻LLM输出中的不确定性。 此外,我们开发了一种成本高效的种群级优化策略,与传统的个体级方法相比,显著提高了效率。 在代表性节点级组合网络优化任务上的大量实验表明了基于LLM的算子的有效性、适应性和固有局限性。 我们的研究结果为将LLMs整合到进化计算中提供了新的视角,为网络化系统中的可扩展优化提供了实用见解。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.