Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.18479

帮助 | 高级搜索

计算机科学 > 神经与进化计算

arXiv:2501.18479 (cs)
[提交于 2025年1月30日 ]

标题: 基于Transformer的语义遗传编程用于符号回归

标题: Transformer Semantic Genetic Programming for Symbolic Regression

Authors:Philipp Anthes, Dominik Sobania, Franz Rothlauf
摘要: 在标准遗传编程(stdGP)中,通过修改其语法来产生多样化的解决方案,但其对语义的影响是不确定的。 几何语义遗传编程(GSGP)是GP的一种流行变体,它通过基于线性组合的变化操作有效地搜索语义解空间,尽管这会导致解显著增大。 本文提出了Transformer语义遗传编程(TSGP),这是一种新颖且灵活的语义方法,使用生成式Transformer模型作为搜索算子。 该Transformer在合成测试问题上进行训练,并学习解决方案之间的语义相似性。 一旦模型训练完成,它也可以用于创建与未见过和未知问题具有高语义相似性的后代解决方案。 在多个符号回归问题上的实验表明, TSGP生成的解决方案在预测质量方面与stdGP、SLIM_GSGP、DSR和DAE-GP相当,甚至显著更好。 与SLIM_GSGP类似,TSGP能够在不生成大尺寸解决方案的情况下创建语义相似的新解决方案。 对搜索动态的分析显示,由TSGP生成的解决方案比基准方法生成的解决方案在语义上更加相似,从而能够更好地探索语义解空间。
摘要: In standard genetic programming (stdGP), solutions are varied by modifying their syntax, with uncertain effects on their semantics. Geometric-semantic genetic programming (GSGP), a popular variant of GP, effectively searches the semantic solution space using variation operations based on linear combinations, although it results in significantly larger solutions. This paper presents Transformer Semantic Genetic Programming (TSGP), a novel and flexible semantic approach that uses a generative transformer model as search operator. The transformer is trained on synthetic test problems and learns semantic similarities between solutions. Once the model is trained, it can be used to create offspring solutions with high semantic similarity also for unseen and unknown problems. Experiments on several symbolic regression problems show that TSGP generates solutions with comparable or even significantly better prediction quality than stdGP, SLIM_GSGP, DSR, and DAE-GP. Like SLIM_GSGP, TSGP is able to create new solutions that are semantically similar without creating solutions of large size. An analysis of the search dynamic reveals that the solutions generated by TSGP are semantically more similar than the solutions generated by the benchmark approaches allowing a better exploration of the semantic solution space.
主题: 神经与进化计算 (cs.NE)
引用方式: arXiv:2501.18479 [cs.NE]
  (或者 arXiv:2501.18479v1 [cs.NE] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.18479
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Philipp Anthes [查看电子邮件]
[v1] 星期四, 2025 年 1 月 30 日 16:51:44 UTC (1,038 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.NE
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号