Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.00265

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2507.00265 (cs)
[提交于 2025年6月30日 ]

标题: 检查刺激等价模拟中的拒绝关系

标题: Examining Reject Relations in Stimulus Equivalence Simulations

Authors:Alexis Carrillo, Asieh Abolpour Mofrad, Anis Yazidi, Moises Betancort
摘要: 模拟为探索刺激等价(SE)提供了有价值的工具,但拒绝关系可能干扰等价类形成的评估这一潜力存在争议。 本研究使用计算模型探讨了拒绝关系在刺激等价获得中的作用。 我们在匹配样本(MTS)模拟的18种条件下检查了前馈神经网络(FFNs)、来自变压器的双向编码器表示(BERT)和生成式预训练变压器(GPT)。 条件在训练结构(线性序列、一对一和多对一)、关系类型(仅选择、仅拒绝和选择-拒绝)以及负比较选择(标准和有偏)方面有所不同。 一个概率代理作为基准,体现了纯粹的联想学习。 主要目标是确定人工神经网络是否能表现出等价类形成,或者其表现是否反映了联想学习。 结果表明,拒绝关系影响了代理的表现。 虽然一些代理在等价测试中取得了高准确性,尤其是在有拒绝关系和有偏负比较的情况下,但这种表现与概率代理相当。 这些发现表明,人工神经网络,包括变压器模型,可能依赖于联想策略而非SE。 这强调了在等价的计算模型中需要仔细考虑拒绝关系和更严格的标准。
摘要: Simulations offer a valuable tool for exploring stimulus equivalence (SE), yet the potential of reject relations to disrupt the assessment of equivalence class formation is contentious. This study investigates the role of reject relations in the acquisition of stimulus equivalence using computational models. We examined feedforward neural networks (FFNs), bidirectional encoder representations from transformers (BERT), and generative pre-trained transformers (GPT) across 18 conditions in matching-to-sample (MTS) simulations. Conditions varied in training structure (linear series, one-to-many, and many-to-one), relation type (select-only, reject-only, and select-reject), and negative comparison selection (standard and biased). A probabilistic agent served as a benchmark, embodying purely associative learning. The primary goal was to determine whether artificial neural networks could demonstrate equivalence class formation or whether their performance reflected associative learning. Results showed that reject relations influenced agent performance. While some agents achieved high accuracy on equivalence tests, particularly with reject relations and biased negative comparisons, this performance was comparable to the probabilistic agent. These findings suggest that artificial neural networks, including transformer models, may rely on associative strategies rather than SE. This underscores the need for careful consideration of reject relations and more stringent criteria in computational models of equivalence.
评论: 18页,6图
主题: 机器学习 (cs.LG) ; 神经与认知 (q-bio.NC)
ACM 类: I.2.0; J.4; I.6.5
引用方式: arXiv:2507.00265 [cs.LG]
  (或者 arXiv:2507.00265v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.00265
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Alexis Carrillo [查看电子邮件]
[v1] 星期一, 2025 年 6 月 30 日 21:15:15 UTC (356 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
q-bio
q-bio.NC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号