Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:2510.05440

帮助 | 高级搜索

统计学 > 机器学习

arXiv:2510.05440 (stat)
[提交于 2025年10月6日 ]

标题: 参考学习

标题: Refereed Learning

Authors:Ran Canetti, Ephraim Linder, Connor Wagaman
摘要: 我们开始研究一种学习任务的设定,在这种设定中,学习者可以访问两个竞争的证明者,其中只有一个诚实。 具体来说,我们考虑这种学习者在评估不透明模型的所谓属性方面的能力。 在借鉴了之前研究竞争证明者在不同设定中的能力的工作之后,我们将这一设定称为裁判学习。 在提出裁判学习任务的一般定义后,我们展示了能够获得远超没有证明者或甚至仅有一个证明者时可达到的准确性的裁判学习协议。 我们专注于在某种真实情况下的情况下选择两个黑盒模型中的更好一个的任务。 虽然我们考虑了一系列参数,但或许我们最显著的结果是在高精度范围内: 对于所有$\varepsilon>0$和环境维度$d$,我们的学习者只向真实函数查询一次,与证明者通信仅$(1+\frac{1}{\varepsilon^2})\cdot\text{poly}(d)$位,并输出一个损失值在最佳模型损失值的乘法因子$(1+\varepsilon)$范围内的模型。 使用单一证明者获得类似的损失值将要求学习者在域中的几乎所有点上访问真实函数。 为了获得这个界限,我们开发了一种技术,使学习者能够使用证明者从一开始就不容易采样的分布中进行采样。 我们发现这种技术本身也有独立的兴趣。 我们还提出了下界,以证明我们的协议在多个方面是最佳的,包括证明者复杂度、样本数量以及查询访问的必要性。
摘要: We initiate an investigation of learning tasks in a setting where the learner is given access to two competing provers, only one of which is honest. Specifically, we consider the power of such learners in assessing purported properties of opaque models. Following prior work that considers the power of competing provers in different settings, we call this setting refereed learning. After formulating a general definition of refereed learning tasks, we show refereed learning protocols that obtain a level of accuracy that far exceeds what is obtainable at comparable cost without provers, or even with a single prover. We concentrate on the task of choosing the better one out of two black-box models, with respect to some ground truth. While we consider a range of parameters, perhaps our most notable result is in the high-precision range: For all $\varepsilon>0$ and ambient dimension $d$, our learner makes only one query to the ground truth function, communicates only $(1+\frac{1}{\varepsilon^2})\cdot\text{poly}(d)$ bits with the provers, and outputs a model whose loss is within a multiplicative factor of $(1+\varepsilon)$ of the best model's loss. Obtaining comparable loss with a single prover would require the learner to access the ground truth at almost all of the points in the domain. To obtain this bound, we develop a technique that allows the learner to sample, using the provers, from a distribution that is not efficiently samplable to begin with. We find this technique to be of independent interest. We also present lower bounds that demonstrate the optimality of our protocols in a number of respects, including prover complexity, number of samples, and need for query access.
主题: 机器学习 (stat.ML) ; 密码学与安全 (cs.CR); 机器学习 (cs.LG)
引用方式: arXiv:2510.05440 [stat.ML]
  (或者 arXiv:2510.05440v1 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.05440
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Ephraim Linder [查看电子邮件]
[v1] 星期一, 2025 年 10 月 6 日 23:07:31 UTC (46 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.CR
cs.LG
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号