Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > quant-ph > arXiv:2508.13054v1

帮助 | 高级搜索

量子物理

arXiv:2508.13054v1 (quant-ph)
[提交于 2025年8月18日 ]

标题: 量子关系知识蒸馏

标题: Quantum Relational Knowledge Distillation

Authors:Chen-Yu Liu, Kuan-Cheng Chen, Keisuke Murota, Samuel Yen-Chi Chen, Enrico Rinaldi
摘要: 知识蒸馏(KD)是一种广泛采用的技术,用于将大型模型压缩成更小、更高效的学生产模型,这些模型可以在计算资源有限的设备上部署。 在各种KD方法中,关系知识蒸馏(RKD)通过对齐特征空间中的关系结构(如成对距离和角度)来提高学生模型的性能。 在本工作中,我们提出了量子关系知识蒸馏(QRKD),通过引入量子关系信息来扩展RKD。 具体来说,我们将经典特征映射到一个希尔伯特空间,将其解释为量子态,并计算量子核值以捕捉更丰富的样本间关系。 这些量子信息的关系随后用于指导蒸馏过程。 我们在视觉和语言任务上评估了QRKD,包括MNIST和CIFAR-10上的CNN,以及WikiText-2、Penn Treebank和IMDB上的GPT-2。 在所有基准测试中,与经典RKD相比,QRKD始终提高了学生模型的性能。 重要的是,教师和学生模型仍然是经典的,并且可以在标准硬件上部署,仅在训练期间需要量子计算。 这项工作首次在完全经典的部署环境中展示了量子增强的知识蒸馏。
摘要: Knowledge distillation (KD) is a widely adopted technique for compressing large models into smaller, more efficient student models that can be deployed on devices with limited computational resources. Among various KD methods, Relational Knowledge Distillation (RKD) improves student performance by aligning relational structures in the feature space, such as pairwise distances and angles. In this work, we propose Quantum Relational Knowledge Distillation (QRKD), which extends RKD by incorporating quantum relational information. Specifically, we map classical features into a Hilbert space, interpret them as quantum states, and compute quantum kernel values to capture richer inter-sample relationships. These quantum-informed relations are then used to guide the distillation process. We evaluate QRKD on both vision and language tasks, including CNNs on MNIST and CIFAR-10, and GPT-2 on WikiText-2, Penn Treebank, and IMDB. Across all benchmarks, QRKD consistently improves student model performance compared to classical RKD. Importantly, both teacher and student models remain classical and deployable on standard hardware, with quantum computation required only during training. This work presents the first demonstration of quantum-enhanced knowledge distillation in a fully classical deployment setting.
主题: 量子物理 (quant-ph)
引用方式: arXiv:2508.13054 [quant-ph]
  (或者 arXiv:2508.13054v1 [quant-ph] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.13054
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Chen-Yu Liu [查看电子邮件]
[v1] 星期一, 2025 年 8 月 18 日 16:20:31 UTC (1,752 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
quant-ph
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号