Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.12166

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2507.12166 (cs)
[提交于 2025年7月16日 ]

标题: RadioDiff-3D:一个3D$\times$3D无线电图数据集以及基于生成扩散的6G环境感知通信基准

标题: RadioDiff-3D: A 3D$\times$3D Radio Map Dataset and Generative Diffusion Based Benchmark for 6G Environment-Aware Communication

Authors:Xiucheng Wang, Qiming Zhang, Nan Cheng, Junting Chen, Zezhong Zhang, Zan Li, Shuguang Cui, Xuemin Shen
摘要: 无线电图(RMs)是实现环境感知无线通信的关键基础,因为它们提供了无线信道特性的空间分布。 尽管在使用数据驱动方法进行RM构建方面取得了进展,但大多数现有方法仅关注固定二维平面上的路径损耗预测,忽略了到达方向(DoA)、到达时间(ToA)和垂直空间变化等关键参数。 这种限制主要是由于依赖静态学习范式,这阻碍了在训练数据分布之外的泛化能力。 为了解决这些挑战,我们提出了UrbanRadio3D,这是一个通过在真实城市环境中进行射线追踪构建的大规模、高分辨率3D RM数据集。 UrbanRadio3D在三维空间中比之前的数据集大超过37$\times$3倍,包含路径损耗、DoA和ToA三个指标,形成了一个具有7$\times$3个更多高度层的新型3D$\times$33D数据集,比之前最先进的(SOTA)数据集多。 为了基准测试3D RM的构建,提出了一种使用3D卷积算子的UNet。 此外,我们进一步引入了 RadioDiff-3D,一种基于扩散模型的生成框架,利用3D卷积架构。 RadioDiff-3D支持已知发射器位置的辐射感知场景以及基于稀疏空间观测的辐射非感知设置。 在UrbanRadio3D上的广泛评估验证了RadioDiff-3D在多样环境动态下构建丰富、高维无线电图方面的优越性能。 这项工作为未来3D环境感知通信的研究提供了基础数据集和基准。 该数据集可在https://github.com/UNIC-Lab/UrbanRadio3D获取。
摘要: Radio maps (RMs) serve as a critical foundation for enabling environment-aware wireless communication, as they provide the spatial distribution of wireless channel characteristics. Despite recent progress in RM construction using data-driven approaches, most existing methods focus solely on pathloss prediction in a fixed 2D plane, neglecting key parameters such as direction of arrival (DoA), time of arrival (ToA), and vertical spatial variations. Such a limitation is primarily due to the reliance on static learning paradigms, which hinder generalization beyond the training data distribution. To address these challenges, we propose UrbanRadio3D, a large-scale, high-resolution 3D RM dataset constructed via ray tracing in realistic urban environments. UrbanRadio3D is over 37$\times$3 larger than previous datasets across a 3D space with 3 metrics as pathloss, DoA, and ToA, forming a novel 3D$\times$33D dataset with 7$\times$3 more height layers than prior state-of-the-art (SOTA) dataset. To benchmark 3D RM construction, a UNet with 3D convolutional operators is proposed. Moreover, we further introduce RadioDiff-3D, a diffusion-model-based generative framework utilizing the 3D convolutional architecture. RadioDiff-3D supports both radiation-aware scenarios with known transmitter locations and radiation-unaware settings based on sparse spatial observations. Extensive evaluations on UrbanRadio3D validate that RadioDiff-3D achieves superior performance in constructing rich, high-dimensional radio maps under diverse environmental dynamics. This work provides a foundational dataset and benchmark for future research in 3D environment-aware communication. The dataset is available at https://github.com/UNIC-Lab/UrbanRadio3D.
主题: 机器学习 (cs.LG) ; 系统与控制 (eess.SY)
引用方式: arXiv:2507.12166 [cs.LG]
  (或者 arXiv:2507.12166v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.12166
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Xiucheng Wang [查看电子邮件]
[v1] 星期三, 2025 年 7 月 16 日 11:54:08 UTC (6,044 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.SY
eess
eess.SY

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号