Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2505.21249

帮助 | 高级搜索

计算机科学 > 信息论

arXiv:2505.21249 (cs)
[提交于 2025年5月27日 ]

标题: 基于贝叶斯优化和强化学习的数据驱动蜂窝移动管理

标题: Data-Driven Cellular Mobility Management via Bayesian Optimization and Reinforcement Learning

Authors:Mohamed Benzaghta, Sahar Ammar, David López-Pérez, Basem Shihada, Giovanni Geraci
摘要: 蜂窝网络中的移动性管理由于网络密集化和异构用户移动特性而面临日益增长的复杂性。传统的切换(HO)机制依赖于预定义参数,如A3偏移量和时间触发阈值(TTT),通常无法在不同速度和部署条件下优化移动性能。固定的A3偏移量和TTT配置要么延迟切换,增加无线链路失败(RLF),要么加速它们,导致过多的乒乓效应。为了解决这些挑战,我们提出了两种基于数据驱动的移动性管理方法,利用高维贝叶斯优化(HD-BO)和深度强化学习(DRL)。HD-BO优化HO参数,如A3偏移量和TTT,实现乒乓效应与RLF之间的理想平衡。DRL提供了一种非参数化的方法,允许代理根据实时网络条件选择服务小区。我们使用真实世界的蜂窝部署场景验证了我们的方法,并采用Sionna射线追踪进行特定站点的信道传播建模。结果显示,HD-BO和DRL均优于3GPP设定1(TTT为480毫秒,A3偏移量为3dB)和设定5(TTT为40毫秒,A3偏移量为-1dB)基准。我们将HD-BO与迁移学习相结合,使其能够概括各种用户速度。将相同的迁移学习策略应用于DRL方法可将其训练时间减少2.5倍,同时保持最优的HO性能,表明它能有效适应包括无人机在内的空中用户的移动性。模拟进一步显示,HD-BO比DRL更具有样本效率,使其更适合于训练数据有限的场景。
摘要: Mobility management in cellular networks faces increasing complexity due to network densification and heterogeneous user mobility characteristics. Traditional handover (HO) mechanisms, which rely on predefined parameters such as A3-offset and time-to-trigger (TTT), often fail to optimize mobility performance across varying speeds and deployment conditions. Fixed A3-offset and TTT configurations either delay HOs, increasing radio link failures (RLFs), or accelerate them, leading to excessive ping-pong effects. To address these challenges, we propose two data-driven mobility management approaches leveraging high-dimensional Bayesian optimization (HD-BO) and deep reinforcement learning (DRL). HD-BO optimizes HO parameters such as A3-offset and TTT, striking a desired trade-off between ping-pongs vs. RLF. DRL provides a non-parameter-based approach, allowing an agent to select serving cells based on real-time network conditions. We validate our approach using a real-world cellular deployment scenario, and employing Sionna ray tracing for site-specific channel propagation modeling. Results show that both HD-BO and DRL outperform 3GPP set-1 (TTT of 480 ms and A3-offset of 3 dB) and set-5 (TTT of 40 ms and A3-offset of -1 dB) benchmarks. We augment HD-BO with transfer learning so it can generalize across a range of user speeds. Applying the same transfer-learning strategy to the DRL method reduces its training time by a factor of 2.5 while preserving optimal HO performance, showing that it adapts efficiently to the mobility of aerial users such as UAVs. Simulations further reveal that HD-BO remains more sample-efficient than DRL, making it more suitable for scenarios with limited training data.
主题: 信息论 (cs.IT)
引用方式: arXiv:2505.21249 [cs.IT]
  (或者 arXiv:2505.21249v1 [cs.IT] 对于此版本)
  https://doi.org/10.48550/arXiv.2505.21249
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Mohamed Benzaghta [查看电子邮件]
[v1] 星期二, 2025 年 5 月 27 日 14:26:59 UTC (1,721 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.IT
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-05
切换浏览方式为:
cs
math
math.IT

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | Disable MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号