Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.18844

帮助 | 高级搜索

计算机科学 > 机器人技术

arXiv:2506.18844 (cs)
[提交于 2025年6月19日 ]

标题: 在野外对相机自动曝光方法的可重复评估:平台、基准和经验教训

标题: Reproducible Evaluation of Camera Auto-Exposure Methods in the Field: Platform, Benchmark and Lessons Learned

Authors:Olivier Gamache, Jean-Michel Fortin, Matěj Boxan, François Pomerleau, Philippe Giguère
摘要: 标准数据集通常存在局限性,特别是由于输入数据传感器的固定性质,这使得难以比较那些主动调整传感器参数以适应环境条件的方法。 这是自动曝光(AE)方法的情况,这些方法依赖于环境因素来影响图像采集过程。 因此,AE方法传统上是以在线方式进行基准测试的,导致实验不可复现。 在我们之前工作的基础上,我们提出了一种方法,该方法利用能够生成任何曝光时间图像的模拟器。 这种方法利用了BorealHDR,这是一个独特的多曝光立体数据集,以及其新的扩展部分,在不同时间段沿重复轨迹获取数据,以评估光照变化的影响。 总共,BorealHDR覆盖了59条轨迹中的13.4公里,在具有挑战性的光照条件下。 该数据集还包括基于激光雷达-惯性里程计的地图,以及每帧图像的姿态估计,以及用于比较的全球导航卫星系统(GNSS)数据。 我们证明,通过使用不同曝光时间获取的图像,我们可以生成与真实图像相比均方根误差(RMSE)低于1.78%的真实图像。 使用这种离线方法,我们对八种AE方法进行了基准测试,得出结论认为经典AE方法仍然是该领域的最佳表现者。 为了进一步支持可复现性,我们提供了背包采集平台开发的详细信息,包括硬件、电气部件和性能规格。 此外,我们分享了在超过25公里的各种环境中部署背包所获得的宝贵经验。 我们的代码和数据集可在以下链接在线获取:https://github.com/norlab-ulaval/TFR24 BorealHDR
摘要: Standard datasets often present limitations, particularly due to the fixed nature of input data sensors, which makes it difficult to compare methods that actively adjust sensor parameters to suit environmental conditions. This is the case with Automatic-Exposure (AE) methods, which rely on environmental factors to influence the image acquisition process. As a result, AE methods have traditionally been benchmarked in an online manner, rendering experiments non-reproducible. Building on our prior work, we propose a methodology that utilizes an emulator capable of generating images at any exposure time. This approach leverages BorealHDR, a unique multi-exposure stereo dataset, along with its new extension, in which data was acquired along a repeated trajectory at different times of the day to assess the impact of changing illumination. In total, BorealHDR covers 13.4 km over 59 trajectories in challenging lighting conditions. The dataset also includes lidar-inertial-odometry-based maps with pose estimation for each image frame, as well as Global Navigation Satellite System (GNSS) data for comparison. We demonstrate that by using images acquired at various exposure times, we can emulate realistic images with a Root-Mean-Square Error (RMSE) below 1.78% compared to ground truth images. Using this offline approach, we benchmarked eight AE methods, concluding that the classical AE method remains the field's best performer. To further support reproducibility, we provide in-depth details on the development of our backpack acquisition platform, including hardware, electrical components, and performance specifications. Additionally, we share valuable lessons learned from deploying the backpack over more than 25 km across various environments. Our code and dataset are available online at this link: https://github.com/norlab-ulaval/TFR24 BorealHDR
评论: 19页,11张图表,被接受论文的预印本,发表于IEEE Transactions on Field Robotics(T-FR)
主题: 机器人技术 (cs.RO) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2506.18844 [cs.RO]
  (或者 arXiv:2506.18844v1 [cs.RO] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.18844
通过 DataCite 发表的 arXiv DOI(待注册)
相关 DOI: https://doi.org/10.1109/TFR.2025.3566694
链接到相关资源的 DOI

提交历史

来自: Olivier Gamache [查看电子邮件]
[v1] 星期四, 2025 年 6 月 19 日 14:01:01 UTC (61,624 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.RO
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs
cs.CV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号