Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > physics > arXiv:2505.20518

帮助 | 高级搜索

物理学 > 地球物理

arXiv:2505.20518 (physics)
[提交于 2025年5月26日 (v1) ,最后修订 2025年6月18日 (此版本, v2)]

标题: SeisCoDE:基于对比自蒸馏学习的三维地震解释基础模型

标题: SeisCoDE: 3D Seismic Interpretation Foundation Model with Contrastive Self-Distillation Learning

Authors:Goodluck Archibong, Ardiansyah Koeshidayatullah, Umair Waheed, Weichang Li, Dicky Harishidayat, Motaz Alfarraj
摘要: 地震解释对于理解地下结构至关重要,但仍然耗时费力、主观性强且计算需求高。虽然深度学习(DL)提供了希望,但其成功依赖于大量高质量的数据集,而这类数据集在地球物理学中往往稀缺。基础模型(FMs),已经在自然语言处理和计算机视觉等领域取得了显著成功,在地震解释中通过实现跨解释任务的知识迁移和泛化,提供了一个变革性的机会。然而,由于缺乏特定领域的预训练工作流程,基础模型在这方面的应用仍受到限制,特别是在三维尺度上。本研究旨在通过引入基于视觉变换器的地震对比自蒸馏编码器(SeisCoDE),即一种新颖的自监督学习(SSL)框架,该框架利用地震信号处理和属性分析,同时在预训练过程中保留地震结构的完整性,从而开发三维地震解释的预训练策略。通过利用对比学习和自蒸馏,SeisCoDE能够在无需标注数据的情况下(零样本方法)学习有意义的潜在表示。结果显示,SeisCoDE能够有效捕捉关键的地震特征和特性,生成稳健的潜在特征表示,推动下游地震解释。它在不同的地震解释任务中表现出增强的泛化能力,优于传统的有监督学习UNet方法。总体而言,这项研究强调了由地震图像处理和属性分析原则指导的基础模型的潜力,为继续创新整合基础模型以用于地震解释铺平了道路,具有革新地下特征描述和地球物理地震勘探的潜力。
摘要: Seismic interpretation is vital for understanding subsurface structures but remains labor-intensive, subjective, and computationally demanding. While deep learning (DL) offers promise, its success hinges on large, high-quality datasets, often scarce in geophysics. Foundation Models (FMs), which have shown significant success in fields like natural language processing and computer vision, offer a transformative opportunity for seismic interpretation by enabling knowledge transfer and generalization across interpretation tasks. However, the application of FMs in this domain remains limited, especially at the 3D scale, due to the absence of a domain-specific pretraining workflow. Here, our study sought to develop a pretraining strategy for 3D seismic interpretation by introducing a vision transformer-based Seismic Contrastive Self-Distillation Encoder (SeisCoDE), a novel self-supervised learning (SSL) framework that leverages seismic signal processing and attribute analysis, preserving seismic structural integrity during pretraining. By leveraging contrastive learning and self-distillation, SeisCoDE learns meaningful latent representations without the need for labeled data (zero-shot approach). Results indicate that SeisCoDE effectively captures critical seismic features and characteristics, producing robust latent feature representations that drive downstream seismic interpretation. It demonstrates enhanced generalization abilities across different seismic interpretation tasks, outperforming the conventional supervised learning UNet method. Overall, this research emphasizes the potential of FMs informed by seismic image processing and attribute analysis principles, paving the way for continued innovation integrating FMs for seismic interpretation, with the potential to revolutionize subsurface characterization and geophysical seismic exploration.
评论: 初次提交后,我们意识到需要进行额外的实验以增强研究的有效性。此外,我们希望结合所有合作者的全面反馈,确保工作反映出一致且经过彻底验证的观点。在重新提交或正式发表之前,这些步骤对于保持研究的质量和完整性至关重要。
主题: 地球物理 (physics.geo-ph)
引用方式: arXiv:2505.20518 [physics.geo-ph]
  (或者 arXiv:2505.20518v2 [physics.geo-ph] 对于此版本)
  https://doi.org/10.48550/arXiv.2505.20518
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Goodluck Archibong [查看电子邮件]
[v1] 星期一, 2025 年 5 月 26 日 20:48:24 UTC (9,883 KB)
[v2] 星期三, 2025 年 6 月 18 日 00:37:31 UTC (1 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
查看许可
当前浏览上下文:
physics.geo-ph
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-05
切换浏览方式为:
physics

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号