Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.02015v1

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2506.02015v1 (cs)
[提交于 2025年5月28日 ]

标题: 面向对象的自改进偏好优化用于文本到图像生成

标题: Object-centric Self-improving Preference Optimization for Text-to-Image Generation

Authors:Yoonjin Oh, Yongjin Kim, Hyomin Kim, Donghwan Chi, Sungwoong Kim
摘要: 多模态大型语言模型(MLLMs)的最新进展显著提升了图像理解和生成能力。尽管如此,MLLMs 在细粒度视觉理解方面仍面临挑战,尤其是在文本到图像生成任务中。虽然已经探索了偏好优化方法来解决图像理解任务中的这些局限性,但将其应用于图像生成领域仍缺乏深入研究。 为填补这一空白,我们提出了一种面向 MLLMs 文本到图像生成任务的对象中心自改进偏好优化(OSPO)框架。OSPO 利用了 MLLMs 的内在推理能力,而无需依赖任何外部数据集或模型。OSPO 强调高质量偏好对数据的重要性,这对有效的偏好优化至关重要。为此,它引入了一种自改进机制,通过对象中心提示扰动、密集化和 VQA 评分自主构建对象级对比偏好对。此过程消除了通常存在于朴素生成的偏好对中的模糊或不成比例的变化,从而提高了偏好优化的有效性。 我们在三个具有代表性的组合文本到图像基准上验证了 OSPO,结果显示其相对于基线模型取得了显著的性能提升。
摘要: Recent advancements in Multimodal Large Language Models (MLLMs) have significantly improved both image understanding and generation capabilities. Despite these improvements, MLLMs still struggle with fine-grained visual comprehension, particularly in text-to-image generation tasks. While preference optimization methods have been explored to address these limitations in image understanding tasks, their application to image generation remains largely underexplored. To address this gap, we propose an Object-centric Self-improving Preference Optimization (OSPO) framework designed for text-to-image generation by MLLMs. OSPO leverages the intrinsic reasoning abilities of MLLMs without requiring any external datasets or models. OSPO emphasizes the importance of high-quality preference pair data, which is critical for effective preference optimization. To achieve this, it introduces a self-improving mechanism that autonomously constructs object-level contrastive preference pairs through object-centric prompt perturbation, densification and VQA scoring. This process eliminates ambiguous or disproportionate variations commonly found in naively generated preference pairs, thereby enhancing the effectiveness of preference optimization. We validate OSPO on three representative compositional text-to-image benchmarks, demonstrating substantial performance gains over baseline models.
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2506.02015 [cs.CV]
  (或者 arXiv:2506.02015v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.02015
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Yoonjin Oh [查看电子邮件]
[v1] 星期三, 2025 年 5 月 28 日 03:45:42 UTC (30,008 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号