Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.00088

帮助 | 高级搜索

计算机科学 > 人工智能

arXiv:2510.00088 (cs)
[提交于 2025年9月30日 ]

标题: 仅凭外表? 用于保释预测的审计和干预视觉-语言模型

标题: Judging by Appearances? Auditing and Intervening Vision-Language Models for Bail Prediction

Authors:Sagnik Basu, Shubham Prakash, Ashish Maruti Barge, Siddharth D Jaiswal, Abhisek Dash, Saptarshi Ghosh, Animesh Mukherjee
摘要: 大型语言模型(LLMs)已被广泛用于基于案件报告和犯罪历史的法律判决预测任务。 然而,随着大型视觉语言模型(VLMs)的可用性激增,法律判决预测系统现在可以利用罪犯的图像,而不仅仅是文本案件报告/犯罪历史。 以这种方式构建的应用程序可能导致无意的后果,并可能被恶意使用。 在本工作中,我们进行了一项审计,以研究独立VLMs在保释决定预测任务中的效率。 我们观察到,在多个交叉群体和模型\textit{错误地拒绝保释给值得的个体,且非常自信}中,性能都很差。 我们通过首先通过RAG管道包含法律先例,然后使用创新方案对VLMs进行微调,设计了不同的干预算法。 我们证明这些干预措施显著提高了保释预测的性能。 我们的工作为未来在VLMs上设计更智能的干预措施铺平了道路,在它们可用于现实世界的法律判决预测之前。
摘要: Large language models (LLMs) have been extensively used for legal judgment prediction tasks based on case reports and crime history. However, with a surge in the availability of large vision language models (VLMs), legal judgment prediction systems can now be made to leverage the images of the criminals in addition to the textual case reports/crime history. Applications built in this way could lead to inadvertent consequences and be used with malicious intent. In this work, we run an audit to investigate the efficiency of standalone VLMs in the bail decision prediction task. We observe that the performance is poor across multiple intersectional groups and models \textit{wrongly deny bail to deserving individuals with very high confidence}. We design different intervention algorithms by first including legal precedents through a RAG pipeline and then fine-tuning the VLMs using innovative schemes. We demonstrate that these interventions substantially improve the performance of bail prediction. Our work paves the way for the design of smarter interventions on VLMs in the future, before they can be deployed for real-world legal judgment prediction.
主题: 人工智能 (cs.AI) ; 计算机与社会 (cs.CY)
引用方式: arXiv:2510.00088 [cs.AI]
  (或者 arXiv:2510.00088v1 [cs.AI] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.00088
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Sagnik Basu [查看电子邮件]
[v1] 星期二, 2025 年 9 月 30 日 12:11:45 UTC (184 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.AI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.CY

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号