Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.19252

帮助 | 高级搜索

计算机科学 > 人机交互

arXiv:2510.19252 (cs)
[提交于 2025年10月22日 ]

标题: LLMartini:通过比较和组合实现多个大语言模型的无缝和交互式利用

标题: LLMartini: Seamless and Interactive Leveraging of Multiple LLMs through Comparison and Composition

Authors:Yingtian Shi, Jinda Yang, Yuhan Wang, Yiwen Yin, Haoyu Li, Kunyu Gao, Chun Yu
摘要: 大型语言模型(LLMs)的日益多样化意味着用户常常需要比较和结合不同模型的输出,以获得更高质量或更全面的响应。 然而,切换到不同的界面并手动整合输出本质上是低效的,导致较高的认知负担和碎片化的工作流程。 为了解决这个问题,我们提出了 LLMartini,一种新型的交互系统,支持无缝比较、选择和直观的跨模型组合工具。 该系统根据任务特定的标准将响应分解为语义对齐的片段,自动合并共识内容,并通过颜色编码突出显示模型差异,同时保留独特的贡献。 在一项用户研究(N=18)中,LLMartini 在所有测量指标上均显著优于传统的手动方法,包括任务完成时间、认知负荷和用户满意度。 我们的工作突出了以人为本的设计在提升多LLM交互效率和创造力中的重要性,并为利用各种语言模型的互补优势提供了实际意义。
摘要: The growing diversity of large language models (LLMs) means users often need to compare and combine outputs from different models to obtain higher-quality or more comprehensive responses. However, switching between separate interfaces and manually integrating outputs is inherently inefficient, leading to a high cognitive burden and fragmented workflows. To address this, we present LLMartini, a novel interactive system that supports seamless comparison, selection, and intuitive cross-model composition tools. The system decomposes responses into semantically aligned segments based on task-specific criteria, automatically merges consensus content, and highlights model differences through color coding while preserving unique contributions. In a user study (N=18), LLMartini significantly outperformed conventional manual methods across all measured metrics, including task completion time, cognitive load, and user satisfaction. Our work highlights the importance of human-centered design in enhancing the efficiency and creativity of multi-LLM interactions and offers practical implications for leveraging the complementary strengths of various language models.
主题: 人机交互 (cs.HC)
引用方式: arXiv:2510.19252 [cs.HC]
  (或者 arXiv:2510.19252v1 [cs.HC] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.19252
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Yingtian Shi [查看电子邮件]
[v1] 星期三, 2025 年 10 月 22 日 05:12:23 UTC (8,903 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.HC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号