Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.10448v1

帮助 | 高级搜索

计算机科学 > 计算工程、金融与科学

arXiv:2507.10448v1 (cs)
[提交于 2025年7月5日 ]

标题: FinTeam:用于全面金融场景的多智能体协作智能系统

标题: FinTeam: A Multi-Agent Collaborative Intelligence System for Comprehensive Financial Scenarios

Authors:Yingqian Wu, Qiushi Wang, Zefei Long, Rong Ye, Zhongtian Lu, Xianyin Zhang, Bingxuan Li, Wei Chen, Liwen Zhang, Zhongyu Wei
摘要: 财务报告生成任务从宏观到微观经济分析范围广泛,还需要进行大量数据分析。 现有的大型语言模型通常是在简单的问答任务上进行微调,无法全面分析真实的财务场景。 鉴于复杂性,财务公司通常将任务分配给不同部门。 受此启发,我们提出了FinTeam,一个财务多智能体协作系统,其工作流程包含四个大型语言模型代理:文档分析器、分析师、会计师和顾问。 我们使用构建的数据集对这些代理进行特定财务专业知识的训练。 我们评估了FinTeam在从真实在线投资论坛构建的综合财务任务上的表现,包括宏观经济、行业和公司分析。 人类评估显示,通过结合代理,从FinTeam生成的财务报告达到了62.00%的接受率,优于基线模型如GPT-4o和玄元。 此外,FinTeam的代理在FinCUGE上的平均改进率为7.43%,在FinEval上的准确率提升了2.06%。 项目可在 https://github.com/FudanDISC/DISC-FinLLM/ 获取。
摘要: Financial report generation tasks range from macro- to micro-economics analysis, also requiring extensive data analysis. Existing LLM models are usually fine-tuned on simple QA tasks and cannot comprehensively analyze real financial scenarios. Given the complexity, financial companies often distribute tasks among departments. Inspired by this, we propose FinTeam, a financial multi-agent collaborative system, with a workflow with four LLM agents: document analyzer, analyst, accountant, and consultant. We train these agents with specific financial expertise using constructed datasets. We evaluate FinTeam on comprehensive financial tasks constructed from real online investment forums, including macroeconomic, industry, and company analysis. The human evaluation shows that by combining agents, the financial reports generate from FinTeam achieved a 62.00% acceptance rate, outperforming baseline models like GPT-4o and Xuanyuan. Additionally, FinTeam's agents demonstrate a 7.43% average improvement on FinCUGE and a 2.06% accuracy boost on FinEval. Project is available at https://github.com/FudanDISC/DISC-FinLLM/.
评论: NLPCC 2025 口头报告
主题: 计算工程、金融与科学 (cs.CE) ; 机器学习 (cs.LG)
引用方式: arXiv:2507.10448 [cs.CE]
  (或者 arXiv:2507.10448v1 [cs.CE] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.10448
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Yingqian Wu [查看电子邮件]
[v1] 星期六, 2025 年 7 月 5 日 10:12:25 UTC (1,096 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CE
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.LG

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号