Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > physics > arXiv:2501.16309

帮助 | 高级搜索

物理学 > 医学物理

arXiv:2501.16309 (physics)
[提交于 2025年1月27日 ]

标题: 评估使用大型语言模型在放射肿瘤学中自动化计算机断层扫描模拟订单摘要的性能

标题: Evaluating The Performance of Using Large Language Models to Automate Summarization of CT Simulation Orders in Radiation Oncology

Authors:Meiyun Cao, Shaw Hu, Jason Sharp, Edward Clouser, Jason Holmes, Linda L. Lam, Xiaoning Ding, Diego Santos Toesca, Wendy S. Lindholm, Samir H. Patel, Sujay A. Vora, Peilong Wang, Wei Liu
摘要: 目的:本研究旨在使用大型语言模型(LLM)自动化生成来自CT模拟订单的摘要,并评估其性能。 材料和方法:从我们机构的Aria数据库中收集了607份患者的CT模拟订单。 使用本地托管的Llama 3.1 405B模型,通过应用程序编程接口(API)服务访问,用于从CT模拟订单中提取关键词并生成摘要。 下载的CT模拟订单根据治疗方式和疾病部位分为七个组。 对于每组,与治疗师合作开发了定制的指令提示,以指导Llama 3.1 405B模型生成摘要。 相应摘要的基准真实数据是通过仔细审查每份CT模拟订单手动得出的,随后由治疗师进行验证。 治疗师使用经过验证的基准真实数据作为参考,评估LLM生成的摘要的准确性。 结果:大约98%的LLM生成的摘要在准确性方面与手动生成的基准真实数据一致。 我们的评估显示,与相应的治疗师生成的摘要相比,LLM生成的摘要在格式上更加一致,可读性更强。 这种自动化方法在所有组中均表现出一致的性能,无论治疗方式或疾病部位如何。 结论:本研究展示了Llama 3.1 405B模型在提取关键词和总结CT模拟订单方面的高精度和一致性,表明LLM在该任务中具有巨大潜力,可以减轻治疗师的工作负担并提高工作效率。
摘要: Purpose: This study aims to use a large language model (LLM) to automate the generation of summaries from the CT simulation orders and evaluate its performance. Materials and Methods: A total of 607 CT simulation orders for patients were collected from the Aria database at our institution. A locally hosted Llama 3.1 405B model, accessed via the Application Programming Interface (API) service, was used to extract keywords from the CT simulation orders and generate summaries. The downloaded CT simulation orders were categorized into seven groups based on treatment modalities and disease sites. For each group, a customized instruction prompt was developed collaboratively with therapists to guide the Llama 3.1 405B model in generating summaries. The ground truth for the corresponding summaries was manually derived by carefully reviewing each CT simulation order and subsequently verified by therapists. The accuracy of the LLM-generated summaries was evaluated by therapists using the verified ground truth as a reference. Results: About 98% of the LLM-generated summaries aligned with the manually generated ground truth in terms of accuracy. Our evaluations showed an improved consistency in format and enhanced readability of the LLM-generated summaries compared to the corresponding therapists-generated summaries. This automated approach demonstrated a consistent performance across all groups, regardless of modality or disease site. Conclusions: This study demonstrated the high precision and consistency of the Llama 3.1 405B model in extracting keywords and summarizing CT simulation orders, suggesting that LLMs have great potential to help with this task, reduce the workload of therapists and improve workflow efficiency.
主题: 医学物理 (physics.med-ph) ; 人工智能 (cs.AI)
引用方式: arXiv:2501.16309 [physics.med-ph]
  (或者 arXiv:2501.16309v1 [physics.med-ph] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.16309
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Peilong Wang [查看电子邮件]
[v1] 星期一, 2025 年 1 月 27 日 18:47:58 UTC (307 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
physics.med-ph
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.AI
physics

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号