Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.11352

帮助 | 高级搜索

计算机科学 > 人工智能

arXiv:2507.11352 (cs)
[提交于 2025年7月15日 ]

标题: 物流的基础模型:面向可认证的、对话式的规划接口

标题: Foundation Models for Logistics: Toward Certifiable, Conversational Planning Interfaces

Authors:Yunhao Yang, Neel P. Bhatt, Christian Ellis, Alvaro Velasquez, Zhangyang Wang, Ufuk Topcu
摘要: 物流操作员,从战场协调员在风暴来临前重新安排空运,到仓库经理处理迟到的卡车,常常面临需要领域专业知识和快速持续重新规划的生命攸关决策。 虽然像整数规划这样的流行方法可以生成满足用户定义逻辑约束的物流计划,但它们速度慢,并且假设了一个理想化的环境数学模型,该模型不考虑不确定性。 另一方面,大型语言模型(LLMs)可以处理不确定性,并通过将自由格式的陈述转化为可执行计划来加速重新规划并降低入门门槛,但它们仍然容易出现误解和幻觉,这会危及安全性和成本。 我们引入了一个神经符号框架,将自然语言对话的易用性与目标解释的可验证保证相结合。 它将用户请求转换为结构化的规划规范,在场和标记级别量化自身的不确定性,并在置信度低于自适应阈值时调用交互式澄清循环。 一个轻量级模型,在仅100个经过不确定性过滤的示例上进行微调,其零样本性能超过了GPT-4.1,同时将推理延迟降低了近50%。 这些初步结果表明了一条通往可认证、实时和用户对齐的复杂物流决策的实用路径。
摘要: Logistics operators, from battlefield coordinators rerouting airlifts ahead of a storm to warehouse managers juggling late trucks, often face life-critical decisions that demand both domain expertise and rapid and continuous replanning. While popular methods like integer programming yield logistics plans that satisfy user-defined logical constraints, they are slow and assume an idealized mathematical model of the environment that does not account for uncertainty. On the other hand, large language models (LLMs) can handle uncertainty and promise to accelerate replanning while lowering the barrier to entry by translating free-form utterances into executable plans, yet they remain prone to misinterpretations and hallucinations that jeopardize safety and cost. We introduce a neurosymbolic framework that pairs the accessibility of natural-language dialogue with verifiable guarantees on goal interpretation. It converts user requests into structured planning specifications, quantifies its own uncertainty at the field and token level, and invokes an interactive clarification loop whenever confidence falls below an adaptive threshold. A lightweight model, fine-tuned on just 100 uncertainty-filtered examples, surpasses the zero-shot performance of GPT-4.1 while cutting inference latency by nearly 50%. These preliminary results highlight a practical path toward certifiable, real-time, and user-aligned decision-making for complex logistics.
主题: 人工智能 (cs.AI) ; 形式语言与自动机理论 (cs.FL)
引用方式: arXiv:2507.11352 [cs.AI]
  (或者 arXiv:2507.11352v1 [cs.AI] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.11352
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Ufuk Topcu [查看电子邮件]
[v1] 星期二, 2025 年 7 月 15 日 14:24:01 UTC (2,518 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.AI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.FL

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号