计算机科学 > 图形学
[提交于 2025年4月2日
(v1)
,最后修订 2025年9月2日 (此版本, v2)]
标题: Gen-C:用生成人群填充虚拟世界
标题: Gen-C: Populating Virtual Worlds with Generative Crowds
摘要: 在过去二十年中,研究人员在模拟人类人群方面取得了显著进展,但这些努力主要集中在低级任务,如避障和路径跟随和 flocking 等有限的行为范围上。 然而,创建引人入胜的人群场景不仅仅需要功能性的移动——还需要捕捉代理之间、代理与环境之间的高层互动,并随时间变化。 为了解决这个问题,我们引入了 Gen-C,这是一种生成模型,用于自动化编写高层人群行为的任务。 Gen-C 通过利用大型语言模型(LLM)生成有限的一组人群场景,从而绕过了收集和标注真实人群视频数据这一劳动密集且具有挑战性的任务,这些场景随后通过模拟扩展和泛化,构建出时间扩展的图,以建模虚拟代理的动作和交互。 我们的方法采用两个由条件先验网络引导的变分图自动编码器:一个专门用于学习图结构(代理交互)的潜在空间,另一个用于节点特征(代理动作和导航)。 这种设置使得动态人群交互的灵活生成成为可能。 训练好的模型可以基于自然语言进行条件设置,使用户能够从文本描述中合成新的群体行为。 我们在两个场景中展示了我们方法的有效性,即大学校园和火车站,展示了其在用表现出多样化和动态行为的代理填充各种虚拟环境方面的潜力,这些行为反映了复杂的互动和高层决策模式。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.