Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.02871

帮助 | 高级搜索

计算机科学 > 分布式、并行与集群计算

arXiv:2507.02871 (cs)
[提交于 2025年6月8日 ]

标题: 泽塔 lith:超大规模人工智能推理加速的架构探索

标题: ZettaLith: An Architectural Exploration of Extreme-Scale AI Inference Acceleration

Authors:Kia Silverbrook
摘要: 当前和未来的AI系统的高计算成本和功耗给广泛部署和进一步扩展带来了重大挑战。当前的硬件方法面临基本的效率限制。本文介绍了ZettaLith,这是一种可扩展的计算架构,与当前基于GPU的系统相比,可将AI推理的成本和功耗降低1000倍以上。基于架构分析和技术预测,单个ZettaLith机架在2027年理论上可以达到1.507泽它浮点运算每秒(zettaFLOPS),这代表了推理性能的理论提升1047倍,功耗效率提高了1490倍,并且相比当前领先的GPU机架在FP4变压器推理方面,成本效益提高了2325倍。ZettaLith架构通过放弃通用GPU应用,并通过本文详细描述的众多协同设计的架构创新,利用现有的数字电子技术,实现了这些优势。ZettaLith的核心架构原则可以高效地缩小到exaFLOPS桌面系统和petaFLOPS移动芯片,保持其大约1000倍的优势。与当前GPU集群的复杂层次结构相比,ZettaLith的系统架构更为简单。ZettaLith仅针对AI推理进行了优化,不适用于AI训练。
摘要: The high computational cost and power consumption of current and anticipated AI systems present a major challenge for widespread deployment and further scaling. Current hardware approaches face fundamental efficiency limits. This paper introduces ZettaLith, a scalable computing architecture designed to reduce the cost and power of AI inference by over 1,000x compared to current GPU-based systems. Based on architectural analysis and technology projections, a single ZettaLith rack could potentially achieve 1.507 zettaFLOPS in 2027 - representing a theoretical 1,047x improvement in inference performance, 1,490x better power efficiency, and could be 2,325x more cost-effective than current leading GPU racks for FP4 transformer inference. The ZettaLith architecture achieves these gains by abandoning general purpose GPU applications, and via the multiplicative effect of numerous co-designed architectural innovations using established digital electronic technologies, as detailed in this paper. ZettaLith's core architectural principles scale down efficiently to exaFLOPS desktop systems and petaFLOPS mobile chips, maintaining their roughly 1,000x advantage. ZettaLith presents a simpler system architecture compared to the complex hierarchy of current GPU clusters. ZettaLith is optimized exclusively for AI inference and is not applicable for AI training.
评论: 53页,15图,23表
主题: 分布式、并行与集群计算 (cs.DC) ; 人工智能 (cs.AI); 硬件架构 (cs.AR); 机器学习 (cs.LG)
引用方式: arXiv:2507.02871 [cs.DC]
  (或者 arXiv:2507.02871v1 [cs.DC] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.02871
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Kia Silverbrook [查看电子邮件]
[v1] 星期日, 2025 年 6 月 8 日 07:15:47 UTC (2,047 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
查看许可
当前浏览上下文:
cs.DC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI
cs.AR
cs.LG

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号