Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.02124

帮助 | 高级搜索

计算机科学 > 分布式、并行与集群计算

arXiv:2507.02124 (cs)
[提交于 2025年7月2日 ]

标题: SAKURAONE:通过日本私营部门的高性能计算投资推动透明和开放的人工智能平台

标题: SAKURAONE: Empowering Transparent and Open AI Platforms through Private-Sector HPC Investment in Japan

Authors:Fumikazu Konishi
摘要: SAKURAONE是由SAKURA互联网研究中心开发和运营的托管高性能计算(HPC)集群。它强化了“KOKARYOKU PHY”配置的裸金属GPU服务器,并被设计为针对先进工作负载(包括大型语言模型(LLM)训练)优化的集群计算资源。在TOP500列表的ISC 2025版中,SAKURAONE根据其高性能线性代数包(HPL)得分位列世界第\textbf{49届},展示了其全球竞争力。特别是,它是第\textbf{仅有的前100名系统}个采用基于\textbf{800千兆以太网(千兆以太网)}的完全开放网络堆栈和\textbf{SONiC(用于云中开放网络的软件)}操作系统的系统,突显了开放和供应商中立技术在大规模HPC基础设施中的可行性。SAKURAONE在HPL基准测试(Rmax)上实现了持续性能33.95~PFLOP/s,在高性能共轭梯度(HPCG)基准测试上实现了396.295~TFLOP/s。对于针对人工智能应用代表性低精度工作负载的HPL-MxP基准测试,SAKURAONE使用FP8精度实现了惊人的339.86~PFLOP/s。该系统由100个计算节点组成,每个节点配备八个NVIDIA H100 GPU。它由一个全闪存Lustre存储子系统支持,总物理容量为2~拍字节,提供高吞吐量和低延迟的数据访问。节点间通信通过基于Rail-Optimized拓扑的全分叉带宽互连实现,其中叶层和脊层通过800~GbE链路互连。这种拓扑结构结合RoCEv2(RDMA over Converged Ethernet版本2),实现了高速、无损的数据传输,并缓解了大规模并行工作负载中的通信瓶颈。
摘要: SAKURAONE is a managed high performance computing (HPC) cluster developed and operated by the SAKURA Internet Research Center. It reinforces the ``KOKARYOKU PHY'' configuration of bare-metal GPU servers and is designed as a cluster computing resource optimized for advanced workloads, including large language model (LLM) training. In the ISC 2025 edition of the TOP500 list, SAKURAONE was ranked \textbf{49th} in the world based on its High Performance Linpack (HPL) score, demonstrating its global competitiveness. In particular, it is the \textbf{only system within the top 100} that employs a fully open networking stack based on \textbf{800~GbE (Gigabit Ethernet)} and the \textbf{SONiC (Software for Open Networking in the Cloud)} operating system, highlighting the viability of open and vendor-neutral technologies in large-scale HPC infrastructure. SAKURAONE achieved a sustained performance of 33.95~PFLOP/s on the HPL benchmark (Rmax), and 396.295~TFLOP/s on the High Performance Conjugate Gradient (HPCG) benchmark. For the HPL-MxP benchmark, which targets low-precision workloads representative of AI applications, SAKURAONE delivered an impressive 339.86~PFLOP/s using FP8 precision. The system comprises 100 compute nodes, each equipped with eight NVIDIA H100 GPUs. It is supported by an all-flash Lustre storage subsystem with a total physical capacity of 2~petabytes, providing high-throughput and low-latency data access. Internode communication is enabled by a full-bisection bandwidth interconnect based on a Rail-Optimized topology, where the Leaf and Spine layers are interconnected via 800~GbE links. This topology, in combination with RoCEv2 (RDMA over Converged Ethernet version 2), enables high-speed, lossless data transfers and mitigates communication bottlenecks in large-scale parallel workloads.
评论: 13页,2图,10表
主题: 分布式、并行与集群计算 (cs.DC) ; 网络与互联网架构 (cs.NI)
ACM 类: C.5.5; B.8.2
引用方式: arXiv:2507.02124 [cs.DC]
  (或者 arXiv:2507.02124v1 [cs.DC] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.02124
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Fumikazu Konishi [查看电子邮件]
[v1] 星期三, 2025 年 7 月 2 日 20:13:09 UTC (463 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.DC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.NI

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号