计算机科学 > 网络与互联网架构
[提交于 2025年7月20日
]
标题: FENIX:通过FPGA增强的可编程交换机实现网络内DNN推理
标题: FENIX: Enabling In-Network DNN Inference with FPGA-Enhanced Programmable Switches
摘要: 机器学习(ML)在网络安全数据平面中用于高级流量分析的应用日益增多。 然而,现有的解决方案(如FlowLens、N3IC和BoS)仍然难以同时实现低延迟、高吞吐量和高准确性。 为了解决这些挑战,我们提出了FENIX,一种混合的网络内ML系统,它在可编程交换机ASIC上执行特征提取,并在FPGA上执行深度神经网络推理。 FENIX引入了一个数据引擎,利用概率令牌桶算法来控制特征流的发送速率,有效解决了可编程交换机ASIC和FPGA之间的吞吐量差距。 此外,FENIX设计了一个模型引擎,以在网络中实现高精度的深度神经网络推理,克服了在资源受限的交换机芯片上部署复杂模型的困难。 我们在一个集成Tofino ASIC和ZU19EG FPGA的可编程交换机平台上实现了FENIX,并在真实世界的网络流量数据集上进行了评估。 我们的结果表明,FENIX实现了微秒级的推理延迟和多太比特的吞吐量,且硬件开销较低,在主流网络流量分类任务中准确率超过95%,性能优于最先进方法。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.