Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.02350

帮助 | 高级搜索

计算机科学 > 密码学与安全

arXiv:2501.02350 (cs)
[提交于 2025年1月4日 ]

标题: PM-Dedup:从云服务器到边缘服务器的部分迁移安全去重

标题: PM-Dedup: Secure Deduplication with Partial Migration from Cloud to Edge Servers

Authors:Zhaokang Ke, Haoyu Gong, David H.C. Du
摘要: 目前,越来越多的用户和企业将他们的数据存储在云中,但并不完全信任云提供商以明文形式处理他们的数据。 为了解决这一问题,他们在上传数据到云之前对其进行加密。 然而,使用不同的密钥进行加密意味着即使相同的数据也会变成不同的密文,从而使去重效果变差。 加密去重通过确保相同的数据块使用基于内容的密钥生成相同的密文来避免这个问题,从而使云能够高效地识别并删除加密形式的重复数据。 当前的加密数据去重工作可分为两种类型:基于目标的和基于源的。 基于目标的加密去重要求客户端以高网络带宽开销将所有加密块(去重的基本单位)上传到云。 基于源的去重涉及客户端上传加密块的指纹(哈希值)进行重复检查,并仅上传唯一的加密块,这减少了网络传输,但引入了高延迟和潜在的侧信道攻击,这些需要通过拥有权证明(PoW)来缓解,以及云的高计算开销。 因此,在确保安全的同时减少延迟和网络及云的开销已成为云存储中安全数据去重的一个重要挑战。 针对这一挑战,我们提出了PM-Dedup,一种新颖的安全基于源的去重方法,该方法将一部分去重检查过程和PoW任务从云转移到客户端边缘服务器中的可信执行环境(TEEs)。 我们还提出了各种设计来增强数据去重的安全性和效率。
摘要: Currently, an increasing number of users and enterprises are storing their data in the cloud but do not fully trust cloud providers with their data in plaintext form. To address this concern, they encrypt their data before uploading it to the cloud. However, encryption with different keys means that even identical data will become different ciphertexts, making deduplication less effective. Encrypted deduplication avoids this issue by ensuring that identical data chunks generate the same ciphertext with content-based keys, enabling the cloud to efficiently identify and remove duplicates even in encrypted form. Current encrypted data deduplication work can be classified into two types: target-based and source-based. Target-based encrypted deduplication requires clients to upload all encrypted chunks (the basic unit of deduplication) to the cloud with high network bandwidth overhead. Source-based deduplication involves clients uploading fingerprints (hashes) of encrypted chunks for duplicate checking and only uploading unique encrypted chunks, which reduces network transfer but introduces high latency and potential side-channel attacks, which need to be mitigated by Proof of Ownership (PoW), and high computing overhead of the cloud. So, reducing the latency and the overheads of network and cloud while ensuring security has become a significant challenge for secure data deduplication in cloud storage. In response to this challenge, we present PM-Dedup, a novel secure source-based deduplication approach that relocates a portion of the deduplication checking process and PoW tasks from the cloud to the trusted execution environments (TEEs) in the client-side edge servers. We also propose various designs to enhance the security and efficiency of data deduplication.
主题: 密码学与安全 (cs.CR) ; 网络与互联网架构 (cs.NI)
引用方式: arXiv:2501.02350 [cs.CR]
  (或者 arXiv:2501.02350v1 [cs.CR] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.02350
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Zhaokang Ke [查看电子邮件]
[v1] 星期六, 2025 年 1 月 4 日 18:12:23 UTC (587 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.CR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.NI

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号