Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.21831

帮助 | 高级搜索

计算机科学 > 信息检索

arXiv:2510.21831 (cs)
[提交于 2025年10月22日 ]

标题: 用于高效网络爬虫的自动化网络应用程序的开发:设计与实现

标题: Development of an Automated Web Application for Efficient Web Scraping: Design and Implementation

Authors:Alok Dutta, Nilanjana Roy, Rhythm Sen, Sougata Dutta, Prabhat Das
摘要: 本文介绍了用户友好的自动化网络应用的设计和实现,该应用简化并优化了非技术用户的网络爬取过程。 该应用程序将复杂的网络爬取任务分解为三个主要阶段:获取、提取和执行。 在获取阶段,应用程序使用HTTP协议访问目标网站,利用requests库检索HTML内容。 在提取阶段,应用程序使用强大的解析库如BeautifulSoup和正则表达式,从HTML中提取相关数据。 最后,在执行阶段,应用程序将数据结构化为可访问的格式,如CSV,确保爬取的内容组织良好以便于使用。 为了提供个性化和安全的体验,该应用程序包含用户注册和登录功能,由MongoDB支持,用于存储用户数据和爬取历史。 该工具使用Flask框架部署,为网络爬取提供了可扩展且稳健的环境。 用户可以轻松输入网站URL,定义数据提取参数,并以简化的格式下载数据,而无需技术专长。 这种自动化工具不仅提高了网络爬取的效率,还通过赋予所有技术水平的用户收集和管理定制数据的能力,使数据提取更加普及。 本文详细描述的方法代表了在网络爬取工具的可访问性、效率和易用性方面的重要进展,使更广泛的受众受益。
摘要: This paper presents the design and implementation of a user-friendly, automated web application that simplifies and optimizes the web scraping process for non-technical users. The application breaks down the complex task of web scraping into three main stages: fetching, extraction, and execution. In the fetching stage, the application accesses target websites using the HTTP protocol, leveraging the requests library to retrieve HTML content. The extraction stage utilizes powerful parsing libraries like BeautifulSoup and regular expressions to extract relevant data from the HTML. Finally, the execution stage structures the data into accessible formats, such as CSV, ensuring the scraped content is organized for easy use. To provide personalized and secure experiences, the application includes user registration and login functionalities, supported by MongoDB, which stores user data and scraping history. Deployed using the Flask framework, the tool offers a scalable, robust environment for web scraping. Users can easily input website URLs, define data extraction parameters, and download the data in a simplified format, without needing technical expertise. This automated tool not only enhances the efficiency of web scraping but also democratizes access to data extraction by empowering users of all technical levels to gather and manage data tailored to their needs. The methodology detailed in this paper represents a significant advancement in making web scraping tools accessible, efficient, and easy to use for a broader audience.
主题: 信息检索 (cs.IR) ; 软件工程 (cs.SE)
引用方式: arXiv:2510.21831 [cs.IR]
  (或者 arXiv:2510.21831v1 [cs.IR] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.21831
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Prabhat Das [查看电子邮件]
[v1] 星期三, 2025 年 10 月 22 日 04:56:00 UTC (1,418 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
许可图标 查看许可
当前浏览上下文:
cs.IR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.SE

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号