Project Icon

crawlab

多语言多框架的分布式爬虫管理系统

Crawlab是一个开源的分布式爬虫管理平台,支持多种主流编程语言和爬虫框架。系统提供完整的爬虫项目管理功能,包括任务调度、节点管理和爬虫部署等。其分布式架构确保了系统的可扩展性,适合管理各种规模的爬虫项目。通过主节点、工作节点、分布式文件系统和数据库构建,Crawlab为各类爬虫项目提供统一的管理与部署解决方案。

Crawlab

中文 | 英文

安装 | 运行 | 截图 | 架构 | 集成 | 比较 | 社区与赞助 | 更新日志 | 免责声明

基于Golang的分布式网络爬虫管理平台,支持多种语言包括Python、NodeJS、Go、Java、PHP以及各种网络爬虫框架如Scrapy、Puppeteer、Selenium。

演示 | 文档

安装

你可以参照安装指南

快速开始

请打开命令行界面并执行以下命令。确保你已经预先安装了docker-compose

git clone https://github.com/crawlab-team/examples
cd examples/docker/basic
docker-compose up -d

接下来,你可以查看docker-compose.yml(包含详细配置参数)和文档以获取更多信息。

运行

Docker

请使用docker-compose一键启动。这样,你甚至不需要配置MongoDB数据库。创建一个名为docker-compose.yml的文件并输入以下代码。

version: '3.3'
services:
  master: 
    image: crawlabteam/crawlab:latest
    container_name: crawlab_example_master
    environment:
      CRAWLAB_NODE_MASTER: "Y"
      CRAWLAB_MONGO_HOST: "mongo"
    volumes:
      - "./.crawlab/master:/root/.crawlab"
    ports:    
      - "8080:8080"
    depends_on:
      - mongo

  worker01: 
    image: crawlabteam/crawlab:latest
    container_name: crawlab_example_worker01
    environment:
      CRAWLAB_NODE_MASTER: "N"
      CRAWLAB_GRPC_ADDRESS: "master"
      CRAWLAB_FS_FILER_URL: "http://master:8080/api/filer"
    volumes:
      - "./.crawlab/worker01:/root/.crawlab"
    depends_on:
      - master

  worker02: 
    image: crawlabteam/crawlab:latest
    container_name: crawlab_example_worker02
    environment:
      CRAWLAB_NODE_MASTER: "N"
      CRAWLAB_GRPC_ADDRESS: "master"
      CRAWLAB_FS_FILER_URL: "http://master:8080/api/filer"
    volumes:
      - "./.crawlab/worker02:/root/.crawlab"
    depends_on:
      - master

  mongo:
    image: mongo:4.2
    container_name: crawlab_example_mongo
    restart: always

然后执行以下命令,Crawlab主节点和工作节点 + MongoDB将启动。打开浏览器并输入http://localhost:8080查看用户界面。

docker-compose up -d

关于Docker部署的详细信息,请参阅相关文档

截图

登录

![](https://raw.githubusercontent.com/crawlab-team/crawlab/main/ https://github.com/crawlab-team/images/blob/main/20210729/screenshot-login.png?raw=true)

主页

![](https://raw.githubusercontent.com/crawlab-team/crawlab/main/ https://github.com/crawlab-team/images/blob/main/20210729/screenshot-home.png?raw=true)

节点列表

![](https://raw.githubusercontent.com/crawlab-team/crawlab/main/ https://github.com/crawlab-team/images/blob/main/20210729/screenshot-node-list.png?raw=true)

爬虫列表

爬虫概览

爬虫文件

任务日志

任务结果

定时任务

架构

Crawlab的架构由一个主节点、工作节点、SeaweedFS(一个分布式文件系统)和MongoDB数据库组成。

前端应用与主节点交互,主节点与其他组件如MongoDB、SeaweedFS和工作节点通信。主节点和工作节点通过gRPC(一个RPC框架)相互通信。任务由主节点中的任务调度器模块调度,并由工作节点中的任务处理器模块接收,然后在任务运行器中执行这些任务。任务运行器实际上是运行爬虫或爬虫程序的进程,也可以通过gRPC(集成在SDK中)向其他数据源(如MongoDB)发送数据。

主节点

主节点是Crawlab架构的核心。它是Crawlab的中央控制系统。

主节点提供以下服务:

  1. 任务调度;
  2. 工作节点管理和通信;
  3. 爬虫部署;
  4. 前端和API服务;
  5. 任务执行(你可以将主节点视为一个工作节点)

主节点与前端应用通信,并向工作节点发送爬取任务。同时,主节点将爬虫上传(部署)到分布式文件系统SeaweedFS,以供工作节点同步。

工作节点

工作节点的主要功能是执行爬取任务并存储结果和日志,并通过gRPC与主节点通信。通过增加工作节点的数量,Crawlab可以水平扩展,不同的爬取任务可以分配给不同的节点执行。

MongoDB

MongoDB是Crawlab的操作数据库。它存储节点、爬虫、任务、调度等数据。任务队列也存储在MongoDB中。

SeaweedFS

SeaweedFS是由Chris Lu开发的开源分布式文件系统。它可以在分布式系统中稳健地存储和共享文件。在Crawlab中,SeaweedFS主要作为文件同步系统和存储任务日志文件的地方。

前端

前端应用基于Element-Plus构建,这是一个流行的基于Vue 3的UI框架。它与主节点上托管的API交互,并间接控制工作节点。

与其他框架的集成

Crawlab SDK提供了一些helper方法,使您更容易将爬虫集成到Crawlab中,例如保存结果。

Scrapy

在Scrapy项目的settings.py中,找到名为ITEM_PIPELINES的变量(一个dict变量)。添加以下内容。

ITEM_PIPELINES = {
    'crawlab.scrapy.pipelines.CrawlabPipeline': 888,
}

然后,启动Scrapy爬虫。完成后,您应该能在任务详情 -> 数据中看到爬取的结果。

通用Python爬虫

请在您的爬虫文件中添加以下内容以保存结果。

# 导入结果保存方法
from crawlab import save_item

# 这是一个结果记录,必须是字典类型
result = {'name': 'crawlab'}

# 调用结果保存方法
save_item(result)

然后,启动爬虫。完成后,您应该能在任务详情 -> 数据中看到爬取的结果。

其他框架/语言

爬取任务实际上是通过shell命令执行的。任务ID将以名为CRAWLAB_TASK_ID的环境变量的形式传递给爬取任务进程。通过这种方式,数据可以与任务关联。

与其他框架的比较

已经存在一些爬虫管理框架。那么为什么要使用Crawlab呢?

原因是大多数现有平台都依赖于Scrapyd,这将选择限制在Python和Scrapy之内。当然,Scrapy是一个很棒的网络爬虫框架,但它不能做所有事情。

Crawlab易于使用,足够通用以适应任何语言和任何框架的爬虫。它还有一个漂亮的前端界面,让用户更容易管理爬虫。

框架技术优点缺点Github统计
CrawlabGolang + Vue不限于Scrapy,适用于所有编程语言和框架。漂亮的UI界面。天然支持分布式爬虫。支持爬虫管理、任务管理、定时任务、结果导出、分析、通知、可配置爬虫、在线代码编辑器等。尚不支持爬虫版本控制
ScrapydWebPython Flask + Vue漂亮的UI界面,内置Scrapy日志解析器,任务执行的统计和图表,支持节点管理、定时任务、邮件通知、移动端。功能齐全的爬虫管理平台。不支持Scrapy以外的爬虫。由于Python Flask后端,性能有限。
GerapyPython Django + VueGerapy由网络爬虫大师Germey Cui构建。安装和部署简单。漂亮的UI界面。支持节点管理、代码编辑、可配置爬取规则等。同样不支持Scrapy以外的爬虫。根据用户反馈,v1.0中存在许多bug。期待v2.0的改进
SpiderKeeperPython Flask开源的Scrapyhub。简洁的UI界面。支持定时任务。可能过于简化,不支持分页,不支持节点管理,不支持Scrapy以外的爬虫。

贡献者

JetBrains 支持

社区

如果您觉得Crawlab能够有益于您的日常工作或公司,请添加作者的微信账号,注明"Crawlab"以进入讨论群。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号