Project Icon

crawlee-python

Python网络爬虫和浏览器自动化库

Crawlee是一个Python网络爬虫和浏览器自动化库,为HTTP和无头浏览器爬取提供统一接口。它支持自动并行爬取、错误重试和代理轮换等功能,具有简洁的API设计和完整的类型提示。基于Asyncio构建,Crawlee适用于各种网页爬取场景,从静态HTML到动态JavaScript网站均可高效处理。

Crawlee
一个网络爬虫和浏览器自动化库

PyPI版本 PyPI - 下载量 PyPI - Python版本 在Discord上聊天

Crawlee
从Crawlee的创作者那里了解更多关于Python版Crawlee的信息。8月5日上午9点(美国东部时间)加入我们。立即报名!

Crawlee涵盖了您的爬虫和抓取的全过程,并且帮助您快速构建可靠的爬虫

🚀 Python版Crawlee现已开放给早期采用者!

即使使用默认配置,您的爬虫也会表现得几乎像人类一样,轻松躲过现代的机器人保护。Crawlee为您提供了爬取网页链接、抓取数据并以机器可读格式持久存储的工具,无需担心技术细节。如果默认设置不能满足您的需求,丰富的配置选项可以让您调整Crawlee的几乎任何方面,以适应您项目的需求。

👉 Crawlee项目网站查看完整文档、指南和示例 👈

我们还有一个TypeScript版的Crawlee实现,您可以探索并用于您的项目。访问我们的GitHub仓库以获取更多信息GitHub上的JS/TS版Crawlee

安装

我们建议访问Crawlee文档中的入门教程以获取更多信息。

Crawlee作为crawlee PyPI包提供。核心功能包含在基础包中,额外功能作为可选扩展提供,以最小化包大小和依赖。要安装包含所有功能的Crawlee,请运行以下命令:

pip install 'crawlee[all]'

然后,安装Playwright依赖:

playwright install

验证Crawlee是否成功安装:

python -c 'import crawlee; print(crawlee.__version__)'

有关详细的安装说明,请参阅设置文档页面。

使用Crawlee CLI

使用Crawlee的最快方法是使用Crawlee CLI并选择一个预先准备好的模板。首先,确保您已安装Pipx

pipx --help

然后,运行CLI并从可用模板中选择:

pipx run crawlee create my-crawler

如果您已经安装了crawlee,可以通过运行以下命令启动它:

crawlee create my-crawler

示例

以下是一些实际示例,帮助您开始使用Crawlee中的不同类型的爬虫。每个示例演示了如何为特定用例设置和运行爬虫,无论您是需要处理简单的HTML页面还是与JavaScript密集型网站交互。爬虫运行将在您的当前工作目录中创建一个storage/目录。

BeautifulSoupCrawler

BeautifulSoupCrawler使用HTTP库下载网页,并向用户提供已解析的HTML内容。它使用HTTPX进行HTTP通信,使用BeautifulSoup解析HTML。它非常适合需要从HTML内容中高效提取数据的项目。由于不使用浏览器,这种爬虫的性能非常好。但是,如果您需要执行客户端JavaScript来获取内容,这种方法就不够用了,您需要使用PlaywrightCrawler。此外,如果您想使用这个爬虫,请确保安装crawlee时包含了beautifulsoup扩展。

import asyncio

from crawlee.beautifulsoup_crawler import BeautifulSoupCrawler, BeautifulSoupCrawlingContext
async def main() -> None:
    crawler = BeautifulSoupCrawler(
        # 限制每次爬取的最大请求数。移除或增加此限制以爬取所有链接。
        max_requests_per_crawl=10,
    )

    # 定义默认请求处理程序,该程序将处理每个请求。
    @crawler.router.default_handler
    async def request_handler(context: BeautifulSoupCrawlingContext) -> None:
        context.log.info(f'正在处理 {context.request.url} ...')

        # 从页面提取数据。
        data = {
            'url': context.request.url,
            'title': context.soup.title.string if context.soup.title else None,
        }

        # 将提取的数据推送到默认数据集。
        await context.push_data(data)

        # 将页面上找到的所有链接加入队列。
        await context.enqueue_links()

    # 使用初始URL列表运行爬虫。
    await crawler.run(['https://crawlee.dev'])

if __name__ == '__main__':
    asyncio.run(main())

### PlaywrightCrawler

PlaywrightCrawler 使用无头浏览器下载网页并提供数据提取的API。它基于 Playwright 构建,Playwright 是一个专为管理无头浏览器设计的自动化库。它擅长获取依赖客户端 JavaScript 生成内容的网页,或需要与 JavaScript 驱动的内容交互的任务。对于不需要执行 JavaScript 或需要更高性能的场景,可以考虑使用 BeautifulSoupCrawler。另外,如果你想使用这个爬虫,请确保安装带有 playwright 额外依赖的 crawlee。

```python
import asyncio

from crawlee.playwright_crawler import PlaywrightCrawler, PlaywrightCrawlingContext


async def main() -> None:
    crawler = PlaywrightCrawler(
        # 限制每次爬取的最大请求数。移除或增加此限制以爬取所有链接。
        max_requests_per_crawl=10,
    )

    # 定义默认请求处理程序,该程序将处理每个请求。
    @crawler.router.default_handler
    async def request_handler(context: PlaywrightCrawlingContext) -> None:
        context.log.info(f'正在处理 {context.request.url} ...')

        # 从页面提取数据。
        data = {
            'url': context.request.url,
            'title': await context.page.title(),
        }

        # 将提取的数据推送到默认数据集。
        await context.push_data(data)

        # 将页面上找到的所有链接加入队列。
        await context.enqueue_links()

    # 使用初始请求列表运行爬虫。
    await crawler.run(['https://crawlee.dev'])


if __name__ == '__main__':
    asyncio.run(main())

更多示例

请访问 Crawlee 文档中的 示例 页面,了解更多用例和演示。

特性

为什么 Crawlee 是网络爬虫和爬取的首选?

为什么使用 Crawlee 而不是随便一个带 HTML 解析器的 HTTP 库?

  • HTTP 和无头浏览器爬取的统一接口。
  • 基于可用系统资源的自动并行爬取。
  • 使用 Python 编写并带有类型提示 - 增强开发体验(IDE 自动补全)并减少错误(静态类型检查)。
  • 遇到错误或被封禁时自动重试。
  • 集成代理轮换和会话管理。
  • 可配置的请求路由 - 将 URL 定向到适当的处理程序。
  • 用于爬取的 URL 持久化队列。
  • 表格数据和文件的可插拔存储。
  • 强大的错误处理。

为什么使用 Crawlee 而不是 Scrapy?

  • Crawlee 原生支持无头浏览器爬取(Playwright)。
  • Crawlee 拥有简约优雅的接口 - 用不到 10 行代码就能设置爬虫。
  • 完整的类型提示覆盖。
  • 基于标准 Asyncio。

在 Apify 平台上运行

Crawlee 是开源的,可以在任何地方运行,但由于它是由 Apify 开发的,因此很容易在 Apify 平台上设置并在云端运行。访问 Apify SDK 网站 了解更多关于将 Crawlee 部署到 Apify 平台的信息。

支持

如果你发现 Crawlee 有任何 bug 或问题,请在 GitHub 上提交 issue。如有疑问,你可以在 Stack Overflow 上提问,在 GitHub Discussions 中讨论,或加入我们的 Discord 服务器

贡献

欢迎你的代码贡献,你将永远受到赞美!如果你有任何改进的想法,可以提交 issue 或创建 pull request。有关贡献指南和行为准则,请参阅 CONTRIBUTING.md

许可证

本项目采用 Apache License 2.0 许可 - 详情请参阅 LICENSE 文件。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号