一个网络爬虫和浏览器自动化库
从Crawlee的创作者那里了解更多关于Python版Crawlee的信息。8月5日上午9点(美国东部时间)加入我们。立即报名!
Crawlee涵盖了您的爬虫和抓取的全过程,并且帮助您快速构建可靠的爬虫。
🚀 Python版Crawlee现已开放给早期采用者!
即使使用默认配置,您的爬虫也会表现得几乎像人类一样,轻松躲过现代的机器人保护。Crawlee为您提供了爬取网页链接、抓取数据并以机器可读格式持久存储的工具,无需担心技术细节。如果默认设置不能满足您的需求,丰富的配置选项可以让您调整Crawlee的几乎任何方面,以适应您项目的需求。
👉 在Crawlee项目网站查看完整文档、指南和示例 👈
我们还有一个TypeScript版的Crawlee实现,您可以探索并用于您的项目。访问我们的GitHub仓库以获取更多信息GitHub上的JS/TS版Crawlee。
安装
我们建议访问Crawlee文档中的入门教程以获取更多信息。
Crawlee作为crawlee
PyPI包提供。核心功能包含在基础包中,额外功能作为可选扩展提供,以最小化包大小和依赖。要安装包含所有功能的Crawlee,请运行以下命令:
pip install 'crawlee[all]'
然后,安装Playwright依赖:
playwright install
验证Crawlee是否成功安装:
python -c 'import crawlee; print(crawlee.__version__)'
有关详细的安装说明,请参阅设置文档页面。
使用Crawlee CLI
使用Crawlee的最快方法是使用Crawlee CLI并选择一个预先准备好的模板。首先,确保您已安装Pipx:
pipx --help
然后,运行CLI并从可用模板中选择:
pipx run crawlee create my-crawler
如果您已经安装了crawlee
,可以通过运行以下命令启动它:
crawlee create my-crawler
示例
以下是一些实际示例,帮助您开始使用Crawlee中的不同类型的爬虫。每个示例演示了如何为特定用例设置和运行爬虫,无论您是需要处理简单的HTML页面还是与JavaScript密集型网站交互。爬虫运行将在您的当前工作目录中创建一个storage/
目录。
BeautifulSoupCrawler
BeautifulSoupCrawler
使用HTTP库下载网页,并向用户提供已解析的HTML内容。它使用HTTPX进行HTTP通信,使用BeautifulSoup解析HTML。它非常适合需要从HTML内容中高效提取数据的项目。由于不使用浏览器,这种爬虫的性能非常好。但是,如果您需要执行客户端JavaScript来获取内容,这种方法就不够用了,您需要使用PlaywrightCrawler。此外,如果您想使用这个爬虫,请确保安装crawlee
时包含了beautifulsoup
扩展。
import asyncio
from crawlee.beautifulsoup_crawler import BeautifulSoupCrawler, BeautifulSoupCrawlingContext
async def main() -> None:
crawler = BeautifulSoupCrawler(
# 限制每次爬取的最大请求数。移除或增加此限制以爬取所有链接。
max_requests_per_crawl=10,
)
# 定义默认请求处理程序,该程序将处理每个请求。
@crawler.router.default_handler
async def request_handler(context: BeautifulSoupCrawlingContext) -> None:
context.log.info(f'正在处理 {context.request.url} ...')
# 从页面提取数据。
data = {
'url': context.request.url,
'title': context.soup.title.string if context.soup.title else None,
}
# 将提取的数据推送到默认数据集。
await context.push_data(data)
# 将页面上找到的所有链接加入队列。
await context.enqueue_links()
# 使用初始URL列表运行爬虫。
await crawler.run(['https://crawlee.dev'])
if __name__ == '__main__':
asyncio.run(main())
### PlaywrightCrawler
PlaywrightCrawler 使用无头浏览器下载网页并提供数据提取的API。它基于 Playwright 构建,Playwright 是一个专为管理无头浏览器设计的自动化库。它擅长获取依赖客户端 JavaScript 生成内容的网页,或需要与 JavaScript 驱动的内容交互的任务。对于不需要执行 JavaScript 或需要更高性能的场景,可以考虑使用 BeautifulSoupCrawler。另外,如果你想使用这个爬虫,请确保安装带有 playwright 额外依赖的 crawlee。
```python
import asyncio
from crawlee.playwright_crawler import PlaywrightCrawler, PlaywrightCrawlingContext
async def main() -> None:
crawler = PlaywrightCrawler(
# 限制每次爬取的最大请求数。移除或增加此限制以爬取所有链接。
max_requests_per_crawl=10,
)
# 定义默认请求处理程序,该程序将处理每个请求。
@crawler.router.default_handler
async def request_handler(context: PlaywrightCrawlingContext) -> None:
context.log.info(f'正在处理 {context.request.url} ...')
# 从页面提取数据。
data = {
'url': context.request.url,
'title': await context.page.title(),
}
# 将提取的数据推送到默认数据集。
await context.push_data(data)
# 将页面上找到的所有链接加入队列。
await context.enqueue_links()
# 使用初始请求列表运行爬虫。
await crawler.run(['https://crawlee.dev'])
if __name__ == '__main__':
asyncio.run(main())
更多示例
请访问 Crawlee 文档中的 示例 页面,了解更多用例和演示。
特性
为什么 Crawlee 是网络爬虫和爬取的首选?
为什么使用 Crawlee 而不是随便一个带 HTML 解析器的 HTTP 库?
- HTTP 和无头浏览器爬取的统一接口。
- 基于可用系统资源的自动并行爬取。
- 使用 Python 编写并带有类型提示 - 增强开发体验(IDE 自动补全)并减少错误(静态类型检查)。
- 遇到错误或被封禁时自动重试。
- 集成代理轮换和会话管理。
- 可配置的请求路由 - 将 URL 定向到适当的处理程序。
- 用于爬取的 URL 持久化队列。
- 表格数据和文件的可插拔存储。
- 强大的错误处理。
为什么使用 Crawlee 而不是 Scrapy?
- Crawlee 原生支持无头浏览器爬取(Playwright)。
- Crawlee 拥有简约优雅的接口 - 用不到 10 行代码就能设置爬虫。
- 完整的类型提示覆盖。
- 基于标准 Asyncio。
在 Apify 平台上运行
Crawlee 是开源的,可以在任何地方运行,但由于它是由 Apify 开发的,因此很容易在 Apify 平台上设置并在云端运行。访问 Apify SDK 网站 了解更多关于将 Crawlee 部署到 Apify 平台的信息。
支持
如果你发现 Crawlee 有任何 bug 或问题,请在 GitHub 上提交 issue。如有疑问,你可以在 Stack Overflow 上提问,在 GitHub Discussions 中讨论,或加入我们的 Discord 服务器。
贡献
欢迎你的代码贡献,你将永远受到赞美!如果你有任何改进的想法,可以提交 issue 或创建 pull request。有关贡献指南和行为准则,请参阅 CONTRIBUTING.md。
许可证
本项目采用 Apache License 2.0 许可 - 详情请参阅 LICENSE 文件。