与Scrapy集成

Scrapy 是一个非常强大的爬虫框架。如果您对 Scrapy 不了解,请查看 官网介绍。跟 Crawlab 集成之后,可以在界面上看到您的爬虫任务抓取到的数据。

Crawlab SDK 提供了一些 helper 方法来让您的爬虫更好的集成到 Crawlab 中,例如保存结果数据到 Crawlab 中等等。

集成 Scrapy

settings.py 中找到 ITEM_PIPELINESdict 类型的变量),在其中添加如下内容。

  1. ITEM_PIPELINES = {
  2. 'crawlab.pipelines.CrawlabMongoPipeline': 888,
  3. }

然后,启动 Scrapy 爬虫,运行完成之后,您就应该能看到抓取结果出现在 任务详情-结果 里。