下载及处理文件和图片

Scrapy为下载item中包含的文件(比如在爬取到产品时,同时也想保存对应的图片)提供了一个可重用的 item pipelines .这些pipeline有些共同的方法和结构(我们称之为media pipeline)。一般来说你会使用Files Pipeline或者 Images Pipeline.

这两种pipeline都实现了以下特性:

  • 避免重新下载最近已经下载过的数据
  • Specifying where to store the media (filesystem directory, Amazon S3 bucket)
    The Images Pipeline has a few extra functions for processing images:

  • 将所有下载的图片转换成通用的格式(JPG)和模式(RGB)

  • 缩略图生成
  • 检测图像的宽/高,确保它们满足最小限制
    这个管道也会为那些当前安排好要下载的图片保留一个内部队列,并将那些到达的包含相同图片的项目连接到那个队列中。这可以避免多次下载几个项目共享的同一个图片。

使用Files Pipeline

当使用 FilesPipeline ,典型的工作流程如下所示:

  • 在一个爬虫里,你抓取一个项目,把其中图片的URL放入 file_urls 组内。
  • 项目从爬虫内返回,进入项目管道。
  • 当项目进入 FilesPipelinefile_urls 组内的URLs将被Scrapy的调度器和下载器(这意味着调度器和下载器的中间件可以复用)安排下载,当优先级更高,会在其他页面被抓取前处理。项目会在这个特定的管道阶段保持“locker”的状态,直到完成文件的下载(或者由于某些原因未完成下载)。
  • 当文件下载完后,另一个字段(files)将被更新到结构中。这个组将包含一个字典列表,其中包括下载文件的信息,比如下载路径、源抓取地址(从 file_urls 组获得)和图片的校验码(checksum)。files 列表中的文件顺序将和源 file_urls 组保持一致。如果某个图片下载失败,将会记录下错误信息,图片也不会出现在 files 组中。

Using the Images Pipeline

Using the ImagesPipeline is a lot like using the FilesPipeline,except the default field names used are different: you use image_urls forthe image URLs of an item and it will populate an images field for the informationabout the downloaded images.

The advantage of using the ImagesPipeline for image files is that youcan configure some extra functions like generating thumbnails and filteringthe images based on their size.

Pillow 是用来生成缩略图,并将图片归一化为JPEG/RGB格式,因此为了使用图片管道,你需要安装这个库。Python Imaging Library (PIL) 在大多数情况下是有效的,但众所周知,在一些设置里会出现问题,因此我们推荐使用 Pillow 而不是PIL.

使用样例

为了使用media pipeline,你仅需要 启用 .

接着,如果spider返回一个具有 ‘file_urls’ 或者 ‘image_urls’(取决于使用Files 或者 Images Pipeline) 键的dict,则pipeline会提取相对应(‘files’ 或 ‘images’)的结果。

如果你更喜欢使用 Item 来自定义item, 则需要设置相应必要的字段,例如下面使用Image Pipeline的例子:

  1. import scrapy
  2.  
  3. class MyItem(scrapy.Item):
  4.  
  5. # ... other item fields ...
  6. image_urls = scrapy.Field()
  7. images = scrapy.Field()

如果你需要更加复杂的功能,想自定义管道行为,参见 扩展Media Pipeline.

启用 Media Pipeline

为了启用 media pipeline,你首先需要在项目中添加它 ITEM_PIPELINES setting.

对于 Images Pipeline, 使用:

  1. ITEM_PIPELINES = {'scrapy.pipeline.images.ImagesPipeline': 1}

对于 Files Pipeline, 使用:

  1. ITEM_PIPELINES = {'scrapy.pipeline.files.FilesPipeline': 1}

注解

你可以同时使用 Files 与 Images Pipeline.

接着 IMAGES_STORE 设置为一个有效的文件夹,用来存储下载的图片。否则管道将保持禁用状态,即使你在 ITEM_PIPELINES 设置中添加了它。

对于Files Pipeline, 设置 FILES_STORE

  1. FILES_STORE = '/path/to/valid/dir'

对于Images Pipeline, 设置 IMAGES_STORE

  1. IMAGES_STORE = '/path/to/valid/dir'

支持的存储

文件系统是当前官方唯一支持的存储系统,但也支持(非公开的) Amazon S3

文件系统存储

文件以它们URL的 SHA1 hash 作为文件名。

比如,对下面的图片URL:

  1. http://www.example.com/image.jpg

它的 SHA1 hash 值为:

  1. 3afec3b4765f8f0a07b78f98c07b83f013567a0a

将被下载并存为下面的文件:

  1. <IMAGES_STORE>/full/3afec3b4765f8f0a07b78f98c07b83f013567a0a.jpg

其中:

额外的特性

文件失效

图像管道避免下载最近已经下载的图片。使用 FILES_EXPIRES (或 IMAGES_EXPIRES) 设置可以调整失效期限,可以用天数来指定:

  1. # 90 days of delay for files expiration
  2. FILES_EXPIRES = 90
  3.  
  4. # 30 days of delay for images expiration
  5. IMAGES_EXPIRES = 30

针对图片生成缩略图

图片管道可以自动创建下载图片的缩略图。

为了使用这个特性,你需要设置 IMAGES_THUMBS 字典,其关键字为缩略图名字,值为它们的大小尺寸。

比如:

  1. IMAGES_THUMBS = {
  2. 'small': (50, 50),
  3. 'big': (270, 270),
  4. }

当你使用这个特性时,图片管道将使用下面的格式来创建各个特定尺寸的缩略图:

  1. <IMAGES_STORE>/thumbs/<size_name>/<image_id>.jpg

其中:

  • <size_name>IMAGES_THUMBS 字典关键字(smallbig ,等)
  • <image_id> 是图像url的 SHA1 hash
    例如使用 smallbig 缩略图名字的图片文件:
  1. <IMAGES_STORE>/full/63bbfea82b8880ed33cdb762aa11fab722a90a24.jpg
  2. <IMAGES_STORE>/thumbs/small/63bbfea82b8880ed33cdb762aa11fab722a90a24.jpg
  3. <IMAGES_STORE>/thumbs/big/63bbfea82b8880ed33cdb762aa11fab722a90a24.jpg

第一个是从网站下载的完整图片。

滤出小图片

当使用Image Pipeline时, 你可以丢掉那些过小的图片,只需在:setting:IMAGES_MIN_HEIGHTIMAGES_MIN_WIDTH 设置中指定最小允许的尺寸。

比如:

  1. IMAGES_MIN_HEIGHT = 110
  2. IMAGES_MIN_WIDTH = 110

注意:这些尺寸一点也不影响缩略图的生成。

默认情况下,没有尺寸限制,因此所有图片都将处理。

扩展Media Pipeline

下面是自定义File Pipeline时可以覆盖的方法:

class scrapy.pipeline.files.FilesPipeline
getmedia_requests(_item, info)

在工作流程中可以看到,管道会得到文件的URL并从项目中下载。为了这么做,你需要重写 get_media_requests() 方法,并对各个图片URL返回一个Request:




  1. def getmedia_requests(self, item, info):
    for file_url in item['file_urls']:
    yield scrapy.Request(file_url)




这些请求将被管道处理,当它们完成下载后,结果将以2-元素的元组列表形式传送到 item_completed() 方法:每个元组包含 (success, file_info_or_error):

- success 是一个布尔值,当图片成功下载时为 True ,因为某个原因下载失败为False
- file_info_or_error 是一个包含下列关键字的字典(如果成功为 True )或者出问题时为 Twisted Failure
- url - 文件下载的url。这是从 get_media_requests() 方法返回请求的url。
- path - 图片存储的路径(类似 FILES_STORE
- checksum - 图片内容的 MD5 hash
item_completed() 接收的元组列表需要保证与 get_media_requests() 方法返回请求的顺序相一致。下面是 results 参数的一个典型值:




  1. [(True,
    {'checksum': '2b00042f7481c7b056c4b410d28f33cf',
    'path': 'full/0a79c461a4062ac383dc4fade7bc09f1384a3910.jpg',
    'url': 'http://www.example.com/files/product1.pdf&#39;}),
    (False,
    Failure())]




默认 get_media_requests() 方法返回 None ,这意味着项目中没有文件可下载。
item_completed(_results, items, info)

当一个单独项目中的所有图片请求完成时(要么完成下载,要么因为某种原因下载失败), FilesPipeline.item_completed() 方法将被调用。


item_completed() 方法需要返回一个输出,其将被送到随后的项目管道阶段,因此你需要返回(或者丢弃)项目,如你在任意管道里所做的一样。



这里是一个 item_completed() 方法的例子,其中我们将下载的图片路径(传入到results中)存储到 filepaths 项目组中,如果其中没有图片,我们将丢弃项目:




  1. from scrapy.exceptions import DropItem

    def item_completed(self, results, item, info):
    file_paths = [x['path'] for ok, x in results if ok]
    if not file_paths:
    raise DropItem("Item contains no files")
    item['file_paths'] = file_paths
    return item




默认情况下, item_completed() 方法返回项目。

下面是你可以在定制的图片管道里重写的方法:
_class scrapy.pipeline.images.ImagesPipeline


ImagesPipeline 扩展了 FilesPipeline, 提供了自定义字段名称及自定义处理图片的能力。


getmedia_requests(_item, info)

Works the same way as FilesPipeline.getmedia_requests() method,but using a different field name for image urls.

Must return a Request for each image URL.
item_completed(_results, items, info)

当一个单独项目中的所有图片请求完成时(要么完成下载,要么因为某种原因下载失败), ImagesPipeline.item_completed() 方法将被调用。

执行过程与 FilesPipeline.item_completed() 相同,但是在存储图片下载结果时使用了不同的字段名称。

默认情况下, item_completed() 方法返回item。

定制图片管道的例子

下面是一个图片管道的完整例子,其方法如上所示:

  1. import scrapy
  2. from scrapy.pipeline.images import ImagesPipeline
  3. from scrapy.exceptions import DropItem
  4.  
  5. class MyImagesPipeline(ImagesPipeline):
  6.  
  7. def get_media_requests(self, item, info):
  8. for image_url in item['image_urls']:
  9. yield scrapy.Request(image_url)
  10.  
  11. def item_completed(self, results, item, info):
  12. image_paths = [x['path'] for ok, x in results if ok]
  13. if not image_paths:
  14. raise DropItem("Item contains no images")
  15. item['image_paths'] = image_paths
  16. return item