函数式编程指引

作者

A. M. Kuchling

发布版本

0.32

本文档提供恰当的 Python 函数式编程范例,在函数式编程简单的介绍之后,将简单介绍Python中关于函数式编程的特性如 iteratorgenerator 以及相关库模块如 itertoolsfunctools 等。

概述

本章介绍函数式编程的基本概念。如您仅想学习 Python 语言的特性,可跳过本章直接查看 迭代器.

编程语言支持通过以下几种方式来解构具体问题:

  • 大多数的编程语言都是 过程式 的,所谓程序就是一连串告诉计算机怎样处理程序输入的指令。C、Pascal 甚至 Unix shells 都是过程式语言。

  • 声明式 语言中,你编写一个用来描述待解决问题的说明,并且这个语言的具体实现会指明怎样高效的进行计算。 SQL 可能是你最熟悉的声明式语言了。 一个 SQL 查询语句描述了你想要检索的数据集,并且 SQL 引擎会决定是扫描整张表还是使用索引,应该先执行哪些子句等等。

  • 面向对象 程序会操作一组对象。 对象拥有内部状态,并能够以某种方式支持请求和修改这个内部状态的方法。Smalltalk 和 Java 都是面向对象的语言。 C++ 和 Python 支持面向对象编程,但并不强制使用面向对象特性。

  • 函数式 编程则将一个问题分解成一系列函数。 理想情况下,函数只接受输入并输出结果,对一个给定的输入也不会有影响输出的内部状态。 著名的函数式语言有 ML 家族(Standard ML,Ocaml 以及其他变种)和 Haskell。

一些语言的设计者选择强调一种特定的编程方式。 这通常会让以不同的方式来编写程序变得困难。其他多范式语言则支持几种不同的编程方式。Lisp,C++ 和 Python 都是多范式语言;使用这些语言,你可以编写主要为过程式,面向对象或者函数式的程序和函数库。在大型程序中,不同的部分可能会采用不同的方式编写;比如 GUI 可能是面向对象的而处理逻辑则是过程式或者函数式。

在函数式程序里,输入会流经一系列函数。每个函数接受输入并输出结果。函数式风格反对使用带有副作用的函数,这些副作用会修改内部状态,或者引起一些无法体现在函数的返回值中的变化。完全不产生副作用的函数被称作“纯函数”。消除副作用意味着不能使用随程序运行而更新的数据结构;每个函数的输出必须只依赖于输入。

有些语言对纯洁性要求非常严格,甚至没有诸如``a=3``或``c = a + b``之类的赋值语句,但很难避免所有的副作用,如打印到屏幕上或写到磁盘文件之类的副作用。另一个例子是调用 print()time.sleep() 函数,它们都没有返回一个有用的值。这两个函数被调用只是为了它们的副作用,即向屏幕发送一些文本或暂停执行一秒钟。

函数式风格的 Python 程序并不会极端到消除所有 I/O 或者赋值的程度;相反,他们会提供像函数式一样的接口,但会在内部使用非函数式的特性。比如,函数的实现仍然会使用局部变量,但不会修改全局变量或者有其他副作用。

函数式编程可以被认为是面向对象编程的对立面。对象就像是颗小胶囊,包裹着内部状态和随之而来的能让你修改这个内部状态的一组调用方法,以及由正确的状态变化所构成的程序。函数式编程希望尽可能地消除状态变化,只和流经函数的数据打交道。在 Python 里你可以把两种编程方式结合起来,在你的应用(电子邮件信息,事务处理)中编写接受和返回对象实例的函数。

函数式设计在工作中看起来是个奇怪的约束。为什么你要消除对象和副作用呢?不过函数式风格有其理论和实践上的优点:

  • 形式证明。

  • 模块化。

  • 组合性。

  • 易于调试和测试。

形式证明

一个理论上的优点是,构造数学证明来说明函数式程序是正确的相对更容易些。

很长时间,研究者们对寻找证明程序正确的数学方法都很感兴趣。这和通过大量输入来测试,并得出程序的输出基本正确,或者阅读一个程序的源代码然后得出代码看起来没问题不同;相反,这里的目标是一个严格的证明,证明程序对所有可能的输入都能给出正确的结果。

证明程序正确性所用到的技术是写出 不变量,也就是对于输入数据和程序中的变量永远为真的特性。然后对每行代码,你说明这行代码执行前的不变量 X 和 Y 以及执行后稍有不同的不变量 X’ 和 Y’ 为真。如此一直到程序结束,这时候在程序的输出上,不变量应该会与期望的状态一致。

函数式编程之所以要消除赋值,是因为赋值在这个技术中难以处理;赋值可能会破坏赋值前为真的不变量,却并不产生任何可以传递下去的新的不变量。

不幸的是,证明程序的正确性很大程度上是经验性质的,而且和 Python 软件无关。即使是微不足道的程序都需要几页长的证明;一个中等复杂的程序的正确性证明会非常庞大,而且,极少甚至没有你日常所使用的程序(Python 解释器,XML 解析器,浏览器)的正确性能够被证明。即使你写出或者生成一个证明,验证证明也会是一个问题;里面可能出了差错,而你错误地相信你证明了程序的正确性。

模块化

函数式编程的一个更实用的优点是,它强制你把问题分解成小的方面。因此程序会更加模块化。相对于一个进行了复杂变换的大型函数,一个小的函数更明确,更易于编写, 也更易于阅读和检查错误。

易于调试和测试

测试和调试函数式程序相对来说更容易。

调试很简单是因为函数通常都很小而且清晰明确。当程序无法工作的时候,每个函数都是一个可以检查数据是否正确的接入点。你可以通过查看中间输入和输出迅速找到出错的函数。

测试更容易是因为每个函数都是单元测试的潜在目标。在执行测试前,函数并不依赖于需要重现的系统状态;相反,你只需要给出正确的输入,然后检查输出是否和期望的结果一致。

组合性

当你编写函数式风格的程序时,你会写出很多带有不同输入和输出的函数。其中一些不可避免地会局限于特定的应用,但其他的却可以广泛的用在程序中。举例来说,一个接受文件夹目录返回所有文件夹中的 XML 文件的函数; 或是一个接受文件名,然后返回文件内容的函数,都可以应用在很多不同的场合。

久而久之你会形成一个个人工具库。通常你可以重新组织已有的函数来组成新的程序,然后为当前的工作写一些特殊的函数。

迭代器

我会从 Python 的一个语言特性, 编写函数式风格程序的重要基石开始说起:迭代器。

迭代器是一个表示数据流的对象;这个对象每次只返回一个元素。Python 迭代器必须支持 __next__() 方法;这个方法不接受参数,并总是返回数据流中的下一个元素。如果数据流中没有元素,__next__() 会抛出 StopIteration 异常。迭代器未必是有限的;完全有理由构造一个输出无限数据流的迭代器。

内置的 iter() 函数接受任意对象并试图返回一个迭代器来输出对象的内容或元素,并会在对象不支持迭代的时候抛出 TypeError 异常。Python 有几种内置数据类型支持迭代,最常见的就是列表和字典。如果一个对象能生成迭代器,那么它就会被称作 iterable

你可以手动试验迭代器的接口。

  1. >>> L = [1, 2, 3]
  2. >>> it = iter(L)
  3. >>> it
  4. <...iterator object at ...>
  5. >>> it.__next__() # same as next(it)
  6. 1
  7. >>> next(it)
  8. 2
  9. >>> next(it)
  10. 3
  11. >>> next(it)
  12. Traceback (most recent call last):
  13. File "<stdin>", line 1, in <module>
  14. StopIteration
  15. >>>

Python 有不少要求使用可迭代的对象的地方,其中最重要的就是 for 表达式。在表达式 for X in Y,Y 要么自身是一个迭代器,要么能够由 iter() 创建一个迭代器。以下两种表达是等价的:

  1. for i in iter(obj):
  2. print(i)
  3. for i in obj:
  4. print(i)

可以用 list()tuple() 这样的构造函数把迭代器具体化成列表或元组:

  1. >>> L = [1, 2, 3]
  2. >>> iterator = iter(L)
  3. >>> t = tuple(iterator)
  4. >>> t
  5. (1, 2, 3)

序列的解压操作也支持迭代器:如果你知道一个迭代器能够返回 N 个元素,你可以把他们解压到有 N 个元素的元组:

  1. >>> L = [1, 2, 3]
  2. >>> iterator = iter(L)
  3. >>> a, b, c = iterator
  4. >>> a, b, c
  5. (1, 2, 3)

max()min() 这样的内置函数可以接受单个迭代器参数,然后返回其中最大或者最小的元素。"in""not in" 操作也支持迭代器:如果能够在迭代器 iterator 返回的数据流中找到 X 的话,则``X in iterator`` 为真。很显然,如果迭代器是无限的,这么做你就会遇到问题;max()min() 永远也不会返回;如果元素 X 也不出现在数据流中,"in""not in" 操作同样也永远不会返回。

注意你只能在迭代器中顺序前进;没有获取前一个元素的方法,除非重置迭代器,或者重新复制一份。迭代器对象可以提供这些额外的功能,但迭代器协议只明确了 __next__() 方法。函数可能因此而耗尽迭代器的输出,如果你要对同样的数据流做不同的操作,你必须重新创建一个迭代器。

支持迭代器的数据类型

我们已经知道列表和元组支持迭代器。实际上,Python 中的任何序列类型,比如字符串,都自动支持创建迭代器。

对字典调用 iter() 会返回一个遍历字典的键的迭代器:

  1. >>> m = {'Jan': 1, 'Feb': 2, 'Mar': 3, 'Apr': 4, 'May': 5, 'Jun': 6,
  2. ... 'Jul': 7, 'Aug': 8, 'Sep': 9, 'Oct': 10, 'Nov': 11, 'Dec': 12}
  3. >>> for key in m:
  4. ... print(key, m[key])
  5. Jan 1
  6. Feb 2
  7. Mar 3
  8. Apr 4
  9. May 5
  10. Jun 6
  11. Jul 7
  12. Aug 8
  13. Sep 9
  14. Oct 10
  15. Nov 11
  16. Dec 12

注意从 Python 3.7 开始,字典的遍历顺序一定和输入顺序一样。先前的版本并没有明确这一点,所以不同的实现可能不一致。

对字典使用 iter() 总是会遍历键,但字典也有返回其他迭代器的方法。如果你只遍历值或者键/值对,你可以明确地调用 values()items() 方法得到合适的迭代器。

dict() 构造函数可以接受一个迭代器,然后返回一个有限的 (key, value) 元组的数据流:

  1. >>> L = [('Italy', 'Rome'), ('France', 'Paris'), ('US', 'Washington DC')]
  2. >>> dict(iter(L))
  3. {'Italy': 'Rome', 'France': 'Paris', 'US': 'Washington DC'}

文件也可以通过调用 readline() 来遍历,直到穷尽文件中所有的行。这意味着你可以像这样读取文件中的每一行:

  1. for line in file:
  2. # do something for each line
  3. ...

集合可以从可遍历的对象获取内容,也可以让你遍历集合的元素:

  1. >>> S = {2, 3, 5, 7, 11, 13}
  2. >>> for i in S:
  3. ... print(i)
  4. 2
  5. 3
  6. 5
  7. 7
  8. 11
  9. 13

生成器表达式和列表推导式

迭代器的输出有两个很常见的使用方式,1) 对每一个元素执行操作,2) 选择一个符合条件的元素子集。比如,给定一个字符串列表,你可能想去掉每个字符串尾部的空白字符,或是选出所有包含给定子串的字符串。

列表推导式和生成器表达时(简写:”listcomps” 和 “genexps”)让这些操作更加简明,这个形式借鉴自函数式程序语言 Haskell(https://www.haskell.org/)。你可以用以下代码去掉一个字符串流中的所有空白字符:

  1. >>> line_list = [' line 1\n', 'line 2 \n', ' \n', '']
  2. >>> # Generator expression -- returns iterator
  3. >>> stripped_iter = (line.strip() for line in line_list)
  4. >>> # List comprehension -- returns list
  5. >>> stripped_list = [line.strip() for line in line_list]

你可以加上条件语句 "if" 来选取特定的元素:

  1. >>> stripped_list = [line.strip() for line in line_list
  2. ... if line != ""]

通过列表推导式,你会获得一个 Python 列表;stripped_list 就是一个包含所有结果行的列表,并不是迭代器。 生成器表达式会返回一个迭代器,它在必要的时候计算结果,避免一次性生成所有的值。 这意味着,如果迭代器返回一个无限数据流或者大量的数据,列表推导式就不太好用了。 这种情况下生成器表达式会更受青睐。

生成器表达式两边使用圆括号 (“()”) ,而列表推导式则使用方括号 (“[]“)。生成器表达式的形式为:

  1. ( expression for expr in sequence1
  2. if condition1
  3. for expr2 in sequence2
  4. if condition2
  5. for expr3 in sequence3
  6. ...
  7. if condition3
  8. for exprN in sequenceN
  9. if conditionN )

再次说明,列表推导式只有两边的括号不一样(方括号而不是圆括号)。

这些生成用于输出的元素会成为 expression 的后继值。其中 if 语句是可选的;如果给定的话 expression 只会在符合条件时计算并加入到结果中。

生成器表达式总是写在圆括号里面,不过也可以算上调用函数时用的括号。如果你想即时创建一个传递给函数的迭代器,可以这么写:

  1. obj_total = sum(obj.count for obj in list_all_objects())

其中 for...in 语句包含了将要遍历的序列。这些序列并不必须同样长,因为它们会从左往右开始遍历,而 不是 同时执行。对每个 sequence1 中的元素,sequence2 会从头开始遍历。sequence3 会对每个 sequence1sequence2 的元素对开始遍历。

换句话说,列表推导式器是和下面的 Python 代码等价:

  1. for expr1 in sequence1:
  2. if not (condition1):
  3. continue # Skip this element
  4. for expr2 in sequence2:
  5. if not (condition2):
  6. continue # Skip this element
  7. ...
  8. for exprN in sequenceN:
  9. if not (conditionN):
  10. continue # Skip this element
  11. # Output the value of
  12. # the expression.

这说明,如果有多个 for...in 语句而没有 if 语句,输出结果的长度就是所有序列长度的乘积。如果你的两个列表长度为3,那么输出的列表长度就是9:

  1. >>> seq1 = 'abc'
  2. >>> seq2 = (1, 2, 3)
  3. >>> [(x, y) for x in seq1 for y in seq2]
  4. [('a', 1), ('a', 2), ('a', 3),
  5. ('b', 1), ('b', 2), ('b', 3),
  6. ('c', 1), ('c', 2), ('c', 3)]

为了不让 Python 语法变得含糊,如果 expression 会生成元组,那这个元组必须要用括号括起来。下面第一个列表推导式语法错误,第二个则是正确的:

  1. # Syntax error
  2. [x, y for x in seq1 for y in seq2]
  3. # Correct
  4. [(x, y) for x in seq1 for y in seq2]

生成器

生成器是一类用来简化编写迭代器工作的特殊函数。普通的函数计算并返回一个值,而生成器返回一个能返回数据流的迭代器。

毫无疑问,你已经对如何在 Python 和 C 中调用普通函数很熟悉了,这时候函数会获得一个创建局部变量的私有命名空间。当函数到达 return 表达式时,局部变量会被销毁然后把返回给调用者。之后调用同样的函数时会创建一个新的私有命名空间和一组全新的局部变量。但是,如果在退出一个函数时不扔掉局部变量会如何呢?如果稍后你能够从退出函数的地方重新恢复又如何呢?这就是生成器所提供的;他们可以被看成可恢复的函数。

这里有简单的生成器函数示例:

  1. >>> def generate_ints(N):
  2. ... for i in range(N):
  3. ... yield i

任何包含了 yield 关键字的函数都是生成器函数;Python 的 bytecode 编译器会在编译的时候检测到并因此而特殊处理。

当你调用一个生成器函数,它并不会返回单独的值,而是返回一个支持生成器协议的生成器对象。当执行 yield 表达式时,生成器会输出 i 的值,就像 return 表达式一样。yieldreturn 最大的区别在于,到达 yield 的时候生成器的执行状态会挂起并保留局部变量。在下一次调用生成器 __next__() 方法的时候,函数会恢复执行。

这里有一个 generate_ints() 生成器的示例:

  1. >>> gen = generate_ints(3)
  2. >>> gen
  3. <generator object generate_ints at ...>
  4. >>> next(gen)
  5. 0
  6. >>> next(gen)
  7. 1
  8. >>> next(gen)
  9. 2
  10. >>> next(gen)
  11. Traceback (most recent call last):
  12. File "stdin", line 1, in <module>
  13. File "stdin", line 2, in generate_ints
  14. StopIteration

同样,你可以写出 for i in generate_ints(5),或者 a, b, c = generate_ints(3)

在生成器函数里面,return value 会触发从 __next__() 方法抛出 StopIteration(value) 异常。一旦抛出这个异常,或者函数结束,处理数据的过程就会停止,生成器也不会再生成新的值。

你可以手动编写自己的类来达到生成器的效果,把生成器的所有局部变量作为实例的成员变量存储起来。比如,可以这么返回一个整数列表:把 self.count 设为0,然后通过 count`()。然而,对于一个中等复杂程度的生成器,写出一个相应的类可能会相当繁杂。

包含在 Python 库中的测试套件 Lib/test/test_generators.py 里有很多非常有趣的例子。这里是一个用生成器实现树的递归中序遍历示例。:

  1. # A recursive generator that generates Tree leaves in in-order.
  2. def inorder(t):
  3. if t:
  4. for x in inorder(t.left):
  5. yield x
  6. yield t.label
  7. for x in inorder(t.right):
  8. yield x

另外两个 test_generators.py 中的例子给出了 N 皇后问题(在 NxN 的棋盘上放置 N 个皇后,任何一个都不能吃掉另一个),以及马的遍历路线(在NxN 的棋盘上给马找出一条不重复的走过所有格子的路线)的解。

向生成器传递值

在 Python 2.4 及之前的版本中,生成器只产生输出。一旦调用生成器的代码创建一个迭代器,就没有办法在函数恢复执行的时候向它传递新的信息。你可以设法实现这个功能,让生成器引用一个全局变量或者一个调用者可以修改的可变对象,但是这些方法都很繁杂。

在 Python 2.5 里有一个简单的将值传递给生成器的方法。yield 变成了一个表达式,返回一个可以赋给变量或执行操作的值:

  1. val = (yield i)

我建议你在处理 yield 表达式返回值的时候, 总是 两边写上括号,就像上面的例子一样。括号并不总是必须的,但是比起记住什么时候需要括号,写出来会更容易一点。

PEP 342 解释了具体的规则,也就是 yield 表达式必须括起来,除非是出现在最顶级的赋值表达式的右边。这意味着你可以写 val = yield i,但是必须在操作的时候加上括号,就像``val = (yield i) + 12``)

可以调用 send(value)() <generator.send> 方法向生成器发送值。这个方法会恢复执行生成器的代码,然后 yield 表达式返回特定的值。如果调用普通的 __next__`方法,``yield`() 会返回 None.

这里有一个简单的每次加1的计数器,并允许改变内部计数器的值。

  1. def counter(maximum):
  2. i = 0
  3. while i < maximum:
  4. val = (yield i)
  5. # If value provided, change counter
  6. if val is not None:
  7. i = val
  8. else:
  9. i += 1

这是改变计数器的一个示例

  1. >>> it = counter(10)
  2. >>> next(it)
  3. 0
  4. >>> next(it)
  5. 1
  6. >>> it.send(8)
  7. 8
  8. >>> next(it)
  9. 9
  10. >>> next(it)
  11. Traceback (most recent call last):
  12. File "t.py", line 15, in <module>
  13. it.next()
  14. StopIteration

因为 yield 很多时候会返回 None,所以你应该总是检查这个情况。不要在表达式中使用 yield 的值,除非你确定 send() 是唯一的用来恢复你的生成器函数的方法。

除了 send() 之外,生成器还有两个其他的方法:

  • throw(value) 用于在生成器内部抛出异常;这个异常会在生成器暂停执行的时候由 yield 表达式抛出。

  • generator.close() 会在生成器内部抛出 GeneratorExit 异常来结束迭代。当接收到这个异常时,生成器的代码会抛出 GeneratorExit 或者 StopIteration;捕捉这个异常作其他处理是非法的,并会出发 RuntimeErrorclose() 也会在 Python 垃圾回收器回收生成器的时候调用。

    如果你要在 GeneratorExit 发生的时候清理代码,我建议使用 try: ... finally: 组合来代替 GeneratorExit

这些改变的累积效应是,让生成器从单向的信息生产者变成了既是生产者,又是消费者。

生成器也可以成为 协程 ,一种更广义的子过程形式。子过程可以从一个地方进入,然后从另一个地方退出(从函数的顶端进入,从 return 语句退出),而协程可以进入,退出,然后在很多不同的地方恢复(yield 语句)。

内置函数

我们可以看看迭代器常常用到的函数的更多细节。

Python 内置的两个函数 map()filter() 复制了生成器表达式的两个特性:

map(f, iterA, iterB, …) 返回一个遍历序列的迭代器

f(iterA[0], iterB[0]), f(iterA[1], iterB[1]), f(iterA[2], iterB[2]), ....

  1. >>> def upper(s):
  2. ... return s.upper()
  1. >>> list(map(upper, ['sentence', 'fragment']))
  2. ['SENTENCE', 'FRAGMENT']
  3. >>> [upper(s) for s in ['sentence', 'fragment']]
  4. ['SENTENCE', 'FRAGMENT']

你当然也可以用列表推导式达到同样的效果。

filter(predicate, iter) 返回一个遍历序列中满足指定条件的元素的迭代器,和列表推导式的功能相似。 predicate (谓词)是一个在特定条件下返回真值的函数;要使用函数 filter(),谓词函数必须只能接受一个参数。

  1. >>> def is_even(x):
  2. ... return (x % 2) == 0
  1. >>> list(filter(is_even, range(10)))
  2. [0, 2, 4, 6, 8]

这也可以写成列表推导式:

  1. >>> list(x for x in range(10) if is_even(x))
  2. [0, 2, 4, 6, 8]

enumerate(iter, start=0) 计数可迭代对象中的元素,然后返回包含每个计数(从 start 开始)和元素两个值的元组。:

  1. >>> for item in enumerate(['subject', 'verb', 'object']):
  2. ... print(item)
  3. (0, 'subject')
  4. (1, 'verb')
  5. (2, 'object')

enumerate() 常常用于遍历列表并记录达到特定条件时的下标:

  1. f = open('data.txt', 'r')
  2. for i, line in enumerate(f):
  3. if line.strip() == '':
  4. print('Blank line at line #%i' % i)

sorted(iterable, key=None, reverse=False) 会将 iterable 中的元素收集到一个列表中,然后排序并返回结果。其中 keyreverse 参数会传递给所创建列表的 sort() 方法。:

  1. >>> import random
  2. >>> # Generate 8 random numbers between [0, 10000)
  3. >>> rand_list = random.sample(range(10000), 8)
  4. >>> rand_list
  5. [769, 7953, 9828, 6431, 8442, 9878, 6213, 2207]
  6. >>> sorted(rand_list)
  7. [769, 2207, 6213, 6431, 7953, 8442, 9828, 9878]
  8. >>> sorted(rand_list, reverse=True)
  9. [9878, 9828, 8442, 7953, 6431, 6213, 2207, 769]

(对排序更详细的讨论可参见 排序指南。)

内置函数 any(iter)all(iter) 会查看一个可迭代对象内容的逻辑值。any() 在可迭代对象中任意一个元素为真时返回 True,而 all() 在所有元素为真时返回 True:

  1. >>> any([0, 1, 0])
  2. True
  3. >>> any([0, 0, 0])
  4. False
  5. >>> any([1, 1, 1])
  6. True
  7. >>> all([0, 1, 0])
  8. False
  9. >>> all([0, 0, 0])
  10. False
  11. >>> all([1, 1, 1])
  12. True

zip(iterA, iterB, …) 从每个可迭代对象中选取单个元素组成列表并返回:

  1. zip(['a', 'b', 'c'], (1, 2, 3)) =>
  2. ('a', 1), ('b', 2), ('c', 3)

它并不会在内存创建一个列表并因此在返回前而耗尽输入的迭代器;相反,只有在被请求的时候元组才会创建并返回。(这种行为的技术术语叫惰性计算,参见 lazy evaluation.)

这个迭代器设计用于长度相同的可迭代对象。如果可迭代对象的长度不一致,返回的数据流的长度会和最短的可迭代对象相同

  1. zip(['a', 'b'], (1, 2, 3)) =>
  2. ('a', 1), ('b', 2)

然而,你应该避免这种情况,因为所有从更长的迭代器中取出的元素都会被丢弃。这意味着之后你也无法冒着跳过被丢弃元素的风险来继续使用这个迭代器。

itertools 模块

The itertools module contains a number of commonly used iterators as well as functions for combining several iterators. This section will introduce the module’s contents by showing small examples.

这个模块里的函数大致可以分为几类:

  • 从已有的迭代器创建新的迭代器的函数。

  • 接受迭代器元素作为参数的函数。

  • 选取部分迭代器输出的函数。

  • 给迭代器输出分组的函数。

创建新的迭代器

itertools.count(start, step) 返回一个等分的无限数据流。初始值默认为0,间隔默认为1,你也选择可以指定初始值和间隔:

  1. itertools.count() =>
  2. 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, ...
  3. itertools.count(10) =>
  4. 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, ...
  5. itertools.count(10, 5) =>
  6. 10, 15, 20, 25, 30, 35, 40, 45, 50, 55, ...

itertools.cycle(iter) 保存一份所提供的可迭代对象的副本,并返回一个能产生整个可迭代对象序列的新迭代器。新迭代器会无限重复这些元素。:

  1. itertools.cycle([1, 2, 3, 4, 5]) =>
  2. 1, 2, 3, 4, 5, 1, 2, 3, 4, 5, ...

itertools.repeat(elem, [n]) 返回 n 次所提供的元素,当 n 不存在时,返回无数次所提供的元素。

  1. itertools.repeat('abc') =>
  2. abc, abc, abc, abc, abc, abc, abc, abc, abc, abc, ...
  3. itertools.repeat('abc', 5) =>
  4. abc, abc, abc, abc, abc

itertools.chain(iterA, iterB, …) 接受任意数量的可迭代对象作为输入,首先返回第一个迭代器的所有元素,然后是第二个的所有元素,如此一直进行下去,直到消耗掉所有输入的可迭代对象。

  1. itertools.chain(['a', 'b', 'c'], (1, 2, 3)) =>
  2. a, b, c, 1, 2, 3

itertools.islice(iter, [start], stop, [step]) 返回一个所输入的迭代器切片的数据流。如果只单独给定 stop 参数的话,它会返回从起始算起 stop 个数量的元素。如果你提供了起始下标 start,你会得到 stop-start 个元素;如果你给定了 step 参数,数据流会跳过相应的元素。和 Python 里的字符串和列表切片不同,你不能在 start, stop 或者 step 这些参数中使用负数。:

  1. itertools.islice(range(10), 8) =>
  2. 0, 1, 2, 3, 4, 5, 6, 7
  3. itertools.islice(range(10), 2, 8) =>
  4. 2, 3, 4, 5, 6, 7
  5. itertools.islice(range(10), 2, 8, 2) =>
  6. 2, 4, 6

itertools.tee(iter, [n]) 可以复制一个迭代器;它返回 n 个能够返回源迭代器内容的独立迭代器。如果你不提供参数 n,默认值为 2。复制迭代器需要保存源迭代器的一部分内容,因此在源迭代器比较大的时候会显著地占用内存;同时,在所有新迭代器中,有一个迭代器会比其他迭代器占用更多的内存。

  1. itertools.tee( itertools.count() ) =>
  2. iterA, iterB
  3. where iterA ->
  4. 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, ...
  5. and iterB ->
  6. 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, ...

对元素使用函数

operator 模块包含一组对应于 Python 操作符的函数。比如 operator.add(a, b) (把两个数加起来),operator.ne(a, b) (和 a != b 相同),以及 operator.attrgetter(‘id’) (返回获取 .id 属性的可调用对象)。

itertools.starmap(func, iter) 假定可迭代对象能够返回一个元组的流,并且利用这些元组作为参数来调用 func:

  1. itertools.starmap(os.path.join,
  2. [('/bin', 'python'), ('/usr', 'bin', 'java'),
  3. ('/usr', 'bin', 'perl'), ('/usr', 'bin', 'ruby')])
  4. =>
  5. /bin/python, /usr/bin/java, /usr/bin/perl, /usr/bin/ruby

选择元素

另外一系列函数根据谓词选取一个迭代器中元素的子集。

itertools.filterfalse(predicate, iter)filter() 相反,返回所有让 predicate 返回 false 的元素:

  1. itertools.filterfalse(is_even, itertools.count()) =>
  2. 1, 3, 5, 7, 9, 11, 13, 15, ...

itertools.takewhile(predicate, iter) 返回一直让 predicate 返回 true 的元素。一旦 predicate 返回 false,迭代器就会发出终止结果的信号。:

  1. def less_than_10(x):
  2. return x < 10
  3. itertools.takewhile(less_than_10, itertools.count()) =>
  4. 0, 1, 2, 3, 4, 5, 6, 7, 8, 9
  5. itertools.takewhile(is_even, itertools.count()) =>
  6. 0

itertools.dropwhile(predicate, iter) 在 predicate 返回 true 的时候丢弃元素,并且返回可迭代对象的剩余结果。:

  1. itertools.dropwhile(less_than_10, itertools.count()) =>
  2. 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, ...
  3. itertools.dropwhile(is_even, itertools.count()) =>
  4. 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, ...

itertools.compress(data, selectors) 接受两个迭代器,然后返回 data 中使相应地 selector 中的元素为真的元素;它会在任一个迭代器耗尽的时候停止:

  1. itertools.compress([1, 2, 3, 4, 5], [True, True, False, False, True]) =>
  2. 1, 2, 5

组合函数

itertools.combinations(iterable, r) 返回一个迭代器,它能给出输入迭代器中所包含的元素的所有可能的 r 元元组的组合。:

  1. itertools.combinations([1, 2, 3, 4, 5], 2) =>
  2. (1, 2), (1, 3), (1, 4), (1, 5),
  3. (2, 3), (2, 4), (2, 5),
  4. (3, 4), (3, 5),
  5. (4, 5)
  6. itertools.combinations([1, 2, 3, 4, 5], 3) =>
  7. (1, 2, 3), (1, 2, 4), (1, 2, 5), (1, 3, 4), (1, 3, 5), (1, 4, 5),
  8. (2, 3, 4), (2, 3, 5), (2, 4, 5),
  9. (3, 4, 5)

每个元组中的元素保持着 可迭代对象 返回他们的顺序。例如,在上面的例子中数字 1 总是会在 2, 3, 4 或 5 前面。一个类似的函数,itertools.permutations(iterable, r=None),取消了保持顺序的限制,返回所有可能的长度为 r 的排列:

  1. itertools.permutations([1, 2, 3, 4, 5], 2) =>
  2. (1, 2), (1, 3), (1, 4), (1, 5),
  3. (2, 1), (2, 3), (2, 4), (2, 5),
  4. (3, 1), (3, 2), (3, 4), (3, 5),
  5. (4, 1), (4, 2), (4, 3), (4, 5),
  6. (5, 1), (5, 2), (5, 3), (5, 4)
  7. itertools.permutations([1, 2, 3, 4, 5]) =>
  8. (1, 2, 3, 4, 5), (1, 2, 3, 5, 4), (1, 2, 4, 3, 5),
  9. ...
  10. (5, 4, 3, 2, 1)

如果你不提供 r 参数的值,它会使用可迭代对象的长度,也就是说会排列所有的元素。

注意这些函数会输出所有可能的位置组合,并不要求 可迭代对象 的内容不重复:

  1. itertools.permutations('aba', 3) =>
  2. ('a', 'b', 'a'), ('a', 'a', 'b'), ('b', 'a', 'a'),
  3. ('b', 'a', 'a'), ('a', 'a', 'b'), ('a', 'b', 'a')

同一个元组 ('a', 'a', 'b') 出现了两次,但是两个 ‘a’ 字符来自不同的位置。

itertools.combinations_with_replacement(iterable, r) 函数放松了一个不同的限制:元组中的元素可以重复。从概念讲,为每个元组第一个位置选取一个元素,然后在选择第二个元素前替换掉它。:

  1. itertools.combinations_with_replacement([1, 2, 3, 4, 5], 2) =>
  2. (1, 1), (1, 2), (1, 3), (1, 4), (1, 5),
  3. (2, 2), (2, 3), (2, 4), (2, 5),
  4. (3, 3), (3, 4), (3, 5),
  5. (4, 4), (4, 5),
  6. (5, 5)

为元素分组

我要讨论的最后一个函数,itertools.groupby(iter,key_func=None),是最复杂的函数。 key_func(elem) 是一个可以对迭代器返回的每个元素计算键值的函数。 如果你不提供这个键值函数,它就会简化成每个元素自身。

groupby() 从所依据的可迭代对象中连续地收集具有相同值的元素,然后返回一个长度为2的元组的数据流, 每个元组包含键值以及对应这个键值的元素所组成的迭代器。

  1. city_list = [('Decatur', 'AL'), ('Huntsville', 'AL'), ('Selma', 'AL'),
  2. ('Anchorage', 'AK'), ('Nome', 'AK'),
  3. ('Flagstaff', 'AZ'), ('Phoenix', 'AZ'), ('Tucson', 'AZ'),
  4. ...
  5. ]
  6. def get_state(city_state):
  7. return city_state[1]
  8. itertools.groupby(city_list, get_state) =>
  9. ('AL', iterator-1),
  10. ('AK', iterator-2),
  11. ('AZ', iterator-3), ...
  12. where
  13. iterator-1 =>
  14. ('Decatur', 'AL'), ('Huntsville', 'AL'), ('Selma', 'AL')
  15. iterator-2 =>
  16. ('Anchorage', 'AK'), ('Nome', 'AK')
  17. iterator-3 =>
  18. ('Flagstaff', 'AZ'), ('Phoenix', 'AZ'), ('Tucson', 'AZ')

groupby() 假定了所依据的可迭代对象的内容已经根据键值排序。注意,返回的迭代器也会使用所依据的可迭代对象,所以在请求迭代器 2和相应的键之前你必须先消耗迭代器 1 的结果。

functools 模块

The functools module contains some higher-order functions. A higher-order function takes one or more functions as input and returns a new function. The most useful tool in this module is the functools.partial() function.

对于用函数式风格编写的程序,有时你会希望通过给定部分参数,将已有的函数构变形称新的函数。考虑一个 Python 函数 f(a, b, c);你希望创建一个和 f(1, b, c) 等价的新函数 g(b, c);也就是说你给定了 f() 的一个参数的值。这就是所谓的“部分函数应用”。

partial() 接受参数 (function, arg1, arg2, ..., kwarg1=value1, kwarg2=value2)。它会返回一个可调用的对象,所以你能够直接调用这个结果以使用给定参数的 function

这里有一个很小但很现实的例子:

  1. import functools
  2. def log(message, subsystem):
  3. """Write the contents of 'message' to the specified subsystem."""
  4. print('%s: %s' % (subsystem, message))
  5. ...
  6. server_log = functools.partial(log, subsystem='server')
  7. server_log('Unable to open socket')

functools.reduce(func, iter, [initial_value]) 持续地在可迭代对象的所有元素上执行操作,因此它不能够用在无限的可迭代对象上。func 必须是一个接受两个元素并返回一个值的函数。functools.reduce() 接受迭代器返回的前两个元素 A 和 B 并计算 func(A, B) 。然后它会请求第三个元素,C,计算 func(func(A, B), C),然后把这个结果再和第四个元素组合并返回,如此继续下去直到消耗整个可迭代对象。如果输入的可迭代对象完全不返回任何值,TypeError 异常就会抛出。如果提供了初值(initial value),它会被用作起始值,也就是先计算 func(initial_value, A) 。:

  1. >>> import operator, functools
  2. >>> functools.reduce(operator.concat, ['A', 'BB', 'C'])
  3. 'ABBC'
  4. >>> functools.reduce(operator.concat, [])
  5. Traceback (most recent call last):
  6. ...
  7. TypeError: reduce() of empty sequence with no initial value
  8. >>> functools.reduce(operator.mul, [1, 2, 3], 1)
  9. 6
  10. >>> functools.reduce(operator.mul, [], 1)
  11. 1

如果你在 functools.reduce() 中使用 operator.add(),你就会把可迭代对象中的所有元素加起来.这种情况非常常见, 所以 Python 有一个特殊的内置函数 sum():

  1. >>> import functools, operator
  2. >>> functools.reduce(operator.add, [1, 2, 3, 4], 0)
  3. 10
  4. >>> sum([1, 2, 3, 4])
  5. 10
  6. >>> sum([])
  7. 0

不过, 对于很多使用 functools.reduce() 的情形, 使用明显的 for 循环会更清晰:

  1. import functools
  2. # Instead of:
  3. product = functools.reduce(operator.mul, [1, 2, 3], 1)
  4. # You can write:
  5. product = 1
  6. for i in [1, 2, 3]:
  7. product *= i

一个相关的函数是 itertools.accumulate(iterable, func=operator.add) 。它执行同样的计算, 不过相对于只返回最终结果,accumulate() 会返回一个迭代器来输出所有中间结果:

  1. itertools.accumulate([1, 2, 3, 4, 5]) =>
  2. 1, 3, 6, 10, 15
  3. itertools.accumulate([1, 2, 3, 4, 5], operator.mul) =>
  4. 1, 2, 6, 24, 120

operator 模块

前面已经提到了 operator 模块。它包含一系列对应于 Python 操作符的函数。在函数式风格的代码中,这些函数通常很有用,可以帮你省下不少时间,避免写一些琐碎的仅仅执行一个简单操作的函数。

这个模块里的一些函数:

  • 数学运算: add()sub()mul()floordiv()abs(), …

  • 逻辑运算: not_()truth()

  • 位运算: and_()or_()invert()

  • 比较: eq()ne()lt()le()gt(),和 ge()

  • 确认对象: is_()is_not()

全部函数列表可以参考 operator 模块的文档。

小函数和 lambda 表达式

编写函数式风格程序时,你会经常需要很小的函数,作为谓词函数或者以某种方式来组合元素。

如果合适的 Python 内置的或者其他模块中的函数,你就一点也不需要定义新的函数:

  1. stripped_lines = [line.strip() for line in lines]
  2. existing_files = filter(os.path.exists, file_list)

如果不存在你需要的函数,你就必须自己编写。一个编写小函数的方式是使用 lambda 表达式。lambda 接受一组参数以及组合这些参数的表达式,它会创建一个返回表达式值的匿名函数:

  1. adder = lambda x, y: x+y
  2. print_assign = lambda name, value: name + '=' + str(value)

另一种替代方案就是通常的使用 def 语句来定义函数:

  1. def adder(x, y):
  2. return x + y
  3. def print_assign(name, value):
  4. return name + '=' + str(value)

哪一种更受青睐呢?这是一个风格问题;我通常的做法是避免使用 lambda

我这么偏好的一个原因是,lambda 能够定义的函数非常受限。函数的结果必须能够作为单独的表达式来计算,这意味着你不能使用多路 if... elif... else 比较,或者 try... except 语句。如果你尝试在 lambda 语句中做太多事情,你最终会把表达式过于复杂以至于难以阅读。你能快速的说出下面的代码做了什么事情吗?:

  1. import functools
  2. total = functools.reduce(lambda a, b: (0, a[1] + b[1]), items)[1]

你可以弄明白,不过要花上时间来理清表达式来搞清楚发生了什么。使用一个简短的嵌套的 def 语句可以让情况变得更好:

  1. import functools
  2. def combine(a, b):
  3. return 0, a[1] + b[1]
  4. total = functools.reduce(combine, items)[1]

如果我仅仅使用一个 for 循环会更好:

  1. total = 0
  2. for a, b in items:
  3. total += b

或者使用内置的 sum() 和一个生成器表达式:

  1. total = sum(b for a, b in items)

许多使用 functools.reduce() 的情形可以更清晰地写成 for 循环的形式。

Fredrik Lundh 曾经建议以下一组规则来重构 lambda 的使用:

  1. 写一个 lambda 函数。

  2. 写一句注释来说明这个 lambda 究竟干了什么。

  3. 研究一会这个注释,然后想出一个抓住注释本质的名字。

  4. 用这个名字,把这个 lambda 改写成 def 语句。

  5. 把注释去掉。

我非常喜欢这些规则,不过你完全有权利争辩这种消除 lambda 的风格是不是更好。

修订记录和致谢

作者要感谢以下人员对本文各种草稿给予的建议,更正和协助:Ian Bicking,Nick Coghlan, Nick Efford, Raymond Hettinger, Jim Jewett, Mike Krell,Leandro Lameiro, Jussi Salmela, Collin Winter, Blake Winton。

0.1 版: 2006 年 6 月 30 日发布。

0.11 版: 2006 年 7 月 1 日发布。 修正拼写错误。

0.2 版: 2006 年 7 月 10 日发布。 将 genexp 与 listcomp 两节合二为一。 修正拼写错误。

0.21 版: 加入了 tutor 邮件列表中建议的更多参考文件。

0.30 版: 添加了有关 functional 模块的小节,由 Collin Winter 撰写;添加了有关 operator 模块的简短小节;其他少量修改。

参考文献

通用文献

Structure and Interpretation of Computer Programs, Harold Abelson, Gerald Jay Sussman 和 Julie Sussman 著。全文可见 https://mitpress.mit.edu/sicp/ 。在这部计算机科学的经典教科书中,第二和第三章讨论了使用序列和流来组织程序内部的数据传递。书中的示例采用 Scheme 语言,但其中这些章节中描述的很多设计方法同样适用于函数式风格的 Python 代码。

https://www.defmacro.org/ramblings/fp.html: A general introduction to functional programming that uses Java examples and has a lengthy historical introduction.

https://en.wikipedia.org/wiki/Functional_programming: 一般性的函数式编程的 Wikipedia 条目。

https://en.wikipedia.org/wiki/Coroutine: 协程条目。

https://en.wikipedia.org/wiki/Currying: 函数柯里化条目。

Python 相关

https://gnosis.cx/TPiP/: The first chapter of David Mertz’s book Text Processing in Python discusses functional programming for text processing, in the section titled “Utilizing Higher-Order Functions in Text Processing”.

Mertz 还在 IBM 的 DeveloperWorks 站点上针对函数式编程撰写了一系列共 3 篇文章;参见 part 1, part 2part 3,

Python 文档

itertools 模块文档。

functools 模块文档。

operator 模块文档。

PEP 289: “Generator Expressions”

PEP 342: “Coroutines via Enhanced Generators” 描述了 Python 2.5 中新的生成器特性。