效率

最后我们来讨论一下效率。这并不是说我们认为这个主题不重要,而是因为我们相信过早关注效率问题会导致不良的程序设计。关注重点应该一直放在程序的正确性上,为了达到这个目的,我们提倡开发简练漂亮且“明显”正确的算法。

作为示例,我们将展示如何将低效的程序改造为高效的程序。

作为练习,我们从一个包含某假象公司员工信息元组的文件开始,该文件的内容为:

  1. {202191,’Micky’,’Finn’,’MNO’,’OM’,2431}.
  2. {102347,’Harvey’,’Wallbanger’,’HAR’,’GHE’,2420}.
  3. ... 2860 lines omitted ...
  4. {165435,’John’,’Doe’,’NKO’,’GYI’, 2564}.
  5. {457634,’John’, Bull’,’HMR’,’KIO’, 5436}.

我们要写一个程序来输入这些数据、将每个条目都放入字典、访问所有条目一遍,再将数据写回文件。这个程序将频繁执行,因此我们得让它尽可能地快。

文件访问

从上述的元组文件中读入数据的最简单的方法就是使用file:consult(File)读取文件(参见附录C)——这个方法很耗时,因为每一行都会被读取和解析。一个好一点的做法是将输入文件从文本格式改为二进制格式。通过以下函数可以实现:

  1. reformat(FileOfTerms, BinaryFile) ->
  2. {ok, Terms} = file:consult(FileOfTerms),
  3. file:write_file(BinaryFile, term_to_binary(Terms)).

要读入二进制文件并恢复原始数据,执行:

  1. read_terms(BinaryFile) ->
  2. {ok, Binary} = file:read(BinaryFile),
  3. binary_to_term(Binary).

读取二进制文件并将结果转换为项式要比读取并解析一组项式要快得多,从下表便中可见一斑:

文本大小(bytes)二进制大小(bytes)file:consult (ms)read_terms (ms)耗时比例
1280411181234273378354.6
4541419014331689.6

对于4.5K的文件,二进制文件读取要快90倍;对于128K的文件要快55倍。注意二进制文件要被文本文件小一些。

字典访问

我们使用了不同的方法来构建和更新雇员字典。这些方法包括:

lists
所有雇员记录都保存在一个列表中。在表头进行首次插入,其余更新对列表进行线性扫描。
avl
采用第??节描述的AVL树插入算法。
hash
采用程序9.4的散列算法。

为了检验不同方法的效率,我们对我们的每一条雇员数据都进行一次插入和查找,得到以下的计时结果:

条目数AVL插入AVL查找列表插入列表查找散列插入散列查找
255.320.000.000.641.320.00
501.320.320.001.000.320.00
1002.000.500.001.500.330.16
2009.910.500.003.002.080.17
40028.290.460.045.964.250.09
800301.380.540.0211.981.770.15
16001060.440.610.0224.204.050.14

上表中每次插入或查询的时间单位都是毫秒。我们看到对于大小超过800的数据表,散列表的查询效率是最高的。

上面我们看到使用二进制文件和散列查询算法要比使用file:consult和简单列表查询方法快六千倍。和传统命令式语言一样,决定程序效率的最重要因素还是良好的算法设计。

脚注

[1]当然,要除去服务器用于存储本地数据结构的空间。
[2]非扁平列表就是不含有子列表的列表。(译者注:也就是说当Data是一个整数列表时,既可以是[1,2,3]也可以是[1,[2,3]],在这里二者是等价的。)