性能建议

下面几节简要地介绍了一些使 Julia 代码运行得尽可能快的技巧。

避免全局变量

全局变量的值和类型随时都会发生变化, 这使编译器难以优化使用全局变量的代码。 变量应该是局部的,或者尽可能作为参数传递给函数。

任何注重性能或者需要测试性能的代码都应该被放置在函数之中。

我们发现全局变量经常是常量,将它们声明为常量可大幅提升性能。

  1. const DEFAULT_VAL = 0

对于非常量的全局变量可以通过在使用的时候标注它们的类型来优化。

  1. global x = rand(1000)
  2. function loop_over_global()
  3. s = 0.0
  4. for i in x::Vector{Float64}
  5. s += i
  6. end
  7. return s
  8. end

一个更好的编程风格是将变量作为参数传给函数。这样可以使得代码更易复用,以及清晰的展示函数的输入和输出。

Note

All code in the REPL is evaluated in global scope, so a variable defined and assigned at top level will be a global variable. Variables defined at top level scope inside modules are also global.

在下面的REPL会话中:

  1. julia> x = 1.0

等价于:

  1. julia> global x = 1.0

因此,所有上文关于性能问题的讨论都适用于它们。

使用 @time评估性能以及注意内存分配

@time 宏是一个有用的性能评估工具。这里我们将重复上面全局变量的例子,但是这次移除类型声明:

  1. julia> x = rand(1000);
  2. julia> function sum_global()
  3. s = 0.0
  4. for i in x
  5. s += i
  6. end
  7. return s
  8. end;
  9. julia> @time sum_global()
  10. 0.017705 seconds (15.28 k allocations: 694.484 KiB)
  11. 496.84883432553846
  12. julia> @time sum_global()
  13. 0.000140 seconds (3.49 k allocations: 70.313 KiB)
  14. 496.84883432553846

在第一次调用函数(@time sum_global())的时候,它会被编译。如果你这次会话中还没有使用过@time,这时也会编译计时需要的相关函数。你不必认真对待这次运行的结果。接下来看第二次运行,除了运行的耗时以外,它还表明了分配了大量的内存。我们这里仅仅是计算了一个64位浮点向量元素和,因此这里应该没有申请内存的必要(至少不用在@time报告的堆上申请内存)。

未被预料的内存分配往往说明你的代码中存在一些问题,这些问题常常是由于类型的稳定性或者创建了太多临时的小数组。因此,除了分配内存本身,这也很可能说明你所写的函数远没有生成性能良好的代码。认真对待这些现象,遵循接下来的建议。

如果你换成将x作为参数传给函数,就可以避免内存的分配(这里报告的内存分配是由于在全局作用域中运行@time导致的),而且在第一次运行之后运行速度也会得到显著的提高。

  1. julia> x = rand(1000);
  2. julia> function sum_arg(x)
  3. s = 0.0
  4. for i in x
  5. s += i
  6. end
  7. return s
  8. end;
  9. julia> @time sum_arg(x)
  10. 0.007701 seconds (821 allocations: 43.059 KiB)
  11. 496.84883432553846
  12. julia> @time sum_arg(x)
  13. 0.000006 seconds (5 allocations: 176 bytes)
  14. 496.84883432553846

这里出现的5个内存分配是由于在全局作用域中运行@time宏导致的。如果我们在函数内运行时间测试,我们将发现事实上并没有发生任何内存分配。

  1. julia> time_sum(x) = @time sum_arg(x);
  2. julia> time_sum(x)
  3. 0.000001 seconds
  4. 496.84883432553846

In some situations, your function may need to allocate memory as part of its operation, and this can complicate the simple picture above. In such cases, consider using one of the tools below to diagnose problems, or write a version of your function that separates allocation from its algorithmic aspects (see Pre-allocating outputs).

Note

For more serious benchmarking, consider the BenchmarkTools.jl package which among other things evaluates the function multiple times in order to reduce noise.

Tools

Julia and its package ecosystem includes tools that may help you diagnose problems and improve the performance of your code:

  • Profiling allows you to measure the performance of your running code and identify lines that serve as bottlenecks. For complex projects, the ProfileView package can help you visualize your profiling results.
  • The Traceur package can help you find common performance problems in your code.
  • Unexpectedly-large memory allocations–as reported by @time, @allocated, or the profiler (through calls to the garbage-collection routines)–hint that there might be issues with your code. If you don’t see another reason for the allocations, suspect a type problem. You can also start Julia with the --track-allocation=user option and examine the resulting *.mem files to see information about where those allocations occur. See Memory allocation analysis.
  • @code_warntype generates a representation of your code that can be helpful in finding expressions that result in type uncertainty. See @code_warntype below.

Avoid containers with abstract type parameters

When working with parameterized types, including arrays, it is best to avoid parameterizing with abstract types where possible.

Consider the following:

  1. julia> a = Real[]
  2. 0-element Array{Real,1}
  3. julia> push!(a, 1); push!(a, 2.0); push!(a, π)
  4. 3-element Array{Real,1}:
  5. 1
  6. 2.0
  7. π

因为a是一个抽象类型Real的数组,它必须能容纳任何一个Real值。因为Real对象可以有任意的大小和结构,a必须用指针的数组来表示,以便能独立地为Real对象进行内存分配。但是如果我们只允许同样类型的数,比如Float64,才能存在a中,它们就能被更有效率地存储:

  1. julia> a = Float64[]
  2. 0-element Array{Float64,1}
  3. julia> push!(a, 1); push!(a, 2.0); push!(a, π)
  4. 3-element Array{Float64,1}:
  5. 1.0
  6. 2.0
  7. 3.141592653589793

把数字赋值给a会即时将数字转换成Float64并且a会按照64位浮点数值的连续的块来储存,这就能高效地处理。

也请参见在参数类型下的讨论。

类型声明

在有可选类型声明的语言中,添加声明是使代码运行更快的原则性方法。在Julia中并不是这种情况。在Julia中,编译器都知道所有的函数参数,局部变量和表达式的类型。但是,有一些特殊的情况下声明是有帮助的。

避免有抽象类型的字段

类型能在不指定其字段的类型的情况下被声明:

  1. julia> struct MyAmbiguousType
  2. a
  3. end

这就允许a可以是任意类型。这经常很有用,但是有个缺点:对于类型MyAmbiguousType的对象,编译器不能够生成高性能的代码。原因是编译器使用对象的类型,而非值,来确定如何构建代码。不幸的是,几乎没有信息可以从类型MyAmbiguousType的对象中推导出来:

  1. julia> b = MyAmbiguousType("Hello")
  2. MyAmbiguousType("Hello")
  3. julia> c = MyAmbiguousType(17)
  4. MyAmbiguousType(17)
  5. julia> typeof(b)
  6. MyAmbiguousType
  7. julia> typeof(c)
  8. MyAmbiguousType

bc 的值具有相同类型,但它们在内存中的数据的底层表示十分不同。即使你只在字段 a 中存储数值,UInt8 的内存表示与 Float64 也是不同的,这也意味着 CPU 需要使用两种不同的指令来处理它们。因为该类型中不提供所需的信息,所以必须在运行时进行这些判断。而这会降低性能。

通过声明 a 的类型,你能够做得更好。这里我们关注 a 可能是几种类型中任意一种的情况,在这种情况下,自然的一个解决方法是使用参数。例如:

  1. julia> mutable struct MyType{T<:AbstractFloat}
  2. a::T
  3. end

比下面这种更好

  1. julia> mutable struct MyStillAmbiguousType
  2. a::AbstractFloat
  3. end

因为第一种通过包装对象的类型指定了 a 的类型。 例如:

  1. julia> m = MyType(3.2)
  2. MyType{Float64}(3.2)
  3. julia> t = MyStillAmbiguousType(3.2)
  4. MyStillAmbiguousType(3.2)
  5. julia> typeof(m)
  6. MyType{Float64}
  7. julia> typeof(t)
  8. MyStillAmbiguousType

字段 a 的类型可以很容易地通过 m 的类型确定,而不是通过 t 的类型确定。事实上,在 t 中是可以改变字段 a 的类型的:

  1. julia> typeof(t.a)
  2. Float64
  3. julia> t.a = 4.5f0
  4. 4.5f0
  5. julia> typeof(t.a)
  6. Float32

反之,一旦 m 被构建出来,m.a 的类型就不能够更改了。

  1. julia> m.a = 4.5f0
  2. 4.5f0
  3. julia> typeof(m.a)
  4. Float64

m.a 的类型是通过 m 的类型得知这一事实加上它的类型不能改变在函数中改变这一事实,这两者使得对于像 m 这样的对象编译器可以生成高度优化后的代码,但是对 t 这样的对象却不可以。 当然,如果我们将 m 构造成一个具体类型,那么这两者都可以。我们可以通过明确地使用一个抽象类型去构建它来破坏这一点:

  1. julia> m = MyType{AbstractFloat}(3.2)
  2. MyType{AbstractFloat}(3.2)
  3. julia> typeof(m.a)
  4. Float64
  5. julia> m.a = 4.5f0
  6. 4.5f0
  7. julia> typeof(m.a)
  8. Float32

对于一个实际的目的来说,这样的对象表现起来和那些 MyStillAmbiguousType 的对象一模一样。

比较为一个简单函数生成的代码的绝对数量是十分有指导意义的,

  1. func(m::MyType) = m.a+1

使用

  1. code_llvm(func, Tuple{MyType{Float64}})
  2. code_llvm(func, Tuple{MyType{AbstractFloat}})

由于长度的原因,代码的结果没有在这里显示出来,但是你可能会希望自己去验证这一点。因为在第一种情况中,类型被完全指定了,在运行时,编译器不需要生成任何代码来决定类型。这就带来了更短和更快的代码。

避免使用带抽象容器的字段

上面的做法同样也适用于容器的类型:

  1. julia> struct MySimpleContainer{A<:AbstractVector}
  2. a::A
  3. end
  4. julia> struct MyAmbiguousContainer{T}
  5. a::AbstractVector{T}
  6. end

例如:

  1. julia> c = MySimpleContainer(1:3);
  2. julia> typeof(c)
  3. MySimpleContainer{UnitRange{Int64}}
  4. julia> c = MySimpleContainer([1:3;]);
  5. julia> typeof(c)
  6. MySimpleContainer{Array{Int64,1}}
  7. julia> b = MyAmbiguousContainer(1:3);
  8. julia> typeof(b)
  9. MyAmbiguousContainer{Int64}
  10. julia> b = MyAmbiguousContainer([1:3;]);
  11. julia> typeof(b)
  12. MyAmbiguousContainer{Int64}

对于 MySimpleContainer 来说,它被它的类型和参数完全确定了,因此编译器能够生成优化过的代码。在大多数实例中,这点能够实现。

尽管编译器现在可以将它的工作做得非常好,但是还是有可能希望你的代码能够能够根据 a元素类型做不同的事情的时候。通常达成这个目的最好的方式是将你的具体操作 (here, foo) 打包到一个独立的函数中。

  1. julia> function sumfoo(c::MySimpleContainer)
  2. s = 0
  3. for x in c.a
  4. s += foo(x)
  5. end
  6. s
  7. end
  8. sumfoo (generic function with 1 method)
  9. julia> foo(x::Integer) = x
  10. foo (generic function with 1 method)
  11. julia> foo(x::AbstractFloat) = round(x)
  12. foo (generic function with 2 methods)

这使事情变得简单,同时也允许编译器在所有情况下生成经过优化的代码。

但是,在某些情况下,你可能需要声明外部函数的不同版本,这可能是为了不同的元素类型,也可能是为了 MySimpleContainer 中的字段 a 所具有的不同 AbstractVector 类型。你可以这样做:

  1. julia> function myfunc(c::MySimpleContainer{<:AbstractArray{<:Integer}})
  2. return c.a[1]+1
  3. end
  4. myfunc (generic function with 1 method)
  5. julia> function myfunc(c::MySimpleContainer{<:AbstractArray{<:AbstractFloat}})
  6. return c.a[1]+2
  7. end
  8. myfunc (generic function with 2 methods)
  9. julia> function myfunc(c::MySimpleContainer{Vector{T}}) where T <: Integer
  10. return c.a[1]+3
  11. end
  12. myfunc (generic function with 3 methods)
  1. julia> myfunc(MySimpleContainer(1:3))
  2. 2
  3. julia> myfunc(MySimpleContainer(1.0:3))
  4. 3.0
  5. julia> myfunc(MySimpleContainer([1:3;]))
  6. 4

对从无类型位置获取的值进行类型注释

使用可能包含任何类型的值的数据结构(如类型为 Array{Any} 的数组)经常是很方便的。但是,如果你正在使用这些数据结构之一,并且恰巧知道某个元素的类型,那么让编译器也知道这一点会有所帮助:

  1. function foo(a::Array{Any,1})
  2. x = a[1]::Int32
  3. b = x+1
  4. ...
  5. end

在这里,我们恰巧知道 a 的第一个元素是个 Int32。留下这样的注释还有另外的好处,它将在该值不是预期类型时引发运行时错误,而这可能会更早地捕获某些错误。

在没有确切知道 a[1] 的类型的情况下,x 可以通过 x = convert(Int32, a[1])::Int32 来声明。使用 convert 函数则允许 a[1] 是可转换为 Int32 的任何对象(比如 UInt8),从而通过放松类型限制来提高代码的通用性。请注意,convert 本身在此上下文中需要类型注释才能实现类型稳定性。这是因为除非该函数所有参数的类型都已知,否则编译器无法推导出该函数返回值的类型,即使其为 convert

如果类型注释中的类型是在运行时构造的,那么类型注释不会增强(并且实际上可能会降低)性能。这是因为编译器无法使用该类型注释来专门化代码,而类型检查本身又需要时间。例如,在以下代码中:

  1. function nr(a, prec)
  2. ctype = prec == 32 ? Float32 : Float64
  3. b = Complex{ctype}(a)
  4. c = (b + 1.0f0)::Complex{ctype}
  5. abs(c)
  6. end

the annotation of c harms performance. To write performant code involving types constructed at run-time, use the function-barrier technique discussed below, and ensure that the constructed type appears among the argument types of the kernel function so that the kernel operations are properly specialized by the compiler. For example, in the above snippet, as soon as b is constructed, it can be passed to another function k, the kernel. If, for example, function k declares b as an argument of type Complex{T}, where T is a type parameter, then a type annotation appearing in an assignment statement within k of the form:

  1. c = (b + 1.0f0)::Complex{T}

不会降低性能(但也不会提高),因为编译器可以在编译 k 时确定 c 的类型。

将函数拆分为多个定义

将一个函数写成许多小的定义能让编译器直接调用最适合的代码,甚至能够直接将它内联。

这是一个真的该被写成许多小的定义的复合函数的例子:

  1. using LinearAlgebra
  2. function mynorm(A)
  3. if isa(A, Vector)
  4. return sqrt(real(dot(A,A)))
  5. elseif isa(A, Matrix)
  6. return maximum(svdvals(A))
  7. else
  8. error("mynorm: invalid argument")
  9. end
  10. end

这可以更简洁有效地写成:

  1. norm(x::Vector) = sqrt(real(dot(x, x)))
  2. norm(A::Matrix) = maximum(svdvals(A))

然而,应该注意的是,编译器会十分高效地优化掉编写得如同 mynorm 例子的代码中的死分支。

编写「类型稳定的」函数

如果可能,确保函数总是返回相同类型的值是有好处的。考虑以下定义:

  1. pos(x) = x < 0 ? 0 : x

虽然这看起来挺合法的,但问题是 0 是一个(Int 类型的)整数而 x 可能是任何类型。于是,根据 x 的值,此函数可能返回两种类型中任何一种的值。这种行为是允许的,并且在某些情况下可能是合乎需要的。但它可以很容易地以如下方式修复:

  1. pos(x) = x < 0 ? zero(x) : x

还有 oneunit 函数,以及更通用的 oftype(x, y) 函数,它返回被转换为 x 的类型的 y

避免更改变量类型

类似的「类型稳定性」问题存在于在函数内重复使用的变量:

  1. function foo()
  2. x = 1
  3. for i = 1:10
  4. x /= rand()
  5. end
  6. return x
  7. end

局部变量 x 一开始是整数,在一次循环迭代后变为浮点数(/ 运算符的结果)。这使得编译器更难优化循环体。有几种可能的解决方法:

  • 使用 x = 1.0 初始化 x
  • 声明 x 的类型:x::Float64 = 1
  • 使用显式的类型转换:x = oneunit(Float64)
  • 使用第一个循环迭代初始化,即 x = 1 / rand(),接着循环 for i = 2:10

Separate kernel functions (aka, function barriers)

许多函数遵循这一模式:先执行一些设置工作,再通过多次迭代来执行核心计算。如果可行,将这些核心计算放在单独的函数中是个好主意。例如,以下做作的函数返回一个数组,其类型是随机选择的。

  1. julia> function strange_twos(n)
  2. a = Vector{rand(Bool) ? Int64 : Float64}(undef, n)
  3. for i = 1:n
  4. a[i] = 2
  5. end
  6. return a
  7. end;
  8. julia> strange_twos(3)
  9. 3-element Array{Float64,1}:
  10. 2.0
  11. 2.0
  12. 2.0

这应该写作:

  1. julia> function fill_twos!(a)
  2. for i = eachindex(a)
  3. a[i] = 2
  4. end
  5. end;
  6. julia> function strange_twos(n)
  7. a = Vector{rand(Bool) ? Int64 : Float64}(undef, n)
  8. fill_twos!(a)
  9. return a
  10. end;
  11. julia> strange_twos(3)
  12. 3-element Array{Float64,1}:
  13. 2.0
  14. 2.0
  15. 2.0

Julia 的编译器会在函数边界处针对参数类型特化代码,因此在原始的实现中循环期间无法得知 a 的类型(因为它是随即选择的)。于是,第二个版本通常更快,因为对于不同类型的 a,内层循环都可被重新编译为 fill_twos! 的一部分。

第二种形式通常是更好的风格,并且可以带来更多的代码的重复利用。

这个模式在 Julia Base 的几个地方中有使用。相关的例子,请参阅 abstractarray.jl 中的 vcathcat,或者 fill! 函数,我们可使用该函数而不是编写自己的 fill_twos!

诸如 strange_twos 的函数会在处理具有不确定类型的数据时出现,例如从可能包含整数、浮点数、字符串或其它内容的输入文件中加载的数据。

Types with values-as-parameters

比方说你想创建一个每个维度大小都是3的 N 维数组。这种数组可以这样创建:

  1. julia> A = fill(5.0, (3, 3))
  2. 3×3 Array{Float64,2}:
  3. 5.0 5.0 5.0
  4. 5.0 5.0 5.0
  5. 5.0 5.0 5.0

这个方法工作得很好:编译器可以识别出来 A 是一个 Array{Float64,2} 因为它知道填充值 (5.0::Float64) 的类型和维度 ((3, 3)::NTuple{2,Int}).

但是现在打比方说你想写一个函数,在任何一个维度下,它都创建一个 3×3×… 的数组;你可能会心动地写下一个函数

  1. julia> function array3(fillval, N)
  2. fill(fillval, ntuple(d->3, N))
  3. end
  4. array3 (generic function with 1 method)
  5. julia> array3(5.0, 2)
  6. 3×3 Array{Float64,2}:
  7. 5.0 5.0 5.0
  8. 5.0 5.0 5.0
  9. 5.0 5.0 5.0

这确实有用,但是(你可以自己使用 @code_warntype array3(5.0, 2) 来验证)问题是输出地类型不能被推断出来:参数 N 是一个 Int 类型的,而且类型推断不会(也不能)提前预测它的值。这意味着使用这个函数的结果的代码在每次获取 A 时都不得不保守地检查其类型;这样的代码将会是非常缓慢的。

Now, one very good way to solve such problems is by using the function-barrier technique. However, in some cases you might want to eliminate the type-instability altogether. In such cases, one approach is to pass the dimensionality as a parameter, for example through Val{T}() (see “Value types”):

  1. julia> function array3(fillval, ::Val{N}) where N
  2. fill(fillval, ntuple(d->3, Val(N)))
  3. end
  4. array3 (generic function with 1 method)
  5. julia> array3(5.0, Val(2))
  6. 3×3 Array{Float64,2}:
  7. 5.0 5.0 5.0
  8. 5.0 5.0 5.0
  9. 5.0 5.0 5.0

Julia has a specialized version of ntuple that accepts a Val{::Int} instance as the second parameter; by passing N as a type-parameter, you make its “value” known to the compiler. Consequently, this version of array3 allows the compiler to predict the return type.

However, making use of such techniques can be surprisingly subtle. For example, it would be of no help if you called array3 from a function like this:

  1. function call_array3(fillval, n)
  2. A = array3(fillval, Val(n))
  3. end

Here, you’ve created the same problem all over again: the compiler can’t guess what n is, so it doesn’t know the type of Val(n). Attempting to use Val, but doing so incorrectly, can easily make performance worse in many situations. (Only in situations where you’re effectively combining Val with the function-barrier trick, to make the kernel function more efficient, should code like the above be used.)

一个正确使用 Val 的例子是这样的:

  1. function filter3(A::AbstractArray{T,N}) where {T,N}
  2. kernel = array3(1, Val(N))
  3. filter(A, kernel)
  4. end

In this example, N is passed as a parameter, so its “value” is known to the compiler. Essentially, Val(T) works only when T is either hard-coded/literal (Val(3)) or already specified in the type-domain.

The dangers of abusing multiple dispatch (aka, more on types with values-as-parameters)

Once one learns to appreciate multiple dispatch, there’s an understandable tendency to go overboard and try to use it for everything. For example, you might imagine using it to store information, e.g.

  1. struct Car{Make, Model}
  2. year::Int
  3. ...more fields...
  4. end

and then dispatch on objects like Car{:Honda,:Accord}(year, args...).

This might be worthwhile when either of the following are true:

  • You require CPU-intensive processing on each Car, and it becomes vastly more efficient if you know the Make and Model at compile time and the total number of different Make or Model that will be used is not too large.
  • You have homogenous lists of the same type of Car to process, so that you can store them all in an Array{Car{:Honda,:Accord},N}.

When the latter holds, a function processing such a homogenous array can be productively specialized: Julia knows the type of each element in advance (all objects in the container have the same concrete type), so Julia can “look up” the correct method calls when the function is being compiled (obviating the need to check at run-time) and thereby emit efficient code for processing the whole list.

When these do not hold, then it’s likely that you’ll get no benefit; worse, the resulting “combinatorial explosion of types” will be counterproductive. If items[i+1] has a different type than item[i], Julia has to look up the type at run-time, search for the appropriate method in method tables, decide (via type intersection) which one matches, determine whether it has been JIT-compiled yet (and do so if not), and then make the call. In essence, you’re asking the full type- system and JIT-compilation machinery to basically execute the equivalent of a switch statement or dictionary lookup in your own code.

Some run-time benchmarks comparing (1) type dispatch, (2) dictionary lookup, and (3) a “switch” statement can be found on the mailing list.

Perhaps even worse than the run-time impact is the compile-time impact: Julia will compile specialized functions for each different Car{Make, Model}; if you have hundreds or thousands of such types, then every function that accepts such an object as a parameter (from a custom get_year function you might write yourself, to the generic push! function in Julia Base) will have hundreds or thousands of variants compiled for it. Each of these increases the size of the cache of compiled code, the length of internal lists of methods, etc. Excess enthusiasm for values-as-parameters can easily waste enormous resources.

按内存顺序访问数组,即按列访问

Julia 中的多维数组以列主序存储。这意味着数组一次堆叠一列。这可使用 vec 函数或语法 [:] 来验证,如下所示(请注意,数组的顺序是 [1 3 2 4],而不是 [1 2 3 4]):

  1. julia> x = [1 2; 3 4]
  2. 2×2 Array{Int64,2}:
  3. 1 2
  4. 3 4
  5. julia> x[:]
  6. 4-element Array{Int64,1}:
  7. 1
  8. 3
  9. 2
  10. 4

这种数组排序的约定在许多语言中都很常见,比如 Fortran、Matlab 和 R(仅举几例)。列主序的替代方案是行主序,这是 C 和 Python(numpy)在其它语言中采用的惯例。请记住数组的排序在循环数组时会对性能产生显著影响。需记住的一个经验法则是,对于列主序数组,改变第一个索引最快。实际上,这意味着如果最内层循环索引是切片表达式的第一个索引,那循环将更快。

考虑以下人为示例。假设我们想编写一个接收 Vector 并返回方阵 Matrix 的函数,所返回方阵的行或列都用输入向量的副本填充。并假设用这些副本填充的是行还是列并不重要(也许可以很容易地相应调整剩余代码)。我们至少可以想到四种方式(除了建议的调用内置函数 repeat):

  1. function copy_cols(x::Vector{T}) where T
  2. inds = axes(x, 1)
  3. out = similar(Array{T}, inds, inds)
  4. for i = inds
  5. out[:, i] = x
  6. end
  7. return out
  8. end
  9. function copy_rows(x::Vector{T}) where T
  10. inds = axes(x, 1)
  11. out = similar(Array{T}, inds, inds)
  12. for i = inds
  13. out[i, :] = x
  14. end
  15. return out
  16. end
  17. function copy_col_row(x::Vector{T}) where T
  18. inds = axes(x, 1)
  19. out = similar(Array{T}, inds, inds)
  20. for col = inds, row = inds
  21. out[row, col] = x[row]
  22. end
  23. return out
  24. end
  25. function copy_row_col(x::Vector{T}) where T
  26. inds = axes(x, 1)
  27. out = similar(Array{T}, inds, inds)
  28. for row = inds, col = inds
  29. out[row, col] = x[col]
  30. end
  31. return out
  32. end

现在,我们使用相同的 100001 的随机输入向量来对这些函数计时。

  1. julia> x = randn(10000);
  2. julia> fmt(f) = println(rpad(string(f)*": ", 14, ' '), @elapsed f(x))
  3. julia> map(fmt, [copy_cols, copy_rows, copy_col_row, copy_row_col]);
  4. copy_cols: 0.331706323
  5. copy_rows: 1.799009911
  6. copy_col_row: 0.415630047
  7. copy_row_col: 1.721531501

请注意,copy_colscopy_rows 快得多。这与预料的一致,因为 copy_cols 尊重 Matrix 基于列的内存布局。另外,copy_col_rowcopy_row_col 快得多,因为它遵循我们的经验法则,即切片表达式中出现的第一个元素应该与最内层循环耦合。

输出预分配

如果函数返回 Array 或其它复杂类型,则可能需要分配内存。不幸的是,内存分配及其反面垃圾收集通常是很大的瓶颈。

有时,你可以通过预分配输出结果来避免在每个函数调用上分配内存的需要。作为一个简单的例子,比较

  1. julia> function xinc(x)
  2. return [x, x+1, x+2]
  3. end;
  4. julia> function loopinc()
  5. y = 0
  6. for i = 1:10^7
  7. ret = xinc(i)
  8. y += ret[2]
  9. end
  10. return y
  11. end;

  1. julia> function xinc!(ret::AbstractVector{T}, x::T) where T
  2. ret[1] = x
  3. ret[2] = x+1
  4. ret[3] = x+2
  5. nothing
  6. end;
  7. julia> function loopinc_prealloc()
  8. ret = Vector{Int}(undef, 3)
  9. y = 0
  10. for i = 1:10^7
  11. xinc!(ret, i)
  12. y += ret[2]
  13. end
  14. return y
  15. end;

计时结果:

  1. julia> @time loopinc()
  2. 0.529894 seconds (40.00 M allocations: 1.490 GiB, 12.14% gc time)
  3. 50000015000000
  4. julia> @time loopinc_prealloc()
  5. 0.030850 seconds (6 allocations: 288 bytes)
  6. 50000015000000

预分配还有其它优点,例如允许调用者在算法中控制「输出」类型。在上述例子中,我们如果需要,可以传递 SubArray 而不是 Array

极端情况下,预分配可能会使你的代码更丑陋,所以可能需要做性能测试和一些判断。但是,对于「向量化」(逐元素)函数,方便的语法 x .= f.(y) 可用于具有融合循环的 in-place 操作且无需临时数组(请参阅向量化函数的点语法)。

点语法:融合向量化操作

Julia 有特殊的点语法,它可以将任何标量函数转换为「向量化」函数调用,将任何运算符转换为「向量化」运算符,其具有的特殊性质是嵌套「点调用」是融合的:它们在语法层级被组合为单个循环,无需分配临时数组。如果你使用 .= 和类似的赋值运算符,则结果也可以 in-place 存储在预分配的数组(参见上文)。

在线性代数的上下文中,这意味着即使诸如 vector + vectorvector * scalar 之类的运算,使用 vector .+ vectorvector .* scalar 来替代也可能是有利的,因为生成的循环可与周围的计算融合。例如,考虑两个函数:

  1. julia> f(x) = 3x.^2 + 4x + 7x.^3;
  2. julia> fdot(x) = @. 3x^2 + 4x + 7x^3 # equivalent to 3 .* x.^2 .+ 4 .* x .+ 7 .* x.^3;

ffdot 都做相同的计算。但是,fdot(在 @. 宏的帮助下定义)在作用于数组时明显更快:

  1. julia> x = rand(10^6);
  2. julia> @time f(x);
  3. 0.019049 seconds (16 allocations: 45.777 MiB, 18.59% gc time)
  4. julia> @time fdot(x);
  5. 0.002790 seconds (6 allocations: 7.630 MiB)
  6. julia> @time f.(x);
  7. 0.002626 seconds (8 allocations: 7.630 MiB)

也就是说,fdot(x)f(x) 快十倍且分配的内存为其 1/6,因为 f(x) 中的每个 *+ 运算都会分配一个新的临时数组并在单独的循环中执行。(当然,如果你只计算 f.(x),那在此例中它与 fdot(x) 一样快,但在许多情况下,在表达式中添加一些点比为每个向量化操作定义单独的函数更方便。)

考虑在切片中使用视图

在 Julia 中,数组「切片」表达式,如 array[1:5, :],创建对应数据的副本(除了在赋值的左侧,此情况下 array[1:5, :] = ... 会对 array 的对应部分进行 in-place 赋值)。如果你会在切片上执行许多操作,这对性能是有好处的,因为使用更小的连续副本比索引到原始数组更高效。另一方面,如果你只在切片上执行一些简单操作,则分配和复制操作的成本可能很高。

另一种方法是创建数组的「视图」,它是一个数组对象(一个 SubArray),它实际上 in-place 引用原始数组的数据而无需进行复制。(如果你改写一个视图,它也会修改原始数组的数据。)对于单个切片,这可通过调用 view 来完成,对于整个表达式或代码块,这还可更简单地通过将 @views 放在该表达式前来完成。例如:

  1. julia> fcopy(x) = sum(x[2:end-1]);
  2. julia> @views fview(x) = sum(x[2:end-1]);
  3. julia> x = rand(10^6);
  4. julia> @time fcopy(x);
  5. 0.003051 seconds (7 allocations: 7.630 MB)
  6. julia> @time fview(x);
  7. 0.001020 seconds (6 allocations: 224 bytes)

请注意,该函数的 fview 版本提速了 3 倍且减少了内存分配。

复制数据不总是坏的

数组被连续地存储在内存中,这使其可被 CPU 向量化,并且会由于缓存减少内存访问。这与建议以列序优先方式访问数组的原因相同(请参见上文)。由于不按顺序访问内存,无规律的访问方式和不连续的视图可能会大大减慢数组上的计算速度。

在对无规律访问的数据进行操作前,将其复制到连续的数组中可能带来巨大的加速,正如下例所示。其中,矩阵和向量在相乘前会访问其 800,000 个已被随机混洗的索引处的值。将视图复制到普通数组会加速乘法,即使考虑了复制操作的成本。

  1. julia> using Random
  2. julia> x = randn(1_000_000);
  3. julia> inds = shuffle(1:1_000_000)[1:800000];
  4. julia> A = randn(50, 1_000_000);
  5. julia> xtmp = zeros(800_000);
  6. julia> Atmp = zeros(50, 800_000);
  7. julia> @time sum(view(A, :, inds) * view(x, inds))
  8. 0.412156 seconds (14 allocations: 960 bytes)
  9. -4256.759568345458
  10. julia> @time begin
  11. copyto!(xtmp, view(x, inds))
  12. copyto!(Atmp, view(A, :, inds))
  13. sum(Atmp * xtmp)
  14. end
  15. 0.285923 seconds (14 allocations: 960 bytes)
  16. -4256.759568345134

倘若副本本身的内存足够大,那么将视图复制到数组的成本可能远远超过在连续数组上执行矩阵乘法所带来的加速。

避免 I/0 中的字符串插值

将数据写入到文件(或其他 I/0 设备)中时,生成额外的中间字符串会带来开销。请不要写成这样:

  1. println(file, "$a $b")

请写成这样:

  1. println(file, a, " ", b)

第一个版本的代码生成一个字符串,然后将其写入到文件中,而第二个版本直接将值写入到文件中。另请注意,在某些情况下,字符串插值可能更难阅读。请考虑:

  1. println(file, "$(f(a))$(f(b))")

与:

  1. println(file, f(a), f(b))

并发执行时优化网络 I/O

当并发地执行一个远程函数时:

  1. using Distributed
  2. responses = Vector{Any}(undef, nworkers())
  3. @sync begin
  4. for (idx, pid) in enumerate(workers())
  5. @async responses[idx] = remotecall_fetch(foo, pid, args...)
  6. end
  7. end

会快于:

  1. using Distributed
  2. refs = Vector{Any}(undef, nworkers())
  3. for (idx, pid) in enumerate(workers())
  4. refs[idx] = @spawnat pid foo(args...)
  5. end
  6. responses = [fetch(r) for r in refs]

第一种方式导致每个worker一次网络往返,而第二种方式是两次网络调用:一次 @spawnat 一次fetch (甚至是 wait)。 fetchwait 都是同步执行,会导致较差的性能。

修复过期警告

过期的函数在内部会执行查找,以便仅打印一次相关警告。 这种额外查找可能会显著影响性能,因此应根据警告建议修复掉过期函数的所有使用。

小技巧

有一些小的注意事项可能会帮助改善循环性能。

性能标注

有时,你可以通过承诺某些程序性质来启用更好的优化。

  • 使用 @inbounds 来取消表达式中的数组边界检查。使用前请再三确定,如果下标越界,可能会发生崩溃或潜在的故障。
  • 使用 @fastmath 来允许对于实数是正确的、但是对于 IEEE 数字会导致差异的浮点数优化。使用时请多多小心,因为这可能改变数值结果。这对应于 clang 的 -ffast-math 选项。
  • for 循环前编写 @simd 来承诺迭代是相互独立且可以重新排序的。请注意,在许多情况下,Julia 可以在没有 @simd 宏的情况下自动向量化代码;只有在这种转换原本是非法的情况下才有用,包括允许浮点数重新结合和忽略相互依赖的内存访问(@simd ivdep)等情况。此外,在断言 @simd 时要十分小心,因为错误地标注一个具有相互依赖的迭代的循环可能导致意外结果。尤其要注意的是,某些 AbstractArray 子类型的 setindex! 本质上依赖于迭代顺序。此功能是实验性的,在 Julia 未来的版本中可能会更改或消失。

使用 1:n 索引 AbstractArray 这一常见习惯在该数组使用非传统索引时是不安全的,并且在关闭边界检查时可能导致段错误。请改用 LinearIndices(x)eachindex(x)(参阅 offset-arrays)。

Note

虽然 @simd 需要直接放在最内层 for 循环前面,但 @inbounds@fastmath 都可作用于单个表达式或在嵌套代码块中出现的所有表达式,例如,可使用 @inbounds begin@inbounds for ...

下面是一个具有 @inbounds@simd 标记的例子(我们这里使用 @noinline 来防止因优化器过于智能而破坏我们的基准测试):

  1. @noinline function inner(x, y)
  2. s = zero(eltype(x))
  3. for i=eachindex(x)
  4. @inbounds s += x[i]*y[i]
  5. end
  6. return s
  7. end
  8. @noinline function innersimd(x, y)
  9. s = zero(eltype(x))
  10. @simd for i = eachindex(x)
  11. @inbounds s += x[i] * y[i]
  12. end
  13. return s
  14. end
  15. function timeit(n, reps)
  16. x = rand(Float32, n)
  17. y = rand(Float32, n)
  18. s = zero(Float64)
  19. time = @elapsed for j in 1:reps
  20. s += inner(x, y)
  21. end
  22. println("GFlop/sec = ", 2n*reps / time*1E-9)
  23. time = @elapsed for j in 1:reps
  24. s += innersimd(x, y)
  25. end
  26. println("GFlop/sec (SIMD) = ", 2n*reps / time*1E-9)
  27. end
  28. timeit(1000, 1000)

在配备 2.4GHz Intel Core i5 处理器的计算机上,其结果为:

  1. GFlop/sec = 1.9467069505224963
  2. GFlop/sec (SIMD) = 17.578554163920018

GFlop/sec 用来测试性能,数值越大越好。)

下面是一个具有三种标记的例子。此程序首先计算一个一维数组的有限差分,然后计算结果的 L2 范数:

  1. function init!(u::Vector)
  2. n = length(u)
  3. dx = 1.0 / (n-1)
  4. @fastmath @inbounds @simd for i in 1:n # 通过断言 `u` 是一个 `Vector`,我们可以假定它具有 1-based 索引
  5. u[i] = sin(2pi*dx*i)
  6. end
  7. end
  8. function deriv!(u::Vector, du)
  9. n = length(u)
  10. dx = 1.0 / (n-1)
  11. @fastmath @inbounds du[1] = (u[2] - u[1]) / dx
  12. @fastmath @inbounds @simd for i in 2:n-1
  13. du[i] = (u[i+1] - u[i-1]) / (2*dx)
  14. end
  15. @fastmath @inbounds du[n] = (u[n] - u[n-1]) / dx
  16. end
  17. function mynorm(u::Vector)
  18. n = length(u)
  19. T = eltype(u)
  20. s = zero(T)
  21. @fastmath @inbounds @simd for i in 1:n
  22. s += u[i]^2
  23. end
  24. @fastmath @inbounds return sqrt(s)
  25. end
  26. function main()
  27. n = 2000
  28. u = Vector{Float64}(undef, n)
  29. init!(u)
  30. du = similar(u)
  31. deriv!(u, du)
  32. nu = mynorm(du)
  33. @time for i in 1:10^6
  34. deriv!(u, du)
  35. nu = mynorm(du)
  36. end
  37. println(nu)
  38. end
  39. main()

在配备 2.7 GHz Intel Core i7 处理器的计算机上,其结果为:

  1. $ julia wave.jl;
  2. 1.207814709 seconds
  3. 4.443986180758249
  4. $ julia --math-mode=ieee wave.jl;
  5. 4.487083643 seconds
  6. 4.443986180758249

在这里,选项 --math-mode=ieee 禁用 @fastmath 宏,好让我们可以比较结果。

在这种情况下,@fastmath 加速了大约 3.7 倍。这非常大——通常来说,加速会更小。(在这个特定的例子中,基准测试的工作集足够小,可以放在该处理器的 L1 缓存中,因此内存访问延迟不起作用,计算时间主要由 CPU 使用率决定。在许多现实世界的程序中,情况并非如此。)此外,在这种情况下,此优化不会改变计算结果——通常来说,结果会略有不同。在某些情况下,尤其是数值不稳定的算法,计算结果可能会差很多。

标注 @fastmath 会重新排列浮点数表达式,例如更改求值顺序,或者假设某些特殊情况(如 inf、nan)不出现。在这种情况中(以及在这个特定的计算机上),主要区别是函数 deriv 中的表达式 1 / (2*dx) 会被提升出循环(即在循环外计算),就像编写了 idx = 1 / (2*dx),然后,在循环中,表达式 ... / (2*dx) 变为 ... * idx,后者计算起来快得多。当然,编译器实际上采用的优化以及由此产生的加速都在很大程度上取决于硬件。你可以使用 Julia 的 code_native 函数来检查所生成代码的更改。

请注意,@fastmath 也假设了在计算中不会出现 NaN,这可能导致意想不到的行为:

  1. julia> f(x) = isnan(x);
  2. julia> f(NaN)
  3. true
  4. julia> f_fast(x) = @fastmath isnan(x);
  5. julia> f_fast(NaN)
  6. false

Treat Subnormal Numbers as Zeros

Subnormal numbers, formerly called denormal numbers, are useful in many contexts, but incur a performance penalty on some hardware. A call set_zero_subnormals(true) grants permission for floating-point operations to treat subnormal inputs or outputs as zeros, which may improve performance on some hardware. A call set_zero_subnormals(false) enforces strict IEEE behavior for subnormal numbers.

Below is an example where subnormals noticeably impact performance on some hardware:

  1. function timestep(b::Vector{T}, a::Vector{T}, Δt::T) where T
  2. @assert length(a)==length(b)
  3. n = length(b)
  4. b[1] = 1 # Boundary condition
  5. for i=2:n-1
  6. b[i] = a[i] + (a[i-1] - T(2)*a[i] + a[i+1]) * Δt
  7. end
  8. b[n] = 0 # Boundary condition
  9. end
  10. function heatflow(a::Vector{T}, nstep::Integer) where T
  11. b = similar(a)
  12. for t=1:div(nstep,2) # Assume nstep is even
  13. timestep(b,a,T(0.1))
  14. timestep(a,b,T(0.1))
  15. end
  16. end
  17. heatflow(zeros(Float32,10),2) # Force compilation
  18. for trial=1:6
  19. a = zeros(Float32,1000)
  20. set_zero_subnormals(iseven(trial)) # Odd trials use strict IEEE arithmetic
  21. @time heatflow(a,1000)
  22. end

This gives an output similar to

  1. 0.002202 seconds (1 allocation: 4.063 KiB)
  2. 0.001502 seconds (1 allocation: 4.063 KiB)
  3. 0.002139 seconds (1 allocation: 4.063 KiB)
  4. 0.001454 seconds (1 allocation: 4.063 KiB)
  5. 0.002115 seconds (1 allocation: 4.063 KiB)
  6. 0.001455 seconds (1 allocation: 4.063 KiB)

Note how each even iteration is significantly faster.

This example generates many subnormal numbers because the values in a become an exponentially decreasing curve, which slowly flattens out over time.

Treating subnormals as zeros should be used with caution, because doing so breaks some identities, such as x-y == 0 implies x == y:

  1. julia> x = 3f-38; y = 2f-38;
  2. julia> set_zero_subnormals(true); (x - y, x == y)
  3. (0.0f0, false)
  4. julia> set_zero_subnormals(false); (x - y, x == y)
  5. (1.0000001f-38, false)

In some applications, an alternative to zeroing subnormal numbers is to inject a tiny bit of noise. For example, instead of initializing a with zeros, initialize it with:

  1. a = rand(Float32,1000) * 1.f-9

@code_warntype

@code_warntype(或其函数变体 code_warntype)有时可以帮助诊断类型相关的问题。这是一个例子:

  1. julia> @noinline pos(x) = x < 0 ? 0 : x;
  2. julia> function f(x)
  3. y = pos(x)
  4. return sin(y*x + 1)
  5. end;
  6. julia> @code_warntype f(3.2)
  7. Variables
  8. #self#::Core.Compiler.Const(f, false)
  9. x::Float64
  10. y::Union{Float64, Int64}
  11. Body::Float64
  12. 1 (y = Main.pos(x))
  13. %2 = (y * x)::Float64
  14. %3 = (%2 + 1)::Float64
  15. %4 = Main.sin(%3)::Float64
  16. └── return %4

解释 @code_warntype 的输出,就像其兄弟 @code_lowered@code_typed@code_llvm@code_native,需要通过一点练习。你的代码是以其在生成经过编译的机器码的过程中被大量处理的形式呈现的。大多数表达式都会被类型标注,其由 ::T 表示(例如,T 可能是 Float64)。@code_warntype 最重要的特征是非具体类型会以红色显示;在上例中,这种输出以大写字母显示。

在顶部,该函数类型推导后的返回类型显示为 Body::Float64。下一行以 Julia 的 SSA IR 形式表示了 f 的主体。被数字标记的方块表示代码中(通过 goto)跳转的目标。查看主体,你会看到首先调用了 pos,其返回值经类型推导为 Union 类型 UNION{FLOAT64, INT64} 并以大写字母显示,因为它是非具体类型。这意味着我们无法根据输入类型知道 pos 的确切返回类型。但是,无论 yFloat64 还是 Int64y*x 的结果都是 Float64。最终的结果是 f(x::Float64) 在其输出中不会是类型不稳定的,即使有些中间计算是类型不稳定的。

如何使用这些信息取决于你。显然,最好将 pos 修改为类型稳定的:如果这样做,f 中的所有变量都是具体的,其性能将是最佳的。但是,在某些情况下,这种短暂的类型不稳定性可能无关紧要:例如,如果 pos 从不单独使用,那么 f 的输出(对于 Float64 输入)是类型稳定的这一事实将保护之后的代码免受类型不稳定性的传播影响。这与类型不稳定性难以或不可能修复的情况密切相关。在这些情况下,上面的建议(例如,添加类型注释并/或分解函数)是你控制类型不稳定性的「损害」的最佳工具。另请注意,即使是 Julia Base 也有类型不稳定的函数。例如,函数 findfirst 如果找到键则返回数组索引,如果没有找到键则返回 nothing,这是明显的类型不稳定性。为了更易于找到可能很重要的类型不稳定性,包含 missingnothingUnion 会用黄色着重显示,而不是用红色。

以下示例可以帮助你解释被标记为包含非叶类型的表达式:

  • 函数体以 Body::UNION{T1,T2}) 开头

    • 解释:函数具有不稳定返回类型
    • 建议:使返回值类型稳定,即使你必须对其进行类型注释
  • invoke Main.g(%%x::Int64)::UNION{FLOAT64, INT64}

    • 解释:调用类型不稳定的函数 g
    • 建议:修改该函数,或在必要时对其返回值进行类型注释
  • invoke Base.getindex(%%x::Array{Any,1}, 1::Int64)::ANY

    • 解释:访问缺乏类型信息的数组的元素
    • 建议:使用具有更佳定义的类型的数组,或在必要时对访问的单个元素进行类型注释
  • Base.getfield(%%x, :(:data))::ARRAY{FLOAT64,N} WHERE N

    • 解释:获取值为非叶类型的字段。在这种情况下,ArrayContainer 具有字段 data::Array{T}。但是 Array 也需要维度 N 来成为具体类型。
    • 建议:使用类似于 Array{T,3}Array{T,N} 的具体类型,其中的 N 现在是 ArrayContainer 的参数

被捕获变量的性能

请考虑以下定义内部函数的示例:

  1. function abmult(r::Int)
  2. if r < 0
  3. r = -r
  4. end
  5. f = x -> x * r
  6. return f
  7. end

函数 abmult 返回一个函数 f,它将其参数乘以 r 的绝对值。赋值给 f 的函数称为「闭包」。内部函数还被语言用于 do 代码块和生成器表达式。

这种代码风格为语言带来了性能挑战。解析器在将其转换为较低级别的指令时,基本上通过将内部函数提取到单独的代码块来重新组织上述代码。「被捕获的」变量,比如 r,被内部函数共享,且包含它们的作用域会被提取到内部函数和外部函数皆可访问的堆分配「box」中,这是因为语言指定内部作用域中的 r 必须与外部作用域中的 r 相同,就算在外部作用域(或另一个内部函数)修改 r 后也需如此。

前一段的讨论中提到了「解析器」,也就是,包含 abmult 的模块被首次加载时发生的编译前期,而不是首次调用它的编译后期。解析器不「知道」Int 是固定类型,也不知道语句 r = -r 将一个 Int 转换为另一个 Int。类型推断的魔力在编译后期生效。

因此,解析器不知道 r 具有固定类型(Int)。一旦内部函数被创建,r 的值也不会改变(因此也不需要 box)。因此,解析器向包含具有抽象类型(比如 Any)的对象的 box 发出代码,这对于每次出现的 r 都需要运行时类型分派。这可以通过在上述函数中使用 @code_warntype 来验证。装箱和运行时的类型分派都有可能导致性能损失。

如果捕获的变量用于代码的性能关键部分,那么以下提示有助于确保它们的使用具有高效性。首先,如果已经知道被捕获的变量不会改变类型,则可以使用类型注释来显式声明类型(在变量上,而不是在右侧):

  1. function abmult2(r0::Int)
  2. r::Int = r0
  3. if r < 0
  4. r = -r
  5. end
  6. f = x -> x * r
  7. return f
  8. end

类型注释部分恢复由于捕获而导致的丢失性能,因为解析器可以将具体类型与 box 中的对象相关联。更进一步,如果被捕获的变量不再需要 box(因为它不会在闭包创建后被重新分配),就可以用 let 代码块表示,如下所示。

  1. function abmult3(r::Int)
  2. if r < 0
  3. r = -r
  4. end
  5. f = let r = r
  6. x -> x * r
  7. end
  8. return f
  9. end

let 代码块创建了一个新的变量 r,它的作用域只是内部函数。第二种技术在捕获变量存在时完全恢复了语言性能。请注意,这是编译器的一个快速发展的方面,未来的版本可能不需要依靠这种程度的程序员注释来获得性能。与此同时,一些用户提供的包(如 FastClosures)会自动插入像在 abmult3 中那样的 let 语句。