k-meansk-means++以及k-means||算法分析

  本文会介绍一般的k-means算法、k-means++算法以及基于k-means++算法的k-means||算法。在spark ml,已经实现了k-means算法以及k-means||算法。
本文首先会介绍这三个算法的原理,然后在了解原理的基础上分析spark中的实现代码。

1 k-means算法原理分析

  k-means算法是聚类分析中使用最广泛的算法之一。它把n个对象根据它们的属性分为k个聚类以便使得所获得的聚类满足:同一聚类中的对象相似度较高;而不同聚类中的对象相似度较小。

  k-means算法的基本过程如下所示:

  • (1)任意选择k个初始中心$c{1},c{2},…,c_{k}$ 。

  • (2)计算X中的每个对象与这些中心对象的距离;并根据最小距离重新对相应对象进行划分;

  • (3)重新计算每个中心对象$C_{i}$的值

    1.1

  • (4)计算标准测度函数,当满足一定条件,如函数收敛时,则算法终止;如果条件不满足则重复步骤(2),(3)。

1.1 k-means算法的缺点

  k-means算法虽然简单快速,但是存在下面的缺点:

  • 聚类中心的个数K需要事先给定,但在实际中K值的选定是非常困难的,很多时候我们并不知道给定的数据集应该分成多少个类别才最合适。

  • k-means算法需要随机地确定初始聚类中心,不同的初始聚类中心可能导致完全不同的聚类结果。

  第一个缺陷我们很难在k-means算法以及其改进算法中解决,但是我们可以通过k-means++算法来解决第二个缺陷。

2 k-means++算法原理分析

  k-means++算法选择初始聚类中心的基本原则是:初始的聚类中心之间的相互距离要尽可能的远。它选择初始聚类中心的步骤是:

  • (1)从输入的数据点集合中随机选择一个点作为第一个聚类中心$c_{1}$ ;

  • (2)对于数据集中的每一个点x,计算它与最近聚类中心(指已选择的聚类中心)的距离D(x),并根据概率选择新的聚类中心$c_{i}$ 。

  • (3)重复过程(2)直到找到k个聚类中心。

  第(2)步中,依次计算每个数据点与最近的种子点(聚类中心)的距离,依次得到D(1)、D(2)、...、D(n)构成的集合D,其中n表示数据集的大小。在D中,为了避免噪声,不能直接选取值最大的元素,应该选择值较大的元素,然后将其对应的数据点作为种子点。
如何选择值较大的元素呢,下面是spark中实现的思路。

  • 求所有的距离和Sum(D(x))

  • 取一个随机值,用权重的方式来取计算下一个“种子点”。这个算法的实现是,先用Sum(D(x))乘以随机值Random得到值r,然后用currSum += D(x),直到其currSum > r,此时的点就是下一个“种子点”。

  为什么用这样的方式呢?我们换一种比较好理解的方式来说明。把集合D中的每个元素D(x)想象为一根线L(x),线的长度就是元素的值。将这些线依次按照L(1)、L(2)、...、L(n)的顺序连接起来,组成长线LL(1)、L(2)、…、L(n)称为L的子线。
根据概率的相关知识,如果我们在L上随机选择一个点,那么这个点所在的子线很有可能是比较长的子线,而这个子线对应的数据点就可以作为种子点。

2.1 k-means++算法的缺点

  虽然k-means++算法可以确定地初始化聚类中心,但是从可扩展性来看,它存在一个缺点,那就是它内在的有序性特性:下一个中心点的选择依赖于已经选择的中心点。
针对这种缺陷,k-means||算法提供了解决方法。

3 k-means||算法原理分析

  k-means||算法是在k-means++算法的基础上做的改进,和k-means++算法不同的是,它采用了一个采样因子l,并且l=A(k),在spark的实现中l=2k,。这个算法首先如k-means++算法一样,随机选择一个初始中心,
然后计算选定初始中心确定之后的初始花费$\psi$(指与最近中心点的距离)。之后处理$log(\psi )$次迭代,在每次迭代中,给定当前中心集,通过概率$ld^{2}(x,C)/\phi{X}(C)$来
抽样x,将选定的x添加到初始化中心集中,并且更新$\phi
{X}(C)$。该算法的步骤如下图所示:

1.1

  第1步随机初始化一个中心点,第2-6步计算出满足概率条件的多个候选中心点C,候选中心点的个数可能大于k个,所以通过第7-8步来处理。第7步给C中所有点赋予一个权重值$w_{x}$ ,这个权重值表示距离x点最近的点的个数。
第8步使用本地k-means++算法聚类出这些候选点的k个聚类中心。在spark的源码中,迭代次数是人为设定的,默认是5。

  该算法与k-means++算法不同的地方是它每次迭代都会抽样出多个中心点而不是一个中心点,且每次迭代不互相依赖,这样我们可以并行的处理这个迭代过程。由于该过程产生出来的中心点的数量远远小于输入数据点的数量,
所以第8步可以通过本地k-means++算法很快的找出k个初始化中心点。何为本地k-means++算法?就是运行在单个机器节点上的k-means++

  下面我们详细分析上述三个算法的代码实现。

4 源代码分析

  在spark中,org.apache.spark.mllib.clustering.KMeans文件实现了k-means算法以及k-means||算法,org.apache.spark.mllib.clustering.LocalKMeans文件实现了k-means++算法。
在分步骤分析spark中的源码之前我们先来了解KMeans类中参数的含义。

  1. class KMeans private (
  2. private var k: Int,//聚类个数
  3. private var maxIterations: Int,//迭代次数
  4. private var runs: Int,//运行kmeans算法的次数
  5. private var initializationMode: String,//初始化模式
  6. private var initializationSteps: Int,//初始化步数
  7. private var epsilon: Double,//判断kmeans算法是否收敛的阈值
  8. private var seed: Long)

  在上面的定义中,k表示聚类的个数,maxIterations表示最大的迭代次数,runs表示运行KMeans算法的次数,在spark 2.0。0开始,该参数已经不起作用了。为了更清楚的理解算法我们可以认为它为1。
initializationMode表示初始化模式,有两种选择:随机初始化和通过k-means||初始化,默认是通过k-means||初始化。initializationSteps表示通过k-means||初始化时的迭代步骤,默认是5,这是spark实现与第三章的算法步骤不一样的地方,这里迭代次数人为指定,
而第三章的算法是根据距离得到的迭代次数,为log(phi)epsilon是判断算法是否已经收敛的阈值。

  下面将分步骤分析k-means算法、k-means||算法的实现过程。

4.1 处理数据,转换为VectorWithNorm集。

  1. //求向量的二范式,返回double值
  2. val norms = data.map(Vectors.norm(_, 2.0))
  3. norms.persist()
  4. val zippedData = data.zip(norms).map { case (v, norm) =>
  5. new VectorWithNorm(v, norm)
  6. }

4.2 初始化中心点。

  初始化中心点根据initializationMode的值来判断,如果initializationMode等于KMeans.RANDOM,那么随机初始化k个中心点,否则使用k-means||初始化k个中心点。

  1. val centers = initialModel match {
  2. case Some(kMeansCenters) => {
  3. Array(kMeansCenters.clusterCenters.map(s => new VectorWithNorm(s)))
  4. }
  5. case None => {
  6. if (initializationMode == KMeans.RANDOM) {
  7. initRandom(data)
  8. } else {
  9. initKMeansParallel(data)
  10. }
  11. }
  12. }
  • (1)随机初始化中心点。

  随机初始化k个中心点很简单,具体代码如下:

  1. private def initRandom(data: RDD[VectorWithNorm])
  2. : Array[Array[VectorWithNorm]] = {
  3. //采样固定大小为k的子集
  4. //这里run表示我们运行的KMeans算法的次数,默认为1,以后将停止提供该参数
  5. val sample = data.takeSample(true, runs * k, new XORShiftRandom(this.seed).nextInt()).toSeq
  6. //选取k个初始化中心点
  7. Array.tabulate(runs)(r => sample.slice(r * k, (r + 1) * k).map { v =>
  8. new VectorWithNorm(Vectors.dense(v.vector.toArray), v.norm)
  9. }.toArray)
  10. }
  • (2)通过k-means||初始化中心点。

  相比于随机初始化中心点,通过k-means||初始化k个中心点会麻烦很多,它需要依赖第三章的原理来实现。它的实现方法是initKMeansParallel
下面按照第三章的实现步骤来分析。

  • 第一步,我们要随机初始化第一个中心点。
  1. //初始化第一个中心点
  2. val seed = new XORShiftRandom(this.seed).nextInt()
  3. val sample = data.takeSample(true, runs, seed).toSeq
  4. val newCenters = Array.tabulate(runs)(r => ArrayBuffer(sample(r).toDense))
  • 第二步,通过已知的中心点,循环迭代求得其它的中心点。
  1. var step = 0
  2. while (step < initializationSteps) {
  3. val bcNewCenters = data.context.broadcast(newCenters)
  4. val preCosts = costs
  5. //每个点距离最近中心的代价
  6. costs = data.zip(preCosts).map { case (point, cost) =>
  7. Array.tabulate(runs) { r =>
  8. //pointCost获得与最近中心点的距离
  9. //并与前一次迭代的距离对比取更小的那个
  10. math.min(KMeans.pointCost(bcNewCenters.value(r), point), cost(r))
  11. }
  12. }.persist(StorageLevel.MEMORY_AND_DISK)
  13. //所有点的代价和
  14. val sumCosts = costs.aggregate(new Array[Double](runs))(
  15. //分区内迭代
  16. seqOp = (s, v) => {
  17. // s += v
  18. var r = 0
  19. while (r < runs) {
  20. s(r) += v(r)
  21. r += 1
  22. }
  23. s
  24. },
  25. //分区间合并
  26. combOp = (s0, s1) => {
  27. // s0 += s1
  28. var r = 0
  29. while (r < runs) {
  30. s0(r) += s1(r)
  31. r += 1
  32. }
  33. s0
  34. }
  35. )
  36. //选择满足概率条件的点
  37. val chosen = data.zip(costs).mapPartitionsWithIndex { (index, pointsWithCosts) =>
  38. val rand = new XORShiftRandom(seed ^ (step << 16) ^ index)
  39. pointsWithCosts.flatMap { case (p, c) =>
  40. val rs = (0 until runs).filter { r =>
  41. //此处设置l=2k
  42. rand.nextDouble() < 2.0 * c(r) * k / sumCosts(r)
  43. }
  44. if (rs.length > 0) Some(p, rs) else None
  45. }
  46. }.collect()
  47. mergeNewCenters()
  48. chosen.foreach { case (p, rs) =>
  49. rs.foreach(newCenters(_) += p.toDense)
  50. }
  51. step += 1
  52. }

  在这段代码中,我们并没有选择使用log(pha)的大小作为迭代的次数,而是直接使用了人为确定的initializationSteps,这是与论文中不一致的地方。
在迭代内部我们使用概率公式

1.3

来计算满足要求的点,其中,l=2k。公式的实现如代码rand.nextDouble() < 2.0 * c(r) * k / sumCosts(r)sumCosts表示所有点距离它所属类别的中心点的欧式距离之和。
上述代码通过aggregate方法并行计算获得该值。

  • 第三步,求最终的k个点。

  通过以上步骤求得的候选中心点的个数可能会多于k个,这样怎么办呢?我们给每个中心点赋一个权重,权重值是数据集中属于该中心点所在类别的数据点的个数。
然后我们使用本地k-means++来得到这k个初始化点。具体的实现代码如下:

  1. val bcCenters = data.context.broadcast(centers)
  2. //计算权重值,即各中心点所在类别的个数
  3. val weightMap = data.flatMap { p =>
  4. Iterator.tabulate(runs) { r =>
  5. ((r, KMeans.findClosest(bcCenters.value(r), p)._1), 1.0)
  6. }
  7. }.reduceByKey(_ + _).collectAsMap()
  8. //最终的初始化中心
  9. val finalCenters = (0 until runs).par.map { r =>
  10. val myCenters = centers(r).toArray
  11. val myWeights = (0 until myCenters.length).map(i => weightMap.getOrElse((r, i), 0.0)).toArray
  12. LocalKMeans.kMeansPlusPlus(r, myCenters, myWeights, k, 30)
  13. }

  上述代码的关键点时通过本地k-means++算法求最终的初始化点。它是通过LocalKMeans.kMeansPlusPlus来实现的。它使用k-means++来处理。

  1. // 初始化一个中心点
  2. centers(0) = pickWeighted(rand, points, weights).toDense
  3. //
  4. for (i <- 1 until k) {
  5. // 根据概率比例选择下一个中心点
  6. val curCenters = centers.view.take(i)
  7. //每个点的权重与距离的乘积和
  8. val sum = points.view.zip(weights).map { case (p, w) =>
  9. w * KMeans.pointCost(curCenters, p)
  10. }.sum
  11. //取随机值
  12. val r = rand.nextDouble() * sum
  13. var cumulativeScore = 0.0
  14. var j = 0
  15. //寻找概率最大的点
  16. while (j < points.length && cumulativeScore < r) {
  17. cumulativeScore += weights(j) * KMeans.pointCost(curCenters, points(j))
  18. j += 1
  19. }
  20. if (j == 0) {
  21. centers(i) = points(0).toDense
  22. } else {
  23. centers(i) = points(j - 1).toDense
  24. }
  25. }

  上述代码中,points指的是候选的中心点,weights指这些点相应地权重。寻找概率最大的点的方式就是第二章提到的方式。初始化k个中心点后,
就可以通过一般的k-means流程来求最终的k个中心点了。具体的过程4.3会讲到。

4.3 确定数据点所属类别

  找到中心点后,我们就需要根据距离确定数据点的聚类,即数据点和哪个中心点最近。具体代码如下:

  1. // 找到每个聚类中包含的点距离中心点的距离和以及这些点的个数
  2. val totalContribs = data.mapPartitions { points =>
  3. val thisActiveCenters = bcActiveCenters.value
  4. val runs = thisActiveCenters.length
  5. val k = thisActiveCenters(0).length
  6. val dims = thisActiveCenters(0)(0).vector.size
  7. val sums = Array.fill(runs, k)(Vectors.zeros(dims))
  8. val counts = Array.fill(runs, k)(0L)
  9. points.foreach { point =>
  10. (0 until runs).foreach { i =>
  11. //找到离给定点最近的中心以及相应的欧几里得距离
  12. val (bestCenter, cost) = KMeans.findClosest(thisActiveCenters(i), point)
  13. costAccums(i) += cost
  14. //距离和
  15. val sum = sums(i)(bestCenter)
  16. //y += a * x
  17. axpy(1.0, point.vector, sum)
  18. //点数量
  19. counts(i)(bestCenter) += 1
  20. }
  21. }
  22. val contribs = for (i <- 0 until runs; j <- 0 until k) yield {
  23. ((i, j), (sums(i)(j), counts(i)(j)))
  24. }
  25. contribs.iterator
  26. }.reduceByKey(mergeContribs).collectAsMap()

4.4 重新确定中心点

  找到类别中包含的数据点以及它们距离中心点的距离,我们可以重新计算中心点。代码如下:

  1. //更新中心点
  2. for ((run, i) <- activeRuns.zipWithIndex) {
  3. var changed = false
  4. var j = 0
  5. while (j < k) {
  6. val (sum, count) = totalContribs((i, j))
  7. if (count != 0) {
  8. //x = a * x,求平均距离即sum/count
  9. scal(1.0 / count, sum)
  10. val newCenter = new VectorWithNorm(sum)
  11. //如果新旧两个中心点的欧式距离大于阈值
  12. if (KMeans.fastSquaredDistance(newCenter, centers(run)(j)) > epsilon * epsilon) {
  13. changed = true
  14. }
  15. centers(run)(j) = newCenter
  16. }
  17. j += 1
  18. }
  19. if (!changed) {
  20. active(run) = false
  21. logInfo("Run " + run + " finished in " + (iteration + 1) + " iterations")
  22. }
  23. costs(run) = costAccums(i).value
  24. }

5 参考文献