二分k-means算法

  二分k-means算法是层次聚类(Hierarchical clustering)的一种,层次聚类是聚类分析中常用的方法。
层次聚类的策略一般有两种:

  • 聚合。这是一种自底向上的方法,每一个观察者初始化本身为一类,然后两两结合
  • 分裂。这是一种自顶向下的方法,所有观察者初始化为一类,然后递归地分裂它们

  二分k-means算法是分裂法的一种。

1 二分k-means的步骤

  二分k-means算法是k-means算法的改进算法,相比k-means算法,它有如下优点:

  • 二分k-means算法可以加速k-means算法的执行速度,因为它的相似度计算少了
  • 能够克服k-means收敛于局部最小的缺点

  二分k-means算法的一般流程如下所示:

  • (1)把所有数据初始化为一个簇,将这个簇分为两个簇。

  • (2)选择满足条件的可以分解的簇。选择条件综合考虑簇的元素个数以及聚类代价(也就是误差平方和SSE),误差平方和的公式如下所示,其中$w_{(i)}$表示权重值,$y^{*}$表示该簇所有点的平均值。

1.1

  • (3)使用k-means算法将可分裂的簇分为两簇。

  • (4)一直重复(2)(3)步,直到满足迭代结束条件。

  以上过程隐含着一个原则是:因为聚类的误差平方和能够衡量聚类性能,该值越小表示数据点越接近于它们的质心,聚类效果就越好。
所以我们就需要对误差平方和最大的簇进行再一次的划分,因为误差平方和越大,表示该簇聚类越不好,越有可能是多个簇被当成一个簇了,所以我们首先需要对这个簇进行划分。

2 二分k-means的源码分析

  spark在文件org.apache.spark.mllib.clustering.BisectingKMeans中实现了二分k-means算法。在分步骤分析算法实现之前,我们先来了解BisectingKMeans类中参数代表的含义。

  1. class BisectingKMeans private (
  2. private var k: Int,
  3. private var maxIterations: Int,
  4. private var minDivisibleClusterSize: Double,
  5. private var seed: Long)

  上面代码中,k表示叶子簇的期望数,默认情况下为4。如果没有可被切分的叶子簇,实际值会更小。maxIterations表示切分簇的k-means算法的最大迭代次数,默认为20。
minDivisibleClusterSize的值如果大于等于1,它表示一个可切分簇的最小点数量;如果值小于1,它表示可切分簇的点数量占总数的最小比例,该值默认为1。

  BisectingKMeansrun方法实现了二分k-means算法,下面将一步步分析该方法的实现过程。

  • (1)初始化数据
  1. //计算输入数据的二范式并转化为VectorWithNorm
  2. val norms = input.map(v => Vectors.norm(v, 2.0)).persist(StorageLevel.MEMORY_AND_DISK)
  3. val vectors = input.zip(norms).map { case (x, norm) => new VectorWithNorm(x, norm) }
  • (2)将所有数据初始化为一个簇,并计算代价
  1. var assignments = vectors.map(v => (ROOT_INDEX, v))
  2. var activeClusters = summarize(d, assignments) //格式为Map[index,ClusterSummary]
  3. val rootSummary = activeClusters(ROOT_INDEX)

  在上述代码中,第一行给每个向量加上一个索引,用以标明簇在最终生成的树上的深度,ROOT_INDEX的值为1。summarize方法计算误差平方和,我们来看看它的实现。

  1. private def summarize(
  2. d: Int,
  3. assignments: RDD[(Long, VectorWithNorm)]): Map[Long, ClusterSummary] = {
  4. assignments.aggregateByKey(new ClusterSummaryAggregator(d))(
  5. //分区内循环添加
  6. seqOp = (agg, v) => agg.add(v),
  7. //分区间合并
  8. combOp = (agg1, agg2) => agg1.merge(agg2)
  9. ).mapValues(_.summary)
  10. .collect().toMap
  11. }

  这里的d表示特征维度,代码对assignments使用aggregateByKey操作,根据key值在分区内循环添加(add)数据,在分区间合并(merge)数据集,转换成最终ClusterSummaryAggregator对象,然后针对每个key,调用summary方法,计算。
ClusterSummaryAggregator包含三个很简单的方法,分别是addmerge以及summary

  1. private class ClusterSummaryAggregator(val d: Int) extends Serializable {
  2. private var n: Long = 0L
  3. private val sum: Vector = Vectors.zeros(d) //向量和
  4. private var sumSq: Double = 0.0 //向量的范数平方和
  5. //添加一个VectorWithNorm对象到ClusterSummaryAggregator对象中
  6. def add(v: VectorWithNorm): this.type = {
  7. n += 1L
  8. sumSq += v.norm * v.norm
  9. BLAS.axpy(1.0, v.vector, sum)
  10. this
  11. }
  12. //合并两个ClusterSummaryAggregator对象
  13. def merge(other: ClusterSummaryAggregator): this.type = {
  14. n += other.n
  15. sumSq += other.sumSq
  16. //y += a * x
  17. BLAS.axpy(1.0, other.sum, sum)
  18. this
  19. }
  20. def summary: ClusterSummary = {
  21. //求平均值
  22. val mean = sum.copy
  23. if (n > 0L) {
  24. //x = a * x
  25. BLAS.scal(1.0 / n, mean)
  26. }
  27. val center = new VectorWithNorm(mean)
  28. //所有点的范数平方和减去n乘以中心点范数平方,得到误差平方和
  29. val cost = math.max(sumSq - n * center.norm * center.norm, 0.0)
  30. new ClusterSummary(n, center, cost)
  31. }
  32. }

  这里计算误差平方和与第一章的公式有所不同,但是效果一致。这里计算聚类代价函数的公式如下所示:

1.2

  获取第一个簇之后,我们需要做的就是迭代分裂可分裂的簇,直到满足我们的要求。迭代停止的条件是activeClusters为空,或者numLeafClustersNeeded为0(即没有分裂的叶子簇),或者迭代深度大于LEVEL_LIMIT

  1. while (activeClusters.nonEmpty && numLeafClustersNeeded > 0 && level < LEVEL_LIMIT)

  这里,LEVEL_LIMIT是一个较大的值,计算方法如下。

  1. private val LEVEL_LIMIT = math.log10(Long.MaxValue) / math.log10(2)
  • (3)获取需要分裂的簇

  在每一次迭代中,我们首先要做的是获取满足条件的可以分裂的簇。

  1. //选择需要分裂的簇
  2. var divisibleClusters = activeClusters.filter { case (_, summary) =>
  3. (summary.size >= minSize) && (summary.cost > MLUtils.EPSILON * summary.size)
  4. }
  5. // If we don't need all divisible clusters, take the larger ones.
  6. if (divisibleClusters.size > numLeafClustersNeeded) {
  7. divisibleClusters = divisibleClusters.toSeq.sortBy { case (_, summary) =>
  8. -summary.size
  9. }.take(numLeafClustersNeeded)
  10. .toMap
  11. }

  这里选择分裂的簇用到了两个条件,即数据点的数量大于规定的最小数量以及代价小于等于MLUtils.EPSILON * summary.size。并且如果可分解的簇的个数多余我们规定的个数numLeafClustersNeeded(k-1)
那么我们取包含数量最多的numLeafClustersNeeded个簇用于分裂。

  • (4)使用k-means算法将可分裂的簇分解为两簇

  我们知道,k-means算法分为两步,第一步是初始化中心点,第二步是迭代更新中心点直至满足最大迭代数或者收敛。下面就分两步来说明。

  • 第一步,随机的选择中心点,将可分裂簇分为两簇
  1. //切分簇
  2. var newClusterCenters = divisibleClusters.flatMap { case (index, summary) =>
  3. //随机切分簇为两簇,找到这两个簇的中心点
  4. val (left, right) = splitCenter(summary.center, random)
  5. Iterator((leftChildIndex(index), left), (rightChildIndex(index), right))
  6. }.map(identity)

  在上面的代码中,用splitCenter方法将簇随机地分为了两簇,并返回相应的中心点,它的实现如下所示。

  1. private def splitCenter(
  2. center: VectorWithNorm,
  3. random: Random): (VectorWithNorm, VectorWithNorm) = {
  4. val d = center.vector.size
  5. val norm = center.norm
  6. val level = 1e-4 * norm
  7. //随机的初始化一个点,并用这个点得到两个初始中心点
  8. val noise = Vectors.dense(Array.fill(d)(random.nextDouble()))
  9. val left = center.vector.copy
  10. //y += a * x,left=left-level*noise
  11. BLAS.axpy(-level, noise, left)
  12. val right = center.vector.copy
  13. //right=right+level*noise
  14. BLAS.axpy(level, noise, right)
  15. //返回中心点
  16. (new VectorWithNorm(left), new VectorWithNorm(right))
  17. }
  • 第二步,迭代更新中心点
  1. var newClusters: Map[Long, ClusterSummary] = null
  2. var newAssignments: RDD[(Long, VectorWithNorm)] = null
  3. //迭代获得中心点,默认迭代次数为20
  4. for (iter <- 0 until maxIterations) {
  5. //根据更新的中心点,将数据点重新分类
  6. newAssignments = updateAssignments(assignments, divisibleIndices, newClusterCenters)
  7. .filter { case (index, _) =>
  8. divisibleIndices.contains(parentIndex(index))
  9. }
  10. //计算中心点以及代价值
  11. newClusters = summarize(d, newAssignments)
  12. newClusterCenters = newClusters.mapValues(_.center).map(identity)
  13. }
  14. val indices = updateAssignments(assignments, divisibleIndices, newClusterCenters).keys
  15. .persist(StorageLevel.MEMORY_AND_DISK)

  这段代码中,updateAssignments会根据更新的中心点将数据分配给距离其最短的中心点所在的簇,即重新分配簇。代码如下

  1. private def updateAssignments(assignments: RDD[(Long, VectorWithNorm)],divisibleIndices: Set[Long],
  2. newClusterCenters: Map[Long, VectorWithNorm]): RDD[(Long, VectorWithNorm)] = {
  3. assignments.map { case (index, v) =>
  4. if (divisibleIndices.contains(index)) {
  5. //leftChildIndex=2*index , rightChildIndex=2*index+1
  6. val children = Seq(leftChildIndex(index), rightChildIndex(index))
  7. //返回序列中第一个符合条件的最小的元素
  8. val selected = children.minBy { child =>
  9. KMeans.fastSquaredDistance(newClusterCenters(child), v)
  10. }
  11. //将v分配给中心点距离其最短的簇
  12. (selected, v)
  13. } else {
  14. (index, v)
  15. }
  16. }
  17. }

  重新分配簇之后,利用summarize方法重新计算中心点以及代价值。

  • (5)处理变量值为下次迭代作准备
  1. //数节点中簇的index以及包含的数据点
  2. assignments = indices.zip(vectors)
  3. inactiveClusters ++= activeClusters
  4. activeClusters = newClusters
  5. //调整所需簇的数量
  6. numLeafClustersNeeded -= divisibleClusters.size