跳转到内容

快速排序

本页使用了标题或全文手工转换
维基百科,自由的百科全书
快速排序
使用快速排序法对一列数字进行排序的过程
概况
类别排序算法
资料结构不定
复杂度
平均时间复杂度
最坏时间复杂度
最优时间复杂度
空间复杂度根据实现的方式不同而不同
最佳解有时是
相关变量的定义

快速排序(英语:Quicksort),又称分区交换排序partition-exchange sort),是一种排序演算法,最早由东尼·霍尔提出。在平均状况下,排序个项目要大O符号)次比较。在最坏状况下则需要次比较,但这种状况并不常见。事实上,快速排序通常明显比其他演算法更快,因为它的内部循环可以在大部分的架构上很有效率地达成。

演算法

[编辑]

快速排序使用分治法策略来把一个序列分为较小和较大的2个子序列,然后递归地排序两个子序列。

步骤为:

  1. 挑选基准值:从数列中挑出一个元素,称为“基准”(pivot),
  2. 分割:重新排序数列,所有比基准值小的元素摆放在基准前面,所有比基准值大的元素摆在基准后面(与基准值相等的数可以到任何一边)。在这个分割结束之后,对基准值的排序就已经完成,
  3. 递归排序子序列:递归地将小于基准值元素的子序列和大于基准值元素的子序列排序。

递归到最底部的判断条件是数列的大小是零或一,此时该数列显然已经有序。

选取基准值有数种具体方法,此选取方法对排序的时间性能有决定性影响。

在简单的伪代码中,此算法可以被表示为:

 function quicksort(q)
 {
     var list less, pivotList, greater
     if length(q) ≤ 1 
         return q
     else 
     {
         select a pivot value pivot from q
         for each x in q except the pivot element
         {
             if x < pivot then add x to less
             if x ≥ pivot then add x to greater
         }
         add pivot to pivotList
         return concatenate(quicksort(less), pivotList, quicksort(greater))
     }
 }

原地(in-place)分割的版本

[编辑]
原地(In-place)分割版本的快速排序。

上面简单版本的缺点是,它需要的额外储存空间,也就跟归并排序一样不好。额外需要的记忆体空间配置,在实际上的实作,也会极度影响速度和快取的效能。有一个比较复杂使用原地(in-place)分割算法的版本,且在好的基准选择上,平均可以达到空间的使用复杂度。

 function partition(a, left, right, pivotIndex)
 {
     pivotValue = a[pivotIndex]
     swap(a[pivotIndex], a[right]) // 把pivot移到結尾
     storeIndex = left
     for i from left to right-1
     {
         if a[i] < pivotValue
          {
             swap(a[storeIndex], a[i])
             storeIndex = storeIndex + 1
          }
     }
     swap(a[right], a[storeIndex]) // 把pivot移到它最後的地方
     return storeIndex
 }

这是原地分割演算法,它分割了标示为"左边(left)"和"右边(right)"的序列部份,借由移动小于a[pivotIndex]的所有元素到子序列的开头,留下所有大于或等于的元素接在他们后面。在这个过程它也为基准元素找寻最后摆放的位置,也就是它回传的值。它暂时地把基准元素移到子序列的结尾,而不会被前述方式影响到。由于演算法只使用交换,因此最后的数列与原先的数列拥有一样的元素。要注意的是,一个元素在到达它的最后位置前,可能会被交换很多次。

一旦我们有了这个分割演算法,要写快速排列本身就很容易:

 procedure quicksort(a, left, right)
     if right > left
         select a pivot value a[pivotIndex]
         pivotNewIndex := partition(a, left, right, pivotIndex)
         quicksort(a, left, pivotNewIndex-1)
         quicksort(a, pivotNewIndex+1, right)

这个版本经常会被使用在命令式语言中,像是C语言

优化的排序演算法

[编辑]

快速排序是二叉查找树(二元搜寻树)的一个空间最佳化版本。不是循序地把数据项插入到一个明确的树中,而是由快速排序组织这些数据项到一个由递归调用所隐含的树中。这两个演算法完全地产生相同的比较次数,但是顺序不同。对于排序算法的稳定性指标,原地分割版本的快速排序算法是不稳定的。其他变种是可以通过牺牲性能和空间来维护稳定性的。

快速排序的最直接竞争者是堆排序。堆排序通常比快速排序稍微慢,但是最坏情况的执行时间总是。快速排序是经常比较快,除了introsort变化版本外,仍然有最坏情况效能的机会。如果事先知道堆排序将会是需要使用的,那么直接地使用堆排序比等待introsort再切换到它还要快。堆排序也拥有重要的特点,仅使用固定额外的空间(堆排序是原地排序),而即使是最佳的快速排序变化版本也需要的空间。然而,堆排序需要有效率的随机存取才能变成可行。

快速排序也与归并排序竞争,这是另外一种递回排序算法,但有坏情况执行时间的优势。不像快速排序或堆排序,归并排序是一个稳定排序,且可以轻易地被采用在链表和储存在慢速存取媒体上像是磁碟储存网路连接储存的非常巨大数列。尽管快速排序可以被重新改写使用在链串列上,但是它通常会因为无法随机存取而导致差的基准选择。归并排序的主要缺点,是在最佳情况下需要额外的空间。

正规分析

[编辑]

从一开始快速排序平均需要花费时间的描述并不明显。但是不难观察到的是分割运算,阵列的元素都会在每次回圈中走访过一次,使用的时间。在使用结合(concatenation)的版本中,这项运算也是

在最好的情况,每次我们执行一次分割,我们会把一个数列分为两个几近相等的片段。这个意思就是每次递回调用处理一半大小的数列。因此,在到达大小为一的数列前,我们只要作次巢状的调用。这个意思就是调用树的深度是。但是在同一阶层的两个程序调用中,不会处理到原来数列的相同部份;因此,程序调用的每一阶层总共全部仅需要的时间(每个调用有某些共同的额外耗费,但是因为在每一阶层仅仅只有个调用,这些被归纳在系数中)。结果是这个演算法仅需使用时间。

另外一个方法是为设立一个递回关系式,也就是需要排序大小为的数列所需要的时间。在最好的情况下,因为一个单独的快速排序调用牵涉了的工作,加上对大小之数列的两个递回调用,这个关系式可以是:

解决这种关系式型态的标准数学归纳法技巧告诉我们

事实上,并不需要把数列如此精确地分割;即使如果每个基准值将元素分开为99%在一边和1%在另一边,调用的深度仍然限制在,所以全部执行时间依然是

然而,在最坏的情况是,两子数列拥有大各为,且调用树(call tree)变成为一个个巢状(nested)呼叫的线性连串(chain)。第 次呼叫作了的工作量,且递回关系式为:

这与插入排序选择排序有相同的关系式,以及它被解为

乱数快速排序的期望复杂度

[编辑]

乱数快速排序有一个值得注意的特性,在任意输入资料的状况下,它只需要的期望时间。是什么让随机的基准变成一个好的选择?

假设我们排序一个数列,然后把它分为四个部份。在中央的两个部份将会包含最好的基准值;他们的每一个至少都会比25%的元素大,且至少比25%的元素小。如果我们可以一致地从这两个中央的部份选出一个元素,在到达大小为1的数列前,我们可能最多仅需要把数列分割次,产生一个演算法。

不幸地,乱数选择只有一半的时间会从中间的部份选择。出人意外的事实是这样就已经足够好了。想像你正在翻转一枚硬币,一直翻转一直到有次人头那面出现。尽管这需要很长的时间,平均来说只需要次翻动。且在次翻动中得不到次人头那面的机会,是像天文数字一样的非常小。借由同样的论证,快速排序的递回平均只要的呼叫深度就会终止。但是如果它的平均呼叫深度是且每一阶的呼叫树状过程最多有个元素,则全部完成的工作量平均上是乘积,也就是

平均复杂度

[编辑]

即使如果我们无法随机地选择基准数值,对于它的输入之所有可能排列,快速排序仍然只需要时间。因为这个平均是简单地将输入之所有可能排列的时间加总起来,除以这个因数,相当于从输入之中选择一个随机的排列。当我们这样作,基准值本质上就是随机的,导致这个演算法与乱数快速排序有一样的执行时间。

更精确地说,对于输入顺序之所有排列情形的平均比较次数,可以借由解出这个递回关系式可以精确地算出来。

在这里,是分割所使用的比较次数。因为基准值是相当均匀地落在排列好的数列次序之任何地方,总和就是所有可能分割的平均。

这个意思是,平均上快速排序比理想的比较次数,也就是最好情况下,只大约比较糟39%。这意味著,它比最坏情况较接近最好情况。这个快速的平均执行时间,是快速排序比其他排序演算法有实际的优势之另一个原因。

空间复杂度

[编辑]

被快速排序所使用的空间,依照使用的版本而定。使用原地(in-place)分割的快速排序版本,在任何递回呼叫前,仅会使用固定的额外空间。然而,如果需要产生巢状递回呼叫,它需要在他们每一个储存一个固定数量的资讯。因为最好的情况最多需要次的巢状递回呼叫,所以它需要的空间。最坏情况下需要次巢状递回呼叫,因此需要的空间。

然而我们在这里省略一些小的细节。如果我们考虑排序任意很长的数列,我们必须要记住我们的变数像是leftright,不再被认为是占据固定的空间;也需要对原来一个项的数列作索引。因为我们在每一个堆叠框架中都有像这些的变数,实际上快速排序在最好跟平均的情况下,需要空间的位元数,以及最坏情况下的空间。然而,这并不会太可怕,因为如果一个数列大部份都是不同的元素,那么数列本身也会占据的空间位元组。

非原地版本的快速排序,在它的任何递回呼叫前需要使用空间。在最好的情况下,它的空间仍然限制在,因为递回的每一阶中,使用与上一次所使用最多空间的一半,且

它的最坏情况是很恐怖的,需要

空间,远比数列本身还多。如果这些数列元素本身自己不是固定的大小,这个问题会变得更大;举例来说,如果数列元素的大部份都是不同的,每一个将会需要大约为原来储存,导致最好情况是和最坏情况是的空间需求。

选择的关连性

[编辑]

选择算法(selection algorithm)可以选取一个数列的第个最小值;一般而言这是比排序还简单的问题。一个简单但是有效率的选择算法与快速排序的作法相当类似,除了对两个子数列都作递回呼叫外,它仅仅针对包含想要的元素之子数列作单一的结尾递回(tail recursive)呼叫。这个小改变降低了平均复杂度到线性或是时间,且让它成为一个原地算法。这个算法的一种变化版本,可以让最坏情况下降为(参考选择算法来得到更多资讯)。

相反地,一旦我们知道一个最坏情况的选择算法是可以利用的,我们在快速排序的每一步可以用它来找到理想的基准(中位数),得到一种最坏情况下执行时间的变化版本。然而在实际的实作中,这种版本一般而言相当慢。

实作范例

[编辑]
# Julia Sample : QuickSort

function QuickSort(A)
	i,j = 1,length(A) 
	if j > i
		rndv = A[rand(i:j)]
    Left,Right = i,j
   
		while Left <= Right
			while A[Left] < rndv
				Left += 1
			end

			while A[Right] > rndv
				Right -= 1
			end
			
			if Left <= Right
				A[Left], A[Right] = A[Right], A[Left]
                Left += 1
                Right -= 1
            end
		end
		quicksort!(A,i,Right)
		quicksort!(A,Left,j)
	end
	return A
end

# Main Code
A = [16,586,1,31,354,43,3]
println(A)               # Original Array
println(QuickSort(A))    # Quick Sort Array

外部链接

[编辑]

参考

[编辑]
  • Hoare, C. A. R. "Partition: Algorithm 63," "Quicksort: Algorithm 64," and "Find: Algorithm 65." Comm. ACM 4, 321-322, 1961
  • R. Sedgewick. Implementing quicksort programs, Communications of the ACM, 21(10):847-857, 1978.
  • David Musser. Introspective Sorting and Selection Algorithms, Software Practice and Experience vol 27, number 8, pages 983-993, 1997
  • A. LaMarca and R. E. Ladner. "The Influence of Caches on the Performance of Sorting." Proceedings of the Eighth Annual ACM-SIAM Symposium on Discrete Algorithms, 1997. pp. 370–379.
  • Faron Moller. Analysis of Quicksort. CS 332: Designing Algorithms. Department of Computer Science, University of Wales Swansea.
  • Steven Skiena. Lecture 5 - quicksort. CSE 373/548 - Analysis of Algorithms. Department of Computer Science. SUNY Stony Brook.

注脚

[编辑]

1. David M. W. Powers. Parallelized Quicksort with Optimal Speedup页面存档备份,存于互联网档案馆). Proceedings of International Conference on Parallel Computing Technologies. Novosibirsk. 1991.