算法——算法时间复杂度的计算和大O阶的推导

时间:2023-03-08 16:59:41
算法——算法时间复杂度的计算和大O阶的推导

在算法分析中,我们将语句总的执行次数记为T(n)进而分析T(n)随n的变化情况确认T(n)的数量级。一般情况下,T(n)随n增大变化最缓慢的算法为最优算法。

根据定义,T(n)的求法是很简单的,也就是简单的数数。举个例子:

int i;
;i<n;i++);

这里int执行一次,for循环里的语句执行n次,所以T(n)=n+1;但是当n变大时,这个常数就显得无足轻重了,所以它的算法复杂度为O(n)。

同样的,对于下面的代码:

int i,j;
;i<n;i++)
    ;j<n;j++);

这里int执行一次,嵌套的for执行了n*n次,所以T(n)=n2+1;同理,它的复杂度为O(n2)。

那么,下面的代码算法复杂度为多少呢?

int i,j;
  ;i<n;i++)
    for(j=i;j<n;j++);

这段代码,int执行一次,下面的for执行了n+(n-1)+(n-2)+...+1次,所以T(n)=1+(1+n)*n/2=n2/2+n/2+1。当n增大时,1和n/2都显得无足轻重了,只剩下n2/2,但是之前说过大O只考虑阶数,所以复杂度应该为O(n2)

再来看看下面的代码:

;
while(i<n)
    i*=;

每次执行i都乘以2,设执行次数为x,那么2x≥n,我们只取等于的情况,得到x=log2n。所以这个循环的复杂度为O(logn),底数大小其实在n很大的时候是无足轻重的,所以不做考虑。

上面就是常见的复杂度。我们总结下如何从T(n)变为O(T(n))


首先,推导出T(n)

将T(n)内的加法常数项改为1。

只保留多项式中的最高阶项。

如果最高阶项不是1,那么去除它的系数和常数项。

得到的结果就是大O阶。