二、算法
2.1 二种算法的比较
算法和数据结构不分家
计算1到100的和
#include <stdio.h>
void main()
{
int sum;
for (int i = 0; i < 101; i++)
{
sum += i;
}
printf("%d",sum);
}
PS D:\C> cd "d:\C\" ; if ($?) { gcc a.c -o a } ; if ($?) { .\a }
5050
以上就是一种算法,但它是不是很好?是不是效率很高?
下面看少年时期的高斯是怎么算,1到100的和的
用代码实现
#include <stdio.h>
void main()
{
int sum,n = 100;
sum = (1+n)*n / 2;
printf("%d",sum);
}
PS D:\C> cd "d:\C\" ; if ($?) { gcc a.c -o a } ; if ($?) { .\a }
5050
这是一种等差数列的算法
第一个写的算法,要计算机进行100次的循环才能计算出来
可以看出好的算法和烂的算法的差距
我只能说小母牛到南极,牛b到了极点
2.2 算法定义
算法算法就是这个题怎么算,特定问题求解步骤的描述,算题的方法,解决问题的步骤,在计算机中表现为指令的有限序列,并且每条指令表示一个或多个操作
刚才的例子我们也看到,对于给定的问题,是可以有多种算法来解决的。
现实世界中的问题千奇百怪,算法当然也就千变万化,没有通用的算法可以解决所有的问题。甚至解决一个小问题,很优秀的算法却不一定适合它。
算法定义中,提到了指令,指令能被人或机器等计算装置执行。它可以是计算机指令,也可以是我们平时的语言文字。
为了解决某个或某类问题,需要把指令表示成一定的操作序列,操作序列包括一
组操作,每一个操作都完成特定的功能,这就是算法了。
2.3 算法的特性
算法具有五个基本特性:输入、输出、有穷性、确定性和可行性。
2.3.1 输入输出
输入和输出特性比较容易理解,算法具有零个或多个输入。尽管对于绝大多数算
法来说,输入参数都是必要的,但对于个别情况,如打印“hello world!"这样的代
码,不需要任何输入参数,因此算法的输入可以是零个。算法至少有一一个或多个输出,算法是一定需要输出的,不需要输出,你用这个算法干吗?输出的形式可以是打印输出,也可以是返回-一个或多个值等。
2.3.2 有穷性
有穷性:指算法在执行有限的步骤之后,自动结束而不会出现无限循环,并且每
一个步骤在可接受的时间内完成。
现实中经常会写出死循环的代码,这就是不满足有穷性。当然这里有穷的概念并不是纯数学意义的,而是在实际应用当中合理的、可以接受的“有边界”。你说你写一个算法,计算机需要算上个二十年,一定会结束,它在数学意义上是有穷了,可是媳妇都熬成婆了,算法的意义也不就大了。
2.3.3 确定性
**确定性:算法的每一步骤都具有确定的含义,不会出现二义性。**算法在一定条件
下,只有一条执行路径,相同的输入只能有唯-一的输出结果。算法的每个步骤被精确定义而无歧义。
2.3.4 可行性
可行性:算法的每一步都必须是可行的,也就是说,每一步都能够通过执行有限
次数完成。
**可行性意味着算法可以转换为程序上机运行,并得到正确的结果。**尽管在目前计算机界也存在那种没有实现的极为复杂的算法,不是说理论上不能实现,而是因为过于复杂,我们当前的编程方法、工具和大脑限制了这个工作,不过这都是理论研究领域的问题,不属于我们现在要考虑的范围。
2.4 算法设计的要求
2.4.1 正确性
正确性:算法的正确性是指算法至少应该具有输入、输出和加工处理无歧义性、
能正确反映问题的需求、能够得到问题的正确答案。
但是算法的“ 正确”通常在用法上有很大的差别,大体分为以下四个层次。
1.算法程序没有语法错误。
2.算法程序对于合法的输入数据能够产生满足要求的输出结果。
3.算法程序对于非法的输入数据能够得出满足规格说明的结果。
4.算法程序对于精心选择的,甚至刁难的测试数据都有满足要求的输出结果
2.4.2 可读性
可读性:算法设计的另一目的是为了便于阅读、理解和交流。
2.4.3 健壮性
一个好的算法还应该能对输入数据不合法的情况做合适的处理。比如输入的时间
或者距离不应该是负数等。
健壮性:当输入数据不合法时,算法也能做出相关处理,而不是产生异常或莫名
其妙的结果。
2.4.4 时间效率高和存储量低
最后,好的算法还应该具备时间效率高和存储量低的特点。
时间效率指的是算法的执行时间,对于同一个问题,如果有多个算法能够解决,
执行时间短的算法效率高,执行时间长的效率低。
存储量需求指的是算法在执行过程中需要的最大存储空间,主要指算法程序运行时所占用的内存或外部硬盘存储空间。设计算法应该尽量满足时间效率高和存储量低的需求。在生活中,人们都希望花最少的钱,用最短的时间,办最大的事,算法也是一样的思想,最好用最少的存储空间,花最少的时间,办成同样的事就是好的算法。
书中举的例子实在是太好了!!!
综上,好的算法,应该是具有正确性,可读性,健壮性,高效率低存储量的特征
2.5 算法效率的度量方法
2.5.1 事后统计方法.
事后统计方法:这种方法主要是通过设计好的测试程序和数据,利用计算机计时器对不同算法编制的程序的运行时间进行比较,从而确定算法效率的高低。
2.5.2 事前分析估算方法
我们的计算机前辈们,为了对算法的评判更科学,研究出了一种叫做事前分析估算的方法。
事前分析估算方法:在计算机程序编制前,依据统计方法对算法进行估算。
也就是说,抛开这些与计算机硬件、软件有关的因素,一个程序的运行时间,依赖于算法的好坏和问题的输入规模。所谓问题输入规模是指输入量的多少。
显然,第一种算法,执行了1+ (n+1) +n+1次=2n+3 次;而第二种算法,是1+1+1=3次。
事实上两个算法的第一条和最后一条语句是一样的,所以我们关注的代码其实是中间的那部分,我们把循环看作一个整体,忽略头尾循环判断的开销,那么这两个算法其实就是n次与1次的差距。算法好坏显而易见。
可以从问题描述中得到启示,同样问题的输入规模是n,求和算法的第一种,求1+2+…+n需要一段代码运行n次。那么这个问题的输入规模使得操作数量是f (n)= n,显然运行100次的同一段代码规模是运算10次的10倍。
而第二种,无论n为多少,运行次数都为1,即f(n)=1;
第三种,运算100次是运算10次的100倍。因为它是f (n) =n^2
这一点也很好理解是吧!
2.6 函数的渐近增长
函数的渐近增长:给定两个函数f(n)和g(n),如果存在一个整数N,使得对于所有的n>N, f(n)总是比g(n)大,那么,我们说f(n)的增长渐近快于g(n)。
总结:
随着n的增大,后面的+3还是+1其实是不影响最终的算法变化的,例如算法A’与算法B’ ,所以,我们可以忽略这些加法常数。后面的例子,这样的常数被忽略的意义可能会更加明显。
最高次项相乘的常数并不重要。
最高次项的指数大的,函数随着n的增长,结果也会变得增长特别快。
判断一个算法的效率时,函数中的常数和其他次要项常常可以忽略,而更应该关注主项(最高阶项)的阶数。
2.7 算法时间复杂度
在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定 T( n )的数量级。算法的时间复杂度,也就是算法的时间量度,记作: T (n)= O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。
这样用大写0( )来体现算法时间复杂度的记法,我们称之为大0记法。
一般情况下, 随着n的增大,T(n)增长最慢的算法为最优算法。
显然,由此算法时间复杂度的定义可知,我们的三个求和算法的时间复杂度分别为O(n), O(1), O(n2)。我们分别给它们取了非官方的名称,0(1)叫常数阶、0(n)叫线性阶、0(n2)叫平方阶,当然,还有其他的一些阶,之后会介绍
2.7.2 推导大0阶方法
那么如何分析一个算法的时间复杂度呢?即如何推导大0阶呢?
推导大O阶:
1.用常数1取代运行时间中的所有加法常数
2.在修改后的运行次数函数中,只保留最高阶项
3.如果最高阶项存在且不是1,则去除与这个项相乘的常数。
得到的结果就是大O阶
哈,仿佛是得到了游戏攻略一样,我们好像已经得到了一个推导算法时间复杂度的万能公式。可事实上,分析一个算法的时间复杂度,没有这么简单,还需要多.看几个例子
2.7.3 常数阶
首先顺序结构的时间复杂度。下面这个算法,也就是刚才的第二种算法(高斯算法),为什么时间复杂度不是0(3),而是0(1)。
int sum = 0,n = 100; /*执行一次*/
sum =(1+n)*n/2; /*执行一次*/
printf ( "8d", sum) ; /*执行一次*/
这个算法的运行次数函数是f (n) =3。 根据我们推导大0阶的方法,第一步就是把常数项3改为1。在保留最高阶项时发现,它根本没有最高阶项,所以这个算法的时间复杂度为O(1)
如果有多条sum,那么它的时间复杂度依旧是O(1),也叫常数阶
注意:不管这个常数是多少,。我们都记作O(),而不能是O(3). O(12)等其他任何数字
2.7.4 线性阶
线性阶的循环结构会复杂很多。要确定某个算法的阶次,我们常常需要确定某个特定语句或某个语句集运行的次数。因此,我们要分析算法的复杂度,关键就是要分析循环结构的运行情况。
下面这段代码,它的循环的时间复杂度为O(n), 因为循环体中的代码须要执行n次。
#include <stdio.h>
void main()
{
int sum;
for (int i = 0; i < n; i++)
{
sum += i;
}
printf("%d",sum);
}
2.7.5 对数阶
int count=1;
while(count< n)
{
count = count * 2;
}
由于每次count乘以2之后,就距离n更近了一分。也就是说,有多少个2相乘后大于n,则会退出循环。由2^x=n 得到x=log2n。 所以这个循环的时间复杂度为
O(logn)。
2.7.6 平方阶
下面例子是一个循环嵌套,它的内循环刚才我们已经分析过,时间复杂度为
O(n)。
for (int i = 0; i < n; i++)
{
for (int j = 0; j < n; j++)
{
/* code */
}
}
而对于外层的循环,不过是内部这个时间复杂度为O(n)的语句,再循环n次。所以这段代码的时间复杂度为0(n^2)。
下面这个循环嵌套,它的时间复杂度是多少呢?
for (int i = 0; i < n; i++)
{
for (j = i; j < n; j++)
{
/* code */
}
}
用我们推导大0阶的方法,第一条,没有加法常数不予考虑;第二条,只保留最高阶项,因此保留n2/2; 第三条,去除这个项相乘的常数,也就是去除1/2, 最终这段代码的时间复杂度为O(n^2)。
2.7.7 方法调用的时间复杂度分析
for (int i = 0; i < n; i++) { func(i) }void func(int count){ printf(count);}
函数体是打印这个参数。其实这很好理解,function 函数的时间复杂度是O(1)。所以整体的时间复杂度为O(n)。
如果调用函数的内容有个循环,那么时间复杂度为O(n^2)
根据大O阶的方法,代码的时间复杂度也是O(n^2)
2.8 常见的时间复杂度
n的n方阶时间复杂度耗费的时间是最多的,最小的是常数阶
2.9最坏情况与平均情况
找东西有运气好的时候,也有怎么也找不到的情况。但在现实中,通常我们碰到的绝大多数既不是最好的也不是最坏的,所以算下来是平均情况居多。
算法的分析也是类似,我们查找-一个有n个随机数字数组中的某个数字,最好的情况是第一一个数字就是,那么算法的时间复杂度为0(1),但也有可能这个数字就在最后一个位置上待着,那么算法的时间复杂度就是0[n),这是最坏的一种情况了。
最坏情况运行时间是一种保证, 那就是运行时间将不会再坏了。在应用中,这是一种最重要的需求, 通常,除非特别指定,我们提到的运行时间都是最坏情况的运行时间。
平均运行时间也就是从概率的角度看,这个数字在每一个位置的可能性是相同的,所以平均的查找时间为n/2次后发现这个目标元素。
平均运行时间是所有情况中最有意义的,因为它是期望的运行时间。也就是说,我们运行一段程序代码时,是希望看到平均运行时间的。可现实中,平均运行时间很难通过分析得到,一般都是通过运行一定数量的实验数据后估算出来的。
对算法的分析,一种方法是计算所有情况的平均值,这种时间复杂度的计算方法称为平均时间复杂度。另一种方法是计算最坏情况下的时间复杂度,这种方法称为最坏时间复杂度。一般在没有特殊说明的情况下, 都是指最坏时间复杂度。
2.10 算法空间复杂度
算法的空间复杂度通过计算算法所需的存储空间实现,算法空间复杂度的计算公式记作: S(n)= Of(n), 其中,n为问题的规模,f(n)为语句关于n所占存储空间的函数。
小例子理解
我们在写代码时,完全可以用空间来换取时间,比如说,要判断某某年是不是闰年,你可能会花一-点心思写 了一一个算法,而且由于是-一个算法,也就意味着,每次给一个年份,都是要通过计算得到是否是闰年的结果。还有另-“个办法就是,事先建立一个有2 050个元素的数组(年数略比现实多-点),然后把所有的年份按下标的数字对应,如果是闰年,此数组项的值就是1,如果不是值为0。这样,所谓的判断某一
年是否是闰年,就变成了查找这个数组的某一项的值是多 少的问题。此时,我们的运算是最小化了,但是硬盘上或者内存中需要存储这2050个0和1。这是通过一笔空间上的开销来换取计算时间的小技巧
2.11 总结
数据结构和算法不分家,就像罗密欧与茱莉亚,梁山伯与祝英台,杨过和小龙女…
算法的定义:算法是解决特定问题求解步骤的描述,在计算机中为指令的有限序列,并且每条指令表示一个或多个操作。
算法的特性:有穷性、确定性、可行性、输入、输出。
算法的设计的要求:正确性、可读性、健壮性、高效率和低存储量需求。
算法特性与算法设计容易混,需要对比记忆。
算法的度量方法:事后统计方法(不科学、不准确)、事前分析估算方法。