概率算法新.ppt

上传人:sccc 文档编号:5011992 上传时间:2023-05-29 格式:PPT 页数:147 大小:1.93MB
返回 下载 相关 举报
概率算法新.ppt_第1页
第1页 / 共147页
概率算法新.ppt_第2页
第2页 / 共147页
概率算法新.ppt_第3页
第3页 / 共147页
概率算法新.ppt_第4页
第4页 / 共147页
概率算法新.ppt_第5页
第5页 / 共147页
点击查看更多>>
资源描述

《概率算法新.ppt》由会员分享,可在线阅读,更多相关《概率算法新.ppt(147页珍藏版)》请在三一办公上搜索。

1、,1,算法设计与分析黄刘生中国科学技术大学计算机系 国家高性能计算中心(合肥)2008.8.19,2,第一部分概率算法,3,Ch.1 绪论,1.故事:想象自己是神化故事的主人公,你有一张不易懂的地图,上面描述了一处宝藏的藏宝地点。经分析你能确定最有可能的两个地点是藏宝地点,但二者相距甚远。假设你如果已到达其中一处,就立即知道该处是否为藏宝地点。你到达两处之一地点及从其中一处到另一处的距离是5天的行程。进一步假设有一条恶龙,每晚光顾宝藏并从中拿走一部分财宝。假设你取宝藏的方案有两种:,1.1 引言,4,方案1.花4天的时间计算出准确的藏宝地点,然后出发寻宝,一旦出发不能重新计算 方案2.有一个小

2、精灵告诉你地图的秘密,但你必须付给他报酬,相当于龙3晚上拿走的财宝 Prob 1.1.1 若忽略可能的冒险和出发寻宝的代价,你是否接受小精灵的帮助?显然,应该接受小精灵的帮助,因为你只需给出3晚上被盗窃的财宝量,否则你将失去4晚被盗财宝量。但是,若冒险,你可能做得更好!,1.1 引言,5,设x是你决定之前当日的宝藏价值,设y是恶龙每晚盗走的宝藏价值,并设x9y 方案1:4天计算确定地址,行程5天,你得到的宝藏价值为:x-9y 方案2:3y付给精灵,行程5天失去5y,你得到的宝藏价值为:x-8y 方案3:投硬币决定先到一处,失败后到另一处(冒险方案)一次成功所得:x-5y,机会1/2 二次成功所

3、得:x-10y,机会1/2,1.1 引言,期望赢利:x-7.5y,6,2.意义 该故事告诉我们:当一个算法面临某种选择时,有时随机选择比耗时做最优选择更好,尤其是当最优选择所花的时间大于随机选择的平均时间的时侯 显然,概率算法只能是期望的时间更有效,但它有可能遭受到最坏的可能性。,7,3.期望时间和平均时间的区别确定算法的平均执行时间 输入规模一定的所有输入实例是等概率出现时,算法的平均执行时间。概率算法的期望执行时间 反复解同一个输入实例所花的平均执行时间。因此,对概率算法可以讨论如下两种期望时间平均的期望时间:所有输入实例上平均的期望执行时间最坏的期望时间:最坏的输入实例上的期望执行时间,

4、8,4.例子快速排序中的随机划分要求学生写一算法,由老师给出输入实例,按运行时间打分,大部分学生均不敢用简单的划分,运行时间在1500-2600ms,三个学生用概率的方法划分,运行时间平均为300ms。8皇后问题系统的方法放置皇后(回溯法)较合适,找出所有92个解 O(2n),若只找92个其中的任何一个解可在线性时间内完成O(n)。随机法:随机地放置若干皇后能够改进回溯法,特别是当n较大时判断大整数是否为素数确定算法无法在可行的时间内判断一个数百位十进制数是否素数,否则密码就不安全。概率算法将有所作为:若能接受一个任意小的错误的概率,9,5.概率算法的特点(1)不可再现性 在同一个输入实例上,

5、每次执行结果不尽相同,例如N-皇后问题概率算法运行不同次将会找到不同的正确解找一给定合数的非平凡因子每次运行的结果不尽相同,但确定算法每次运行结果必定相同(2)分析困难 要求有概率论,统计学和数论的知识,10,6.约定 随机函数uniform:随机,均匀,独立设a,b为实数,ab,uniform(a,b)返回x,a x b 设i,j为整数,ij,uniform(i.j)=k,i k j 设X是非空有限集,uniform(X)X,11,例1:设p是一个素数,a是一个整数满足1ap,a模除p的指数(index)是满足ai1(mod p)的最小正整数i。它等于集合X=aj mod p|j 1的势,即

6、i=|X|。例如,2模除31的指数等于5:25 mod 31=1,X=21 mod 31,22 mod 31,23 mod 31,24 mod 31,25 mod 31;5模除31的指数是3,即53 mod 31=1,3模除31的指数是30。由费马(Fermat)定理(ap-1 1(mod p)可知,a模p的指数总是恰好整除p-1.例如,设p=31,若a=2,则305=6;若a=5,则303=10。因此,X中的j至多为p-1,由此可得一种在X中随机,均匀和独立地取一个元素的算法。,12,ModularExponent(a,j,p)/求方幂模s=aj mod p,注意先求aj可能会溢出s 1;w

7、hile j0 do if(j is odd)s sa mod p;a a2 mod p;j j div 2;return s;Draw(a,p)/在X中随机取一元素j uniform(1.p-1);return ModularExponent(a,j,p);/在X中随机取一元素,13,伪随机数发生器在实用中不可能有真正的随机数发生器,多数情况下是用伪随机数发生器代替。大多数伪随机数发生器是基于一对函数:S:X X,这里X足够大,它是种子的值域R:X Y,Y是伪随机数函数的值域使用S获得种子序列:x0=g,xi=S(xi-1),i0然后使用R获得伪随机序列:yi=R(xi),i 0该序列必然是

8、周期性的,但只要S和R选的合适,该周期长度会非常长。TC中可用rand()和srand(time),用GNU C更好,14,基本特征随机决策在同一实例上执行两次其结果可能不同在同一实例上执行两次的时间亦可能不太相同分类Numerical,Monte Carlo,Las Vegas,Sherwood.很多人将所有概率算法(尤其是数字的概率算法)称为Monte Carlo算法,1.2 概率算法的分类,15,数字算法随机性被最早用于求数字问题的近似解例如,求一个系统中队列的平均长度的问题,确定算法很难得到答案概率算法获得的答案一般是近似的,但通常算法执行的时间越长,精度就越高,误差就越小使用的理由现

9、实世界中的问题在原理上可能就不存在精确解例如,实验数据本身就是近似的,一个无理数在计算机中只能近似地表示精确解存在但无法在可行的时间内求得有时答案是以置信区间的形式给出的,1.2 概率算法的分类,16,Monte Carlo算法(MC算法)蒙特卡洛算法1945年由J.Von Neumann进行核武模拟提出的。它是以概率和统计的理论与方法为基础的一种数值计算方法,它是双重近似:一是用概率模型模拟近似的数值计算,二是用伪随机数模拟真正的随机变量的样本。这里我们指的MC算法是:若问题只有1个正确的解,而无近似解的可能时使用MC算法例如,判定问题只有真或假两种可能性,没有近似解 因式分解,我们不能说某

10、数几乎是一个因子特点:MC算法总是给出一个答案,但该答案未必正确,成功(即答案是正确的)的概率正比于算法执行的时间缺点:一般不能有效地确定算法的答案是否正确,1.2 概率算法的分类,17,Las Vegas算法(LV算法)LV算法绝不返回错误的答案。特点:获得的答案必定正确,但有时它仍根本就找不到答案。和MC算法一样,成功的概率亦随算法执行时间增加而增加。无论输入何种实例,只要算法在该实例上运行足够的次数,则算法失败的概率就任意小。Sherwood算法Sherwood算法总是给出正确的答案。当某些确定算法解决一个特殊问题平均的时间比最坏时间快得多时,我们可以使用Sherwood算法来减少,甚至

11、是消除好的和坏的实例之间的差别。,1.2 概率算法的分类,18,这类算法主要用于找到一个数字问题的近似解2.1 值计算实验:将n根飞镖随机投向一正方形的靶子,计算落入此正方形的内切圆中的飞镖数目k。假定飞镖击中方形靶子任一点的概率相等(用计算机模拟比任一飞镖高手更能保证此假设成立)设圆的半径为r,面积s1=r2;方靶面积s2=4r2由等概率假设可知落入圆中的飞镖和正方形内的飞镖平均比为:由此知:,Ch.2 数字概率算法,19,求近似值的算法为简单起见,只以上图的右上1/4象限为样本Darts(n)k 0;for i 1 to n do x uniform(0,1);y uniform(0,1)

12、;/随机产生点(x,y)if(x2+y2 1)then k+;/圆内return 4k/n;实验结果:=3.141592654n=1000万:3.140740,3.142568(2位精确)n=1亿:3.141691,3.141363(3位精确)n=10亿:3.141527,3.141507(4位精确),2.1 值计算,20,求近似值的算法Ex.1 若将y uniform(0,1)改为 y x,则上述的算法估计的值是什么?,2.1 值计算,21,Monte Carlo积分(但不是指我们定义的MC算法)1、概率算法1设f:0,1 0,1是一个连续函数,则由曲线y=f(x),x轴,y轴和直线x=1围

13、成的面积由下述积分给出:向单位面积的正方形内投镖n次,落入阴影部分的镖的数目为k,则显然,只要n足够大,2.2 数字积分(计算定积分的值),22,概率算法1HitorMiss(f,n)k 0;for i 1 to n do x uniform(0,1);y uniform(0,1);if y f(x)then k+;return k/n;Note:是S/4的面积,=S,2.2 数字积分(计算定积分的值),23,概率算法1Ex2.在机器上用 估计值,给出不同的n值及精度。Ex3.设a,b,c和d是实数,且a b,c d,f:a,b c,d是一个连续函数,写一概率算法计算积分:注意,函数的参数是a

14、,b,c,d,n和f,其中f用函数指针实现,请选一连续函数做实验,并给出实验结果。,2.2 数字积分(计算定积分的值),24,概率算法1*Ex4.设,是(0,1)之间的常数,证明:若I是 的正确值,h是由HitorMiss算法返回的值,则当n I(1-I)/2时有:Prob|h-I|1 上述的意义告诉我们:Prob|h-I|,即:当n I(1-I)/2时,算法的计算结果的绝对误差超过的概率不超过,因此我们根据给定和可以确定算法迭代的次数解此问题时可用切比雪夫不等式,将I看作是数学期望。,2.2 数字积分(计算定积分的值),25,概率算法2更有效的概率算法是:在积分区间上随机均匀地产生点,求出这

15、些点上的函数值的算术平均值,再乘以区间的宽度:Crude(f,n,a,b)sum 0;for i 1 to n do x uniform(a,b);sum sum+f(x);return(b-a)sum/n;,2.2 数字积分(计算定积分的值),26,概率算法2用HitorMiss和Crude运行三次的结果为:假定 和 存在,由算法求得的估算值的方差反比于点数n。当n足够大时,估计的分布近似为正态分布。对于给定的迭代次数n,Crude算法的方差不会大于HitorMiss的方差。但不能说,Crude算法总是优于HitorMiss。因为后者在给定的时间内能迭代的次数更多。例如,计算值时,Crude

16、需计算平方根,而用投镖算法darts时无需计算平方根。,2.2 数字积分(计算定积分的值),27,确定的算法梯形算法将区间分为n-1个子区间,每个子区间内的长度为,Trapezoid(f,n,a,b)/假设 n 2delta(b-a)/(n-1);sum(f(a)+f(b)/2;for x a+delta step delta to b delta dosum sum+f(x)return sum delta;,2.2 数字积分(计算定积分的值),28,确定的算法 当n=100,=3.140399 当n=1,000,=3.141555 当n=10,000,=3.141586 当n=100,00

17、0,=3.141593一般地,在同样的精度下,梯形算法的迭代次数少于MC积分,但是有时确定型积分算法求不出解:例如,f(x)=sin2(100)!x),。但是用梯形算法时,当2 n101时,返回值是0。若用MC积分则不会发生该类问题,或虽然发生,但概率小得多。,2.2 数字积分(计算定积分的值),29,多重积分 在确定算法中,为了达到一定的精度,采样点的数目随着积分维数成指数增长,例如,一维积分若有100个点可达到一定的精度,则二维积分可能要计算1002个点才能达到同样的精度,三维积分则需计算1003个点。(系统的方法)但概率算法对维数的敏感度不大,仅是每次迭代中计算的量稍增一点,实际上,MC

18、积分特别适合用于计算4或更高维数的定积分。若要提高精度,则可用混合技术:部分采用系统的方法,部分采用概率的方法,2.2 数字积分(计算定积分的值),30,上一节可以认为,数字概率算法被用来近似一个实数,本节可用它们来估计一个整数值。例如,设X为有限集,若要求X的势|X|,则当X较大时,枚举显然不现实。问题:随机选出25人,你是否愿意赌其中至少有两个人生日相同吗?直觉告诉我们,一般人都不愿意赌其成立,但实际上成立的概率大于50%。,2.3 概率计数,31,一般地,从n个对象中选出k个互不相同的对象,若考虑 选择的次序,则不同的选择有 种;若允许重复选取同 一对象,则不同的选法共有 种。因此,从n

19、个对象(允许同一对象重复取多次)中随机均匀地选择出的k个对象互不相同的概率是:,注意a,b和b,a是不同的取法。由此可知,上述问题中,25个人生日互不相同的概率是:这里假设:不考虑润年,一年中人的生日是均匀分布的。,2.3 概率计数,32,由Stirling公式知:可得 假定 近似地 实际上,若,2.3 概率计数,33,因此,随机选出25个人中生日互不相同的概率约43%,由此可知至少有两人生日相同的概率约为57%。此例提示:有回放抽样,大集合通过第一次重复来估计集合大小。,2.3 概率计数,34,求集合X的势 设X是具有n个元素的集合,我们有回放地随机,均匀和独立地从X中选取元素,设k是出现第

20、1次重复之前所选出的元素数目,则当n足够大时,k的期望值趋近为,这里利用此结论可以得出估计|X|的概率算法:,2.3 概率计数,35,求集合X的势SetCount(X)k 0;S;a uniform(X);do k+;S Sa;a uniform(X);while(a S)return 2k2/注意:k的期望值是,上述算法n需足够大,且运行多次后才能确定n=|X|,即取多次运行后的平均值才能是n。该算法的时间和空间均为,因为,36,EX.用上述算法,估计整数子集1n的大小,并分析n对估计值的影响。,2.3 概率计数,37,多重集合中不同对象数目的估计 假设磁带上记录有Shakespeare全集

21、,如何统计其中使用了多少个不同的单词?为简单起见,同一词的复数,被动语态等可作为不同项。设N是磁带上总的单词数,n是其中不同词的数目方法一:对磁带上的单词进行外部排序,时间(NlgN),空间需求较大方法二:在内存中建一散列表,表中只存储首次出现的单词,平均时间O(N),空间(n),2.3 概率计数,38,多重集合中不同对象数目的估计方法三:若能忍受某种误差及已知n或N的上界M,则存在一个时空性能更好的概率算法解此问题。设U是单词序列的集合,设参数m稍大于lgM,可令:设h:U 0,1m 是一个散列函数,它用伪随机数的方法将U中的单词映射为长度为m的位串。(目的,减少存储量)若y是一个长度为k的

22、位串,用yi表示y的第i位,1ik;用(y,b),b 0,1来表示满足yi=b的最小的i,若y的位中没有哪一位等于b,则=k+1,2.3 概率计数,39,多重集合中不同对象数目的估计WordCount()y1.m+1 0;/初始化 for 磁带上每个单词x do/顺序读磁带i(h(x),1);/x的散列值中等于1的最小位置,表示x是/以 打头的yi 1;/将该位置置为1return(y,0);/返回y中等于0的最小位置,40,多重集合中不同对象数目的估计上界估计 例,不妨设m=4,h(x1)=0011,h(x2)=1010,h(x3)=0110,h(x4)=0010,算法返回:k=4也就是说,

23、若算法返回4,说明磁带上至少有3个单词的散列地址是以1,01,001打头的,但绝没有以0001打头的单词。一个以0001开始的随机二进制串的概率是2-4=1/16磁带上不太可能有多于16个互不相同的单词,即:互异单词的上界2k 因为只要h的随机性好,则对16个不同的单词xi,(h(xi),1)4(这些单词的散列值等于1的最小位置均不为4)的概率是(15/16)16 35.6%e-1(每个xi不等于0001的概率的15/16,16个单词均不以0001开头的概率为35.6%),只有此时算法才可能返回4。,2.3 概率计数,41,多重集合中不同对象数目的估计实际上,若算法的返回值k为4,则n=16的

24、概率为:Probk=4|n=16=31.75%下界估计 一个以001开始的随机二进制串的概率是2-3在磁带上互不相同的单词数目少于4的可能性不大,即:互不相同单词的下界2k-2 因为,对4个互不相同的单词中,至少有一个是以001打头的概率为1-(7/8)441.4%。实际上,若算法的返回值k为4,则n=4的概率为:Probk=4|n=4=18.75%粗略的分析告诉我们:磁带上互不相同的单词数目为:2k-22k实际上,算法WordCount估计的n应等于2k/1.54703性能:时间O(N),空间:O(lgN),2.3 概率计数,42,例如,矩阵乘法,求逆,计算特征值和特征向量只有一些特殊的应用

25、,概率算法会执行得比确定性算法要好。,2.4 线性代数中的数字问题,43,Sherwood算法能够平滑不同输入实例的执行时间设A是一个确定算法,tA(x)是解某个实例x的执行时间,设n是一整数,Xn是大小为n的实例的集合假定Xn中每一个实例是等可能出现的,则算法A解一个大小为n的实例的平均执行时间是:这里无法消除这样的可能性,存在一个size为n的实例x使得:设B是一个概率算法,对每个size为n的实例x满足:这里tB(x)是算法B在实例x上的期望值,s(n)是概率算法B为了取得均匀性所付出的成本。,Ch.3 Sherwood算法,44,虽然算法B的执行时间也可能偶然地在某一个实例x上大于,但

26、这种偶然性行为只是由于算法所做的概率选择引起的,与实例x本身没有关系。因此,不再有最坏情况的实例,但有最坏的执行时间。算法B在一个size为n的实例集上的平均期望时间可定义为:很清楚 也就是说Sherwood算法的平均执行时间略为增加。,Ch.3 Sherwood算法,45,在n个元素中选择第k个最小元素的算法关键在于选择划分元,有两种常用的方法:精心挑选划分元,使之是一个伪中值的元素,这样可使算法的最坏执行时间是O(n)取当前搜索区间的第一个元素作划分元,平均时间为O(n),但最坏时间是O(n2)。由于此方法简单,故平均性能较前者好。该类确定算法的特点:设T1.n互不相同,算法的执行时间不是

27、依赖于数组元素的值,而是依赖于元素间的相对次序,因此,表达时间的函数不只是依赖于n,而且还依赖于数组元素的排列设 tp(n,)使用伪中值算法的执行时间 ts(n,)使用简单算法的执行时间对多数的,,3.1 选择与排序,46,更精确地,设Sn是T中前n个数的排列的集合,|Sn|=n!,定义,于是有:但是:,3.1 选择与排序,47,概率算法随机选择T中的元素作为划分元期望时间为O(n),独立于输入实例注意:算法的某次执行有可能达到O(n2),但这种可能性与实例无关随着n的增大,这种可能性会很小。设tr(n,)是Sherwood算法的平均时间,则,3.1 选择与排序,48,将选择和排序的确定算法修

28、改为Sherwood算法很简单,但是当算法较复杂,例如它是一个缺乏文档资料的软件包的一部分时,就很难对其进行修改。注意,只有当该算法平均时间性能较优,但最坏性能较差时,才有修改的价值。一般方法是:将被解的实例变换到一个随机实例。/预处理用确定算法解此随机实例,得到一个解。将此解变换为对原实例的解。/后处理,3.2 随机的预处理,49,设:f:X Y 是解某问题用到的一个函数,且平均性能较优(指相应的算法);nN,Xn是size为n的实例的集合 An是一个大小和Xn大小相同的集合,假定在An中能够有效地均匀随机抽样A=An则随机的预处理由一对函数构成:u和v满足三个性质:函数u和v在最坏情况下能

29、够有效计算,3.2 随机的预处理,50,于是确定算法f(x)可改造为Sherwood算法:RH(x)/用Sherwood算法计算f(x)n lengthx;/x的size为n r uniform(An);/随机取一元素 y u(x,r);/将原实例x转化为随机实例y s f(y);/用确定算法求y的解s return v(r,s);/将s的解变换为x的解,3.2 随机的预处理,51,例1:选择和排序的Sherwood算法只需进行随机预处理将输入实例中元素打乱即可,相当于洗牌后处理无需进行只需调用确定的算法前先调用下述算法:Shuffle(T)n lengthT;for i 1 to n-1 d

30、o/在Ti.n中随机选1元素放在Ti上 j uniform(i.n);Ti Tj;,3.2 随机的预处理,52,例2:离散对数计算离散对数计算困难使其可用于密码算法,数字签名等定义:设 a=gx mod p,记 logg,pa=x,称x为a的(以g为底模除p)对数。从p,g,a计算x称为离散对数问题。简单算法 计算gx对所有的x,最多计算0 x p-1 或 1xp,因为实际上离散对数是循环群;验证a=gx mod p 是否成立。dlog(g,a,p)/当这样的对数不存在时,算法返回p x 0;y 1;do x+;y y*g;/计算y=gx while(a y mod p)and(x p);re

31、turn x,53,问题:最坏O(p)循环次数难以预料,当满足一定条件时平均循环p/2次当p=24位十进制数,循环1024次,千万亿次/秒(1016次/秒)大约算1年(108秒/年)若p是数百位十进制?随机选择都可能无法在可行的时间内求解。假设有一个平均时间性能很好,但最坏情况差的确定算法求logg,pa,怎样用Sherwood算法求解该问题?设p=19,g=2当a=14,6时,log2,1914=7,log2,196=14,即用dlog求14和6的离散对数时,分别要循环7和14次,执行时间与a的取值相关。用sherwood算法应该使得与a无关,用随机预处理的方法计算logg,pa,例2:离散

32、对数计算,54,定理(见p877,31.6)dlogRH(g,a,p)/求logg,pa,a=gx mod p,求x/Sherwood算法 r uniform(0.p-2);b ModularExponent(g,r,p);/求幂模b=gr mod p c ba mod p;/(gr modp)(gxmodp)modp=gr+xmodp=c y logg,pc;/使用确定性算法求logp,gc,y=r+x return(y-r)mod(p-1);/求xEx.分析dlogRH的工作原理,指出该算法相应的u和v,3.2 随机的预处理,55,随机预处理提供了一种加密计算的可能性 假定你想计算某个实例

33、x,通过f(x)计算,但你缺乏计算能力或是缺乏有效算法,而别人有相应的计算能力,愿意为你计算(可能会收费),若你愿意别人帮你计算,但你不愿意泄露你的输入实例x,你将如何做?可将随机预处理使用到f的计算上:使用函数u将x加密为某一随机实例y 将y提交给f计算出f(y)的值 使用函数v转换为f(x)上述过程,他人除了知道你的实例大小外,不知道x的任何信息,因为u(x,r)的概率分布(只要r是随机均匀选择的)是独立于x的。,3.2 随机的预处理,56,设两个数组val1.n和ptr1.n及head构成一个有序的静态链表:valhead valptrhead valptrptrhead valptrn

34、-1head例:,3.3 搜索有序表,i 1 2 3 4 5 6 7vali 2 3 13 1 5 21 8ptri 2 5 6 1 7 0 3rank 2 3 6 1 4 7 5head=4 有序表:1,2,3,5,8,13,21,57,折半查找:若val1.n本身有序,可用折半查找找某个给定的key,时间为O(lgn)。顺序查找:但此表为链式结构,故最坏时间是(n)。尽管如此,我们能够找到一个确定性算法,平均时间为。相应的Sherwood算法的期望时间是,它虽然并不比确定性算法快,但他消除了最坏实例。假定表中元素互不相同,且所求的关键字在表中存在,则给定x,我们是求下标i,使vali=x,

35、这里1i n。任何实例可以由两个参数刻画:前n个整数的排列 x的rank,3.3 搜索有序表,58,设Sn是所有n!个排列的集合,设A是一个确定性算法 tA(n,k,)表示算法A的执行时间,此时间与被查找元素的秩k,以及val的排列相关。若A是一个概率算法,则tA(n,k,)表示算法的期望值。无论算法是确定的还是概率的,wA(n)和mA(n)分别表示最坏时间和平均时间,因此有:,3.3 搜索有序表,59,时间为O(n)的确定算法算法设xvali且x在表中,则从位置i开始查找x的算法为Search(x,i)/仍可改进while x vali do i ptri;return i;在表val1.n

36、中查找x的算法为:A(x)return Search(x,head);,3.3 搜索有序表,60,性能分析设rank(x)=k,则:算法A在n个元素的表中查找x所需的访问数组元素的次数,显然与无关 算法A最坏时的访问次数 算法A平均的访问次数,3.3 搜索有序表,61,时间为O(n)的概率算法算法 D(x)i uniform(1.n);y vali;case x y:return Search(x,ptri);/case2 otherwise:return i;/case3,x=y,3.3 搜索有序表,62,性能分析(D访问数组次数)一般情况 设rank(x)=k,rank(vali)=j 若

37、 k j,则,属于case2,从jth最小元之后搜索若 k=j,则,属于case3 最坏情况,3.3 搜索有序表,63,平均情况,3.3 搜索有序表,64,平均时间为 的确定算法算法B(x)/设x在val1.n中i head;max vali;/max初值是表val中最小值for j 1 to do/在val的前 个数中找不大于x y val j;/的最大整数y相应的下标i if max y x then i j;max y;/endif/endforreturn Search(x,i);/从y开始继续搜索,3.3 搜索有序表,65,性能分析 for循环的目的:找不超过x的最大整数y,使搜索从

38、y开始,若将val1.n中的n个整数看作是均匀随机分布的,则在val1.L中求y值就相当于在n个整数中,随机地取L个整数,求这L个整数中不大于x的最大整数y。可用一个与L和n相关的随机变量来分析,更简单的分析如下:设n个整数的排列满足:a1 a2 an将其等分为L个区间:,3.3 搜索有序表,66,若均匀随机地从上述表中取L个数,则平均每个区间中被选到1个元素(注意:因为val的随机均匀性,这里所取的L个数相当于val1.L中的L个数),因此无论x是处在哪一个区间,其平均的执行时间为:i)若在x的同一区间中取到的数小于等于x,则它是算法中的y,那么Search的比较次数不超过区间长度n/l。i

39、i)若在x的同一区间中取到的数大于x,则在x的前一区间中的取到的数必为算法中的y,它必定小于x,且x和y的距离平均为n/l,此时Search的比较次数平均为n/l。,3.3 搜索有序表,67,注意,在Search前需执行L次循环,故有 因此,确定性算法中for的次数为,此时算法的平均时间 最小。Ex.写一Sherwood算法C,与算法A,B,D比较,给出实验结果。,3.3 搜索有序表,68,Las Vegas和Sherwood算法比较Sherwood算法一般并不比相应的确定算法的平均性能优Las Vegas一般能获得更有效率的算法,有时甚至是对每个实例皆如此Sherwood算法可以计算出一个给

40、定实例的执行时间上界Las Vegas算法的时间上界可能不存在,即使对每个较小实例的期望时间,以及对特别耗时的实例的概率较小可忽略不计时。Las Vegas 特点可能不时地要冒着找不到解的风险,算法要么返回正确的解,要么随机决策导致一个僵局。若算法陷入僵局,则使用同一实例运行同一算法,有独立的机会求出解。成功的概率随着执行时间的增加而增加。,Ch.4 Las Vegas 算法,69,算法的一般形式LV(x,y,success)x是输入的实例,y是返回的参数,success是布尔值,true表示成功,false表示失败p(x)对于实例x,算法成功的概率 s(x)算法成功时的期望时间e(x)算法失

41、败时的期望时间一个正确的算法,要求对每个实例x,p(x)0,更好的情况是:,Ch.4 Las Vegas 算法,70,Obstinate(x)repeatLV(x,y,success);until success;return y;设t(x)是算法obstinate找到一个正确解的期望时间,则 若要最小化t(x),则需在p(x),s(x)和e(x)之间进行某种折衷,例如,若要减少失败的时间,则可降低成功的概率p(x)。,Ch.4 Las Vegas 算法,71,传统的回溯法,4.1 8后问题,72,置当前行为第1行,当前列为第1列,即ij1;while i 8 do/当前行号 8检查当前行:从

42、当前列j起向后逐列试探,寻找安全列号;if 找到安全列号 then 放置皇后,将列号记入栈,并将下一行置为当前行(i+);j1;/当前列置为1 else 退栈回溯到上一行,即i-;移去该行已放置的皇后,以该皇后所在列的下一列作为当 前列;,4.1 8后问题,73,73,4.1 8后问题,2.Las Vegas方法向量try1.8中存放结果tryi表示第i个皇后放在(i,tryi)位置上try1.k称为k-promising是指:若k个皇后的位置(0k 8):(1,try1),(2,try2),(k,tryk)互相不攻击,则称try1.k是k-promising的.形式化:对,若 有(式1)若式

43、1成立,则:无行冲突:无须考虑,因为第i个皇后放在第i行,故同一行不会有两皇后,74,74,4.1 8后问题,无列冲突:若对任意不同的两行i、j,因为其列数之差不为0,故任意两皇后不可能在同一列上。135对角线无冲突:和 冲突时有:即 故任两皇后不会在135对角线上冲突。45对角线无冲突:和 冲突时有:即tryi-tryj=i-j故任两皇后不会在45对角线上冲突。综上所述,式1成立时try1.k是k-promising。显然,若k 1,则向量try1.k是k-promising的,对8后问题,解是8-promising的。算法,75,75,QueensLv(success)/贪心的LV算法,所

44、有皇后都是随机放置/若Success=true,则try1.8包含8后问题的一个解。col,diag45,diag135;/列及两对角线集合初值为空 k 0;/行号 repeat/try1.k是k-promising,考虑放第k+1个皇后 nb 0;/计数器,nb值为(k+1)th皇后的open位置总数 for i 1 to 8 do/i是列号 if(i col)and(i-k-1 diag45)and(i+k+1 diag135)then/列i对(k+1)th皇后可用,但不一定马上将其放在第i列 nb nb+1;if uniform(1.nb)=1 then/或许放在第i列 j i;/注意第

45、一次uniform一定返回1,即j一定有值1/endif/endfor,在nb个安全的位置上随机选择1个位置j放置之,76,76,4.1 8后问题,if(nb 0)then/nb=0时无安全位置,第k+1个皇后尚未放好/在所有nb个安全位置上,(k+1)th皇后选择位置j的概率为1/nb kk+1;/try1.k+1是(k+1)-promising tryk j;/放置(k+1)th个皇后 col col j;diag45 diag45 j-k;diag135 diag135 j+k;/endif until(nb=0)or(k=8);/当前皇后找不到合适的位置或try是/8-promisin

46、g时结束。success(nb0);,77,77,4.1 8后问题,分析设p是成功的概率(一次成功)s:成功时搜索的结点的平均数(1个皇后放好算是搜索树上的1个结点)e:失败时搜索的结点的平均数。显然s=9(空向量try算在内),p和e理论上难于计算,但实验用计算机可以计算出:p=0.1293e=6.971在重复上述算法,直至成功时(相当于obstinate的时间),所搜索的平均结点数:大大优于回溯法,回溯法约为114个结点才能求出一个解。Ex.证明:当放置(k+1)th皇后时,若有多个位置是开放的,则算法QueensLV选中其中任一位置的概率相等。,78,78,4.1 8后问题,问题及改进消

47、极:LV算法过于消极,一旦失败,从头再来乐观:回溯法过于乐观,一旦放置某个皇后失败,就进行系统回退一步的策略,而这一步往往不一定有效。折中:会更好吗?一般情况下为此。先用LV方法随机地放置前若干个结点,例如k个。然后使用回溯法放置后若干个结点,但不考虑重放前k个结点。若前面的随机选择位置不好,可能使得后面的位置不成功,如若前两个皇后的位置是1、3。随机放置的皇后越多,则后续回溯阶段的平均时间就越少,失败的概率也就越大。,79,79,4.1 8后问题,改进算法 折中算法只需将QueensLV的最后两行改为:until nb=0 or k=stepVegas;if(nb0)then/已随机放好st

48、opVegas个皇后 backtrace(k,col,diag45,diag135,success);else success false;stepVegas控制随机放置皇后的个数,如何选择?改进算法的试验结果:,80,80,纯回溯时间:40msstepVegas=2 or 3:10ms(平均)纯贪心LV:23ms(平均)结论:一半略少的皇后随机放置较好。,81,81,4.1 8后问题,-问题1:为什么仅随机放一个皇后,其效果就会大大优于纯回溯方法?,82,82,4.1 8后问题,-问题2:预先随机选几个皇后放置为好?由于解缺乏规律性(至少在皇后数不等于4k+2,k为某整数时),故求出step

49、Vegas的最优值较难,但是找到一个较好(不一定是最优)的stepVegas还是可以的。12皇后:,83,83,4.1 8后问题,在Apple II机器上,20个皇后:确定性的回溯算法:找到第一个解的时间大于2个小时。概率算法,随机地放置前10个皇后:5分半钟找到36个不同的解。后者找一个接比前者大约快1000倍!-Obstinate算法在何时无限循环?当问题不存在解时。对于n皇后,要求n=4,即问题至少有一个解存在时,Obstinate算法才有可能结束。Ex.写一算法,求n=1220时最优的StepVegas值。,84,84,4.2 模p平方根,定义1:设p是一个奇素数,若整数x1,p-1且

50、存在一个整数y,使则称x为模p的二次剩余(quadratic residue),若y 1,p-1,则y称为x模p的平方根。例:63是55模103的平方根,55是模103的二次剩余。定义2:若整数,且z不是模p的二次剩余,则z是模p的非二次剩余。,85,85,4.2 模p平方根,定理1:任何一个模p的二次剩余至少有两个不同的平方根pf:设x是模p的二次剩余,y是x模p的平方根。因为故只要证p-yy且1p-yp-1就可证明p-y是不同于y的x模p的另一个平方根。p是奇数,p-yy,否则p是偶数。另一方面,1yp-1,p-y p(p-1)=1/yp-1 p-yp-1/y1,86,86,4.2 模p平

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 建筑/施工/环境 > 农业报告


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号