首页 > 文章中心 > 关于马的俗语

关于马的俗语

前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇关于马的俗语范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。

关于马的俗语

关于马的俗语范文第1篇

1、马行十步九回头。

2、千里骡马一处牛。

3、牛头不对马嘴。(驴唇不对马嘴)

4、马看牙板,树看年轮。

5、人奔家乡马奔草。

6、马群奔驰靠头马。

7、人靠衣裳马靠鞍。

8、人要炼,马要骑。

9、舍得一身剐,敢把皇帝拉下马。

10、马不打不奔,不人激不发。

11、马上摔死英雄汉,河中淹死会水人。

12、拳头上立得人,()胳膊上走得马。

13、马屁拍在马腿上。

14、人有错手,马有失蹄

15、马上不知马下苦,饱汉不知饿汉饥。

16、人怕理,马怕鞭,蚊早怕火烟。

17、见鞍思马,睹物思人。

关于马的俗语范文第2篇

随着临床麻醉技术的提高,品的增多及不良反应的降低,复合麻醉用药过量以及镇痛及镇静过深,麻醉时间过长导致的物蓄积而致苏醒延迟及呼吸抑制时有发生。现选用佳苏仑作用全麻患者术后常规催醒,并对其临床疗效进行观察。

资料与方法

一般资料:选择100例患者作为试验组(催醒组),另外选择100例全身麻醉的手术患者作为对照组(自然醒组)。其中男92例,女108例;年龄7~76岁,平均53岁;体重22~95kg;ASA 1~2级。

麻醉方法:①术前用药:入室壶给阿托品0.5mg,小儿0.01mg/kg,麻醉诱导前测血压、心率、SPO2并持续心电监测。②麻醉诱导:咪唑安定0.03mg/kg,芬太尼1~3μg/kg,异丙酚1~2mg/kg,维库溴胺0.08~0.15mg/kg诱导,然后异丙酚、芬太尼微量泵持续静脉注。术毕前5分钟停异丙酚、芬太尼。试验组(催醒组)佳苏仑无禁忌症者给1~2mg/kg、新斯的明0.02mg/kg、阿托品0.01mg/kg催醒。对照组(自然醒组)生理盐水5ml入壶、新斯的明0.02mg/kg、阿托品0.01mg/kg。如试验组用量不足,10分钟不醒者再给佳苏仑1mg/kg静脉注射,对照组(自然醒组)术毕待其自然苏醒。

结 果

试验组(催醒组)静脉滴注佳苏仑1~2mg/kg分别于1、2、5、10、15、20分钟测血压、心率、潮气量、呼吸频率、氧饱和度。静脉给药3~5分钟患者意识恢复迅速,呼之睁眼,安静,无躁动,给药5分钟后潮气量增加100~300ml,频率增加5~10次/分。对照组(自然醒)苏醒平均在15分钟。两组各项指标达到正常范围,血压、心率、呼吸平稳,视患者情况无特殊直接送回病房,继续监护,术后随访。

讨 论

佳苏仑为非特异性呼吸兴奋药,它的兴奋呼吸作用是直接兴奋延髓呼吸中枢和作用于颈动脉化学受体,使潮气量和呼吸频率明显增加,同时增加防御反射,其在催醒过程中不对抗阿片药物的镇痛作用,患者苏醒过程安静无躁动,拔管后对答切题、反应灵活、目光有神,术后再次嗜睡的几率减少,对于应用佳苏仑效果不佳的患者要分析嗜睡的原因、是否肌松药残留过多或麻醉过深,其催醒效果也与术中的麻醉时间长短、麻醉深度及术毕停药时间有很大的关系。同时应注意到佳苏仑能兴奋交感神经系统,使儿茶酚胺释放致心率增快、血压升高。对于恶性高血压患者有引起肺水肿的个例报道应引起足够重视,对于老年患者或冠心病患者应缓慢从小剂量开始逐渐追加给药可避免不良反应,因此必须根据具体情况对症处理,才能达到最好的效果。

总之,佳苏仑对全麻患者催醒效果可靠,安全范围大,缩短了苏醒时间,提高了围手术期的安全性,常规用于全麻催醒是很必要的。

参考文献

1 温智彪,招伟贤.佳苏仑的催醒与呼吸兴奋作用及其对血流动力学的影响[J].临床麻醉学杂志,1989,5(1):3-6.

2 郭发根.佳苏仑与纳洛酮在全麻催醒时镇痛效果的比较[J].中华腹部疾病杂志,2006,6(11):804-805.

关于马的俗语范文第3篇

马铃薯试管苗在反复继代过程中脱毒试管苗常常出现严重的徒长现象,表现为苗的生长势减弱、节间距过长,叶片小、颜色淡,营养成分积累明显不足,不仅降低了繁殖倍数,而且影响移栽成活率和降低微型薯的生产潜力,甚至会产生变异苗 。本研究将矮壮素和多效唑应用于脱毒马铃薯的试管苗繁殖中,研究了二者对马铃薯试管苗生长、器官发生、种质保存及生根的影响,为探索高产量、高品质、高效率和低成本的马铃薯脱毒试管苗调控生产技术提供科学依据。

1 材料与方法

1.1 试验材料

试验材料为连续培养30代的脱毒马铃薯品种克新13号试管。

1.2 培养基的配制

以 MS 为基本培养基,琼脂用量7g/L,蔗糖30g/L, pH值调至5.8,250mL 的培养瓶倒入50 mL培养基, 培养基采用常规灭菌。培养基中分别添加矮壮素(5、10、15、20mgl/L),多效唑(0.05、0.1、0.15、0.2 mg/L),以不添加任何矮化剂作为对照。

1.3 接种

选取生长比较一致的脱毒马铃薯试管苗,采用带一个叶片的单节茎段,将茎段插在培养基上,腋芽朝上,每个处理 6 瓶,每瓶接种 20个茎段,全部试验共设 3 次重复。

1.4 培养条件

将接种好的培养瓶移入培养室,培养室温度控制在 24~26℃,湿度 65% ~80%,光照 3 000 lx,光照时间 16 h。

1.5观察记录

于培养后 10、20、30 d 统计株高和新生丛生芽数量并作分析接种后 30 d 统计试管苗生长情况,继续培养以统计最长保存时间。每隔 10 d 测量试管苗的植株高度、节间距、叶片数、根数和根长,测量结果取其算术平均值。

2 结果与分析

2.1矮壮素和多效唑对马铃薯试管苗生长效应的影响

在加入不同浓度的多效唑和矮壮素的培养基中,克新13号试管苗均表现出不同的生长效应,从表2-1可以看出,矮壮素和多效唑能有效抑制马铃薯试管苗的腋芽萌发,推迟腋生枝条萌发的时间,使试管苗茎段加粗,叶片数量增多, 叶色浓绿,叶片变宽而加厚,且随浓度的增加,株高明显变矮,节间距逐渐缩短。但高浓度矮壮素和多效唑对试管苗的抑制作用过于强烈,当矮壮素的浓度达到20mg/L,多效唑的浓度达到0.2mg/L时,试管苗株高生长被严重抑制,叶片反卷,基部叶片黄化并逐渐脱落。

不同浓度矮壮素和多效唑处理对试管苗增殖所带来的效应差异显著。在添加10 mg/L的矮壮素培养基中,试管苗可用繁殖节数增加42.9%,在添加0.1mg/L的多效唑培养基中,试管苗可用繁殖节数增加28.6%,因此在培养基中添加10 mg/L的矮壮素或0.1mg/L的多效唑可以获得增殖和复壮双重效果。

2.2 矮壮素和多效唑对马铃薯试管苗生根的影响

由表2-2可以看出,随着矮壮素和多效唑浓度增加和作用时间的延长,克新13号试管苗的生根率和根长表现出明显的变化。对照植株的生根率为96%,当添加低浓度的矮壮素或多效唑时植株的生根率可达到100%,当添加高浓度的矮壮素或多效唑时,试管苗的生根率受到抑制开始下降。对照植株平均根长为 6.12 cm,在含有 5、10、15、20mg/L 矮壮素培养基中培养 30 d 时,其平均根长分别为对照组的 0.88、0.71、0.5、0.41 倍。在含 0.05、0.1、0.15、0.2mg / L 多效唑培养基中培养 30 d 时,其平均根长分别是对照组的0.85、0.67、0.44、0.33。试验结果显示,随着矮壮素和多效唑浓度的增大,根长变短,每株根数呈现现增加后减少的趋势,因此在培养基中添加。10 mg/L的矮壮素或0.1mg/L的多效唑可以使试管苗根系密集、粗短,有利于移栽。

3 讨论

关于马的俗语范文第4篇

目的 观察术毕前静脉注射舒芬太尼和芬太尼预防全麻术后苏醒期躁动的效果。方法 选择120例ASA Ⅰ~Ⅱ级全麻择期手术患者,随机分为A、B两组,每组60例,均以咪唑安定、维库溴铵、芬太尼诱导。术中以丙泊酚加瑞芬太尼全凭静脉麻醉,间断注射维库溴铵维持肌松。A组术毕前静注芬太尼1μg·kg-1,B组注射舒芬太尼0.15μg·kg-1。分别记录麻醉前患者的呼吸次数、麻醉时间、自主呼吸恢复时间、拔管时间、拔管时的SAS评分及拔管5min后的呼吸频率。结果 两组患者麻醉时间、自主呼吸恢复时间、拔管时间无统计学意义(P>0.05)。苏醒期SAS评分,B组优于A组(P<0.05)。结论 丙泊酚+瑞芬太尼静脉麻醉在苏醒期前预注小剂量舒芬太尼可以使麻醉苏醒更平稳,有效预防苏醒期躁动,且比给予小剂量的芬太尼更安全。

【关键词】 苏醒期躁动;舒芬太尼;芬太尼;麻醉

瑞芬太尼停药后患者清醒迅速,体内无蓄积,广泛应用于临床静脉麻醉。但其超短效的药理特性决定其停药后患者在极短时间内由无痛转为剧痛,对生理干扰强烈[1],全麻苏醒期躁动是其临床表现之一。为了预防这种因疼痛引起的苏醒期躁动,我院在全麻手术停药结束时,给予小剂量舒芬太尼,并且与给予小剂量芬太尼相比较,现将观察结果报告如下。

1 资料与方法

1.1 一般资料

选择择期全麻手术患者120例,ASA Ⅰ~Ⅱ级,随机分为芬太尼组(A组)和舒芬太尼组(B组)各60例,各组年龄、体重、性别差异无统计学意义,见表1。 表1 两组的一般情况对比(略)

1.2 麻醉方法

术前肌注阿托品0.5mg,入室开放静脉;监测BP、HR、SpO2、ECG,麻醉诱导以咪唑安定0.05mg·kg-1、芬太尼2μg·kg-1,维库溴铵0.15 mg·kg-1和丙泊酚1~2mg·kg-1,行气管插管,术中维持:丙泊酚5mg·kg-1·h-1加瑞芬太尼0.15μg·kg-1·min-1持续泵入,可根据手术情况增减。手术结束前10min停止泵入,静脉注入芬太尼1μg·kg-1(A组)和舒芬太尼0.15μg·kg-1(B组),给药后立即清理口腔和气道的分泌物,并即时观察数据。

1.3 观察数据

记录麻醉持续时间、麻醉前呼吸次数(次/分)、停药后自主恢复呼吸时间(min)、拔管时间(min)、拔管时的SAS评分[2]、拔管后5min的呼吸频率(次/分)。

1.4 统计学方法

计量以均数±标准差(±s)表示,t检验;计数资料卡方检验,P<0.05为差异有统计学意义。

2 结果

两组患者麻醉前的呼吸频率、停药后的自主呼吸时间、拔管时间、麻醉持续时间、拔管后5min的呼吸频率差异均无统计学意义,拔管时的SAS评分B组优于A组,见表2。表2 两组患者麻醉情况比较(略)

3 讨论

随着丙泊酚、瑞芬太尼等短效麻醉药物的广泛应用,麻醉停药后的血浆药物浓度迅速下降,使患者很到疼痛,从而使麻醉恢复期间,特别是拔管期间发生躁动的可能性增加。因此,提前给予小剂量镇痛药能够有效预防躁动的发生,避免因躁动而发生的一系列并发症。本组对比中,在年龄、体重、麻醉持续时间差异无统计学意义的前提下,两种用药方式均有效抑制了躁动的发生。自主呼吸恢复时间、拔管时间、拔管后5min的呼吸频率无差异,SAS评分,舒芬太尼组优于芬太尼组。

舒芬太尼是芬太尼的衍生物,二者均为作用于μ阿片受体的激动剂,舒芬太尼的亲脂性约为芬太尼的2倍,更易透过血脑屏障,其镇痛的效价约为芬太尼的5~9倍[3]。阿片μ受体具有μ1和μ2两种亚型。阿片受体药物结合于μ1受体即产生镇痛效应,结合了μ2受体则产生呼吸抑制效应。舒芬太尼与μ1受体的结合较芬太尼有更高的选择性[4],因此1︰7左右的等效剂量的舒芬太尼即达到了5~9倍的芬太尼的镇痛效果,而且舒芬太尼有较宽的安全域范围,药物在体内有限的积蓄和迅速清除,使患者能尽快地苏醒。在全凭静脉麻醉中,患者苏醒前给予小剂量舒芬太尼,可以使麻醉苏醒更平稳,有效预防躁动发生,且比应用芬太尼更为安全。

参考文献

[1]吴新民,叶铁虎,岳云,等.国产注射用瑞芬太尼有效性和安全性的评价[J].中华麻醉学杂志,2003,23(4):245-248.

[2]Riker RR, Fraser GL, Simmons LE, et al. Validating the sedation-Agitation Scale with the Bispectval Index and Visual Analog Scale in adult ICU patients after cardiac surgery[J]. Intensive Care Med, 2001,21:853-858.

关于马的俗语范文第5篇

关键词:高效视频编码;帧内快速编码;纹理特性;空域相关性; 提前中止

中图分类号: TN919.81文献标志码:A英文标题

0引言

随着人们对高清和超高清数字视频需求的大量增加,高清和超高清数字视频的编码和传输日益成为研究的主要问题。为了解决这个问题,高效视频编码(High Efficiency Video Coding, HEVC)标准[1]应运而生,它是继H.264/AVC(Advanced Video Coding)[2]之后的新一代视频编码标准,并于2013年1月由ITUT VCEG(Video Coding Experts Group)和ISO/IEC MPEG(Moving Pictures Experts Group)组成的视频编码联合专家组JCTVC(Joint Collaborative Team on Video Coding)确定为新一代国际视频编码标准。HEVC的目标是在H.264/AVC High Profile基础上将视频的压缩效率提高1倍,即在保证相同图像质量的前提下,编码码率Bitrate降低50%左右。

第4期 等:基于纹理特性与空域相关的高效视频编码帧内分级快速算法计算机应用 第36卷同之前的视频编码标准一样,HEVC也采用了经典的基于块的混合编码框架。HEVC在H.264/AVC的基础上加入了一些全新的编码技术,例如针对大尺寸的四叉树结构的分割技术,其中采用了最大编码单元(Largest Coding Unit, LCU)、编码单元(Coding Unit, CU)、预测单元 (Prediction Unit, PU)和变换单元(Transform Unit, TU)来描述整个编码过程;同时还加入了多角度帧内预测技术、高精度运动补偿技术、运动融合技术和自适应运动矢量预测技术,以及样点自适应偏移和环路滤波等[3-4],这些新技术的采用使得压缩效率提高将近1倍[5]。但在HEVC压缩效率显著提高的同时,编码复杂度也在急剧增加,不利于HEVC的实时应用[6]。因此在不影响HEVC编码质量的情况下,有效降低编码复杂度成为了当前HEVC的研究热点。

帧内编码是HEVC的一个重要组成部分,它通过充分利用空域相关性来提高编码效率。由于帧内编码采用了灵活的四叉树分割技术和多角度帧内预测技术,导致帧内编码复杂度极高。

目前国内外关于帧内编码的快速算法主要是从CU快速分割和PU快速模式选取两方面进行的。在CU快速分割方面,主要是从CU递归分割的提前中止与跳过的角度和深度范围提前确定的角度进行优化。从CU分割的提前中止与跳过的角度:Huang等[7]提出一种CU深度判决算法,利用纹理复杂度和当前CU与相邻CU的相关性来判决CU分割和深度搜索范围。Li等[8]利用在线学习的方法提出一种快速CU分割和裁剪的方案来加速CU分割过程,根据分割的学习概率值进行分割和裁剪,在一定程度上降低了CU分割的复杂度。Lee等[9]提出一种基于统计分析的CU尺寸判决算法,从SKIP模式跳过、CU提前跳过和CU提前中止三个方面加速帧内编码过程。从深度范围提前确定的角度降低编码复杂度,晏轲等[10]提出一种基于时空相关的编码单元深度快速分级判决算法,通过量化分析时空相邻CU之间的相关性权重,利用已编码时空相邻CU的最佳深度预测当前CU的深度范围,极大地降低了计算复杂度。在PU快速模式选取方面,Piao等[11]提出一种粗选择的模式选取方案――RMD(Rough Mode Decision),将粗选出的候选模式经过率失真优化(Rate Distortion Optimization, RDO)选出最优的预测模式。Zhao等[12]在RMD的基础上利用空域相关性进一步减少了候选预测模式的数目,降低了编码复杂度。Hu等[13]将帧内编码的模式判决问题看作为贝叶斯判决问题,利用TCM(Transparent Composite Model)提出一种基于奇异值的帧内快速模式选取算法,该算法有效减少了候选预测模式的数目。

目前,也有研究人员从CU快速分割和PU快速模式选取两方面来加速编码过程。Shen等[14]提出一种快速CU尺寸判决和模式选取算法,该算法充分利用空域相关性、预测模式相关性以及率失真代价相关性,跳过不必要CU和预测模式的编码,有效降低了编码复杂度。Shen等[15]还提出一种有效的帧内CU深度判决快速算法,利用空域相关性实现大的CU块的提前跳过以及利用纹理一致性实现CU尺寸的提前确定,有效降低了帧内编码复杂度。李持航等[16]提出一种基于纹理方向和空域相关的帧内快速编码算法,利用空域相关性和率失真代价相关性实现CU提前中止,同时根据纹理方向特性进行快速PU模式选取。Zhang等[17]提出一种基于机器学习的CU深度判决方法,通过建立率失真性能与复杂度模型获取最优参数进行支持向量机训练,在给定的率失真代价的限制下实现了每一个CU级复杂度的分配。文献[8-17]算法从不同的角度来加速帧内编码过程,在CU快速分割方面仅利用了视频图像本身的时空域相关性和统计特性,但没有考虑到将时空域相关性和统计特性与视频纹理特性相结合来确定最有可能深度范围。文献[7]算法虽然将纹理复杂度和空域相关性相结合来确定CU深度搜索范围,但至少需要遍历2~3个CU深度级,并且没有对LCU下的子CU进行深度判决,降低复杂度相对有限;文献[10]算法利用时空域相关性进行CU深度判决,极大地降低了编码复杂度,但由于判决错误导致率失真性能较差,码率平均上升1.03%。文献[16]算法从CU分割和PU模式选取两个方面进行快速编码,但是在CU分割方面只能跳过深度3的编码,节省时间非常有限。基于机器学习的快速算法[17],训练本身具有一定的复杂度,同时因为误判会导致率失真性能下降较多。这些快速算法利用视频图像的时空域相关性或纹理特性及其统计特性来降低编码复杂度,但对这些特性的综合利用以及对LCU下子CU的深度判决并没有充分研究。

由于在帧内编码中CU递归分割的复杂度非常高,本文针对上述算法存在的问题,从CU快速分割的角度,提出一种降低CU递归分割复杂度的帧内分级快速算法。前述算法[7-17]仅仅是利用视频图像的时空域相关性、纹理特性或统计特性中的部分特性进行快速编码,而本文算法综合利用了视频图像的空域相关性、纹理特性及其统计特性,采用自适应阈值的策略,并对LCU下的子CU进行分割判决。本文算法分为两个方面:首先采用LCU级的快速算法,将空域相关性和视频纹理特性相结合来预测当前LCU的最有可能深度范围(Most Probable Depth Range, MPDR),跳过不必要的CU深度级的编码;然后采用CU级的快速算法,在LCU级快速算法确定的MPDR的基础上,采用基于边缘图的CU深度预判策略和基于率失真代价相关性的CU提前中止策略,实现CU级深度的提前确定,进一步降低了帧内编码复杂度。

1帧内编码的复杂度分析

HEVC采用四叉树递归分割的方式对LCU进行编码。如图1所示,从上到下是CU的递归分割过程,每一级2N×2N的CU都要分割为4个N×N的子CU;从下往上是CU的回溯裁剪过程,利用RDO准则选择最佳的CU尺寸,确定一个LCU的最终划分。在帧内编码中,每一个8×8的CU还可以继续划分为4个4×4的PU进行预测编码。由此可见,在确定最佳CU和PU划分组合的过程中,需要进行1+4+42+43+44=341次递归过程,这使得CU递归分割的计算复杂度极高。

HEVC帧内预测的模式选取过程的计算量也是很大的。过程如下:首先,对每一个PU进行粗选择,即根据SATD(Sum of Absolute Transformed Differences)率失真代价模型从35种帧内预测模式中粗选出N种候选预测模式,N的取值见表1;然后将从左边块和上边块中提取的最优预测模式组成的最有可能模式(Most Probable Mode, MPM)和N种粗选后的候选模式加入到候选列表中;最后,计算并比较候选列表中的每一种模式的率失真代价值,从中选出最优的帧内预测模式。因此对于亮度分量来说,一个LCU中PU的最优预测模式的确定,需要进行35×(1+4+16+64+256)=11935次SATD的计算,然后至少需要进行3×(1+4+16)+8×(64+256)=2623次RDO的计算,其中RDO的计算量非常大,这也就导致了帧内编码的计算复杂度非常高。

在帧内编码中每一个CU都需要进行复杂的PU模式选取过程,所以如果在CU递归分割过程就跳过不必要CU的编码及其对应PU的模式选取过程,那么帧内编码的计算量将会大大减少,编码复杂度将显著降低。这是由于PU是在CU的基础上进行划分的,CU数目的增加会造成PU数目的增加;同时,在HEVC帧内编码中,CU递归分割的复杂度是非常高的。因此本文将针对CU递归分割计算复杂度极高的问题,综合利用视频图像的空域相关性、纹理特性及其统计特性并对LCU下的子CU进行深度判决,提出一种基于纹理特性与空域相关性的帧内CU分级快速编码算法,分为LCU级快速算法和CU级快速算法两个方面。下面将分别介绍这两个方面的实现原理。

3实验结果与分析

为了验证本文算法的有效性,将本文算法在HEVC参考软件HM10.0上进行实现以测试其率失真性能和编码复杂度。实验平台的硬件配置为Intel Core i52500 CPU 3.3GHz,内存为8.0GB。实验的主要编码参数为全I帧编码模式(All Intra Main, AIMain),高效率(High Efficiency, HE)配置,编码帧数为100帧,QP分别为22、27、32和37,GOP(Group of Pictures)为8。为了衡量算法的率失真性能,本文采用BDrate[19]表示相同图像质量条件下码率的变化百分比;同时采用编码节省时间ΔT来衡量算法的编码复杂度降低。其中:ΔT表示测试算法的编码时间与标准算法的编码时间之差,再与标准算法的编码时间之比。

本文采用通用测试条件[20]中的20个测试序列进行实验验证,分别为A类~E类的5类标准测试序列,其中A类~E类的视频序列对应的分辨率分别为2560×1600、1920×1080、832×480、416×240和1280×720,分别对应不同的应用场合。为了验证本文算法的有效性,除了与标准算法HM10.0进行对比外,还与文献[8]算法和文献[16]算法进行横向的对比,实验结果如表3所示。

表3中的实验结果表明,本文算法与标准算法相比,BDrate平均上升0.74%,编码时间平均节省41.81%;而采用文献[8]算法,与标准算法相比,BDrate平均上升1.05%,编码时间平均节省38.80%;采用文献[16]中的融合算法,与标准算法相比,BDrate平均上升0.77%,编码时间平均节省35.66%。因此本文算法相比文献[8]算法和文献[16]中的融合算法,能够在保持更好的率失真性能的前提下,进一步节省更多的编码时间。这是因为本文算法在LCUDRPFA中利用空域相关性和纹理特性联合预测当前LCU的最有可能深度范围MPDR,缩小了CU深度的搜索范围,跳过不必要的CU块的编码;并且在LCUDRPFA确定的MPDR的基础上采用基于边缘图的CU深度级预判策略和基于率失真代价相关性的CU级提前中止策略,进一步降低了帧内编码复杂度。本文算法对于C类和D类视频序列节省时间较少,原因在于这两类的低分辨率序列的纹理比较复杂,LCUDRPFA中确定的MPDR仅仅跳过深度级0或1,还是需要进行绝大多数小块的编码,因而节省时间非常有限。但是,针对低分辨率序列需要进行大多数小块的编码,本文算法CUDDFA采用了基于边缘图的CU深度级预判策略,根据16×16CU和8×8CU中的边缘标志位提前确定当前CU的深度级,在保持较好的率失真性能的前提下进一步降低了低分辨率序列的编码复杂度。本文算法对于A类、B类和E类的高分辨率序列时间节省较多,原因在于对于高分辨率序列,LCUDRPFA提前跳过了不必要的小尺寸CU的编码,并且CUDDFA中提前确定CU的深度级,进一步降低了高分辨率序列的编码复杂度。由此可见,本文算法对于不同特性的视频序列具有比较稳定的编码性能。

为了比较本文算法与文献[8]算法、文献[16]中融合算法的率失真性能和编码时间节省情况,图10中给出了Traffic、BasketballDrive、BQMall、KristenAndSara和BasketballPass五个不同特性序列的BDrate与编码时间节省的比较。由图10可见,本文算法与文献[8]算法的编码时间节省相当,但是本文算法比文献[8]算法引起的BDrate上升更小,能够保持更好的率失真性能。与文献[16]算法相比,本文算法在保持更好的率失真性能的前提下,能够节省更多的编码时间。这是由于本文算法中最有可能深度范围的设置具有很高的准确率(93.84%),同时CU级深度判决快速算法利用率失真代价相关性和边缘图能够准确预判CU的深度级或深度范围。

4结语

为了降低HEVC帧内编码的复杂度,本文提出一种基于纹理特性与空域相关性的帧内分级快速编码算法。主要是针对复杂的CU递归分割过程进行优化,包括两个层次的内容:一方面,采用了LCU级快速算法,利用空域相关性获取当前LCU的预测深度,同时使用块标准差和自适应阈值策略确定当前LCU的纹理复杂度,将当前LCU的预测深度与纹理复杂度相结合来联合预测当前LCU的最有可能深度范围MPDR;另一方面,在LCU级快速算法确定的MPDR的基础上采用了CU级的深度判决快速算法,分别采用基于边缘图的CU深度级预判策略和基于率失真代价相关性的CU级提前中止策略,进一步降低了帧内编码的复杂度。实验结果表明,本文算法与原始平台HM10.0相比,在率失真性能损失可以忽略不计的情况下,帧内编码复杂度降低了41.81%,有利于实时高清视频的实际应用。

参考文献:

[1]WIEGAN T, OHM J R, SULLIVAN G J, et al. Special section on the joint call for proposals on High Efficiency Video Coding (HEVC) standardization [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2010, 20(12): 1661-1666.

[2]WIEGAND T, SULLIVAN G J, BJONTRGAARD G, et al. Overview of the H.264/AVC video coding standard [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2012, 13(7): 560-576.

[3]UGUR K, ANDERSSON K, FULDSETH A, et al. High performance, low complexity video coding and the emerging HEVC standard [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2010, 20(12): 1688-1697.

[4]SULLIVAN G J, OHM J, HAN W J, et al. Overview of the High Efficiency Video Coding (HEVC) standard [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2012, 22(12): 1649-1668.

[5]OHM J, SULLIVAN G J, SCHWARZOHM H, et al. Comparison of the coding efficiency of video coding standards ― including High Efficiency Video Coding (HEVC) [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2012, 22(12): 1669-1684.

[6]VANNE J, VIITANEN M, HAMALAINEN T D, et al. Comparative ratedistortioncomplexity analysis of HEVC and AVC video codecs [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2012, 22(12): 1885-1898.

[7]HUANG X, JIA H, WEI K, et al. Fast algorithm of coding unit depth decision for HEVC intra coding [C]// Proceedings of the 2014 IEEE International Conference on Visual Communications and Image Processing. Piscataway, NJ: IEEE, 2014: 458-461.

[8]LI Y, LIU Y, YANG H, et al. Fast CU splitting and pruning method based on online learning for intra coding in HEVC [C]// Proceedings of the 2014 IEEE International Conference on Visual Communications and Image Processing. Piscataway, NJ: IEEE, 2014: 450-453.

[9]LEE J, KIM S, LIM K, et al. A fast CU size decision algorithm for HEVC [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2015, 25(3): 411-421.

[10]晏轲,滕国伟,胡锦雯,等.一种基于时空相关性的编码单元深度快速分级判决算法[J].光电子・激光, 2014,25(1): 156-162.(YAN K, TENG G W, HU J W, et al. A rapid classification decision algorithm on CU depth based on temporalspatial correlation [J]. Journal of Optoelectronics・Laser, 2014, 25(1): 156-162.)

[11]PIAO Y, MIN J, CHEN J. Encoder improvement of unified intra prediction [R]. Guangzhou: ITUT SG16 WP3 and ISO/IEC JTC1/SC29/WG11 3rd Meeting, 2010, JCTVCC207.PIAO Y, MIN J, CHEN J. Encoder improvement of unified intra prediction [EB/OL]. [20150411]. http://phenix.intevry.fr/jct/doc_end_user/documents/3_Guangzhou/wg11/JCTVCC207m18245v2JCTVCC207.zip.

[12]ZHAO L, ZHANG L, MA S, et al. Fast mode decision algorithm for intra prediction in HEVC [C]// Proceedings of the 2011 IEEE International Conference on Visual Communications and Image Processing. Piscataway, NJ: IEEE, 2011: 1-4.

[13]HU N, YANG EH. Fast mode selection for HEVC intraframe coding with entropy coding refinement based on transparent composite model [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2015, 25(9): 1521-1532.

[14]SHEN L, ZHANG Z, AN P. Fast CU size decision and mode decision algorithm for HEVC intra coding [J]. IEEE Transactions on Consumer Electronics, 2013, 59(1): 207-213.

[15]SHEN L, ZHANG Z, LIU Z. Effective CU size decision for HEVC intracoding [J]. IEEE Transactions on Image Processing, 2014, 23(10): 4232-4241.

[16]李持航,彭宗举,陈芬.基于纹理方向和空域相关的HEVC帧内快速编码算法[J].光电子・激光,2014,25(9):1777-1784.(LI C H, PENG Z J, CHEN F. Fast intra coding algorithm for HEVC based on texture direction and spatial correlation[J]. Journal of Optoelectronics・Laser, 2014, 25(9): 1777-1784.)

[17]ZHANG Y, KWONG S, WANG X, et al. Machine learningbased coding unit depth decisions for flexible complexity allocation in high efficiency video coding [J]. IEEE Transactions on Image Processing, 2015, 24(7): 2225-2238.

[18]McCANN K, HAN WJ, KIM IK, et al. Video coding technology proposal by Samsung (and BBC) [C]// Proceedings of the Joint Collaborative Team on Video Coding (JCTVC) of ITUT SG16 WP3 and ISO/IEC JTC1/SC29/WG11. dresden: [s.n.], 2010: JCTVCA124.MCCANN K, HAN WJ, KIM IK, et al. Video coding technology proposal by Samsung (and BBC) [EB/OL]. [20150411]. http://phenix.intevry.fr/jct/doc_end_user/documents/1_Dresden/wg11/JCTVCA124.zip.

[19]BJONTEGAARD G. Calculation of average PSNR differences between RDcurves[EB/OL]. [20150115]. http://wftp3.itu.int/avarch/videosite/0104_Aus/.BJONTEGAARD G. Calculation of average PSNR differences between RDcurves [C/OL]. Proceedings of the ITUT Video Coding Experts Group (VCEG) Thirteenth Meeting. [S.l.]: Joint Collaborative Team on Video Coding (JCTVC) of ITUT SG16 WP3 and ISO/IEC JTC1/SC29/WG11, 2001: Document VCEGM33 ITUT Q6/16 (20010328) [20150115]. http://wftp3.itu.int/avarch/videosite/0104_Aus/.

[20]BOSSEN F. Common test conditions and software reference configurations [C]// Proceedings of the 12th JCTVC Meeting. [S.l.]: Joint Collaborative Team on Video Coding (JCTVC) of ITUT SG16 WP3 and ISO/IEC JTC1/SC29/WG11, 2013: Document JCTVCL1100. BOSSEN F. Common test conditions and software reference configurations [EB/OL]. [20150411]. http://phenix.intevry.fr/jct/doc_end_user/documents/12_Geneva/wg11/JCTVCL1100v1.zip.

Background

This work is partially supported by the National Natural Science Foundation of China (61171163, U1301257, 61271270), the Natural Science Foundation of Zhejiang Province (LY16F010002), the Natural Science Foundation of Ningbo (2015A610124, 2015A610127, 2013A610056).

LI Peng, born in 1990, M. S. candidate. His research interests include video signal processing and coding.

PENG Zongju, born in 1973, Ph. D., associate professor. His research interests include video image compression, multimedia signal processing and communication, perceptual coding.