压缩视频通信
A. h264是什么视频格式,这种格式有什么特点
完全不明白是什么意思。NeroAVC就是NeroAVC,H.264就是一个纯规范。只要符合规范的都是H.264格式。x264压出来的也是H.264/AVC,NeroAVC也是,其它编码器也是(比如sony等的编码器)。至于习惯问题,那是你的习惯。不是人人都知道h264代表neroavc。h264也没有任何义务去代表neroavc。这和h263不代表divx或者xvid是一个道理。
B. 哪种类型单片机能实现对采集视频的压缩然后通过3G无线通信功能传输到远端
还越简单越好呢
最复杂的单片机,也没法实现你提的任何一种功能
视频压缩的计算量太大,要余弦变换,要运动矢量预测,要变长编码,简单点的arm都够呛
而且需要的存储空间,对于单片机来说,也是天文数字
总线宽度,总线的带宽。。。。。。
3g的通信,即使有现成的通信模块,也要实现网络协议,复杂度太高
C. 谁能详细介绍下无线视频传输技术,越详细越好
随着移动通信业务的增加,无线通信已获得非常广泛的应用。无线网络除了提供语音服务之外,还提供多媒体、高速数据和视频图像业务。无线通信环境(无线信道、移动终端等)以及移动多媒体应用业务的特点对视频图像的视频图像编码与传输技术已成为当今信息科学与技术的前沿课题。
1 无线视频传输技术面临的挑战
数字视频信号具有如下特点:
·数据量大
例如,移动可视电话一般采用QCIF分辨率的图像,它有176X144=25344像开绿灯。如果每个像素由24位来表示,一帧图像的数据量依达594kbit。考虑到实时视频图像传输要求的帧频(电视信号每秒25帧),数据传输速率将达到14.5Mbps!
·实时性要求高
人眼对视频信号的基本要求是,延迟小,实时性好。而普通的数据通信对实时性的要求依比较低,因此相对普通数据通信而言,视频通信要求更好的实时性。
无线环境则具有如下特点:
·无线信道资源有限
由于无线信道环境恶劣,有效的带宽资源十分有限。实现大数据量的视频信号的传输,尤其在面向大众的无线可视应用中,无线信道的资源尤其紧张。
·无线网络是一个时变的网络
无线信道的物理特点决定了无线网络是一个时变的网络。
·无线视频的Qos保障
在移动通信中,用户的移动造成无线视频的Qos保障十分复杂。
由此可以看出,视频信号对传输的需要和无线环境的特点存在尖锐的矛盾,因此无线视频传输面临着巨大的挑战。一般来说,无线视频传输系统的研究设计目标如表1所示。
表1 无线视频传输系统的主要性能指标和设计目标
性能指标 设计目标
视频压缩比
视频传输实时性
视频恢复质量
视频传输鲁棒性
支持Qos的视频业务 用尽量少的比特描述视频图像
更短的传输时延,更快的编码速度
获得用户更满意的视频恢复质量
更好适应传输信道的误比特干扰
提供和用户支持费用相当的服务
事实上,表1中许多性能指标是相互制约的。例如,视频图像压缩比的提高会增加编码算法的复杂度,因此会影响算法的实时实现,并且可能降低视频的恢复质量。
2 视频压缩编码技术
视频信息的数据量十分惊人,要在带宽有限的无线网络上传送,必须经过压缩编码。目前国际上存在两大标准化组织——ITU-T和MPEG——专门研究视频编码方法,负责制公平统一的标准,方便各种视频产品间的互通性。这些协议集中了学术界最优秀的成果。
除各种基于国际标准的编码技术外,还有许多新技术的发展十分引人注目。
2.1 基于协议的视频压缩编码技术
国际电信联盟(ITU-T)已经制定的视频编码标准包括H.261(1990年)、H.263(1995年)、H.263+(1998年),2000年11月份将通过H.263++的最终文本。H.26X系列标准是专门用于低比特率视频通信的视频编码标准,具有较高的压缩比,因此特别适合于无线视频传输的需要。它们采用的基本技术包括:DCT变换、运动补偿、量化、熵编码等。H.263+和H.263++中更增加考虑了较为恶劣的无线环境,设计了多种增强码流鲁棒性的方法,定义了分线编码的语法规则。
MPEG制定的视频编码标准有MPEG-1(1990年)、MPEG-2(1994年)、MPEG-4(完善中)。其中MPEG-1、MPEG-2基本已经定稿,使用的基本技术和H.26X相同。MPEG-1、MPEG-2的特点在于针对的应用主要是数字存储媒体,码率高,它们并不适于无线视频传输。人们熟知的VCD、DVD是MPEG-1、MPEG-2的典型应用。随后,MPEG组织注意到了低比特率应用潜在的巨大市场,开始和ITU-T进行竞争。在MPEG-4的制定中,不仅考虑了高比特率应用,还特别包含了适于无线传输的低比特率应用。MPEG-4标准的最大特点是基于视频对象的编码方法。
无线通信终端是多种多样的,其所处的网络结构、规模也是互异的。视频码流的精细可分级性(Fine Granularity Scalability)适应了传输环境的多样性。
编码协议并不提供完全齐备的解决方案。一般来说,协议内容主要包括码流的语法结构、技术路线、解码方法等,而并未严格规定其中一些关键算法,如运动估计算法、码率控制算法等。运动估计算法在第3部分有较为详细的介绍。码率控制方案在第4部分有较为详细的介绍。
2.2 其他视频压缩编码技术
除上述基于协议的视频标准之外,还有一些优秀的算法由于商业的原因,暂时没有被国际标准完全接纳。典型的例子是DCT变换和小波变换之争。虽然利用小波变换可以取得更好的图像恢复质量,但是因为DCT变换使用较早,有很多商业产品的支持,因此小波变换很难在一夜之间取代DCT变换现有的地位。其他编码方法如,分形编码、基于模型的编码方法、感兴趣区优先编码方法等也都取得了一定的成果,具有更强的压缩能力。但是算法实现过于复杂,达到完全实用尚有一段距离。
在基于小波的低比特率图像压缩算法的研究中,根据小波图像系数的空间分布特性,以及小波多分辨率的视频特点,人们引入矢量量化以充分利用小波图像系数的相关性。根据传统的运动补偿难以与小波变换相结合这一情况,人们还提出了将空间二维帧内小波变换与时间轴一维小波变换相结合的三维小波变换方法。
人类的视觉是一种积极的感受行为,不仅与生理因素有关,还取决于心理因素。人们观察与理解图像时常常会不自觉地对某引起区域产生兴趣。整幅图像的视觉质量往往取决于感兴趣区(ROI:Region of Interest)的图像质量。在保障ROI区部分图像质量的前提下,其他部分可以进行更高的压缩。这样在大大压缩数据量的同时,仍有满意的图像恢复质量。这就是感兴趣区优先编码策略。
3 视频编码实时性研究
由于视频数据的特殊性,视频传输系统对实时性要求很高。这里重点介绍基于视频编码协议算法的实时性问题。小波编码等算法虽然有许多优点,但是算法复杂度太高,目前难于达到实时性要求。下面介绍基于协议编码算法中的几个重要环节,它们对提高视频编码系统实时性有重要作用。
3.1 运动估计
预测编码可以有效去除时间域上的冗余信息,运动估计则是预测编码的重要环节。运动估计是要在参考帧中找到一个和当前帧图像块最相似的图像块,即最佳匹配块。估计结果用运动向量来表示。研究运动估计算法就是要研究匹配块搜索算法。
研究分析表示,原始运动估计算法在编码器运行中消耗了编码器70%左右的执行时间。因此,为了提高编码器执行速度必须首先提高运动估计算法的效率。
穷尽搜索法是最原始的运动估计算法,它能得到全局最优结果,但是由于运算量大,不宜在实现应用中使用。快速运动估计算法通过减小搜索空间,加快了搜索过程。虽然快速运动估计算法得到的运动向量没有穷尽搜索法的结果那样精确,但是由于它可以显着减少运算时间,精度也能满足很多应用的需要,因而它们的应用十分广泛。典型的快速搜索算法有:共轭方向搜索法(CDS)、二维对数法(TDL)、三步搜索法(TSS)、交叉搜索法(CSA)等。
3.2 算法结构的并行化
并行化处理的体系结构十分有利于提高系统处理能力,加之视频编码算法有很强的并行处理潜力,因此,人们研究了编码算法的并行运算能力,进一步保障了编码算法的实时实现。
例如,如果有两个并行处理器,依可以同时进行两个图像块的运行估计或者DCT变换,这样依把运动估计和DCT变换环节的运算时间缩短了一倍。
3.3 高速DSP芯片和专用DSP设计
微电子技术的发展,也使近年来DSP芯片有了很大的进步。每秒几十或上百BOPS次的运算速度(1个BOPS为每秒10亿次)DSP芯片已经出现,这为系统实时处理提高了硬件保证。
通用高速DSP芯片在视频编码算法的研究开发中扮演了重要角色。许多DSP生产厂商甚至提供实现某种编码协议的专用芯片。
4 码率控制研究
编码策略是编码器中重要环节。码率控制技术是视频通信应用中的关键技术之一,它负责编码器各个环节与传输信道和解码器之间的协调,在编码器中具有重要地位。因为码率控制策略需要由具体应用场合决定,所以象H.263+、MPEG-4等视频编码协议,都没有规定具体码率控制方法。
由于视频码流结构具有分层的特点,因而码率控制方案的研究一般分成了两个层交人,图像层码率控制、宏块层码率控制。图像层码率控制的主要任务是,根据系统对编码器输出码率的期望、系统传输延迟的限制、传送缓冲区的满溢程度等同,在一帧图像编码前,确定该帧图像的输出期望比特数。宏块层码率控制的主要任务是,根据图像层码率控制确定的该帧图像的输出期望比特数,给图像各部分选择合适的量化步长。宏块层码率控制的主要依据是率失真(Rate-Distortion)模型。
TMN8码率控制方案,是迄今为止一套优秀的码率控制方案。它被H.263+的TMN8模型的MPEG-4(Version 1)的VM8模型所采纳。该方案的精化部分在于宏块层码率控制部分,它采用了一种十分有效的率失真模型,是宏块层码率控制的误差很小;在图像层码率控制方面,该方案的前提较为简单,主要考虑了编码时延、缓冲区满溢程度等因素,并且要求编码器的工作帧频恒定。
在很多情况下,视频编码的帧频不可能保持恒定,或者不“应该”恒定。考虑到视频编码器工作点的变化,以及现有率失真模型可能存在的误差,人们将现代控制理论引入到图码率控制中,设计了更稳定的码率控制方案。
由于宏块层码率控制环节直接决定图像各宏块使用的量化步长,因此利用宏块层友率控制方法,可以轻易实现图像感兴趣区优先编码策略。使用感兴趣区优先编码策略时,虽然对整幅图像而言仍属低码率编码范畴,但对于感兴趣区域而言却存在局部高码率编码。现有低码率控制算法,包括TMN8方案,都没有考虑到这一现象。它们将整幅图像所有部分都作为低码率编码对象,并以此建立码率控制模型。因此这些码率控制方案直接与感兴趣区优先编码策略相结合时,会导致不应有的码率控制误差。为此,人们又提出了一套用不动声色低码率应用的码率控制框架,它适应了感兴趣区优先编码策略的需要。
5 鲁棒性研究
无线信道干扰因素多,误码率高,因此无线视频的鲁棒传输研究对于无线视频传输的实用化十分重要。
5.1 鲁棒的压缩编码
视频压缩编码的最后一个环节是熵编码。熵编码的特点决定了视频码流对误比特高度敏感。于是,人们设计了多种技术用于在视频编码环节进行差错复原,提高码流鲁棒性。MPEG-4中定义的主要差错控制技术有:重同步(Resynchronization)、数据分割(Data Partition)、可逆变长编码(RVLC)。H.263+中用于差错复原的技术主要包括前向纠错编码(FEC)、条带模式(Slice Mode)、独立分段解码(Independent Segment Decoding)和参考图像选择(Reference Picture Selection)等。H.263++则又增加了数据分割的条带模式,并对参考图像选择模式进行了修改。
此外,在信源解码端,人们又设计了数据恢复(Data Recovery)和差错掩盖(Error Concealment)等技术,以便尽量减少码流中错误比特的负面影响。
5.2 鲁棒的复用环节
多媒体通信中,复用是紧随编码环节的一个环节。以ITU定义的H.324标准为例,该标准由若干协议组成,包括音频编码协议G.723、视频编码协议H.26X、控制协议H.245和复用协议H.223。H.223是一个面向连接的复用器,负责把多媒体终端的多个数据源(音频、视频、数据等)复合为一个码流。Villasenor等已经注意到复用器出现的差错对视频可能产生的影响,但没有特点深入的研究成果。
5.3 鲁棒的信道编码环节
信道编码也称差错控制编码。与信源编码的目的不同,信源编码是尽量压缩数据,用尽量少的比特描述原始视频图像;信道编码是利用附加比特来保障原始比特能正确无误地到达目的地。信道传输中的纠错方法包括:前向误码纠错(FEC)、自动重发(ARQ)和混合纠错(HEC)。
Shannon从理论上给出了信道传输能力的上限。信道编码方法的研究设计目标有二,一是尽量利用信道容量,二是抗干扰性能更强。
Turbo码是近年来纪错编码领域的活跃分支,由法国学者C.Berrou等人在1993年看出的,其模拟性能纪错能力。但是Turbo码的译码算法十分复杂,关于Turbo码译码的实时实现是当前研究热点之一。
5.4 信源信道组合编码
不同的信道编码策略对信元的保护能力也不同。根据信元的重要程度,合理地予以差错控制编码,将有效地提高传输系统的效率。这是不平等的保护策略(Unequal Error Protection)。信元的重要程度,可以有多种划分方法,如按照信元对解码所起作用,或者按照信元对人眼感知所起作用,等等。
还有许多学者研究了信道模型在信源信道组合编码中的应用。三种典型无线信道模型是二进制对称噪声通道(Binary Symmetric Channels)、加性白高斯噪声通道(Additie White Gaussian Channels)、G-E突发噪声通道(Gilbert-Elliott Bursty Channels)。Chang Wen Chen等在研究这些信道模型的基础上,研究了新的率失真模型,该模型不仅描述了量化引入的误差,而且将信道噪声考虑在内。在一定的信道传输速率要求下,利用这样的率失真模型,不仅可以在子信源之间合理分配比特,而且可以更好地平衡信源编码精度与信道编码保护两者对码率的需要。
6 无线视频传输系统的优化与管理
在前面几部分的研究中,主要目标是解决无线视频传输的基础问题:视频数据的压缩问题、编码的实时实现、视频码流的鲁棒传输。事实上,除了上述问题,还有许多与无线视频传输密切相关的领域,它们对无线视频传输的实现、推广有着举足轻重的影响。
6.1 通信协议的研究
中国公众多媒体通信网是一个基于IP协议的通信网,它的通信协议是基于TCP/IP的。当然,IP协议和TCP协议仅是核心协议。为保证实时视频通信业务能很好地运行,需要使用实时传送协议(RTP)和实时传送控制协议(RTCP)。为了给实时业务或其它特定业务的传送留有足够宽的通道,还必须使用资源预留协议(RSVP)。上述五个通信协议是IP网的主要通信协议。
Ipv6作Internet Protocol的新版本,将继承和取代传统IP(Ipv4)。从Ipv4到Ipv6的改变将为下一代因特网奠定更坚实的基础,如,Ipv6力求使网络管理变得更加简单,考虑到不同用户对服务质量的不同需要,其中若干技术十分有利于实时多媒体业务的实理。
6.2 接入控制(Admissior Control)
类似有线网络,无线网络要决定是否允许新连接接入;此外无线网络还要决定是否允许切换连接,并要在二者之间谋求最优解决方案。
Naghshineh在1996年提出虚拟连接树的新概念,设计了基于虚拟连接树的高速移动ATM网络体系,并研究了在该体系结构下的接入控制方案。简单说,作者用一个虚拟树来描述位于一定距离内小区的移动用户。一旦移动用户的呼叫被允许,他依可以在虚拟树内的所有小区间自由切换,而无须重新请求。
在高速无线多媒体网络中,Oliveira等则提出了基于带宽预留的接入控制方案,即在建立呼叫小区附近入的小区中,进行带宽预留,以保障服务质量。当用户进入一个新的小区,被预留的带宽将被利用。
6.3 资源预留(Resource Reservation)
对于视频、话音等实时业务,为保证可接受的服务质量,应该保留一定的连接带宽。此外,与新呼叫相比,切换呼叫应有更高的优先权。
6.4 Qos业务模型(Qos Service Model)
无线多媒体Qos支持的基本目标是,在带宽有限情况下,提供和用户支付费用相当的服务质量。建立合适的业务模型是首先要解决的问题。所谓业务模型,就是要根据各种具体应用的特点,将其划分成不同类型。例如,在支持Qos和ATM中定义了几种业务模型:恒定比特率(CBR)业务、实时可变比特率(rt-VBR)业务、非实时可变比特率(nrt-VBR)业务、可用比特率(ABR)业务和不定比特率(UBR)业务。恒定比特率业务对带宽的要求最为严格,其他类型对带宽的要求依次放松。
现有的大理多媒体业务是在基于IP的网络上开展的,而rc设计IP协议的初衷是传输数据的,是一种“尽力而为”的网络,并不支持Qos。为此,其上的实时业务模型被分为两类:有保障业务(Guaranteed Service)和无保障业务(Predictive Service)。
总之,在无线多媒体环境下,建立起合理的业务模型对保障Qos至关重要。在这一领域,人们始终在做出努力。如,较早时候,Oliverira等只用实时业务与非实时业务加以区分;1999年,Talukder等提出三类业务模型;2000年,Lei Huang等不仅考虑带宽和延迟需要,还考虑了移动用户的运动特性,提出多达七类业务模型。
6.5 图像质量评价准则
恰当的图像质量评价方法是无线多媒体通信的基本需要。由于无线环境带宽有限,不可能为所有用户都提供相同质量的服务,所以只能提供和用户支付费用相当的服务质量。因此必须有一套能准确反映用户接受服务的客观质量标准。
除了些特殊场合,纯粹额观评价(如基于均方误差的评价方法)已经被普遍认为不是真正“客观”的图像质量评价,越来越多的人认为,人眼视觉系统(HVS)的特性应该考虑在内。
Westen等人在1995年提出了基于多通道的HVS模型,用来评价图像的感受质量。宋坚信等人最近又提出一种压缩视频感觉质量的计算方法,其核心思想是,利用视觉掩蔽特性, 分析与压缩视频质量有关的视觉特性及视频图像内容特性,提出视觉掩蔽计算结构及用模糊学方法进行视觉阈值提升的计算方法。
总之,面向恶劣无线环境的数字视频传输技术尚未成熟;面向大众应用的无线视频传输技术元未成熟。因此,现在加强在该领域的研究力度,是增强我国科技实力的一次机遇,对于我国在未来通信领域占据一席之地将起重要作用。
D. unity c# 视频流压缩和通信
但是很多东西都必须自己实现,至少C的前身是C,这一点很考验水平。
本人自己初学。
Unity3D是一个游戏引擎,但是效率可能不会有完全自己实现高,是很厉害的语言,并且C的效率比起C低一些,多谢了,而且设计得比较方便使用,优化问题可能更重要一些,只是说一下自己的观点,提供的API也很多们很好用,使用难度比起前一种要减少很多很多。
Unity3D用C和javascript比较多,而且效率很高,希望指正,我觉得用C语言写游戏是完全可行的。如果水平很好的话,实时性更好一些,如果不正确,而且游戏可能还会更有效率一些,里面封装了很多直接就可以使用的效果C语言是很多语言的前身
E. 常用的视频压缩标准是什么啊
视频压缩标准如下:
1、H.261
H.261标准是为ISDN设计,主要针对实时编码和解码设计,压缩和解压缩的信号延时不超过150ms,码率px64kbps(p=1~30)。
H.261标准主要采用运动补偿的帧间预测、DCT变换、自适应量化、熵编码等压缩技术。只有I帧和P帧,没有B帧,运动估计精度只精确到像素级。支持两种图像扫描格式:QCIF和CIF。
2、H.263
H.263标准是甚低码率的图像编码国际标准,它一方面以H.261为基础,以混合编码为核心,其基本原理框图和H.261十分相似,原始数据和码流组织也相似;另一方面,H.263也吸收了MPEG等其它一些国际标准中有效、合理的部分,如:半像素精度的运动估计、PB帧预测等,使它性能优于H.261。
H.263使用的位率可小于64Kb/s,且传输比特率可不固定(变码率)。H.263支持多种分辨率:SQCIF(128x96)、 QCIF、CIF、4CIF、16CIF。
3、H.264/AVC
视频压缩国际标准主要有由ITU-T制定的H.261、H.262、H.263、H.264和由MPEG制定的MPEG-1、MPEG-2、MPEG-4,其中H.262/MPEG-2和H.264/MPEG-4 AVC由ITU-T与MPEG联合制定。
从简单来说H.264就是一种视频编码技术,与微软的WMV9都属于同一种技术也就是压缩动态图像数据的“编解码器”程序。
一般来说,如果动态图像数据未经压缩就使用的话,数据量非常大,容易造成通信线路故障及数据存储容量紧张。
因此,在发送动态图像时、或者把影像内容保存在DVD上时、以及使用存储介质容量较小的数码相机或相机手机拍摄映像时,就必须使用编解码器。虽然编解码器有许多种类,但DVD-Video与微波数字电视等使用的主要是MPEG2,数码相机等摄像时主要使用MPEG4。
既然作为压缩视频编码技术,H.264最大的作用对视频的压缩了。我们熟悉的MPEG2也就是最常用的DVD视频编码技术已经比较落后。
MPEG-4
MPEG-4标准并非是MPEG-2的替代品,它着眼于不同的应用领域。MPEG-4的制定初衷主要针对视频会议、可视电话超低比特率压缩(小于64Kb/s)的需求。在制定过程中,MPEG组织深深感受到人们对媒体信息,特别是对视频信息的需求由播放型转向基于内容的访问、检索和操作。
MPEG-4与前面提到的JPEG、MPEG-1/2有很大的不同,它为多媒体数据压缩编码提供了更为广阔的平台,它定义的是一种格式、一种框架,而不是具体算法,它希望建立一种更自由的通信与开发环境。
于是MPEG-4新的目标就是定义为:支持多种多媒体的应用,特别是多媒体信息基于内容的检索和访问,可根据不同的应用需求,现场配置解码器。编码系统也是开放的,可随时加入新的有效的算法模块。应用范围包括实时视听通信、多媒体通信、远地监测/监视、VOD、家庭购物/娱乐等。
MPEG-4视频压缩算法相对于MPEG-1/2在低比特率压缩上有着显着提高,在CIF(352*288)或者更高清晰度(768*576)情况下的视频压缩,无论从清晰度还是从存储量上都比MPEG1具有更大的优势,也更适合网络传输。另外MPEG-4可以方便地动态调整帧率、比特率,以降低存储量。
MPEG-4由于系统设计过于复杂,使得MPEG-4难以完全实现并且兼容,很难在视频会议、可视电话等领域实现,这一点有点偏离原来地初衷。
F. 数字电视的视频压缩技术
论文题目是:数字电视接收机的视频压缩技术
帮写内容:(1)选题依据及研究意义;
(2) 选题研究现状;
(3)研究内容(包括基本思路、框架、主要研究方式、方法
等)
一共是三点,请大家教一下我这三点该怎么写?!
注明:论文我已经写好了:下面是论文提纲(含论文选题、论文主体框架)
论文选题:数字电视接收机的视频压缩技术
第一章:绪论
一、数字电视的发展及视频压缩的必要性;
二、视频图象数字压缩的客观依据;
三、数字电视与接收机(机顶盒);
四、电视信号模数转换标准;
第二章:数字电视机顶盒技术
一、什么是数字电视机顶盒;
二、数字电视机顶盒的基本原理;
三、数字电视机顶盒的结构;
四、数字电视机顶盒的主要技术;
第三章:视频压缩编码技术
一 空间或时间性编码;
二. 加权;
三. 遍历(Scannng);
四. 熵编码;
五. 空间性编码器;
六. 时间性编码;
七. 运动补偿;
八. 双向编码;
九. I、P 和B 画面;
十. MPEG 压缩器;
十一. 预处理;
十二. 类和级;
十三. 小波;
第四章:视频图象压缩标准
一、H.261标准;
二、JPEG标准;
三、MPEG-1压缩编码标准;
四、MPEG-2压缩编码标准;
五、MPEG-4压缩编码标准;
结束语 ;
参考文献 ;
问题补充:题目是学校帮我选择的! 大家可以帮忙把这三点写一下吗? 我真不知道该怎么写! 或者大家帮我写前两点也好了~ 谢谢帮我忙的所有朋友! 拜托各位了!我开题16号就要交了
看看这个能不能帮您!
一、如何选择问题
我一起萦绕于怀的,是在写博士论文开题报告的一年多时间里,导师薛澜教授反复追问的一个问题:“你的 puzzle 是什么?”多少次我不假思索地回答“我的问题就是,中国的半导体产业为什么发展不起来。”薛老师问题以其特有的储蓄,笑而不答。我在心中既恼火又懊丧:这么简单的道理,这么明显的答案,到底哪儿不对了?!
奥妙就在于提出问题的“层次”。不同于政策研究报告,学术文章聚集理论层面、解决理论问题。理论是由一系列前设和术语构造的逻辑体系。特定领域的理论有其特定的概念、范畴和研究范式。只有在相同的概念、视角和范式下,理论才能够对话;只有通过对话,理论才能够发展。极少有硕博论文是创造新理论的,能这样当然最好,但难度很大。我们多数是在既有理论的基础上加以发展,因此,在提出问题时,要以“内行”看得懂的术语和明确的逻辑来表述。审视我最初提出的问题“中国半导体产业为什么发展不起来”,这仅仅是对现象的探询,而非有待求证的理论命题。我的理论命题是:“中国产业政策过程是精英主导的共识过程吗?”在这个命题中,“政策过程”、“精英政治”、“共识诉求”三个术语勾勒出研究的理论大体范围和视角。
其次,选择问题是一个“剥笋”的过程。理论问题总是深深地隐藏在纷繁复杂的现实背后,而发现理论问题,则需要运用理论思维的能力。理论思维的训练是一个长期积累的过程。不过初学者也不必望而却步,大体上可以分“三步走”:第一步,先划定一个“兴趣范围”,如半导体产业、信息产业、农村医疗、高等教育体制等,广泛浏览相关的媒体报道、政府文献和学术文章,找到其中的“症结”或“热点”。第二步,总结以往的研究者大体从哪些理论视角来分析“症结”或“热点”、运用了哪些理论工具,如公共财政的视角、社会冲突范式等。第三步,考察问题的可研究性,也就是我们自己的研究空间和研究的可行性。例如,西方的理论是否无法解释中国的问题?或者同一个问题能否用不同的理论来解释?或者理论本身的前提假设、逻辑推演是否存在缺陷?通过回答这些问题,我们找到自己研究的立足点。不过还要注意我们研究在规定的一到两年时间内,是否可能完成?资料获取是否可行?等等。
最后,如何陈述问题?陈述问题实质上就是凝练核心观点的过程。观点应当来自对现实问题的思考和总结,而不是为了套理论而“削足适履”。中国的政治、经济和社会发展充满动态的、丰富的景象,如何才能用恰当的术语、准确的逻辑表述出来呢?雄心勃勃的初学者往往提出宏伟的概念或框架,但我的建议是尽可能缩小研究范围、明确研究对象,从而理清对象的内存逻辑,保证能在有限的时间内完成规范的学
术论文。如“中国半导体产业政策研究”就是一个非常含糊的陈述,我们可以从几个方面来收缩话题:( 1 )时间:从 1980 年到 2000 年;( 2 )对象:政府的叛乱者和决策行为,而不是市场、企业、治理结构等;( 3 )视角:政治和政府理论中的精英研究;( 4 )案例: 908 工程、 909 工程、 13 号文件和《电子振兴》,这是发生在 1980 - 2000 年间半导体政策领域的两个重大工程和两个重要文件。通过这样的明确界定,我们将目光集中在“政策过程”、“精英”、“共识”几个显而易见的概念上,问题也就水落石出了。同时,问题清楚了,我们在筛选信息和资料时也就有了明确的标准,在这个“信息冗余”的时代,能够大大提高研究效率。
二、 如何做文献综述
首先需要将“文献综述( Literature Review) ”与“背景描述 (Backupground Description) ”区分开来。我们在选择研究问题的时候,需要了解该问题产生的背景和来龙去脉,如“中国半导体产业的发展历程”、“国外政府发展半导体产业的政策和问题”等等,这些内容属于“背景描述”,关注的是现实层面的问题,严格讲不是“文献综述”,关注的是现实层面问题,严格讲不是“文献综述”。“文献综述”是对学术观点和理论方法的整理。其次,文献综述是评论性的( Review 就是“评论”的意思),因此要带着作者本人批判的眼光 (critical thinking) 来归纳和评论文献,而不仅仅是相关领域学术研究的“堆砌”。评论的主线,要按照问题展开,也就是说,别的学者是如何看待和解决你提出的问题的,他们的方法和理论是否有什么缺陷?要是别的学者已经很完美地解决了你提出的问题,那就没有重复研究的必要了。
清楚了文献综述的意涵,现来说说怎么做文献综述。虽说,尽可能广泛地收集资料是负责任的研究态度,但如果缺乏标准,就极易将人引入文献的泥沼。
技巧一:瞄准主流。主流文献,如该领域的核心期刊、经典着作、专职部门的研究报告、重要化合物的观点和论述等,是做文献综述的“必修课”。而多数大众媒体上的相关报道或言论,虽然多少有点价值,但时间精力所限,可以从简。怎样摸清该领域的主流呢?建议从以下几条途径入手:一是图书馆的中外学术期刊,找到一两篇“经典”的文章后“顺藤摸瓜”,留意它们的参考文献。质量较高的学术文章,通常是不会忽略该领域的主流、经典文献的。二是利用学校图书馆的“中国期刊网”、“外文期刊数据库检索”和外文过刊阅览室,能够查到一些较为早期的经典文献。三是国家图书馆,有些上世纪七八十年代甚至更早出版的社科图书,学校图书馆往往没有收藏,但是国图却是一本不少(国内出版的所有图书都要送缴国家图书馆),不仅如此,国图还收藏了很多研究中国政治和政府的外文书籍,从互联网上可以轻松查询到。
技巧二:随时整理,如对文献进行分类,记录文献信息和藏书地点。做博士论文的时间很长,有的文献看过了当时不一定有用,事后想起来却找不着了,所以有时记录是很有必要的。罗仆人就积累有一份研究中国政策过程的书单,还特别记录了图书分类号码和藏书地点。同时,对于特别重要的文献,不妨做一个读书笔记,摘录其中的重要观点和论述。这样一步一个脚印,到真正开始写论文时就积累了大量“干货”,可以随时享用。
技巧三:要按照问题来组织文献综述。看过一些文献以后,我们有很强烈的愿望要把自己看到的东西都陈述出来,像“竹筒倒豆子”一样,洋洋洒洒,蔚为壮观。仿佛一定要向读者证明自己劳苦功高。我写过十多万字的文献综述,后来发觉真正有意义的不过数千字。文献综述就像是在文献的丛林中开辟道路,这条道路本来就是要指向我们所要解决的问题,当然是直线距离最短、最省事,但是一路上风景颇多,迷恋风景的人便往往绕行于迤逦的丛林中,反面“乱花渐欲迷人眼”,“曲径通幽”不知所终了。因此,在做文献综述时,头脑时刻要清醒:我要解决什么问题,人家是怎么解决问题的,说的有没有道理,就行了。
三、如何撰写开题报告
问题清楚了,文献综述也做过了,开题报告便呼之欲出。事实也是如此,一个清晰的问题,往往已经隐含着论文的基本结论;对现有文献的缺点的评论,也基本暗含着改进的方向。开题报告就是要把这些暗含的结论、论证结论的逻辑推理,清楚地展现出来。
写开题报告的目的,是要请老师和专家帮我们判断一下:这个问题有没有研究价值、这个研究方法有没有可能奏效、这个论证逻辑有没有明显缺陷。因此,开题报告的主要内容,就要按照“研究目的和意义”、“文献综述和理论空间”、“基本论点和研究方法”、“资料收集方法和工作步骤”这样几个方面展开。其中,“基本论点和研究方法”是重点,许多人往往花费大量笔墨铺陈文献综述,但一谈到自己的研究方法时但寥寥数语、一掠而过。这样的话,评审老师怎么能判断出你的研究前景呢?又怎么能对你的研究方法给予切实的指导和建议呢?
对于不同的选题,研究方法有很大的差异。一个严谨规范的学术研究,必须以严谨规范的方法为支撑。在博士生课程的日常教学中,有些老师致力于传授研究方法;有的则突出讨论方法论的问题。这都有利于我们每一个人提高自己对研究方法的认识、理解、选择与应用,并具体实施于自己的论文工作中。
G. 什么是计算机视频处理技术
视频处理技术
和一般的业务不同,视频是流特性业务,数据量很大。例如,数字电视图像中的SIF格式、NTSC制式、彩色、4∶4∶4采样,每帧的数据量为2028Kb,每秒的数据流量可达60.8Mb;CCIR格式、PAL制式、4∶4∶4采样的彩色视频的数据流量可达148.8Mbps。实验表明,176×144的YUV原始视频在10Mbps的LAN上传送速率是3帧/秒左右。可见,未压缩的视频在Internet上传输的效果是无法容忍的,而且会很容易地将Internet资源吞没,造成网络拥塞甚至崩溃。因此,IP视频通信的第一步就是视频压缩。
视频压缩编码的理论基础是信息论。压缩就是从时域、空域两方面去除冗余信息,即将可推知的确定信息去掉。编码方法大致可分为三类:
1.考虑到图像信源的统计特性采用的预测编码方法、变换编码方法、矢量量化编码方法、子带-小波编码方法及神经网络编码方法等;
2.考虑到视觉特性采用的基于方向滤波的图像编码方法、基于图像轮廓/纹理的编码方法;
3.考虑到图像传递的景物特征,采用的分形编码、基于模块的编码方法。
在IP视频通信应用中,编码方法的选择不但要考虑到压缩比、信噪比,还要考虑到算法的复杂性。太复杂的编码算法可能会产生较高的压缩比,但也会带来较大的计算开销,软件实现时会影响通信的实时性。目前,在众多视频编码算法中,影响最大并被广泛应用的算法是MPEG和H.26x。
※MPEG编码
MPEG是国际标准化组织ISO/IEC下的一个制定动态视频压缩编码标准的组织,它为视频压缩编码技术的标准化、实用化做出了巨大贡献。如针对CD-ROM的1.5Mbps传输率的MPEG-1、针对HDTV的6Mbps以上传输速率的MPEG-2都已成功地得到应用,并创造了巨大的商业价值。MPEG-4是针对视频会议、可视电话的甚低速率编码标准,它融入了基于内容的检索与编码,可对压缩数据内容直接访问;即将于2001年制定完毕的MPEG-7标准被称为"多媒体内容描述接口",这种标准化的描述可以加到任何类型的媒体信息上。不管视频信息的表达形式或压缩形式如何,具有这种标准化描述的多媒体数据均可被检索。因此,MPEG-7的应用领域主要是数字化图书馆和广播式媒体。
※H.263编码
H.261编码是一种帧间预测减少时域冗余、变换编码减少空域冗余的混合编码方法,具有压缩比高、算法复杂度低等优点,得到较为广泛的应用。Mbone的重要应用工具之一IVS的视频编码采用的就是H.261编码算法。在H.261的基础上,1996年ITU-T推出了H.263编码标准。H.263在许多方面对H.261进行了改进和扩充,如在编码算法复杂度增加很少的基础上,H.263能提供更好的图像质量、更低的速率,十分适合于IP视频会议、可视电话应用。目前,H.263编码是IP视频通信采用最多的一种编码方法,并已被许多多媒体通信终端标准所吸收, 如:ITU-TH.310(B-ISDN)、H.320(ISDN)、H.324(PSTN)、H.323(LAN、 WAN、Internet)。
随着计算机性能的快速提高,对于可视电话和视频会议等应用(一般使用QCIF图像),纯软件编码器(codec)即可以满足应用要求。我们实现的H.263纯软件编码器在主频为166MHz的主机上编码帧率可达60帧/秒以上,平均图像质量(用信噪比表示)大于38dB。
1998年ITU-T推出的H.263+是H.263建议的第二版,它提供了12个新的可协商模式和其他特征,进一步提高了压缩编码性能。如H.263只有5种视频源格式,H.263+允许使用更多的源格式,图像形状和时钟频率也有多种选择,拓宽了应用范围;另一重要的改进是可扩展性,它允许多显示率、多速率及多分辨率,增强了视频信息在易误码、易丢包异构网络环境下的传输。另外,H.263+的图像分段依赖性也可以是受限的,以减少差错传播。H.263+对H.263中的不受限运动矢量模式进行了改进,加上12个新增的可选模式,不仅提高了编码性能,而且增强了应用的灵活性
希望可以用到
H. 视频通话时我的影像模糊对方看不清楚咋回事怎么办
若使用vivo手机,微信视频通话画面模糊可参考以下处理方法:1、对方看到自己的画面模糊前置摄像头支持固定焦距,视频通话时请与前置摄像头保持适当距离,尽量距离在30~50厘米之间视频通话。2、光线不充足导致画面模糊在光线较暗的情况下,微信视频画面会提高 ISO(感光度),因此视频画面会显得更加模糊,具有较为明显的颗粒感。请尽量在光线充足的环境中进行视频通话,视频过程中尽量保持手机稳定、避免画面晃动。3、网络信号不稳定导致画面模糊视频画面在传输过程中会根据网络状态调节画质,网络信号不稳定,视频聊天画面分辨率会降低,可尝试切换其他稳定的网络后尝试。4、检查前置摄像头是否脏污请使用无尘软布顺时针或逆时针转圈擦拭前置摄像头(请勿使用手指擦拭)5、检查前置摄像头是否被遮挡请您查看是否有贴膜遮挡了摄像头;若以上方法未改善,可进入vivo官网/vivo商城APP--我的-在线客服-人工客服进行详细咨询。I. 摄像头视频采集压缩及传输 基本原理
摄像头视频采集压缩及传输
引言 :
摄像头基本的功能还是视频传输,那么它是依靠怎样的原理来实现的呢?所谓视频传输:
就是将图片一张张传到屏幕,由于传输速度很快,所以可以让大家看到连续动态的画面,就像放电影一样。一般当画面的传输数量达到 每秒24帧 时,画面就有了连续性。
下边我们将介绍摄像头视频采集压缩及传输的整个过程。
一.摄像头的工作原理(获取视频数据)
摄像头的工作原理大致为:景物通过 镜头(LENS) 生成的 光学图像 投射到 图像传感器 表面上,然后转为 电信号 ,经过 A/D (模数转换)转换后变为 数字图像信号 ,再送到 数字信号处理芯片 (DSP)中加工处理,再通过 USB接口 传输到电脑中处理,通过显示器就可以看到图像了。下图是摄像头工作的流程图:
注1:图像传感器(SENSOR)是一种半导体芯片,其表面包含有几十万到几百万的光电二极管。光电二极管受到光照射时,就会产生电荷。
注2:数字信号处理芯片DSP(DIGITAL SIGNAL PROCESSING)功能:主要是通过一系列复杂的数学算法运算,对数字图像信号参数进行优化处理,并把处理后的信号通过USB等接口传到PC等设备。
1. ISP(image signal processor)(镜像信号处理器)
2. JPEG encoder(JPEG图像解码器)
3. USB device controller(USB设备控制器)
而视频要求将获取的视频图像通过互联网传送到异地的电脑上显示出来这其中就涉及到对于获得的视频图像的传输。
在进行这种图片的传输时,必须将图片进行压缩,一般压缩方式有如H.261、JPEG、MPEG等,否则传输所需的带宽会变得很大。大家用RealPlayer不知是否留意,当播放电影的时候,在播放器的下方会有一个传输速度250kbps、400kbps、1000kbps…画面的质量越高,这个速度也就越大。而摄像头进行视频传输也是这个原理,如果将摄像头的分辨率调到640×480,捕捉到的图片每张 大小约为50kb左右,每秒30帧,那么摄像头传输视频所需的速度为50×30/s=1500kbps=1.5Mbps。而在实际生活中,人们一般用于网络视频聊天时的分辨率为320×240甚至更低,传输的帧数为每秒24帧。换言之,此时视频传输速率将不到300kbps,人们就可以进行较为流畅的视频传输聊天。如果采用更高的压缩视频方式,如MPEG-1等等,可以将传输速率降低到200kbps不到。这个就是一般视频聊天时,摄像头所需的网络传输速度。
二.视频压缩部分
视频的压缩 是视频处理的核心,按照是否实时性可以分为非实时压缩和实时压缩。而视频传输(如QQ视频即时聊天)属于要求视频压缩为实时压缩。
下面对于视频为什么能压缩进行说明。
视频压缩是有损压缩,一般说来,视频压缩的压缩率都很高,能够做到这么高的压缩率是因为视频图像有着非常大的 时间和空间的冗余度 。所谓的 时间冗余度 指的是两帧相邻的图像他们相同位置的像素值比较类似,具有很大的相关性,尤其是静止图像,甚至两帧图像完全相同,对运动图像,通过某种运算(运动估计),应该说他们也具有很高的相关性;而空间相关性指的是同一帧图像,相邻的两个像素也具备一定的相关性。这些相关性是视频压缩算法的初始假设,换句话说,如果不满足这两个条件(全白噪声图像,场景频繁切换图像等),视频压缩的效果是会很差的。
去除时间相关性的关键算法是运动估计,它找出当前图像宏块在上一帧图像中最匹配的位置,很多时候,我们只需要把这个相对坐标记录下来,就够了,这样就节省了大量码字,提高了压缩率。视频压缩算法中,运动估计永远是最关键最核心的部分。去除空间相关性是通过DCT变换来实现的,把时域上的数据映射到频域上,然后对DCT系数进行量化处理,基本上,所有的有损压缩,都会有量化,它提高压缩率最明显。
图像的原始文件是比较大的,必须经过图像压缩才能够进行快速的传输以及顺畅的播放。而压缩比正是来衡量影像压缩大小的参数。 一般来说,摄像头的压缩比率大都是5:1。也就是说,如果在未压缩之前30秒的图像的容量是30MB,那么按照摄像头5:1的压缩比率来对图像进行压缩以后,它的大小就变成了6MB了。
主要的视频压缩算法包括:M-JPEG、Mpeg、H.264、Wavelet(小波压缩)、JPEG 2000、AVS。
基本上视频压缩的核心就这些。
三.视频传输部分
为了保证数字视频网络传输的实时性和图像的质量,传输层协议的选择是整个设计和实现的关键。Internet在IP层上使用两种传输协议:一种是TCP(传输控制协议),它是面向连接的网络协议;另一种是UDP(用户数据报协议),它是无连接的网络协议。
TCP 传输 :TCP(传输控制协议)是一种面向连接的网络传输协议。支持多数据流操作,提供流控和错误控制,乃至对乱序到达报文的重新排序,因此,TCP传输提供了可靠的数据传输服务。
使用TCP传输的一般的过程:
客户机向服务器发出连接的请求后,服务器接收到后,向客户机发出连接确认,实现连接后,双方进行数据传输。
UDP 传输 : UDP(用户数据报协议)是一种无连接的网络传输协议。提供一种基本的低延时的称谓数据报的传输服务。不需要像TCP传输一样需预先建立一条连接。UDP无计时机制、流控或拥塞管理机制。丢失的数据不会重传。因此提供一种不可靠的的应用数据传输服务。但在一个良好的网络环境下如 局域网内,使用UDP传输数据还是比较可靠,且效率很高。
IP 组播技术: 组播技术是一种允许一个或多个发送者发送单一或多个发送者的数据包到多个接收者的网络技术。组播源把数据报发送到特定的组播组,而只有加入到该组播组的主机才能接收到这些数据包。组播可大大节省网络宽带,因为无论有多少个目标地址,在整个网络的任何一条链路上只船送单一的数据包。
1.TCP/IP 协议和实时传输
TCP/IP协议最初是为提供非实时数据业务而设计的。IP协议负责主机之间的数据传输,不进行检错和纠错。因此,经常发生数据丢失或失序现象。为保证数据的可靠传输,人们将TCP协议用于IP数据的传输,以提高接收端的检错和纠错能力。当检测到数据包丢失或错误时,就会要求发送端重新发送,这样一来就不可避免地引起了传输延时和耗用网络的带宽。因此传统的TCP/IP协议传输实时音频、视频数据的能力较差。当然在传输用于回放的视频和音频数据时,TCP协议也是一种选择。如果有足够大的缓冲区、充足的网络带宽,在TCP协议上,接近实时的视音频传输也是可能的。然而,如果在丢包率较高、网络状况不好的情况下,利用TCP协议进行视频或音频通信几乎是不可能的。
TCP和其它可靠的传输层协议如XTP不适合实时视音频传输的原因主要有以下几个方面:
1 .TCP的重传机制
我们知道,在TCP/IP协议中,当发送方发现数据丢失时,它将要求重传丢失的数据包。然而这将需要一个甚至更多的周期(根据TCP/IP的快速重传机制,这将需要三个额外的帧延迟),这种重传对于实时性要求较高的视音频数据通信来说几乎是灾难性的,因为接收方不得不等待重传数据的到来,从而造成了延迟和断点(音频的不连续或视频的凝固等等)。
2 . TCP的拥塞控制机制
TCP的拥塞控制机制在探测到有数据包丢失时,它就会减小它的拥塞窗口。而另一方面,音频、视频在特定的编码方式下,产生的编码数量(即码率)是不可能突然改变的。正确的拥塞控制应该是变换音频、视频信息的编码方式,调节视频信息的帧频或图像幅面的大小等等。
3 . TCP报文头的大小
TCP不适合于实时视音频传输的另一个缺陷是,它的报文头比UDP的报文头大。TCP的报文头为40个字节,而UDP的报文头仅为12个字节。并且,这些可靠的传输层协议 不能提供时间戳(Time Stamp)和编解码信息(Encoding Information) ,而这些信息恰恰是接收方(即客户端)的应用程序所需要的。因此TCP是不适合于视音频信息的实时传输的。
4 . 启动速度慢
即便是在网络运行状态良好、没有丢包的情况下,由于TCP的启动需要建立连接,因而在初始化的过程中,需要较长的时间,而在一个实时视音频传输应用中,尽量少的延迟正是我们所期望的。
由此可见,TCP协议是不适合用来传输实时视音频数据的,为了实现视音频数据的实时传输,我们需要寻求其它的途径。
2.RTP 协议适合实时视音频传输
RTP(Real-Time Transport Protocol)/RTCP(Real-Time Transport Control Protocol)是一种应用型的传输层协议,它并不提供任何传输可靠性的保证和流量的拥塞控制机制。它是由IETF(Internet Engineering Task Force)为视音频的实时传输而设计的传输协议。RTP协议位于UDP协议之上,在功能上独立于下面的传输层(UDP)和网络层,但不能单独作为一个层次存在,通常是利用低层的UDP协议对实时视音频数据进行组播(Multicast)或单播(Unicast),从而实现多点或单点视音频数据的传输。
UDP是一种无连接的数据报投递服务,虽然没有TCP那么可靠,并且无法保证实时视音频传输业务的服务质量(QoS),需要RTCP实时监控数据传输和服务质量,但是,由于UDP的传输延时低于TCP,能与音频和视频流很好地匹配。因此,在实际应用中,RTP/RTCP/UDP用于音视频媒体,而TCP用于数据和控制信令的传输。
总结 :如果接收端和发送端处于同一个局域网内,由于有充分的带宽保证,在满足视频传输的实时性方面,TCP也可以有比较好的表现,TCP和基于UDP的RTP的视频传输性能相差不大。由于在局域网内带宽不是主要矛盾,此时视频数据传输所表现出来的延时主要体现为处理延时,它是由处理机的处理能力以及采用的处理机制所决定的 。但是当在广域网中进行视频数据传输时,此时的传输性能极大地取决于可用的带宽,由于TCP是面向连接的传输层协议,它的重传机制和拥塞控制机制,将使网络状况进一步恶化,从而带来灾难性的延时。同时,在这种网络环境下,通过TCP传输的视频数据,在接收端重建、回放时,断点非常明显,体现为明显的断断续续,传输的实时性和传输质量都无法保障。相对而言,采用RTP传输的视频数据的实时性和传输质量就要好得多。
四.视频图像的异地显示
当压缩过的视频通过互联网传输到异地的时候,对于互联网传输过来的视频信息,首先是要进行解码,然后才是显示。解码的芯片有一定的性能要求,比编码器低些,但是毕竟是视频数据处理,通用的芯片(不支持MMX等多媒体指令)可能会比较吃力。显示设备主要有电视、监视器和显示器,他们的信号接口是不一样的,电视监视器是模拟的电信号,显示器的输入应该是数字信号。
以上是摄像头如何获取图像数据及获取的数据存放在什么地方,如何压缩和传输及如何在异地释放和播放出来的整个过程