数字视频

英文名称:Digital Video   

数字视频的概述

数字视频就是先用摄像机之类的视频捕捉设备,将外界影像的颜色和亮度信息转变为电信号,再记录到储存介质(如录像带)。播放时,视频信号被转变为帧信息,并以每秒约30帧的速度投影到显示器上,使人类的眼睛认为它是连续不间断地运动着的。电影播放的帧率大约是每秒24帧。如果用示波器(一种测试工具)来观看,未投影的模拟电信号看起来就像脑电波的扫描图像,由一些连续锯齿状的山峰和山谷组成。

为了存储视觉信息,模拟视频信号的山峰和山谷必须通过数字/模拟(D/A)转换器来转变为数字的“0”或“1”。这个转变过程就是我们所说的视频捕捉(或采集过程)。如果要在电视机上观看数字视频,则需要一个从数字到模拟的转换器将二进制信息解码成模拟信号,才能进行播放。

模拟视频的数字化包括不少技术问题,如电视信号具有不同的制式而且采用复合的YUV信号方式,而计算机工作在RGB空间;电视机是隔行扫描,计算机显示器大多逐行扫描;电视图像的分辨率与显示器的分辨率也不尽相同等等。因此,模拟视频的数字化主要包括色彩空间的转换、光栅扫描的转换以及分辨率的统一。

模拟视频一般采用分量数字化方式,先把复合视频信号中的亮度和色度分离,得到YUV或YIQ分量,然后用三个模/数转换器对三个分量分别进行数字化,最后再转换成RGB空间。

数字视频的发展

谈到数字视频的发展历史,不能不回顾计算机的发展历程,它实际上是与计算机所能处理的信息类型密切相关的,自上个世纪40年代计算机诞生以来,计算机大约经历了以下几个发展阶段: 数值计算阶段。这是计算机问世后的“幼年”时期。在这个时期计算机只能处理数值数据,主要用于解决科学与工程技术中的数学问题。实际上,世界上第一台电子计算机ENIAC就是为美国国防部解决弹道计算问题和编制射击表而研制生产的。

数据处理阶段。50年代发明了字符发生器,使计算机不但能处理数值,也能表示和处理字母及其它各种符号,从而使计算机的应用领域从单纯的数值计算进入了更加广泛的数据处理。这是由世界上第一个批量生产的商用计算机UNIAC—1首开先河的。

多媒体阶段。随着电子器件的进展,尤其是各种图形、图像设备和语音设备的问世,计算机逐渐进入多媒体时代,信息载体扩展到文、图、声等多种类型,使计算机的应用领域进一步扩大。

由于视觉,即图形、图像,最能直观明了、生动形象地传达有关对象的信息,因而在多媒体计算机中占有重要的地位。

在多媒体阶段,计算机与视频就产生了联姻。数字视频的发展主要是指在个人计算机上的发展,可以大致分为初级、主流和高级几个历史阶段。

第—阶段是初级阶段,其主要特点就是在台式计算机上增加简单的视频功能,利用电脑来处理活动画面,这给人展示了一番美好的前景,但是由于设备还未能普及,都是面向制作视频制作领域的专业人员。在普通PC用户还无法奢望在自己的电脑上实现视频功能。

第二个阶段为主流阶段,在这个阶段数字视频在计算机中得到广泛应用,成为主流。初期数字视频的发展没有人们期望的那么快,原因很简单,就是对数字视频的处理很费力,这是因为数字视频的数据量非常之大,1分钟的满屏的真彩色数字视频需要1.5GB的存储空间,而在早期—般台式机配备的硬盘容量大约是几百兆,显然无法胜任如此大的数据量。

虽然在当时处理数字视频很困难,但它所带来的诱惑促使人们采用折衷的方法。先是用计算机捕获单帧视频画面,可以捕获一帧视频图像并以一定的文件格式存储起来,可以利用图像处理软件进行处理,将它放进准备出版的资料中;后来,在计算机上观看活动的视频成为可能。虽然画面时断时续,但毕竟是动了起来,带给人们无限的惊喜。

而最有意义的突破是计算机有了捕获活动影像的能力,将视频捕获到计算机中,随时可以从硬盘上播放视频文件。能够捕获视频得益于数据压缩方法,压缩方法有两种:纯软件压缩和硬件辅助压缩纯软件压缩方便易行,只用一个小窗口显示视频,有很多这方面的软件。硬件压缩花费高,但速度快。在这一过程中,虽然能够捕获到视频,但是缺乏一个统一的标准,不同的计算机捕获的视频文件不能交换。虽然有过一个所谓的“标准”,但是它没有得到足够的流行,因此没有变成真正的标准,它就是数字视频交互(DVI)。DVI在捕获视频时使用硬件辅助压缩,但在播放时却只使用软件,因此在播放时不需要专门的设备。但是DVI没有形成市场,因此没有被广泛的了解和使用。因此就难以流行。这就需要计算机与视频再做一次结合,建立一个标准,使得每台计算机都能播放令人心动的视频文件。这次结合成功的关键是各种压缩解压缩Codec技术的成熟。Codec来自于两个单词Compression(压缩)和Decompression(解压),它是一种软件或者固件(固化于用于视频文件的压缩和解压的程序芯片)。压缩使得将视频数据存储到硬盘上成为可能。如果帧尺寸较小帧切换速度较慢,再使用压缩和解压,存储1分钟的视频数据只需20MB的空间而不是1.5GB,所需存储空间的比例是20:1500,即1:75。当然在显示窗口看到的只是分辨率为160×120邮票般大小的画面,帧速率也只有15帧/s,色彩也只有256色,但画面毕竟活动起来了。

Quicktime和Video for Windows通过建立视频文件标准MOV和AVI使数字视频的应用前景更为广阔,使它不再是一种专用的工具,而成为每个人电脑中的必备成分。而正是数字视频发展的这一步,为电影和电视提供了一个前所未有的工具,为影视艺术带来了影响空前的变革。

第三阶段是高级阶段,在这一阶段,普通个人计算机进入了成熟的多媒体计算机时代。各种计算机外设产品日益齐备,数字影像设备争奇斗艳,视音频处理硬件与软件技术高度发达,这些都为数字视频的流行起到了推波助澜的作用。

数字视频的采样

根据电视信号的特征,亮度信号的带宽是色度信号带宽的两倍。因此其数字化时可采用幅色采样法,即对信号的色差分量的采样率低于对亮度分量的采样率。用Y:U:V来表示YUV三分量的采样比例,则数字视频的采样格式分别有4:1:1、4:2:2和4:4:4三种。电视图像既是空间的函数,也是时间的函数,而且又是隔行扫描式,所以其采样方式比扫描仪扫描图像的方式要复杂得多。分量采样时采到的是隔行样本点,要把隔行样本组合成逐行样本,然后进行样本点的量化,YUV到RGB色彩空间的转换等等,最后才能得到数字视频数据。

数字视频的标准

为了在PAL、NTSC和 SECAM电视制式之间确定共同的数字化参数,国家无线电咨询委员会(CCIR)制定了广播级质量的数字电视编码标准,称为CCIR 601标准。在该标准中,对采样频率、采样结构、色彩空间转换等都作了严格的规定,主要有:

1、采样频率为f s=13.5MHz

2、分辨率与帧率

3、根据f s的采样率,在不同的采样格式下计算出数字视频的数据量:

这种未压缩的数字视频数据量对于目前的计算机和网络来说无论是存储或传输都是不现实的,因此在多媒体中应用数字视频的关键问题是数字视频的压缩技术。  

SMPTE表示单位

通常用时间码来识别和记录视频数据流中的每一帧,从一段视频的起始帧到终止帧,其间的每一帧都有一个唯一的时间码地址。根据动画和电视工程师协会SMPTE(Society of Motion Picture and Television Engineers)使用的时间码标准,其格式是:小时:分钟:秒:帧,或 hours:minutes:seconds:frames。一段长度为00:02:31:15的视频片段的播放时间为2分钟31秒15帧,如果以每秒30帧的速率播放,则播放时间为2分钟31.5秒。

根据电影、录像和电视工业中使用的帧率的不同,各有其对应的SMPTE标准。由于技术的原因NTSC制式实际使用的帧率是29.97fps而不是30fps,因此在时间码与实际播放时间之间有0.1%的误差。为了解决这个误差问题,设计出丢帧(drop-frame)格式,也即在播放时每分钟要丢2帧(实际上是有两帧不显示而不是从文件中删除),这样可以保证时间码与实际播放时间的一致。与丢帧格式对应的是不丢帧(nondrop-frame)格式,它忽略时间码与实际播放帧之间的误差。

视频压缩基本概念

视频压缩的目标是在尽可能保证视觉效果的前提下减少视频数据率。视频压缩比一般指压缩后的数据量与压缩前的数据量之比。由于视频是连续的静态图像,因此其压缩编码算法与静态图像的压缩编码算法有某些共同之处,但是运动的视频还有其自身的特性,因此在压缩时还应考虑其运动特性才能达到高压缩的目标。在视频压缩中常需用到以下的一些基本概念:

(一)、有损和无损压缩:

在视频压缩中有损(Lossy )和无损(Lossless)的概念与静态图像中基本类似。无损压缩也即压缩前和解压缩后的数据完全一致。多数的无损压缩都采用RLE行程编码算法。有损压缩意味着解压缩后的数据与压缩前的数据不一致。在压缩的过程中要丢失一些人眼和人耳所不敏感的图像或音频信息,而且丢失的信息不可恢复。几乎所有高压缩的算法都采用有损压缩,这样才能达到低数据率的目标。丢失的数据率与压缩比有关,压缩比越小,丢失的数据越多,解压缩后的效果一般越差。此外,某些有损压缩算法采用多次重复压缩的方式,这样还会引起额外的数据丢失。

(二)、帧内和帧间压缩:

帧内(Intraframe)压缩也称为空间压缩(Spatial compression)。当压缩一帧图像时,仅考虑本帧的数据而不考虑相邻帧之间的冗余信息,这实际上与静态图像压缩类似。帧内一般采用有损压缩算法,由于帧内压缩时各个帧之间没有相互关系,所以压缩后的视频数据仍可以以帧为单位进行编辑。帧内压缩一般达不到很高的压缩。

采用帧间(Interframe)压缩是基于许多视频或动画的连续前后两帧具有很大的相关性,或者说前后两帧信息变化很小的特点。也即连续的视频其相邻帧之间具有冗余信息,根据这一特性,压缩相邻帧之间的冗余量就可以进一步提高压缩量,减小压缩比。帧间压缩也称为时间压缩(Temporal compression),它通过比较时间轴上不同帧之间的数据进行压缩。帧间压缩一般是无损的。帧差值(Frame differencing)算法是一种典型的时间压缩法,它通过比较本帧与相邻帧之间的差异,仅记录本帧与其相邻帧的差值,这样可以大大减少数据量。

(三)、对称和不对称编码:

对称性(symmetric)是压缩编码的一个关键特征。对称意味着压缩和解压缩占用相同的计算处理能力和时间,对称算法适合于实时压缩和传送视频,如视频会议应用就以采用对称的压缩编码算法为好。而在电子出版和其它多媒体应用中,一般是把视频预先压缩处理好,尔后再播放,因此可以采用不对称(asymmetric)编码。不对称或非对称意味着压缩时需要花费大量的处理能力和时间,而解压缩时则能较好地实时回放,也即以不同的速度进行压缩和解压缩。一般地说,压缩一段视频的时间比回放(解压缩)该视频的时间要多得多。例如,压缩一段三分钟的视频片断可能需要10多分钟的时间,而该片断实时回放时间只有三分钟。

(四)数字视频压缩说明

如果使用数字视频,需要考虑的一个重要因素是文件大小,因为数字视频文件往往会很大,这将占用大量硬盘空间。解决这些问题的方法是压缩—让文件变小。

使用文本文件,大小问题就显得不那么重要了,因为这样的文件充满了“空格”,可以大幅度压缩—一个文本文件至少可以压缩 90%,压缩率是相当高的(压缩率是指已压缩数据与未压缩数据之比值)。其他类型的文件,如 MPEG 视频或 JPEG 照片几乎无法压缩,因为它们是用非常紧密的压缩格式制成的。

为什么数字视频要压缩?

数字视频之所以需要压缩,是因为它原来的形式占用的空间大得惊人。视频经过压缩后,存储时会更方便。数字视频压缩以后并不影响作品的最终视觉效果,因为它只影响人的视觉不能感受到的那部分视频。例如,有数十亿种颜色,但是我们只能辨别大约 1024 种。因为我们觉察不到一种颜色与其邻近颜色的细微差别,所以也就没必要将每一种颜色都保留下来。还有一个冗余图像的问题—如果在一个 60 秒的视频作品中每帧图像中都有位于同一位置的同一把椅子,有必要在每帧图像中都保存这把椅子的数据吗?

压缩视频的过程实质上就是去掉我们感觉不到的那些东西的数据。标准的数字摄像机的压缩率为 5 比 1,有的格式可使视频的压缩率达到 100 比 1。但过分压缩也不是件好事。因为压缩得越多,丢失的数据就越多。如果丢弃的数据太多,产生的影响就显而易见了。过分压缩的视频会导致无法辨认。

压缩视频的时候,请始终尝试几种压缩设置。目的是尽可能将数据压缩到最小,当数据丢失到从画面中能够明显看到时,再将压缩率稍微向回调一点儿。这样就可以在文件大小和画面质量之间达到最佳平衡。不要忘记,每个视频作品都各不相同—有些视频经过高度压缩后看上去仍不错,有些却不是,所以您需要通过试验才能得到最好的效果。

位速说明

位速是指在一个数据流中每秒钟能通过的信息量。您可能看到过音频文件用 “128–Kbps MP3” 或 “64–Kbps WMA” 进行描述的情形。Kbps 表示 “每秒千字节数”,因此数值越大表示数据越多:128–Kbps MP3 音频文件包含的数据量是 64–Kbps WMA 文件的两倍,并占用两倍的空间。(不过在这种情况下,这两种文件听起来没什么两样。原因是什么呢?有些文件格式比其他文件能够更有效地利用数据,64–Kbps WMA 文件的音质与 128–Kbps MP3 的音质相同。)需要了解的重要一点是,位速越高,信息量越大,对这些信息进行解码的处理量就越大,文件需要占用的空间也就越多。

为项目选择适当的位速取决于播放目标:如果您想把制作的 VCD 放在 DVD 播放器上播放,那么视频必须是 1150 Kbps,音频必须是 224 Kbps。典型的 206 MHz Pocket PC 支持的 MPEG 视频可达到 400 Kbps—超过这个限度播放时就会出现异常。

压缩策略

可以用多种不同的方法和策略压缩数字媒体文件,使之达到便于管理的大小。下面是几种最常用的方法:

心理声学音频压缩

心理声学 一词似乎很令人费解,其实很简单,它就是指“人脑解释声音的方式”。压缩音频的所有形式都是用功能强大的算法将我们听不到的音频信息去掉。例如,如果我扯着嗓子喊一声,同时轻轻地踏一下脚,您就会听到我的喊声,但可能听不到我踏脚的声音。通过去掉踏脚声,就会减少信息量,减小文件的大小,但听起来却没有区别。

心理视觉视频压缩

心理视觉视频压缩与和其对等的音频压缩相似。心理视觉模型去掉的不是我们听不到的音频数据,而是去掉眼睛不需要的视频数据。假设有一个在 60 秒的时间内显示位于同一位置的一把椅子的未经压缩的视频片段,在每帧图像中,都将重复这把椅子的同一数据。如果使用了心理视觉压缩,就会把一帧图像中椅子的数据存储下来,以在接下来的帧中使用。这种压缩类型—叫做“统计数据冗余”—是 WMV、MPEG 和其他视频格式用于压缩视频并同时保持高质量的一种数学窍门。

无损压缩

无损 一词的意思是“不丢失数据”。当一个文件以无损格式压缩时,全部数据仍然存在,这与压缩文档很相似—文档文件虽然变小了,但解压缩之后每一个字都还存在。您可以反复保存无损视频而不会丢失任何数据—这种压缩只是将数据压缩到更小的空间。无损压缩节省的空间较少,因为在不丢失信息的前提下,只能将数据压缩到这一程度。

有损压缩

有损压缩丢弃一些数据,以便获得较低的位速。心理声学压缩和心理视觉压缩是有损压缩技术,压缩结果是文件变小,但包含的源数据也更少。每次以有损文件格式保存文件时,都会损失很多数据—即使用同一种格式保存也是如此。一条好的经验是,只在项目的最后阶段才使用有损压缩。

数字视频的格式

MPEG-1

用于传输1.5Mbps数据传输率的数字存储媒体运动图像及其伴音的编码,经过MPEG-1标准压缩后,视频数据压缩率为1/100-1/2 00,音频压缩率为1/6.5。MPEG-1提供每秒30帧352*240分辨率的图像,当使用合适的压缩技术时,具有接近家用视频制式(VHS)录像带的质量。 MPEG-1允许超过70分钟的高质量的视频和音频存储在一张CD-ROM盘上。VCD采用的就是MPEG-1的标准,该标准是一个面向家庭电视质量级的视频、音频压缩标准。

MPEG-2

主要针对高清晰度电视(HDTV)的需要,传输速率为10Mbps,与MPEG-1兼容,适用于1.5-60Mbps甚至更高的编码范围。 MPEG-2有每秒30帧704*480的分辨率,是MPEG-1播放速度的四倍。它适用于高要求的广播和娱乐应用程序,如: DSS卫星广播和DVD,MPEG-2是家用视频制式(VHS)录像带分辨率的两倍。

DAC

即数/模转装换器,一种将数字信号转换成模拟信号的装置。 DAC的位数越高,信号失真就越小。图像也更清晰稳定。

AVI

AVI是将语音和影像同步组合在一起的文件格式。它对视频文件采用了一种有损压缩方式,但压缩比较高,因此尽管面面质量不是太好,但其应用范围仍然非常广泛。A VI支持256色和RLE压缩。AVI信息主要应用在多媒体光盘上,用来保存电视、电影等各种影像信息。

RGB

对一种颜色进行编码的方法统称为“颜色空间”或“色域”。“颜色空间”都可定义成一个固定的数字或变量。RGB(红、绿、蓝)只是众多颜色空间的一种。采用这种编码方法,每种颜色都可用三个变量来表示-红色绿色以及蓝色的强度。记录及显示彩色图像时,R GB是最常见的一种方案。但是,它缺乏与早期黑白显示系统的良好兼容性。因此,件多电子电器厂商普遍采用的做法是,将RGB转换成YUV 颜色空同,以维持兼容,再根据需要换回RGB格式,以便在电脑显示器上显示彩色图形。

YUV

YUV(亦称YCrCb)是被欧洲电视系统所采用的一种颜色编码方法(属于PAL)。YUV主要用于优化彩色视频信号的传输,使其向后兼容老式黑白电视。与R GB视频信号传输相比,它最大的优点在于只需占用极少的带宽(RGB要求三个独立的视频信号同时传输)。其中“Y”表示明亮度(Lumina nce或Luma),也就是灰阶值;而“U”和“V”表示的则是色度(Chrominance或Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。通过R GB输入信号来创建的,方法是将RGB信号的特定部分叠加到一起。“色度”则定义了颜色的两个方面-色调与饱和度,分别用Cr和CB来表示。其中,C r反映了GB输入信号红色部分与RGB信号亮度值之间的差异。而CB反映的是RGB输入信号蓝色部分与RGB信号亮度值之同的差异。

复合视频和S-Video

NTSC和PAL彩色视频信号是这样构成的--首先有一个基本的黑白视频信号,然后在每个水平同步脉冲之后,加入一个颜色脉冲和一个亮度信号。因为彩色信号是由多种数据“叠加”起来的,故称之为“复合视频”。S -Video则是一种信号质量更高的视频接口,它取消了信号叠加的方法,可有效避免一些无谓的质量损失。它的 功能是将RGB三原色和亮度进行分离处理。

NTSC、PAL和SECAM

基带视频是一种简单的模拟信号,由视频模拟数据和视频同步数据构成,用于接收端正确地显示图像。信号的细节取决于应用的视频标准或者"制式"--NTSC(美国全国电视标准委员会,National Television Standards Committee)、PAL(逐行倒相,Phase Alternate Line)以及SECAM(顺序传送与存储彩色电视系统,法国采用的一种电视制式,SEquential Couleur Avec Memoire)。在PC领域,由于使用的制式不同,存在不兼容的情况。就拿分辨率来说,有的制式每帧有625线(50Hz),有的则每帧只有525线(60 Hz)。后者是北美和日本采用的标准,统称为NTSC。通常,一个视频信号是由一个视频源生成的,比如摄像机、VCR或者电视调谐器等。为传输图像,视频源首先要生成-个垂直同步信号(V SYNC)。这个信号会重设接收端设备(PC显示器),保征新图像从屏幕的顶部开始显示。发出VSYNC信号之后,视频源接着扫描图像的第一行。完成后,视频源又生成一个水平同步信号,重设接收端,以便从屏幕左侧开始显示下一行。并针对图像的每一行,都要发出一条扫描线,以及一个水平同步脉冲信号。

另外,NTSC标准还规定视频源每秒钟需要发送30幅完整的图像(帧)。假如不作其它处理,闪烁现象会非常严重。为解决这个问题,每帧又被均分为两部分,每部分2 62.5行。一部分全是奇数行,另一部分则全是偶数行。显示的时候,先扫描奇数行,再扫描偶数行,就可以有效地改善图像显示的稳定性,减少闪烁。目前世界上彩色电视主要有三种制式,即N TSC、PAL和SECAM制式,三种制式目前尚无法统一。我国采用的是PAL-D制式。

Ultrascale

Ultra6cale是Rockwell(洛克威尔)采用的一种扫描转换技术。可对垂直和水平方向的显示进行任意缩 放。在电视这样的隔行扫描设备上显示逐行视频时,整个过程本身就己非常麻烦。而采用 UltraScale技木,甚至还能像在电脑显示器上那祥,迸行类似的纵横方向自由伸缩。

数字化影视基础

以下是对影视数字化以及桌面电影制作的一些基本概念的概括和介绍。

数字化(Digitizing)

模拟视频信号(以模拟摄象机拍摄的信号或者由胶片转换成的模拟视频信号)必须被转换成数字信息,也就是被数字化,才能够在电脑中对其进行操作。

视频捕捉卡(The Video Card)

视频捕捉卡需要占用电脑的一个扩充槽,视频信号通过它由放像设备被捕捉入电脑。一般来说,视频捕捉卡都附带一个扩展坞,上面提供用以连接放像设备的各种插口。

数字化的视频信号所占硬盘空间都非常大,所以很多捕捉卡在采集视频信号的同时对信号进行压缩,以避免在CPU、数据桥(连接捕捉卡和电脑)以及写入硬盘时可能出现的瓶颈。所谓的瓶颈,就是指当以上之中任何一个环节来不及处理输入的信号,最直接的后果一般就是部分视频内容(帧)的丢失。

当视频流被捕捉入电脑时,它将会被存储为一个视频文件。你可以通过你的视频捕捉软件指定一个帧速度,比如15帧,视频捕捉软件就会通过捕捉卡以每秒种1 5幅静止画面的速度将输入的视频信号保存到缓存中,然后将视频文件写入硬盘。

最容易出现瓶颈的地方是硬盘。所以,安装一个持续吞吐量尽可能高的硬盘非常重要,要知道,硬盘要连续处理的数据甚至比你想象的还要大。那些制作广播级影视作品的人一般都使用磁盘阵列- -通过几个硬盘的协作获得最大的吞吐量。

屏幕长宽比(Aspect Ratio)

在电影和电视中,屏幕长宽比指的是屏幕的宽度和屏幕的高度的比例。大多数桌面电脑、普通电视系统的长宽比都是4:3。

AVI

Audio/Video Interleave(音频/视频隔行扫描)的缩写。AVI是Windows下的指定视频文件格式,也是PC系统中使用最为广泛的视频文件格式,同QUICK TIME和MPEG并称为电脑的三大主流视频技术。简单说,AVI以隔行扫描的视频和音频不断交错的方式工作。

分量视频信号(Component Video)

将画面按三个颜色通道(RGB)分成红、绿和蓝(附加亮度信号)三个单独信号通道。产生的画面质量较高,一般在广播级视频设备中被采用。

合成视频信号(Composite Video)

将彩色信号、亮度信号和同步信号混合在一个信号通道内,在家用视频设备中被大量采用。

压缩(Compression)

压缩是制作数字电影的一个重要感念。视频和音频在数字化过程中都可以通过电脑进行压缩。当声音和画面被压缩后,他们可以更高效的得到C PU的处理并减少视频及音频文件占用的硬盘空间。压缩也是视频在网络上传播的关键,必须将文件大小压缩至带宽允许的程度才可以被用户下载。

压缩比(Compression Ratio)

图象文件原始大小和经压缩后图象文件大小的比例。信号编解码器(Codec) 压缩/解压缩的运算法则。也就是压缩与解压缩所使用的压缩标准(例如JPEG或者Cinepak)。一般的编码包括将模拟视频信号转换到压缩视频文件(比如M PEG)或将模拟声音信号转变为数字化声音(比如RealAudio)。

CPU

中央处理器(Central Processing Unit)。简单的说就是电脑的"大脑",是最重要的微处理芯片,和主板及系统内存协同工作。

数字化(Digitize)

将模拟信号转变为数字信号的过程。

信号丢失(Dropout)

由于磁带金属磁粉掉落引起的问题,一般是因为存放时间过长或误操作引起的。信号丢失会造成画面噪音、拖影以及不同步等问题。

MPEG

Moving Pictures Experts Group(运动画面专家小组)的缩写。MPEG是一种运动画面及声音的压缩标准。MPEG-1标准的视频/音频流的数据流量是150千比特每秒,和单倍速C D-ROM的传输率相同。它通过设定关键帧并只改变临近帧画面中的不同区域工作。

网络用户总线是Macintosh电脑内部扩展槽的标准接口(专指视频及音频扩展卡)。新的Mac电脑均开始使用Intel的超级PCI标准,所以你只能在老的M ac机种上看到网络用户总线的插槽。如果你计划购买视频或音频扩展卡,并有一台老式的Mac电脑,请先确认你的电脑拥有什么样的插槽。网络用户总线是由德州仪器公司( Texas Instruments)设计的。

NTSC

国家电视标准委员会(National Television Standards Commitee)的缩写。是中北美洲及日本通用的电视制式,与欧洲的PAL制式和法国的SECAM只是相对。他的垂直分辨率有525线,帧速为30(2 9.97)FPS。

PAL

逐行倒相(Phase Alteration Line)的缩写,是中国及欧洲大多数国家通用的电视制式。具有更高的垂直分辨率(625线),但是帧速相对慢于NTSC(25FPS)。

PCI

外接设备连接总线(Peripheral Component Interconnect)的缩写,PCI是奔腾电脑系统所使用的相当优秀的内置扩展接口(现在Apple公司的PowerPC也使用了这一总线)。

SECAM

顺序传送彩色与记忆制(Systeme Electronique Pour Couleur Avec Memoire)的缩写。是法国、俄罗斯和部分东欧及非洲国家采用的电视制式。它和PAL制式有着相同的垂直分辨率和帧速,但是SECAM置是的色彩是调频信号调制的。

模拟视频的世界

视频,简单来说,用摄像机交将已经录好的视频进行无线广播或从录像带进行回放,像电流一样在外界连续录像(模拟信号),能看见各听见视频的内容都包含在这个信号内,通过某种制备按照一定的标准进行解码。最普通的设备是一台电视机各最普通的标准是NTSC(国家电视标准委员会)和PAL(逐行倒相制式)。在北美的NTSC主要用于工业,而在一些亚洲国家,欧洲国家和太平洋南岸在正常情况下都按照PAL标准,不同的标准说明了为什么不能在英国的电视上看到的视频却在美国正好相反,原因是缺少专业对口的设备。

标准的视频信号定义颜色有两个系数。亮度和色度,亮度是黑白两种颜色,适用控制图像的对比度和亮度。NTSC各PAL标准两者都运用亮度和色度,使他们与任何视音频信号混合一起,这类信号被叫做复合信号.如同将视频的各个方面结合起来一样,中一部分就是信号类型,成分各区分亮度和度度,并且通过控制颜色的不同值来达到更好的视频质量。

我们看到的图像是电视显像管内发出的一系列连续的线,线数的多少决定了视频的质量,NTSC为525线。PAL为625线。视频信号慢公认的,它刷新这些线进行浏览,象扫描那样完全通过,如果它反过和升级后浏览,在显示器重复的结果是60次/秒为NTSC。和50次/秒为PAL制。在模拟视频世界中,视频表现为一系列连续波动的信号。

DSP的应用技术

DSP是数字信号处理器的简称,在全球的数字化浪潮中,DSP以其高性能和软件可编程等特点,长期对数字媒体处理起到了积极的推动作用。最初DSP的应用在于专业数据通信和语音处理,各种专用调制解调器、声码器、数据加密机初步获得市场。其后DSP应用扩展到广泛的民用产品,诸如硬盘驱动器、通用调制解调器、数字答录机、无线通信终端。九十年代中DSP在数字GSM手机应用和无线基站应用中都获得了巨大的成功。与此同时,DSP开始全面拓展到新兴应用,并在宽带通信、数字控制、数字音频、数字视频等众多市场全球。现在,我们就DSP在数字视频行业中的应用进行分析。

视频行业的数字化,是模拟世界中数字化较晚的行业之一。原因主要是因为模拟视频的数字化产生巨大的数据量,造成应用的实现比较困难。随着互联网的速度提高,数字视频已经开始商业化,并逐步取代原来模式视频的地位。

最早实现数字视频的行业是家庭消费的VCD和DVD,在90年代初VCD问世后带来了人们在家庭娱乐的新模式,而最早实现VCD商业化的C-CUBE公司,其核心的MPEG1的解码芯片就是基于DSP实现的专用芯片。

数字视频的发展,是随着数字视频标准的发展而发展,它将经历数字化、网络化和智能化的步骤发展,并且由此带来无限的商机。数字化的阶段其实就是一个标准化的阶段,现阶段国际两大组织分别制订了MPEG 标准和H.26x的标准,比如MPEG1的标准带来了VCD的兴起,MPEG2的标准带来了DVD的商机,而H.261、H.263为可视电话制订标准并为此形成网络化时代的新兴市场,数字视频的标准也逐步开始统一,随着MPEG4和H.264的推出,标准的统一将势在必行。 现阶段,DSP在数字视频中将主要在数字监控、会议电视、可视电话、家庭媒体网关和数字基顶盒等领域得到很好的应用。

数字监控系统在中国仍是一个的市场热点,业内专家预计今年国内需求将突破一百万路。几年来数字系统已经逐步取代传统模拟系统,而今年基于MPEG4的数字系统又全面取代MPEG1系统,国内已经有领先厂商应用DSP推出基于H.264的数字系统并投入市场。在早期的MPEG1类产品中,视频有专用芯片,DSP只处理语音。在MPEG4及H.264类产品中DSP全面完成视频和语音处理工作。 相比较ASIC而言,数字监控行业在DSP平台上进行视频产品开发有以下几方面的优势:第一,用户开发自由度更大,支持多种个性化开发,可以满足市场不断提出的新的要求,在第一时间提升产品性能,增强产品的竞争能力;第二,DSP处理能力强,可以在一个DSP上同时实现多路音视频信号的压缩处理,同时为了及时满足应用的需要、还提供了很多视频专用功能,比如视频滤波、De-interlace处理、高分辨显示输出、OSD功能等,甚至象网络接口、IDE接口都成为了视频DSP的主要功能,这样使进一步大幅度降低产品的成本成为可能(这一点很重要);第三,开发周期短,实现快速技术更新和产品换代;第四,芯片功耗低,对提高产品的稳定性提供可靠保障。

现阶段在数字视频领域内,主要有以下一些DSP厂商:Philips、Equator、Ti、ADI、Cradle等等。各家厂商都有其特点,以下分别进行详细的介绍:

一、Philips视频处理DSP介绍:

Philips是最早开发视频DSP的厂商之一,最早在1996年就推出了Trimedia系列的第一款芯片TM-1000,当时主要的定位是数字电视方面的产品,随后推出了TM-1100、TM-1300、PNX-1300(TM-1300改进版)系列。虽然在数字电视方面没有取得很大的成功,但是PNX-1300系列芯片视频监控产品中得到了大规模的应用,也算是无心插柳柳成荫。随后飞利浦推出PNX-1500系列,也同样在视频监控应用上面成为主流。下一步飞利浦还将推出PNX1700系列。现在主流的PNX1500主流的300M内频,内部配有专门的媒体协处理器,在PNX1300系列的基础上,解决了以前PNX1300系列中功耗过大的问题,增加了网络口,IDE接口,提供了开发信息化家电和数字视频设备的主要接口;提供LED高分辨输出、高清视频输出(1920x1080)视频输出;具有视频滤波和De-interlace处理视频处理单元;可以生成2D图形加速器;内嵌看门狗并具有两个Reset 管脚。

二、Ti视频处理DSP介绍:

作为DSP行业的老大,随着DSP在数字视频行业的机会,Ti的TMS320DM64x系列也占据非常重要的地位。其实早在2000年,Ti就推出针对数码相机的专业图像处理DSP:TMS320DSC系列,并被一些厂商应用于Motion JPEG的数字视频算法中,随后Ti又推出TMS320DM270和TMS320DM320等在DSC系列改进的产品,在多媒体的便携式播放器上有不错的应用。而真正成为数字视频的里程碑式的产品则是2003年TI发布的TMS320DM64X系列的视频DSP产品,该产品以Ti的C64x为核心处理器。以TMS320DM642为例,它具有600M的处理能力,有3个Video Port,带有PCI和网络接口,该产品功耗低,因此产品一经面世得到了数字视频行业的强烈关注。2004年下半年TMS320DM642开始批量供货,国内一些著名的视频监控厂商采用DM642推出更新原来采用PNX1300系列的产品。另外,Ti还计划不断升级TMS320DM64x的运算速度。预计到明年,Ti还将推出内嵌ARM9和C64x的数字视频专用DSP,这将是业内非常期待的产品。

三、ADI视频处理DSP介绍:

作为在DSP领域内Ti的最大竞争对手,2002年ADI公司推出了Blackfin系列DSP,其中的ADSP-21535是一款合适的数字视频应用的DSP,ADSP-21535具有600MHZ的核内时钟,300MHZ主频,一个VP口,但是没有预览通道,接口资源也很丰富,Blackfin系列的DSP采用双MAC的结构具有正交的类似RISC的微处理器指令集,使单指令多数据和多媒体操作都引入单指令结构。这样的DSP芯片结构不但易于编程,可以快速的信号处理和多媒体的处理,而且方便的扩展USB、PCI I/O、UART、SPORT等接口。非常适合对视频读入,处理以及传输。ADI最新的双核ADSP-21561也是专业视频处理DSP领域内不容忽视的好产品。但是相比较Philips和Ti,ADI的数字视频DSP的劣势在于能够支持Blackfin的第三方算法太少,这也是造成虽然Blackfin的产品非常有特点,但是应用面要远远小于前面两家公司的一个主要原因。

四、Equator视频处理DSP介绍:

美国的Equator公司,也是最早做数字视频领域内的专业DSP厂商,Equator最先推出的MAP-CA及随后推出的BSP-15系列产品,在会议电视领域和数字基顶盒领域都得到很好应用,由于是专业的视频DSP厂商,Equator的产品也非常具有特点,以BSP-15为例:该芯片最高可达到400Mhz的内频,具有两个视频输入口和音频输入口,一个视频输出口,但是该产品的最大缺点就是功耗太大,产品必须加散热风扇,预计推出的BSP-16将会改变这一问题。

另外,还有其他一些厂商也开始进入数字视频应用DSP领域,诸如美国Cradle Technologies在推出CT3400后也将推出可对H.264/MPEG-4 AVC格式的D1规格影像以30帧/秒进行编解码的DSP。而LSI则另辟蹊径,提供DSP内核的方式给专业的算法公司,这种方式也受到一些应用领域客户的青睐。

结束语:

随着数字时代的到来,视频领域的数字化也必将到来。而DSP在数字视频的应用发展也将起到越来越重要的作用,DSP技术的进步必将为人类带来更多更大的便利,让我们充满期待的看着DSP在数字视频领域的发展和应用。

Copyright© 1999-2024 C114 All Rights Reserved | 联系我们 | 沪ICP备12002291号-4