安防资料总结

来源:互联网 发布:大番薯棋牌源码 编辑:程序博客网 时间:2024/04/27 20:16

1、CCD和CMOS的区别CCD
CCD和CMOS的区别CCD,英文全称:Charge-coupled Device,中文全称:电荷耦合元件。可以称为CCD图像传感器。CCD是一种特殊的半导体器件,由大量的光敏元件组成,这些光敏元件通常是按矩阵排列的。光线透过镜头照射到CCD上,并被转换成电荷,每个元件上的电荷量取决于它所受到的光照强度。当你按动快门,CCD将各个元件的信息传送到模/数转换器上,模拟电信号经过模/数转换器处理后变成数字信号,数字信号以一定格式压缩后存入缓存内,此时一张数码照片诞生了。然后图像数据根据不同的需要以数字信号和视频信号的方式输出。目前市面上大部分数码相机使用的感光元件是CCD。


我们对CMOS的认识是从佳能公司发布EOSD30的准专业级数码机身开始的。当时许多业内人士都大吃一惊,对采用这种廉价的材料来做感光元件感到不可思议,认为CMOS的成像质量无法满足较高要求的专业用户的需要。那用CMOS做的感光元件在成像质量上真的一无是处吗?还是让我们先来了解一下什么是CMOS吧。CMOS即互补性金属氧化物半导体,其在微处理器、闪存和ASIC(特定用途集成电路)的半导体技术上占有绝对重要的地位。CMOS和CCD一样都可用来感受光线变化的半导体。CMOS主要是利用硅和锗这两种元素所做成的半导体,通过CMOS上带负电和带正电的晶体管来实现基本的功能的。这两个互补效应所产生的电流即可被处理芯片纪录和解读成影像。


CCD和CMOS的区别
CCD目前的技术比较成熟,在尺寸方面也具有一定的优势(由于工艺方面的原因CMOS的尺寸无法做的很大),但其工艺复杂、成本 高、耗电量大、像素提升难度大等问题也是不可否认的。而CMOS由于制造工艺简单,因此可以在普通半导体生产线上进行生产,其制 造成本比较低廉。


CCD和CMOS各自的利弊,我们可以从技术的角度来比较两者主要存在的区别:


(a)信息读取方式不同 


CCD传感器存储的电荷信息需在同步信号控制下一位一位的实施转移后读取,电荷信息转移和读取输出需要有时钟控制电路和三组 不同的电源相配合,整个电路较为复杂。CMOS传感器经光电转换后直接产生电流(或电压)信号,信号读取十分简单。 


(b)速度有所差别


CCD传感器需在同步时钟的控制下以行为单位一位一位的输出信息,速度较慢;而CMOS传感器采集光信号的同时就可以取出电 信号,还能同时处理各单元的图象信息,速度比CCD快很多。


(c)电源及耗电量
CCD传感器电荷耦合器大多需要三组电源供电,耗电量较大;CMOS传感器只需使用一个电源,耗电量非常小,仅为CCD电荷 耦合器的1/8到1/10,CMOS光电传感器在节能方面具有很大优势。 


(d)成像质量


CCD传感器制作技术起步较早,技术相对成熟,采用PN结合二氧化硅隔离层隔离噪声,成像质量相对CMOS传感器有一定优势 。由于CMOS传感器集成度高,光电传感元件与电路之间距离很近,相互之间的光、电、磁干扰较为严重,噪声对图象质量影响很大。


CCD与CMOS两种传感器在“内部结构”和“外部结构”上都是不同的。 


CCD的成像点为X-Y纵横矩阵排列,每个成像点由一个光电二极管和其控制的一个邻近电荷存储区组成。光电二极管将光线(光 量子)转换为电荷(电子),聚集的电子数量与光线的强度成正比。在读取这些电荷时,各行数据被移动到垂直电荷传输方向的缓存器中 。每行的电荷信息被连续读出,再通过电荷/电压转换器和放大器传感。这种构造产生的图像具有低噪音、高性能的特点。但是生产CC D需采用时钟信号、偏压技术,因此整个构造复杂,增大了耗电量,也增加了成本。 


数码相机成像过程
 


CMOS传感器周围的电子器件,如数字逻辑电路、时钟驱动器以及模/数转换器等,可在同一加工程序中得以集成。CMOS传感 器的构造如同一个存储器,每个成像点包含一个光电二极管、一个电荷/电压转换单元、一个重新设置和选择晶体管,以及一个放大器, 覆盖在整个传感器上的是金属互连器(计时应用和读取信号)以及纵向排列的输出信号互连器,它可以通过简单的X-Y寻址技术读取信 号。


CCD电荷耦合器仅能输出模拟电信号,输出的电信号还需经后续地址译码器、模数转换器、图像信号处理器处理,并且还须提供三 组不同电压的电源和同步时钟控制电路,集成度非常低。由CCD电荷耦合器构成的数码相机通常有六个芯片,有的多达八片,最少的也 有三片,使CCD电荷耦合器制作的数码相机成本较高。


CMOS光电传感器的加工采用半导体厂家生产集成电路的流程,可以将数码相机的所有部件集成到一块芯片上,如光敏元件、图像 信号放大器、信号读取电路、模数转换器、图像信号处理器及控制器等,都可集成到一块芯片上,还具有附加DRAM的优点。只需要一 个芯片就可以实现数码相机的所有功能,因此采用CMOS芯片的光电图像转换系统的整体成本很低。


其实,CCD也有两种:全帧(full frame)的和隔行(interline)的。这两种CCD的性能区别非常大。


总的来说,全帧的CCD性能最好。其次是隔行的CCD。CMOS的综合性能最差。full frame CCD最突出的优势是分辨率和动态范围。最弱的地方就是贵,耗电。


CMOS最差的地方是分辨率,动态范围和噪声。优势就是便宜,省电。


interline CCD比CMOS强的地方在于噪声。


总的来说,两种CCD的颜色还原都比CMOS强。


现在一般的消费级数码相机,在宣传上都不说是Full frame CCD还是Interline CCD。当然多数都是后者。专业级的数码相机,肯定是前者。所以,Full frame CCD 和Interline CCD间的区别,都存在于专业级数码相机和消费级机之间。当然,专业级数码相机彩用的大面积CCD带来的好处更突出。
原创文章:"http://www.52solution.com/knowledge/knowledgeinfo/id/1219"




2、IPC 方案总结
Atmel+OV、TI+OV、FreeScale+OV、海思+OV四款IP Camera方案
IP Camera概述
IP Camera是一种可产生数字视频流并将视频流通过有线或无线网络进行传输的摄像机。它超越了地域的限制,只要有网络就可以进行远程监控及录像。对系统集成商或工程商而言,如果大部分的设备均已布有网线,使用IP Camera将节省大量安装布线的费用。同时,IP Camera还可以让用户从远端观看现场的实时画面,真正做到远程监控无界限。
未来IP Camera的企业用户市场将以防盗与避免入侵为普遍的需求,并具有高影像质量、便于集中管理及可进行数字化分析的特点,企业可利用IP Camera进行物体移动侦测、温湿度环境感知、车牌辨识,以及整合POS系统或ATM系统等。家庭市场则以电信业者推出的低阶网络摄影机及传感器为主,透过固网、行动网络及终端装置,就可以对家庭进行远程操控,即使出门在外也能与家中保持联系。
针对需求日益增大的IP Camera市场,WPG下属世平集团(WPI)推出了Atmel+OV、TI+OV、FreeScale+OV、海思+OV等四款主流方案来满足家庭及企业的需求。


Atmel+OV IP Camera 方案


产品特性


● 低成本(PCBA,15美金以内)


● CMOS传感器,30万像素


● MJPEG编码方式


● VGA@30fps的帧速率


● 支持TCP/IP、ARP、ICMP、UDP、uPnP、SMTP、PPPoE、DHCP、FTP、DDNS、NTP等多种网络协议


● 支持云台控制、SD卡


TI + OV IP Camera方案


产品特性 


● CMOS/CCD传感器,130万像素


● MPEG4/MPEG/MJPEG编码方式


● 30fps的帧速率


● 支持TCP/IP、DHCP、HTTP、UDP、UPnP、FTP、SMTP、RTP等多种网络协议


● 支持PoE(以太网供电)


● 支持WiFi功能


● 支持SD卡


Freescale + OV IP Camera方案


产品特性


● CMOS Sensor,200万像素


● H.264/H.263/MPEG4编码方式


● 30fps的帧速率


● 支持TCP/IP、DHCP、HTTP、UDP、UPnP、FTP、SMTP、RTP等多种网络协议


● 支持PoE(以太网供电)功能


● 支持WiFi功能


● 支持SD/MMC卡、USB或硬盘


Hi3512 + OV IP Camera方案


产品特性


● CMOS传感器


● MJPEG/H.264双码流


● D1/VGA实时编码


● 支持TCP/IP、DHCP、HTTP、UDP、UPnP、FTP、SMTP、RTP等多种网络通讯协定


● 支持PoE(以太网供电)功能


● 支持WiFi功能


● 支持SD/MMC卡


● 双向语音对讲






3、芯防电子代理分销安防芯片:


一、Techwell/Nextchip


TW2815 TW2864B TW2865 TW2866 TW2867 TW2868


TW2823 TW2824Q TW2834 TW2835 TW2837 TW2862


TW9900_QFN32/_LQFP32   TW9910_QFN48/_LQFP44


NVP1104,NVP1114,NVP1114A,NVP1104A,NVP1204,NVP1004


二、海思半导体/ Ti:


Hi3510  Hi3511 Hi3512 Hi3515  Hi3516  Hi3520  HI3507


TMS320DM365  TMS320DM368  TMS32DM8168  TMS32ODM355


TVP5150AM1  TVP5158


三、OmniVision/Micron


OV7720 OV7725 OV9710 OV9712 OV9715 OV2710 OV2715


MT9P031 MT9M001 MT9M033 MT9M034


四、PowerView:


NVP1104,NVP1114,NVP1114A,NVP1104A,NVP1204,NVP1004


五、Silicon Image:    Sil3512ECTU128   Sil3114CTU176


六、SAMSUNG :


K4T51163Q-HCE7 ,K4T51163QI-HCE7 ,K4T1G164QF-BCF7 ,


K4T1G164QE-HCE7 ,K4T1G164QF-BCE7 ,K4T1G164QE-HCE6


七、SPANSION:


S29GL064N90TFI040  S29GL128P10TFI010D  S29GL128N10TFI01


S29GL256P10TFI010  S29GL512N10TFI010


M25P128-VMF6PB


八、REALTEK :   RTL8201CP  RTL8211EG




4、码率,帧率,分辨率和清晰度的关系
为了了解视频的码率、帧率、分辨率。我们先来看看视频编码的基本原理:视频图像数据有极强的相关性,也就是说有大量的冗余信息。其中冗余信息可分为空域冗余信息和时域冗余信息。压缩技术就是将数据中的冗余信息去掉(去除数据之间的相关性),压缩技术包含帧内图像数据压缩技术、帧间图像数据压缩技术和熵编码压缩技术。视频文件一般涉及到三个参数:帧率、分辨率和码率。


  帧率:每秒显示的图片数。影响画面流畅度,与画面流畅度成正比:帧率越大,画面越流畅;帧率越小,画面越有跳动感。由于人类眼睛的特殊生理结构,如果所看画面之帧率高于16的时候,就会认为是连贯的,此现象称之为视觉暂留。并且当帧速达到一定数值后,再增长的话,人眼也不容易察觉到有明显的流畅度提升了。


  分辨率:(矩形)图片的长度和宽度,即图片的尺寸
  码率:把每秒显示的图片进行压缩后的数据量。影响体积,与体积成正比:码率越大,体积越大;码率越小,体积越小。 (体积=码率×时间)


  帧率X分辨率=压缩前的每秒数据量(单位应该是若干个字节) 
  压缩比=压缩前的每秒数据量/码率  (对于同一个视频源并采用同一种视频编码算法,则:压缩比越高,画面质量越差。)


 


  所谓“清晰”,是指画面十分细腻,没有马赛克。并不是分辨率越高图像就越清晰。
  简单说:
在码率一定的情况下,分辨率与清晰度成反比关系:分辨率越高,图像越不清晰,分辨率越低,图像越清晰。
在分辨率一定的情况下,码率与清晰度成正比关系,码率越高,图像越清晰;码率越低,图像越不清晰。
  但是,事实情况却不是这么简单。可以这么说:


在码率一定的情况下,分辨率在一定范围内取值都将是清晰的;同样地,在分辨率一定的情况下,码率在一定范围内取值都将是清晰的。


 


  在视频压缩的过程中, I帧是帧内图像数据压缩,是独立帧。而P帧则是参考I帧进行帧间图像数据压缩,不是独立帧。在压缩后的视频中绝大多数都是P帧,故视频质量主要由P帧表现出来。由于P帧不是独立帧,而只是保存了与邻近的I帧的差值,故实际上并不存在分辨率的概念,应该看成一个二进制差值序列。而该二进制序列在使用熵编码压缩技术时会使用量化参数进行有损压缩,视频的质量直接由量化参数决定,而量化参数会直接影响到压缩比和码率。


  视频质量可以通过主观和客观方式来表现,主观方式就是通常人们提到的视频清晰度,而客观参数则是量化参数或者压缩比或者码率。在视频源一样,压缩算法也一样的前提下比较,量化参数,压缩比和码率之间是有直接的比例关系的。


  分辨率的变化又称为重新采样。由高分辨率变成低分辨率称为下采样,由于采样前数据充足,只需要尽量保留更多的信息量,一般可以获得相对较好的结果。而由低分辨率变成高分辨率称为上采样,由于需要插值等方法来补充(猜测)缺少的像素点,故必然会带有失真,这就是一种视频质量(清晰度)的损失。






5、分辨率


我们常说的视频多少乘多少,严格来说不是分辨率,而是视频的高/宽像素值。分辨率是用于度量图像内数据量多少的一个参数,通常表示成ppi(每英寸像素Pixel per inch)那个视频的320X180是指它在横向和纵向上的有效像素,窗口小时ppi值较高,看起来清晰;窗口放大时,由于没有那么多有效像素填充窗口,有效像素ppi值下降,就模糊了。(放大时有效像素间的距离拉大,而显卡会把这些空隙填满,也就是插值,插值所用的像素是根据上下左右的有效像素“猜”出来的“假像素”,没有原视频信息)习惯上我们说的分辨率是指图像的高/宽像素值,严格意义上的分辨率是指单位长度内的有效像素值ppi。差别就在这里。图像的高/宽像素值的确和尺寸无关,但单位长度内的有效像素值ppi和尺寸就有关了,显然尺寸越大ppi越小。
简介
  常有人对分辨率不是很清楚,那么各种分辨率到底指的是什么?在这里给大家共享一下,帮助来认识分辨率。
  CIF简介
  CIF是常用的标准化图像格式(Common Intermediate Format)。在H.323协议簇中,规定了视频采集设备的标准采集分辨率。CIF = 352×288像素
  QCIF全称Quarter common intermediate format。QCIF也是常用的标准化图像格式。在H.323中,规定QCIF = 176×144像素。
  CIF格式具有如下特性:
  ⑴ 电视图像的空间分辨率为家用录像系统(Video Home System,VHS)的分辨率,即352×288。
  ⑵ 使用非隔行扫描(non-interlaced scan)。
  ⑶ 使用NTSC帧速率,电视图像的最大帧速率为30 000/1001≈29.97幅/秒。
  ⑷ 使用1/2的PAL水平分辨率,即288线。
  ⑸ 对亮度和两个色差信号(Y、Cb和Cr)分量分别进行编码,它们的取值范围同ITU-R BT.601。即黑色=16,白色=235,色差的最大值等于240,最小值等于16。
参数说明
  下面为5种CIF 图像格式的参数说明。参数次序为“图象格式亮度取样的象素个数(dx) 亮度取样的行数 (dy) 色度取样的象素个数(dx/2) 色度取样的行数(dy/2)”。
  sub-QCIF 128×96 64 48
  QCIF 176×144 88 72
  CIF 352×288 176 144
  4CIF 704×576 352 288(即我们经常说的D1)
  16CIF 1408×1152 704 576
  目前监控行业中主要使用Qcif(176×144)、CIF(352×288)、HALF D1(704×288)、D1(704×576)等几种分辨率。
  DCIF分辨率是什么?
  经过研究发现一种更为有效的监控视频编码分辨率(DCIF),其像素为528×384。DCIF分辨率的是视频图像来历是将奇、偶两个HALF D1,经反隔行变换,组成一个D1(720*576),D1作边界处理,变成4CIF(704×576),4CIF经水平3/4缩小、垂直2/3缩小,转换成528×384.528×384的像素数正好是CIF像素数的两倍,为了与常说的2CIF(704*288)区分,我们称之为DOUBLE CIF,简称DCIF。显然,DCIF在水平和垂直两个方向上,比Half D1更加均衡。
  什么是D1?
  做闭路电视监控系统这一行久了,大家都以为D1是硬盘录像机显示、录像、回放的分辨率,实际上不是的,D1是数字电视系统显示格式的标准,共分为以下5种规格:
  D1:480i格式(525i):720×480(水平480线,隔行扫描),和NTSC模拟电视清晰度相同,行频为15.25kHz,相当于我们所说的4CIF(720×576)
  D2:480P格式(525p):720×480(水平480线,逐行扫描),较D1隔行扫描要清晰不少,和逐行扫描DVD规格相同,行频为31.5kHz
  D3:1080i格式(1125i):1920×1080(水平1080线,隔行扫描),高清方式采用最多的一种分辨率,分辨率为1920×1080i/60Hz,行频为33.75kHz
  D4:720p格式(750p):1280×720(水平720线,逐行扫描),虽然分辨率较D3要低,但是因为逐行扫描,市面上更多人感觉相对于1080I(实际逐次540线)视觉效果更加清晰。不过个人感觉来说,在最大分辨率达到1920×1080的情况下,D3要比D4感觉更加清晰,尤其是文字表现力上,分辨率为1280×720p/60Hz,行频为45kHz
  D5:1080p格式(1125p):1920×1080(水平1080线,逐行扫描),目前民用高清视频的最高标准,分辨率为1920×1080P/60Hz,行频为67.5KHZ。
  其中D1 和D2标准是我们一般模拟电视的最高标准,并不能称的上高清晰,D3的1080i标准是高清晰电视的基本标准,它可以兼容720p格式,而D5的1080P只是专业上的标准。
编辑本段
主要分类介绍


4:3 家族
  4:3 是最常见屏幕比例,从电视时代流传下来的古老(?)标准。在近代宽屏幕 兴起前,绝大部份的屏幕分辨率都是照着这个比例的。不过最近逛逛电脑商场,好像要买个 4:3 比例的屏幕非常困难了啊
  VGA (640x480) - 「VGA」 其实本来不是个分辨率的规格,而是 IBM 计算机的一种显示标准。在规范里有 320x200 / 256 色、320x200 / 16 色、640x350 / 16 色、640x480 / 16 色等多种模式,甚至还有 80x25 和 40x25 等文字模式。只是最后因为官方支持的最高分辨率是 640x480,所以 VGA 就成为了 640x480 的代名词。VGA 的重要地位在于它是所有显卡都接受的基准分辨率,Windows 在加载显卡驱动程序之前(BIOS 之后)有个蓝棒子跑跑跑的画面,那个画面就是在 VGA 分辨率下的。SVGA (800x600) - SVGA 的情况和 VGA 有点像,也是以一种「规格」的身份起家的,只是最后好像变成无论规格如何,所有比 VGA 强的显示器都自称自已是 Super VGA,或 SVGA。在分辨率上,SVGA 专指 800x600 的分辨率 -- 即使当年标榜自已是 SVGA 的屏幕其实常常可到达 1024x768,或更高。XGA (1024x768) - 到了 SVGA 的年代,IBM 已经失去了市场的独占性,PC 界也正式进入了百家争鸣的时代。IBM 虽然定义出了XGA 的规格,但实际上它只是当年多种 Super VGA 规格中的一种。XGA 最后成为 1024x768 这个分辨率的代名词。SXGA+ (1400x1050) - 咦?跳过了 SXGA?等会儿再回来 XD。SXGA+ 是大约 2003 年~2007 年间偶尔会在笔电上看到的分辨率。不过近年来随着宽屏幕笔电大行其道,这个分辨率很难看到了。小姜的两台笔电都是这个分辨率的,算是工作需求吧 orz。UXGA (1600x1200) - UXGA 又称为 UGA,分辨率刚好是 VGA 的四倍。UXGA 是许多 4:3 的 20" 和 21" 屏幕的析度,不过随着 4:3 屏幕愈来愈少见,要买到这个分辨率的屏幕是愈来愈困难了。小姜桌上有一颗 20" UXGA 的 Dell 屏幕转直的用,还蛮方便的 :p。QXGA (2048x1536) - QXGA 的分辨率是 XGA 的四倍,也是大部份 4:3 屏幕支持的极限。小姜以前有一台 Viewsonic 的 p90f CRT 屏幕可以硬撑到这个数字,不过像素已经小于遮栅开孔的大小了,所以其实只是名义上有到而已,显示器根本显示不了。更高 - 更高的 4:3 分辨率存在,像是 QUXGA,但这只是个理论上的名字。在真实世界没有采用这个分辨率的产品存在。
16:10 家族
  16:10 就是常见的「宽屏幕」比例,近几年来突然间变得很常见,差不多把市场给独占了。取决于你看事情的角度,你可以说 16:10 有各种好处,例如可以并排两个窗口同时观看、人眼横向移动比较不吃力、笔电可以做得比较小台等。或者你也可以阴谋论一点,说在同样的对角线长度下,16:10 的面板其实面积比较小。总之,16:10 看来已经是所有屏幕的共同标准(除了 16:9 之外)了,喜欢、不喜欢,都认命吧~
WVGA
  (800x480) - VGA 的加宽版,大部份的 MID 和小号的 Netbook 采用的分辨率。第一代的 7" Eee PC 就是这个分辨率的。WSVGA (1024x600) - 好吧,老实说这个比例并不是 16:10(960x600 才是),不过这是个愈来愈常见的宽屏幕分辨率,所以就列在一起了。8.9" 的 Netbook 大多是这个分辨率,部份的 10" Netbook(Wind NB)也是。WXGA (1280x800、1366x768) - WXGA 最早是指 1366x768(1024x768 的加宽版),是 LCD TV 面板最常见的分辨率。但到了电脑上 WXGA 通常是指 1280x800 这个分辨率,通常出现在 13~15" 的笔电上。WXGA+ (1440x900) - 也是宽屏幕笔电常见的分辨率,但更常出现在 19" 的宽屏幕 LCD 上。WSXGA+ (1680x1050) - 20" 和 22" 宽屏幕 LCD 和部份 15.4" 笔电爱用的分辨率。WUXGA (1920x1200) - UXGA 的宽屏幕版。必须要到达这个分辨率才能在屏幕上无损地显示 1080p 的影片。桌电上 1920x1200 大致上是 24"~27" LCD 的领域,而笔电则是 17" 以上才比较看得到。WQXGA (2560x1600) - 主要是 30" LCD 屏幕在用的分辨率,著名的 Apple Cinema Display、Dell UltraSharp 3007WFP / 3008 WFP 都是这个分辨率。
16:9 家族
  16:9 主要是 HD 电视在用的比例。常听到的 720p、1080p 都是这个比例。
  720p (1280x720) - 与其这是一种分辨率,还不如说它是一种信号?没听说有电脑屏幕是这个分辨率的,电视面板好像也都是做 1366x768 的多? 1080p (1920x1080) - 1080p 就是俗称的 Full HD(Sony 超拼的),以前只有在电视上看得到(电脑用 1920x1200 的多),不过最近开始出现采用 1080p 面板的笔电,像第二代的 Acer 宝石机,标榜可以「让画面塞满屏幕,不留黑边」。
5:4 家族
  说是说家族,其实只有 SXGA 这一个成员而已。怎么,从来没注意到自已的屏幕比较方?其实 1280x1024 除下来比例是 5:4 才对,不是 4:3。
SXGA
  (1280x1024) - 后期的 17" 屏幕和绝大部份非宽屏幕的 19" 屏幕都是这个分辨率。为什么 SXGA 要采用 5:4 的比例到现在还是个谜,但总之它是成了办公室中几乎无所不在的存在。5:4 因为很接近正方形,其实旋转起来意义不大 XD




















6、 视频参数介绍以及之间的关系
视频的参数主要有编码格式,分辨率,码率,帧率,这些影响着视频的清晰度和体积大小。
  编码格式有很多种,在技术不断进步的情况下,针对不同的用途,产生了各种编码格式。不同编码格式的压缩率不一样,且在不同码率下保证的画面质量也不一样。
  分辨率大家应该比较熟悉了,视频文件的用途决定分辨率的大小。大家应该选择合适的分辨率,能有效提高视频编码效率和控制文件大小,并获得最佳观赏效果。
  码率直接与文件体积有关。完整的视频文件是由音频流与视频流2个部分组成的,音频和视频分别使用的是不同的码率,因此一个视频文件的码率是音频码率+视频码率。码率与编码格式配合是否合适,直接关系到视频文件是否清晰。
码率的一般计算公式:
文件大小(MB为单位)× 1024 × 8 / 影片总长度(秒为单位) = 码率(Kbps)
这里的码率是视频码率和音频码率的总和




7、PAL
PAL由德国人Walter Bruch在1967年提出,当时他是为德律风根(Telefunken)工作。“PAL”有时亦被用来指625 线,每秒25格,隔行扫描,PAL色彩编码的电视制式。PAL制式中根据不同的参数细节,又可以进一步划分为G、I、D等制式,其中PAL-D制是我国大陆采用的制式。这两种制式是不能互相兼容的,如果在PAL制式的电视上播放NTSC的影像,画面将变成黑白,NTSC制式的也是一样。


PAL电视标准,每秒25帧,电视扫描线为625线,奇场在前,偶场在后,标准的数字化PAL电视标准分辨率为720*576, 24比特的色彩位深,画面的宽高比为4:3, PAL电视标准用于中国、欧洲等国家和地区,PAL制电视的供电频率为50Hz,场频为每秒50场,帧频为每秒25帧,扫描线为625行,其中,帧正程575行,帧逆程50行。采用隔行扫描方式,每场扫描312.5行,场正程287.5行,逆程25行。场周期为20毫秒。行频为15625赫兹。图像信号带宽分别为4.2MHz、5.5MHz、5.6MHz等,
  PAL和NTSC制式区别在于节目的彩色编、解码方式和场扫描频率不同。中国(不含香港地区)、印度、巴基斯坦等国家采用PAL制式,美国、日本、韩国以及我国台湾地区等采用NTSC制式。
  PAL与NTSC的区别电影放映的时候都是每秒24个胶片帧。而视频图像PAL制式每秒50场,NTSC制是每秒60场,由于现在的电视都是隔行场,所以可以大概认为PAL制每秒25个完整视频帧,NTSC制30个完整视频帧。




8、


什么是QCIF? CIF?2CIF?4CIF?DCIF?




l
QCIF全称Quarter common intermediate format。QCIF是常用的标准化图像格式。在H.323协议簇中,规定了视频采集设备的标准采集分辨率。QCIF = 176×144像素。




l
CIF是常用的标准化图像格式(Common Intermediate Format)。在H.323协议簇中,规定了视频采集设备的标准采集分辨率。CIF = 352×288像素。




CIF格式具有如下特性:
(1) 电视图像的空间分辨率为家用录像系统(Video Home System,VHS)的分辨率,即352×288。
(2) 使用非隔行扫描(non-interlaced scan)。
(3) 使用NTSC帧速率,电视图像的最大帧速率为30 000/1001≈29.97幅/秒。
(4) 使用1/2的PAL水平分辨率,即288线。
(5) 对亮度和两个色差信号(Y、Cb和Cr)分量分别进行编码,它们的取值范围同ITU-R BT.601。
即黑色=16,白色=235,色差的最大值等于240,最小值等于16。




l
DCIF分辨率是什么?




经过研究发现一种更为有效的监控视频编码分辨率(DCIF),其像素为528*384。DCIF分辨率的是视频图像来历是将奇、偶两个HALF D1,经反隔行变换,组成一个D1(720*576),D1作边界处理,变成4CIF(704*576),4CIF经水平3/4缩小、垂直2/3缩小,转换成528*384。528*384的像素数正好是CIF像素数的两倍,为了与常说的2CIF(704*288)区分,我们称之为DOUBLE CIF,简称DCIF。显然,DCIF在水平和垂直两个方向上,比Half D1更加均衡。




l
为什么选用DCIF分辨率?






9  
  数字化监控行业对数字监控产品提出两项要求:首先要求数据量低,保证系统能够长时间录像和稳定实时的网络传输;其次要求回放图像清晰度高,满足对细节的要求。而DCIF分辨率在目前的软硬件平台上,能很好的满足以上两项要求。
  Half D1分辨率已被部分产品采用,用来解决CIF清晰度不够高和D1存储量高、价格高昂的缺点。但由于他相对于CIF只是水平分辨率的提升,图像质量提高不是特别明显,但码流增加很大。
  经过对大量视频信号进行测试,基于目前的视频压缩算法,DCIF分辨率比Half D1能更好解决CIF清晰度不够高和D1存储量高、价格高昂的缺点,用来解决CIF和4CIF,特别是在512Kbps码率之间,能获得稳定的高质量图像,满足用户对较高图像质量的要求,为视频编码提供更好的选择。
  CIF清晰度不够高和D1存储量高、价格高昂的缺点分辨率,静态回放分辨率理论上最高可达360TVline的图像质量,超过模拟监控中标准VHS 磁带录像机280TVline的图像水平,达到公安部安防行业视频标准二级和三级项目的清晰度要求,满足绝大部分视频监控的要求。
================================================
一般ADSL 2M 指的是  上行512Kbps,下行(下载的带宽)2Mbit每秒(2Mbps)
================================================
所谓视频传输就是将图片一张张传到屏幕,由于传输速度很快,所以可以让大家看到连续动态的画面,就像放电影一样。一般当画面的传输数量达到每秒24帧时,画面就有了连续性。在进行这种图片的传输时,必须将图片进行压缩,一般压缩方式有如H.261、JPEG、MPEG等,否则传输所需的带宽会变得很大。大家用RealPlayer不知是否留意,当播放电影的时候,在播放器的下方会有一个传输速度250kbps、400kbps、1000kbps…画面的质量越高,这个速度也就越大。而摄像头进行视频传输也是这个原理,如果将摄像头的分辨率调到640*480,捕捉到的图片每张大小约为50kb左右,每秒30帧,那么摄像头传输视频所需的速度为50*30kb/s=1500kbps= 1.5Mbps。而在实际生活中,人们一般用于网络视频聊天时的分辨率为320*240甚至更低,传输的帧数为每秒24帧。换言之,此时视频传输速率将不到300kbps,人们就可以进行较为流畅的视频传输聊天。如果采用更高的压缩视频方式,如MPEG-1等等,可以将传输速率降低到200kbps不到。这个就是一般视频聊天时,摄像头所需的网络传输速度。 宽带网络: 视频压缩上已经可以满足应用的标准,但视频聊天的实现,还需要互联网条件的认可。一般来说,在国内我们可以通过以下几种方式上网: 可以看出,除了56K Modem,ISDN以外,一般的宽带网络都可以满足用户进行视频传输的需求。而根据不同上网方式给用户提供的带宽,还可以自己调节摄像头传输画面的质量,如分辨率、真彩色级别、画面捕捉传输速度等等。比如,当带宽达到2Mbps时,我们就可以采用分辨率为640*480,每秒30帧来进行视频聊天,这时不论是画面的质量还是流畅性都是相当高的,如同两个人面对面交流一样。
================================================
在视频监控系统中,对存储空间容量的大小需求是与画面质量的高低、及视频线路等都有很大关系。下面对视频存储空间大小与传输带宽的之间的计算方法做以介绍。
比特率是指每秒传送的比特(bit)数。单位为 bps(Bit Per Second),比特率越高,传送的数据越大。比特率表示经过编码(压缩)后的音、视频数据每秒钟需要用多少个比特来表示,而比特就是二进制里面最小的单位,要么是0,要么是1。比特率与音、视频压缩的关系,简单的说就是比特率越高,音、视频的质量就越好,但编码后的文件就越大;如果比特率越少则情况刚好相反。
码流(Data Rate)是指视频文件在单位时间内使用的数据流量,也叫码率,是视频编码中画面质量控制中最重要的部分。同样分辨率下,视频文件的码流越大,压缩比就越小,画面质量就越高。  
上行带宽就是本地上传信息到网络上的带宽。上行速率是指用户电脑向网络发送信息时的数据传输速率,比如用FTP上传文件到网上去,影响上传速度的就是“上行速率”。
下行带宽就是从网络上下载信息的带宽。下行速率是指用户电脑从网络下载信息时的数据传输速率,比如从FTP服务器上文件下载到用户电脑,影响下传速度的就是“下行速率”。
不同的格式的比特率和码流的大小定义表:
    
格式类型     CIF     D1     720P      1080P
比特率大小 512Kbps 1.5Mbps 2Mbps 4Mbps
码流大小 64kB/s 192kB/s 256kB/s512kB/s
传输带宽计算:
    比特率大小 × 摄像机的路数 = 网络带宽至少大小;
    注:监控点的带宽是要求上行的最小限度带宽(监控点将视频信息上传到监控中心);监控中心的带宽是要求下行的最小限度带宽(将监控点的视频信息下载到监控中心);例:电信2Mbps的ADSL宽带,理论上其上行带宽是512kbps = 64kB/s  ,其下行带宽是2Mbps = 256kB/s
例:监控分布在5个不同的地方,各地方的摄像机的路数:n = 10(20路)1个监控中心,远程监看及存储视频信息,存储时间为30天。不同视频格式的带宽及存储空间大小计算如下:


地方监控点:
CIF视频格式每路摄像头的比特率为512Kbps,即每路摄像头所需的数据传输带宽为512Kbps,10路摄像机所需的数据传输带宽为:
  512Kbps(视频格式的比特率)×10(摄像机的路数)≈ 5120Kbps = 5Mbps(上行带宽)
  即:采用CIF视频格式各地方监控所需的网络上行带宽至少为5Mbps;
D1视频格式每路摄像头的比特率为1.5Mbps,即每路摄像头所需的数据传输带宽为1.5Mbps,10路摄像机所需的数据传输带宽为:
 1.5Mbps(视频格式的比特率)×10(摄像机的路数)= 15Mbps(上行带宽)
  即:采用D1视频格式各地方监控所需的网络上行带宽至少为15Mbps;
720P(100万像素)的视频格式每路摄像头的比特率为2Mbps,即每路摄像头所需的数据传输带宽为2Mbps,10路摄像机所需的数据传输带宽为:
 2Mbps(视频格式的比特率)×10(摄像机的路数)= 20Mbps(上行带宽)
  即:采用720P的视频格式各地方监控所需的网络上行带宽至少为20Mbps;
1080P(200万像素)的视频格式每路摄像头的比特率为4Mbps,即每路摄像头所需的数据传输带宽为4Mbps,10路摄像机所需的数据传输带宽为:
 4Mbps(视频格式的比特率)×10(摄像机的路数)= 40Mbps(上行带宽)
  即:采用1080P的视频格式各地方监控所需的网络上行带宽至少为40Mbps;
监控中心:
CIF视频格式的所需带宽:
512Kbps(视频格式的比特率)×50(监控点的摄像机的总路数之和)=25600Kbps = 25Mbps(下行带宽)
即:采用CIF视频格式监控中心所需的网络下行带宽至少25Mbps
D1视频格式的所需带宽:
1.5Mbps(视频格式的比特率)×50(监控点的摄像机的总路数之和)= 75Mbps(下行带宽)
即:采用D1视频格式监控中心所需的网络下行带宽至少75Mbps
720P(100万像素)的视频格式的所需带宽:
2Mbps(视频格式的比特率)×50(监控点的摄像机的总路数之和) = 100Mbps(下行带宽)
即:采用720P的视频格式监控中心所需的网络下行带宽至少100Mbps
1080P(200万像素)的视频格式的所需带宽:
4Mbps(视频格式的比特率)×50(监控点的摄像机的总路数之和) = 200Mbps(下行带宽)
即:采用1080P的视频格式监控中心所需的网络下行带宽至少200Mbps
存储空间计算:
    码流大小(单位:kB/s;即:比特率÷8)×3600(单位:秒;1小时的秒数)×24(单位:小时;一天的时间长)×30(保存的天数)×50(监控点要保存摄像机录像的总数)÷0.9(磁盘格式化的损失10%空间)=所需存储空间的大小(注:存储单位换算1TB=1024GB; 1GB=1024MB; 1MB=1024KB)
    50路存储30天的CIF视频格式录像信息的存储空间所需大小为:
64×3600×24×30×50÷0.9 = 8789.1GB≈9TB
50路存储30天的D1视频格式录像信息的存储空间所需大小为:
192×3600×24×30×50÷0.9 = 26367.2GB≈26TB
 
50路存储30天的720P(100万像素)视频格式录像信息的存储空间所需大小为:
256×3600×24×30×50÷0.9 = 35156.3GB≈35TB
50路存储30天的1080P(200万像素)视频格式录像信息的存储空间所需大小为:
512×3600×24×30×50÷0.9 = 70312.5GB≈69TB
================================================
单路CIF视频编码器:
  技术规格: 
  支持PAL或NTSC格式 
  视频码率32Kbps-4Mbps连续可调,帧率1-30 (1-25)连续可调 
  视频流占用平均带宽200kbps(分辨率352x288,25帧) 
  画面延迟小于200毫秒(局域网) 
  嵌入式Web服务,支持IE浏览、配置、升级 
  支持动态域名、局域网、广域网 
  支持双向语音对讲 
  报警预录功能 5 秒 -30 秒 , 支持报警上传 
  支持图像抓拍、录像 
  支持网络断线自动连接功能 
  支持异常情况自动重启恢复功能 
   
  项目 规格  与  参数  
  视频制式 NTSC/PAL  
  视频编码 MPEG-4  
  帧率 25fps(PAL),30fps(NTSC),向下可调  
  音频编码 MP3  
  视频编码尺寸 PAL: 352×288 
  NTSC:352×240  
  带宽占用 200 kbps(分辨率352×288,25帧)  
  画面延迟 小于200毫秒(局域网)  
  图像调节 亮度、对比度、色度、饱和度,图像质量级别调节  
  分辨率 PAL: 352×288 
  NTSC:352×240  
  性能 输出帧率最大为30fps,网络带宽占用最小为32Kbps  
  触发事件及行动 触发条件:时间/报警输入/视频移动侦测/视频丢失 
  动作:继电器输出控制外围设备  
  建议访问用户数 10  
  IO及控制接口 RS485透明通道  
  嵌入式WEB服务 支持IE浏览、配置、升级  
  视频输入 复合视频:1.0V p-p/75Ω,BNC连接器×1  
  音频输入(可选) BNC接口 麦克风输入或线性输入  
  音频输出 BNC接口 线性输出  
  硬件 音视频处理芯片:高性能DSP处理器 
  主CPU:高性能嵌入式MIPS处理器 
  操作系统:实时嵌入式LINUX操作系统 
  ROM:8M Bytes Flash ROM 
  RAM: 64M Bytes SDRAM  
  网络接口 10/100M  
  报警输入 4个开关量输入  
  报警输出 4个继电器输出  
  音频 双向语音对讲  
  系统要求 CPU:PⅢ或者更高 
  内存:96M或者更高 
  显示器:17寸@1024×768以获得最佳显示效果  
  安全性 3层密码保护  
  工作温度 5 ~ 60 ℃  
  工作湿度 20 ~ 80%  
  输入电压 DC12V /3A  
  功率 小于5 瓦  
  整机尺寸 263mm(W)*44mm(H)*140mm(D)


10、
1. 目标
手机摄像头模组用ISP功能模块的市场走向及研发方向。为能够正确认识手机摄像模组行业提供技术及市场依据。 
2. ISP在模组上的应用原理 
2.1 功能区域 
无论数码相机、摄像机或者摄像手机,其影像数据从前端感应后,皆须经过ASP(Analog Signal Processing)、ADC(Analog-Digital Converter)、前期影像处理(Pre-ISP)与后端影像处理(Post-ISP)四个阶段后,影像数据才能最终呈现于终端设备上(图一)。




 


但由于图像传感器的像素高低不同、及其他成本等的考虑,ISP各功能区域会依手机市场特性做分散配置或整合处理,例如,低端相机将Pre-ISP与传感器整合在一起,2.0M像素手机将所有的ISP功能单独做成一个芯片等。  
2.1.1 ASP  
ASP(Analog Signal Processor)主要是针对图像传感器采集的电压或电流信号进行处理,主要作用是信号放大、自动曝光调整、时序控制、像素抽样控制等。因其与初始信号的绝对相关性,一般的图像传感器厂商皆会将此项功能直接与传感器做在一块。在图一中即为蓝色部分。传感数据经过ASP处理后,输出数据为Raw Data。  
2.1.2 Pre-ISP  
Pre-ISP(Image Signal Processor)为前端影像处理,主要针对ADC转换后传出的数字数据(Raw data),进行影像坏点修补、白平衡、gamma校正、锐利度、颜色插值等。在低像素的产品中,例如0.3M像素,因影像数据较少,不需要大规模的复杂处理,会将Pre-ISP与图像传感器做在同一颗芯片中;但高像素CMOS传感器,因需要处理的像素数越来越多,虽然将Pre-ISP集成在sensor 内部从制造技术上来讲不困难,但因成本及成像质量的原因,有些手机设计公司在设计时会将集成于sensor内部的Pre-ISP功能屏蔽掉,并维持传感器 ADC输出的原始资料,交由单独的ISP芯片或集成在Baseband的ISP进行处理。  
由Pre-ISP处理完后的数据分为RGB和YUV,RGB为三原色,数据比YUV较大,可以方便后续处理单元(Post-ISP)做更为多元的变化;YUV为RGB三原色经内插法所得,数据量较小,但不利于后续的处理单元进行处理。  
对于实力强的手机研发公司比较倾向于使用Raw data数据或者RGB数据,这样可以根据自己的需要调整出更完美的画面质量。Raw data数据也为以后高端市场的使用方向,但国内现阶段2.0M像素的模组应用还处于初级阶段。因此还是以YUV输出的为主。  
2.1.3 Post-ISP  
Post-ISP虽然也称为后端影响处理,但其与成像相关的工作不多,主要负责数据压缩与后端接口界面控制,以及数据传输、控制等工作,其中还包括LCD影像预览、镜头对焦控制、使用界面等。  
2.2 ISP发展阶段  
2.2.1 第一阶段  
第一阶段因像素不高(CIF等级),因此其结构与一般手机相差不多, Pre-ISP功能与图像传感器整合,而Post-ISP则依赖手机基带芯片,显示屏则经由系统提供,其结构如下  
 
图二 手机摄像模组后端芯片第一阶段原理图  


2.2.2 第二阶段  
随着像素增加(CIF至VGA),为维持后端手机基带芯片的通讯功能,开始将原来负责的JPEG压缩、数据流的协调处理等功能独立成单一芯片完成,而影像处理Pre-ISP则交由手机设计公司自行决定,分集成到图像传感器内部和与Post-ISP整合两种。  
此阶段方案已被淘汰,VGA像素的Post-ISP功能已可被Baseband集成。


 




图三 手机摄像模组后端芯片第二阶段原理图 
2.2.3 第三阶段 
此时像素已由VGA转为百万像素,高像素的Pre-ISP,因所需的存储器及电源需求过大,在当时的技术条件下,sensor端已无法全部处理,因此将 Pre-ISP与Post-ISP整合成完整的ISP。另因为对显示屏幕的处理要求更高,此阶段也将显示器控制功能一并整合,以减少baseband的处理负担,其结构见图四。


 


图四手机摄像模组后端芯片第三阶段原理图  
2.2.4 第四阶段  
Main Panel  
(240*320)  
 
随像素增加到2.0M及以上,厂商将更多的功能例如MP3、3D sound processor、audio processor等亦集成进单独的ISP芯片,此时称之为MMP(Mobile Multimedia Processor),


 


图五手机摄像模组后端芯片第四阶段原理图  表一 手机摄像模组后端芯片发展趋势  
阶段搭配像素趋势项目  
第一阶段CIFl 结构与一般手机相差无异  
l Pre-ISP功能可与图像传感器整合  
l Post-ISP依靠手机基带芯片  
第二阶段VGAl Post-ISP独立成单一芯片  
l Pre-ISP或由sensor集成或与Post-ISP整合  
第三阶段Megal 图像传感器无法全部处理Pre-ISP,与Post-ISP整合成单独的ISP芯片  
第四阶段2Mega及以上l 单独的MMP(ISP)芯片集成更多的功能,以迎合2.5G及3G的发展  
 
3. 现阶段ISP的主要应用方案  
表二 现阶段ISP的主要应用方案  
像素输出格式ISP或手机设计方案备注  
VGAYUV/RGB/  
Raw datal Sensor集成Pre-ISP;  
l Baseband集成Post-ISP。OV是VGA的首选sensor厂家,其主流产品:OV7660/OV7663/OV7670皆集成Pre-ISP,而MTK则将Post-ISP部分集成进Baseband。  
l Baseband未集成Post-ISP;  
l ISP(Pre-ISP&Post-ISP)功能被集成于MMP中;有一定比例的Baseband厂商(例如英飞凌)未将Post-ISP集成进Baseband。而是采用MMP的方式来处理。  
2.0Mega及以上YUV/RGBl Sensor中集成Pre-ISP;  
l ISP(Pre- ISP&Post-ISP)功能被集成于MMP中。Baseband不参与图像处理手机设计公司可以采用sensor输出的YUV或RGB,或者直接将Pre-ISP屏蔽掉,所有图像处理工作由MMP芯片来做。(理论上来讲,MMP处理效果应该好一点,实际上有时因调试工程师水平的原因,无法完全发挥MMP的潜力。) 
Raw datal Sensor中不集成Pre-ISP;  
l ISP(Pre-ISP & Post-ISP)功能被集成于MMP中。Baseband不参与图像处理所有图像处理工作由MMP芯片来做。  
 
将来的趋势,因成本的原因,基带芯片会集成所有的图像处理功能。

原创粉丝点击