基于瑞芯微平台cif接口dvp相机的视频接入(ov2640、rv1126为例)

名词定义视频格式sensor与ispI2CXCLK行场同步信号DATA抓图

名词定义

CIF,指RK芯片中的VIP模块,用以接收Sensor数据并保存到Memory中,仅转存数据,无ISP功能 DVP,一种并行数据传输接口,即Digital Video Port HSYNC,指DVP接口的行同步信号 PCLK,指Sensor输出Pixel Clock VSYNC,指DVP接口的场同步信号 V4L2,即Video4Linux2,Linux kernel的视频处理模块

视频格式

视频格式一般分成BT1120(BT656)和BT601两种。 BT1120视频数据只支持内同步。信号内同步的意思是图像数据和同步信号均包含在图像数据中,通过关键字恢复同步信号。可以参考我的另一篇博客SDI视频数据流格式简介 BT601协议采用外同步,外同步是指图像数据和同步数据(HS、VS、DE)单独传送。

因为内同步是将图像与同步信号一起传送,因此会有同步分离机制,所以亮度及色彩不可能全编码,以8BIT为例,可以传送的范围为0-255,但内同步一起传送,实际编码不可能有256范围,在ITU-656中大多采用16-235,而ITU-601因为采用外同步,可以传送0-255 范围的数据。因此,内同步的色采及亮度在细节上没有内同步好。但是,在串行编码及低带宽传送中,内同步可以减少数据流,因此,通过内同步传送图像虽然色彩有一定的损失,但可以换来更低的带宽。

视频格式一般在视频的驱动程序中进行设置,只有以下两种格式:

config->type = V4L2_MBUS_BT656;//BT1120 BT656

config->type = V4L2_MBUS_PARALLEL;//BT601

一般BT601使用较多,外同步信号,需要配合行场同步信号。

sensor与isp

sensor与isp之间的关系图一般如下所示: 首先ISP也就是ARM芯片端,需要通过I2C总线对sensor进行配置,主要通过SCL(时钟线)和SDA(数据线)对sensor的寄存器进行配置,可以决定sensor的分辨率、输出视频格式(rgb、yuv)、白平衡等进行设置。 部分摄像头可能不含晶振,比如OV7670,所以就需要ISP提供相机时钟,也就是XCLK进行驱动,一般在24MHz左右。部分带有晶振的相机,比如OV2640,由于集成了晶振,所以无需进行外部时钟驱动。 VS、HS和PCLK是sensor输出的行场同步信号和像素时钟。 DATA是sensor输出的像素值,一般8位较多。 然后对以上的各个部分进行介绍。

I2C

由于ARM芯片具有较多的I2C引脚,比如RV1126好像就有5个I2C引脚。每一个相机的I2C都要连接到对应的引脚上,以正点原子的RV1126开发板为例,I2C就挂载到了I2C1下: 在设备树dts中,就要把OV2640的摄像头节点放在I2C1下,比如:

&i2c1 {

status = "okay";

clock-frequency = <100000>;

ov2640: camera@3c {

compatible = "ovti,ov2640";

pinctrl-names = "default";

reg = <0x3c>;

......

}

}

摄像头所支持的I2C时钟速度最快可达到400Kbps,同时每一款摄像头都有专属的地址,比如ov2640的地址是0x3c,注意地址是硬件设计死的无法更改。

I2C设备可以使用i2cdetect工具进行调试,比如查看i2c1下挂载了哪些设备,可以通过以下命令进行查看:

i2cdetect -y 1

若我在0x21处挂载了设备,将得到: 同时可以使用以下命令查看i2c寄存器中的值,比如我要查看i2c1下地址为0x3c处寄存器的值,可以通过以下名称查看:

i2cdump -y -f 1 0x3c

值得注意的是有些摄像头将power_down拉低后,开发板才能够通过i2c与相机寄存器之间进行通信,比如上方为拉低了的,下方为未拉低。 另:OV公司的I2C不是标准的I2C总线,为了避开专利,他们采用的是SCCB总线技术,不过经过测试与I2C区别不大。

SCCB是欧姆尼图像技术公司(OmniVision)开发的一种总线,应用于OV系列图像传感器上。SCCB最主要是阉割了IIC的连续读写的功能,即每读写完一个字节就主机必须发送一个NA信号。

XCLK

部分不带晶振的摄像头需要提供XCLK像素时钟进行驱动,在设备树中可以通过以下进行添加,注意时钟名字要与驱动对应: 比如设备树中可能如下:

clocks = <&cru CLK_CIF_OUT>;

clock-names = "xvclk";

驱动部分对应如下:

priv->clk = v4l2_clk_get(&client->dev, "xvclk");

if (IS_ERR(priv->clk))

return -EPROBE_DEFER;

行场同步信号

不同相机的行场同步信号可能不同,具体可以查询芯片手册,不过注意的是芯片手册不一定准确,比如OV2640,芯片手册的时序为: 可以看出是标准的SDI格式,也就是当DE也就是HREF为高时,VSYNC为低,VSYNC只在有效像素前产生一段高电平。但是按照这个时序产生的同步信号始终无法抓取到图像,经过抓取之后发现OV2640输出的时序如下:

可以看出当DE为高时,也就是有效像素部分,VS也为高,基本与手册中写的相反,按照上面的时序即可抓取到图像。 正确OV2640时序的Verilog代码如下,注意分辨率为800x600,YUYV格式8bit:

parameter ROWS = 600;

parameter COLS = 1600;

parameter ROWS_TOTAL = 672;

parameter COLS_TOTAL = 3840;

parameter ROW_START = 36;

parameter COL_START = 1000;

reg [12:0] rROW;

reg [12:0] rCOL;

always@(posedge wCLK18M)

begin

if(!iRst)

begin

rROW <= 0;

rCOL <= 0;

end

else

begin

if(rCOL==COLS_TOTAL-1)

begin

rCOL <= 0;

rROW <= rROW + 1;

end

else

begin

rCOL <= rCOL + 1;

end

if(rROW == ROWS_TOTAL)

begin

rROW <= 0;

end

end

end

reg r2640DE;

reg r2640VS;

reg [7:0] r2640H;

always@(posedge wCLK18M)

begin

if(rROW >= ROW_START && rROW < (ROW_START + ROWS))

begin

r2640VS <= 1;

if(rCOL >= COL_START && rCOL < (COL_START + COLS))

begin

r2640DE <= 1;

end

else

begin

r2640DE <= 0;

end

end

else

begin

r2640VS <= 0;

end

end

生成的波形如下:

同时也要注意HS和VS的极性,也就是有效时的电平高低,主要收到设备树和驱动的控制,设备树部分如下:

&i2c1 {

status = "okay";

// clock-frequency = <400000>;

clock-frequency = <100000>;

ov2640: camera@3c {

compatible = "ovti,ov2640";

pinctrl-names = "default";

pinctrl-0 = <&cifm1_dvp_ctl>;

reg = <0x3c>;

clocks = <&cru CLK_CIF_OUT>;

clock-names = "xvclk";

port {

/* Parallel bus endpoint */

cam_para_out1: endpoint {

remote-endpoint = <&cif_para_in>;

bus-width = <8>;

//data-shift = <2>; /* lines 9:2 are used */

hsync-active = <1>;

vsync-active = <1>;//<1>;

pclk-sample = <1>;

};

};

};

};

&rkcif_dvp {

status = "okay";

port {

cif_para_in: endpoint {

remote-endpoint = <&cam_para_out1>;

bus-width = <8>;

hsync-active = <1>;

vsync-active = <1>;

};

};

};

驱动部分:

config->flags = V4L2_MBUS_PCLK_SAMPLE_RISING | V4L2_MBUS_MASTER |

V4L2_MBUS_VSYNC_ACTIVE_HIGH | V4L2_MBUS_HSYNC_ACTIVE_HIGH |

V4L2_MBUS_DATA_ACTIVE_HIGH;

两者要与实际情况相匹配。

DATA

sensor输出的数据一般8位居多,也有16位和10位的,RV1126的CIF接口输入如下: 优先使用CIF接口的高位进行传输。 同时还要对MEDIA_BUS_FMT进行配置,与sensor输出的像素格式对应,可以参考V4L2的手册,格式十分丰富。 以OV2640为例支持以下的格式:

static u32 ov2640_codes[] = {

MEDIA_BUS_FMT_YUYV8_2X8,

MEDIA_BUS_FMT_UYVY8_2X8,

MEDIA_BUS_FMT_YVYU8_2X8,

MEDIA_BUS_FMT_VYUY8_2X8,

MEDIA_BUS_FMT_RGB565_2X8_BE,

MEDIA_BUS_FMT_RGB565_2X8_LE,

};

以MEDIA_BUS_FMT_YUYV8_2X8为例,视频输出的格式位YUYV,并且深度是8bit色深,每次只传输8bit,两个像素周期才是一个完整的像素。

抓图

抓图一般使用v4l2-ctl进行抓图,对于dvp接口可以在video0进行抓图,对于mipi则不行,抓图实例如下:

v4l2-ctl -d /dev/video0 --set-fmt-video=width=800,height=600,pixelformat=YUYV8_2X8--stream-mmap=3 --stream-skip=3 --stream-to=./cif.out --stream-count=1 --stream-poll

抓图成功一般如下所示,会有 < 打印输出: 并且对于800x600大小YUYV8_2X8格式的图片一般占用940k存储空间。 并且可以通过以下python代码查看像素值:

yuv = "./pic.out"

with open(yuv, "rb") as yuv_f:

yuv_bytes = yuv_f.read()

yuv_data = np.frombuffer(yuv_bytes, np.uint8)

同时在/proc路径下也会有统计信息得到保存,通过以下命令进行查看:

cat /proc/rkcif_dvp

以上就是对dvp相机的视频接入的简单介绍,各位有疑问可以留言,进行交流。

参考链接

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: