大多数图像处理软件在处理时是需要RGB格式的图像,而默认的视频流是压缩的YUV格式,Android下是YUV420SP,这个格式,虽然可以在程序中修改,但是修改后好像不起作用,也就是说只能得到编码为YUV420SP的视频流,这就需要把YUV420SP的视频流转换成RGB格式的图像,用于图像识别
从log中可以看到Parameters预设的参数:
picture-format=jpeg
picture-preview=yuv422sp
看来,真的行不通,那就只能获取帖数据了,其中的data是yuv格式的,需要对其解码。
这是我在开发android程序中用到的一个用于处理图片解码的方法,不是本人所写,特此共享。
/**
*:YUV420SP解码的方式
*yuv420sp[]为原始的数据
*width为图片位图长,height为图片位图高
*rgbBuf[]是用于存贮原始数据经过解码后的r g b三元色数据
*/
static public void decodeYUV420SP(byte[] rgbBuf, byte[] yuv420sp, int width, int height) {
//定义单通道数据长度
final int frameSize = width * height;
//如果传进来的rgbBuf 为空,则抛出空指针异常
if (rgbBuf == null)
throw new NullPointerException("buffer 'rgbBuf' is null"); //如果传进来的rgbBuf 为比三通道数据长度小,则抛出异常,并打出相应信息
if (rgbBuf.length < frameSize * 3)
throw new IllegalArgumentException("buffer 'rgbBuf' size "
+ rgbBuf.length + " < minimum " + frameSize * 3);
//如果传进来的yuv420sp 为空,则抛出空指针异常
if (yuv420sp == null)
throw new NullPointerException("buffer 'yuv420sp' is null");
//如果传进来的rgbBuf 为比三通道数据长度的一半小,则抛出异常,并打出相应信息
if (yuv420sp.length < frameSize * 3 / 2)
throw new IllegalArgumentException("buffer 'yuv420sp' size " + yuv420sp.length
+ " < minimum " + frameSize * 3 / 2);
//经过上面的叛断,我们正式进行解码了
int i = 0, y = 0;
int uvp = 0, u = 0, v = 0;
//r g b 三元色初始化
int y1192 = 0, r = 0, g = 0, b = 0;
//下面的两个for循环都只是为了把第一个像素点的的R G B读取出来,就是一行一行循环读取.
for (int j = 0, yp = 0; j < height; j++) {
uvp = frameSize + (j >> 1) * width;
u = 0;
v = 0;
for (i = 0; i < width; i++, yp++) {
y = (0xff & ((int) yuv420sp[yp])) - 16;
if (y < 0) y = 0;
if ((i & 1) == 0) {
v = (0xff & yuv420sp[uvp++]) - 128;
u = (0xff & yuv420sp[uvp++]) - 128;
}
y1192 = 1192 * y;
r = (y1192 + 1634 * v);
g = (y1192 - 833 * v - 400 * u);
b = (y1192 + 2066 * u);
//始终持 r g b在0 - 262143
if (r < 0) r = 0; else if (r > 262143) r = 262143;
if (g < 0) g = 0; else if (g > 262143) g = 262143;
if (b < 0) b = 0; else if (b > 262143) b = 262143;
//安位运算,分别将一个像素点中的r g b 存贮在rgbBuf中
rgbBuf[yp * 3] = (byte)(r >> 10);
rgbBuf[yp * 3 + 1] = (byte)(g >> 10);
rgbBuf[yp * 3 + 2] = (byte)(b >> 10);
}
}
}
通过这样的解码,我们就可以得到我们想要的rgbBuf[],相应的还原机制也就是返过来而已。
http://chenweihuacwh.iteye.com/blog/571223
感谢cwh643
分享到:
相关推荐
Android MediaCodec 实现Camera预览帧数据编解码并投射至另外的SurfaceView显示,另外附加Camera2的使用。
该demo就是通过JNI技术调用ffmpeg接口将android平台camera采集的数据进行编码。采用ffmpeg编码是因为ffmpeg编码格式很是丰富。
可以完美运行,摄像头采集视频,进行H264编码并存储到SD卡上,希望对大家有帮助
使用采用camera2采集编码为mpeg4 音频采用AudioRecoder采集编码为aac编码 加入了libyuv做nv21转i420
使用C++调用Android底层接口,实现了从Camera摄像头拿去数据并进行H264 OMX编码
Android平台Camera采集预览nv21格式数据,AudioRecord采集音频pcm数据,使用MediaCodec分别进行h264和AAC硬编码,通过MediaMuxer合成MP4
支持从摄像头采集图像,并用MediaCodec API进行硬编码,编码后的数据保存到一个H264文件。这个例子也支持软编码,使用的是FFmpeg。
拨打对方电话可以看到自己的图像,也可以看到对方的图像,该文档介绍了如何从camera获取到图像数据,显示在本地,同时通过video encode编码将图像传递到对方手机中。
Android即时视频展现Android硬编码下的视频数据流动,可以对视频做处理,例如加滤镜,加水印等。本项目主要是为了展现Android使用硬编码下的视频数据流,目前完成了H264和AAC编码以及对视频帧的图像处理,以及RTMP...
一个关于Android-IP-Camera的Demo,通过获取Camera的数据编码传输到Server端。
该demo就是通过JNI技术调用ffmpeg接口将android平台camera采集的数据进行编码。采用ffmpeg编码是因为ffmpeg编码格式很是丰富。
本项目提供Android平台点对点音视频对讲功能,项目的基本架构如下: 1. Android Camera2 API 采集预览视频 2. MediaCodec 进行硬编码,编码成h264视频文件 3. AudioRecord采集音频PCM数据,同样利用MediaCodec编码成...
在 Android 平台使用 Camera API 进行视频的采集,分别使用 SurfaceView、TextureView 来预览 Camera 数据,取到 NV21 的数据回调 4.学习 Android 平台的 MediaExtractor 和 MediaMuxer API,知道如何解析和封装 mp4...
Android中可以通过camera获取图像,并实时处理,不同的手机camera支持的的图像格式不同,可以采用getCameraPreviewFormat来得到preview支持的图像编码格式,Android默认使用NV21(yuv420sp)的图像格式,因为大部分...
使用Android自带的编码工具,可实现硬编码,这里有一个国内大神开源的封装很完善的的库yasea,第一种方法需要实现的Camera采集部分也一起封装好了,进行一些简单配置就可以实现编码推流,并且yasea目前已经直接支持...
飞行录像带
本程序实现了使用FFmpeg将安卓手机摄像头数据实时编码为H264编码格式的FLV视频的功能。 作者:张晖/中国传媒大学/数字电视技术/zhanghuicuc@gmail.com
可以打开手机的摄像头将采集的数据进行编码,然后传给解码器进行解码并显示。 非要大于50字,csdn是不是有病阿。
支持 Android Camera 画面捕获,并进行 H.264 编码,以及支持 Android 麦克风音频采样并进行 AAC 编码;还实现了一套可供开发者选择的编码参数集合,以便灵活调节相应的分辨率和码率;同时,SDK 提供数据源回调接口...
ADC数据多少位,这里是10bit,所以设置成10(所以编码大小范围就是1023-0); /* struct msm_actuator_reg_params_t reg_params[MAX_ACTUATOR_REG_TBL_SIZE] */ 这里应该是寄存器的参数设置, 第一个是马达写类型,...