1、FFmpeg 介绍
FFmpeg是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。采用LGPL或GPL许可证。它提供了录制、转换以及流化音视频的完整解决方案。它包含了非常先进的音频/视频编解码库。
2、FFmpeg 组成
- libavformat:用于各种音视频[封装格式]封装格式的生成和解析,包括获取解码所需信息以生成解码上下文结构和读取音视频帧等功能;
libavcodec:用于各种类型声音/图像编解码;
libavutil:包含一些公共的工具函数;
libswscale:用于视频场景比例缩放、色彩映射转换;
libswresample - 提供音频重采样,采样格式转换和混合等功能。
libavfilter - 各种音视频滤波器。
libpostproc - 用于后期效果处理,如图像的去块效应等。
libavdevice - 用于硬件的音视频采集、加速和显示。
libpostproc:用于后期效果处理;
ffmpeg:该项目提供的一个工具,可用于格式转换、解码或[电视卡]即时编码等;
ffsever:一个 HTTP 多媒体即时广播串流服务器;
ffplay:是一个简单的播放器,使用ffmpeg 库解析和解码,通过SDL显示;
3、FFmpeg 常用知识
1.封装格式
MPEG-4,其中 MPEG-1 和 MPEG-2 是采用相同原理为基础的预测编码、变换编码、 熵编码及运动补偿等第一代数据压缩编码技术;
MPEG-4(ISO/IEC 14496)则是基于第二代压缩编码技术制定的国际标准,它以视听媒体对象为基本单元,采用基于内容的压缩编码,实现数字视音频、图形合成应用及交互式多媒体的集成。 MPEG 系列标准对 VCD、 DVD 等视听消费电子及数字电视和高清晰度电视 (DTV&&HDTV)、 多媒体通信等信息产业的发展产生了巨大而深远的影响.
AVI,音频视频交错(Audio Video Interleaved)的英文缩写。 AVI 格式调用方便、图像质量好,压缩标准可任意选择,是应用最广泛、也是应用时间最长的格式之一。
FLV , FLASH VIDEO 的简称, FLV 流媒体格式是一种新的视频格式。由于它形成的文件极小、加载速度极快,使得网络观看视频文件成为可能,它的出现有效地解决了视频文件导入 Flash 后,使导出的 SWF 文件体积庞大,不能在网络上很好的使用等缺点。
2.编码格式
视频部分 h264、wmv、xvid、mjpeg(摄像头出来的每一帧都是mjpeg,缺点在于只有I帧、没有B帧、P帧)
音频部分 acc、MP3、ape、flac
3.文件封装格式和编码格式
音频帧和视频帧的帧率是不一致的,比如音频帧采样率是44.1khz,声音必须的源源不断输出,所以音频帧率可能为22.05帧,每个帧里存了2K采样数据.
视频解码
-
软件解码:即通过软件让CPU来对视频进行解码处理,缺点耗电发热,优点兼容强
-
硬件解码:是将原来全部交由CPU(显卡上的一个核心处理芯片,处理计算机中与图形计算有关的工作)来处理的视频数据的部分交由GPU来做,优点不需要太好的CPU,发热低,缺点起步较晚,无法与软解相提并论,兼容性不强.硬解码都是固定帧率.比如只能60帧.
音频解码
-
将音频码流(aac、ape等)解码成pcm
4.像素格式
压缩编码中一般使用的是RGB24,YUV420 , YUV420P, YUV422P, YUV444P等格式数据,最常见的是YUV420P.
RGB格式
BMP文件存储的就是RGB格式像素数据
yuv格式
y表示明亮度,而u(Cb 蓝色色差值)和v(Cr 红色色差值)则表示色度值.它将亮度信息(Y)与色彩信息(UV)分离,没有UV信息一样可以显示完整的图像,只不过是黑白的,由于UV色度不是很明显看出,所以除了YUV4:4:4外,又诞生了YUV4:2:2,YUV4:2:0格式.从而占用极少的存储数据.
如下图所示,黑点表示该像素点的Y分量,以空心圆圈表示像素点的UV分量:
-
YUV444:每一个Y对应一组UV分量,单位为字节,所以每个像素点有1个Y字节和1组(2字节,分别是U和V),所以为3字节.
-
YUV422:每两个Y共用一组UV分量,所以每个每个像素点有1个Y字节和1/2组UV(1字节),所以为2字节.
-
YUV420:每四个Y共用一组UV分量,所以4个像素点为6字节(4个Y、1个U、1个V),所以每2个像素点共用3字节,每个像素点为1.5字节(12bit).
YUV420、YUV420P、YUV420SP区别
-
对于YUV420格式(packed封装),每个像素点的Y,U,V是连续交*存储的。所以存储数据时,data[0]中就存的是yuvyuvyuv...
-
对于YUV420P格式(planar平面封装),先连续存储所有像素点的Y,紧接着存储所有像素点的U,随后是所有像素点的V,比如:YYYYYYYY UU VV,所以Ffmpeg中存储P格式数据时,data[0]数组存y,data[1]数组存u,data[2]数组存v
-
对于YUV420SP格式(semi Planar半平面封装),先连续存储所有像素点的Y,然后连续存储UV,比如:YYYYYYYY UVUV
5.YUV和RGB转换格式
RGB 转换成 YUV
-
Y = (0.257 * R) + (0.504 * G) + (0.098 * B) + 16
-
Cr = V = (0.439 * R) - (0.368 * G) - (0.071 * B) + 128
-
Cb = U = -( 0.148 * R) - (0.291 * G) + (0.439 * B) + 128
YUV 转换成 RGB
-
B = 1.164(Y - 16) + 2.018(U - 128)
-
G = 1.164(Y - 16) - 0.813(V - 128) - 0.391(U - 128)
-
R = 1.164(Y - 16) + 1.596(V - 128)
RGB取值范围均为0~255,Y=0~255,U=-122~+122,V=-157~+157
以下是经过简化的公式,运算量比上述公式要小一些。
RGB转YUV
-
Y = 0.299R + 0.587G + 0.114B
-
U'= (BY)*0.565
-
V'= (RY)*0.713
YUV转RGB
-
R = Y + 1.4075 * (V-128);
-
G = Y - 0.3455 * (U-128) - 0.7169*(V-128);
-
B = Y + 1.779 * (U-128);
PS:除了软解之外,则还可以交给GPU进行硬解.
6.DTS、PTS、GOP
-
dts : 解码时间戳
-
pts : 显示时间戳
-
GOP : 一组完整的IBP帧画面
而dts和pts值是不一定是相等的,如下图GOP(Group of Picture)所示:
从上图,可以看到,DTS和PTS的顺序是不一致的,并且每组GOP中开头都是I帧,然后后面都是B、P帧,如果开头的I帧图像质量比较差时,也会影响到一个GOP中后续B、P帧的图像质量.
-
I帧(intra picture) : 帧内编码帧,它将全帧图像信息进行 JPEG 压缩编码及传输,是一个完整图像
-
B帧(bidirectional) : 双向预测内插编码帧,参考前面和后面两帧的数据加上本帧的变化而得出的本帧数据
-
P帧 : 前向预测编码帧,参考前面而得出的本帧数据.
一般平均来说, I 的压缩率是 7(跟 JPG 差不多), P 是 20, B 可以达到 50.
在ffmpeg中,pts和dts单位都是不确定,如果要换算为时分秒,则需要AVStream的time_base时基来一起换算出当前显示的标准时间
而time_base结构体为AVRational:
/**
* Rational number (pair of numerator and denominator).
*/
typedef struct AVRational{
int num; ///< Numerator
int den; ///< Denominator
} AVRational;
所以计算时分秒为:
if (frame->pts != AV_NOPTS_VALUE)
dpts = av_q2d(is->video_st->time_base) * frame->pts;
FFmpeg解码流程
av_register_all0:注册所有组件
avformat_open_input(): 打开输入视频文件
avformat_find_stream_info():获取视频文件信息
avcodec_find_decoder (): 查找解码器
avcodec_open2():打开解码器
av_read_frame():从输入文件读取一压缩数据
avcodec_decode_video20: 解码一压缩数据
avcodec_close():关闭解码器
avformat_close_input 0:关闭输入视频文件
视频播放原理
从**解复用器(Media Extractor、AVFormatContetext->stream)**开始,会有两个线程分别负责解析音频和视频。
视频录制原理
音频:PCM->ACC数据,视频:YUV->H264,音视频封装:FLV / MP4。