FFmpeg框架的基礎(chǔ)知識(shí)

ffmpeg是一個(gè)非常有用的命令行程序,它可以用來(lái)轉(zhuǎn)碼媒體文件。它是領(lǐng)先的多媒體框架FFmpeg的一部分,其有很多功能,比如解碼、編碼、轉(zhuǎn)碼、混流、分離、轉(zhuǎn)化為流、過(guò)濾以及播放幾乎所有的由人和機(jī)器創(chuàng)建的媒體文件。
在這個(gè)框架中包含有各種工具,每一個(gè)用于完成特定的功能。例如,ffserver能夠?qū)⒍嗝襟w文件轉(zhuǎn)化為用于實(shí)時(shí)廣播的流,ffprobe用于分析多媒體流,ffplay可以當(dāng)作一個(gè)簡(jiǎn)易的媒體播放器,ffmpeg則能夠轉(zhuǎn)換多媒體文件格式。

FFMPEG從功能上劃分為幾個(gè)模塊,分別為核心工具(libutils)、媒體格式(libavformat)、編解碼(libavcodec)、設(shè)備(libavdevice)和后處理(libavfilter, libswscale, libpostproc),分別負(fù)責(zé)提供公用的功能函數(shù)、實(shí)現(xiàn)多媒體文件的讀包和寫(xiě)包、完成音視頻的編解碼、管理音視頻設(shè)備的操作以及進(jìn)行音視頻后處理。

libavutil是一個(gè)包含簡(jiǎn)化編程功能的庫(kù),其中包括隨機(jī)數(shù)生成器,數(shù)據(jù)結(jié)構(gòu),數(shù)學(xué)代碼,核心多媒體工具等更多東西。
libavcodec是一個(gè)包含音頻/視頻解碼器和編碼器的庫(kù)。
libavformat是一個(gè)包含了多媒體格式的分離器和混流器的庫(kù)。
libavdevice是一個(gè)包含輸入輸出設(shè)備的庫(kù),用于捕捉和渲染很多來(lái)自常用的多媒體輸入/輸出軟件框架的數(shù)據(jù),包括Video4Linux,Video4Linux2,VfW和ALSA。
libavfilter是一個(gè)包含媒體過(guò)濾器的庫(kù)。AVFilter可以給視音頻添加各種濾鏡效果??梢越o視頻添加水印,給YUV數(shù)據(jù)加特效。
libswscale是一個(gè)用于執(zhí)行高度優(yōu)化的圖像縮放和顏色空間/像素格式轉(zhuǎn)換操作的庫(kù)。
libswresample是一個(gè)用于執(zhí)行高度優(yōu)化的音頻重采樣,重新矩陣和取樣格式轉(zhuǎn)換操作的庫(kù)。

在視頻解碼前,先了解以下幾個(gè)基本的概念:

編解碼器(CODEC):能夠進(jìn)行視頻和音頻壓縮(CO)與解壓縮(DEC),是視頻編解碼的核心部分。
容器/多媒體文件(Container/File):沒(méi)有了解視頻的編解碼之前,總是錯(cuò)誤的認(rèn)為平常下載的電影的文件的后綴(avi,mkv,rmvb等)就是視頻的編碼方式。事實(shí)上,剛才提到的幾種文件的后綴
并不是視頻的編碼方式,只是其封裝的方式。一個(gè)視頻文件通常有視頻數(shù)據(jù)、音頻數(shù)據(jù)以及字幕等,封裝的格式?jīng)Q定這些數(shù)據(jù)在文件中是如何的存放的,封裝在一起音頻、視頻等數(shù)據(jù)組成的多媒體文件,也可以叫做容器(其中包含了視音頻數(shù)據(jù))。所以,只看多媒體文件的后綴名是難以知道視音頻的編碼方式的。
流數(shù)據(jù) Stream,例如視頻流(Video Stream),音頻流(Audio Stream)。流中的數(shù)據(jù)元素被稱為幀F(xiàn)rame。一個(gè)多媒體文件包含有多個(gè)流(視頻流 video stream,音頻流 audio stream,字幕等);流是一種抽象的概念,表示一連串的數(shù)據(jù)元素;
流中的數(shù)據(jù)元素稱為幀F(xiàn)rame。

FFMPEG視頻解碼流程:
通常來(lái)說(shuō),F(xiàn)Fmpeg的視頻解碼過(guò)程有以下幾個(gè)步驟:

1. 注冊(cè)所有容器格式及其對(duì)應(yīng)的CODEC: av_register_all()
2. 打開(kāi)文件: av_open_input_file()
3. 從文件中提取流信息: av_find_stream_info()
4. 窮舉所有的流,查找其中種類為CODEC_TYPE_VIDEO的視頻流video stream
5. 查找對(duì)應(yīng)的解碼器: avcodec_find_decoder()
6. 打開(kāi)編解碼器: avcodec_open2()
7. 為解碼幀分配內(nèi)存: avcodec_alloc_frame()
8. 不停地從碼流中提取出幀數(shù)據(jù)到Packet中: av_read_frame()
9. 判斷幀的類型,對(duì)于視頻幀調(diào)用: avcodec_decode_video2()
10. 解碼完后,釋放解碼器: avcodec_close()
11. 關(guān)閉輸入文件: avformat_close_input_file()

解碼過(guò)程的具體說(shuō)明

  1. 注冊(cè)
    av_register_all該函數(shù)注冊(cè)支持的所有的文件格式(容器)及其對(duì)應(yīng)的CODEC,只需要調(diào)用一次,故一般放在main函數(shù)中。也可以注冊(cè)某個(gè)特定的容器格式,但通常來(lái)說(shuō)不需要這么做。

  2. 打開(kāi)文件
    avformat_open_input該函數(shù)讀取文件的頭信息,并將其信息保存到AVFormatContext結(jié)構(gòu)體中。其調(diào)用如下

    AVFormatContext* pFormatCtx = nullptr;  
    avformat_open_input(&pFormatCtx, filenName, nullptr, nullptr)  
    

第一個(gè)參數(shù)是AVFormatContext結(jié)構(gòu)體的指針,第二個(gè)參數(shù)為文件路徑;第三個(gè)參數(shù)用來(lái)設(shè)定輸入文件的格式,如果設(shè)為null,將自動(dòng)檢測(cè)文件格式;第四個(gè)參數(shù)用來(lái)填充AVFormatContext一些字段以及Demuxer的private選項(xiàng)。
AVFormatContext包含有較多的碼流信息參數(shù),通常由avformat_open_input創(chuàng)建并填充關(guān)鍵字段。

  1. 獲取必要的CODEC參數(shù)
    avformat_open_input通過(guò)解析多媒體文件或流的頭信息及其他的輔助數(shù)據(jù),能夠獲取到足夠多的關(guān)于文件、流和CODEC的信息,并將這些信息填充到AVFormatContext結(jié)構(gòu)體中。但任何一種多媒體格式(容器)提供的信息都是有限的,而且不同的多媒體制作軟件對(duì)頭信息的設(shè)置也不盡相同,在制作多媒體文件的時(shí)候難免會(huì)引入一些錯(cuò)誤。也就是說(shuō),僅僅通過(guò)avformat_open_input并不能保證能夠獲取所需要的信息,所以一般要使用

    avformat_find_stream_info(AVFormatContext *ic, AVDictionary **options)
    avformat_find_stream_info主要用來(lái)獲取必要的CODEC參數(shù),設(shè)置到ic->streams[i]->codec。
    

在解碼的過(guò)程中,首先要獲取到各個(gè)stream所對(duì)應(yīng)的CODEC類型和id,CODEC的類型和id是兩個(gè)枚舉值,其定義如下:

   enum AVMediaType { 
      AVMEDIA_TYPE_UNKNOWN = -1,     
      AVMEDIA_TYPE_VIDEO,     
      AVMEDIA_TYPE_AUDIO,     
      AVMEDIA_TYPE_DATA, 
      AVMEDIA_TYPE_SUBTITLE,    
      AVMEDIA_TYPE_ATTACHMENT,     
      AVMEDIA_TYPE_NB
    }; 

   enum CodecID { 
     CODEC_ID_NONE,     /* video codecs */ 
     CODEC_ID_MPEG1VIDEO, 
     CODEC_ID_MPEG2VIDEO, ///< preferred ID for MPEG-1/2 video decoding     
     CODEC_ID_MPEG2VIDEO_XVMC,     
     CODEC_ID_H261,     
     CODEC_ID_H263, 
     ...
   }

通常,如果多媒體文件具有完整而正確的頭信息,通過(guò)avformat_open_input即可用獲得這兩個(gè)參數(shù)。

  1. 打開(kāi)解碼器
    經(jīng)過(guò)上面的步驟,已經(jīng)將文件格式信息讀取到了AVFormatContext中,要打開(kāi)流數(shù)據(jù)相應(yīng)的CODEC需要經(jīng)過(guò)下面幾個(gè)步驟
    找到視頻流 video stream
    一個(gè)多媒體文件包含有多個(gè)原始流,例如 movie.mkv這個(gè)多媒體文件可能包含下面的流數(shù)據(jù)

    原始流 1 h.264 video
    原始流 2 aac audio for Chinese
    原始流 3 aac audio for English
    原始流 4 Chinese Subtitle
    原始流 5 English Subtitle
    

要解碼視頻,首先要在AVFormatContext包含的多個(gè)流中找到CODEC類型為AVMEDIA_TYPE_VIDEO,代碼如下:

   //查找視頻流 video stream
   int videoStream = -1;
   for (int i = 0; i < pFormatCtx->nb_streams; i++)
   {
       if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO)
       {
           videoStream = i;
           break;
       }
   }
   if (videoStream == -1)
       return -1; // 沒(méi)有找到視頻流video stream  

結(jié)構(gòu)體AVFormatContext中的streams字段是一個(gè)AVStream指針的數(shù)組,包含了文件所有流的描述,上述上述代碼在該數(shù)組中查找CODEC類型為
AVMEDIA_TYPE_VIDEO的流的下標(biāo)。

根據(jù)codec_id找到相應(yīng)的CODEC,并打開(kāi)結(jié)構(gòu)體AVCodecContext描述了CODEC上下文,包含了眾多CODEC所需要的參數(shù)信息。

AVCodecContext* pCodecCtxOrg = nullptr; 
AVCodec* pCodec = nullptr;
pCodecCtxOrg = pFormatCtx->streams[videoStream]->codec; // codec context
// 找到video stream的 decoder
pCodec = avcodec_find_decoder(pCodecCtxOrg->codec_id); 
// open codec
if (avcodec_open2(pCodecCtxOrg , pCodec, nullptr) < 0)
   return -1; // Could open codec  

上述代碼,首先通過(guò)codec_id找到相應(yīng)的CODEC,然后調(diào)用avcodec_open2打開(kāi)相應(yīng)的CODEC。

  1. 讀取數(shù)據(jù)幀并解碼
    已經(jīng)有了相應(yīng)的解碼器,下面的工作就是將數(shù)據(jù)從流中讀出,并解碼為沒(méi)有壓縮的原始數(shù)據(jù)

    AVPacket packet; 
    while (av_read_frame(pFormatCtx, &packet) >= 0)
    {
         if (packet.stream_index == videoStream)
         {
             int frameFinished = 0;
             avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished, &packet);
             if (frameFinished)
             {
                 doSomething();
             }
         }
     
    } 
    

上述代碼調(diào)用av_read_frame將數(shù)據(jù)從流中讀取數(shù)據(jù)到packet中,并調(diào)用avcodec_decode_video2對(duì)讀取的數(shù)據(jù)進(jìn)行解碼。

  1. 關(guān)閉
    需要關(guān)閉avformat_open_input打開(kāi)的輸入流,avcodec_open2打開(kāi)的CODEC

    avcodec_close(pCodecCtxOrg);
    avformat_close_input(&pFormatCtx);  
    

也就是說(shuō)多媒體文件中,主要有兩種數(shù)據(jù):流Stream 及其數(shù)據(jù)元素 幀F(xiàn)rame,在FFmpeg自然有與這兩種數(shù)據(jù)相對(duì)應(yīng)的抽象:AVStream和AVPacket。
使用FFmpeg的解碼,數(shù)據(jù)的傳遞過(guò)程可歸納如下:

調(diào)用avformat_open_input打開(kāi)流,將信息填充到AVFormatContext中
調(diào)用av_read_frame從流中讀取數(shù)據(jù)幀到 AVPacket,AVPacket保存仍然是未解碼的數(shù)據(jù)。
調(diào)用avcodec_decode_video2將AVPacket的數(shù)據(jù)解碼,并將解碼后的數(shù)據(jù)填充到AVFrame中,AVFrame中保存的是解碼后的原始數(shù)據(jù)。
解碼流程.png

結(jié)構(gòu)體的存儲(chǔ)空間的分配與釋放

FFmpeg并沒(méi)有垃圾回收機(jī)制,所分配的空間都需要自己維護(hù)。而由于視頻處理過(guò)程中數(shù)據(jù)量是非常大,對(duì)于動(dòng)態(tài)內(nèi)存的使用更要謹(jǐn)慎。
本小節(jié)主要介紹解碼過(guò)程使用到的結(jié)構(gòu)體存儲(chǔ)空間的分配與釋放。

AVFormatContext 在FFmpeg中有很重要的作用,描述一個(gè)多媒體文件的構(gòu)成及其基本信息,存放了視頻編解碼過(guò)程中的大部分信息。通常該結(jié)構(gòu)體由avformat_open_input分配存儲(chǔ)空間,在最后調(diào)用avformat_input_close關(guān)閉。

AVStream 描述一個(gè)媒體流,在解碼的過(guò)程中,作為AVFormatContext的一個(gè)字段存在,不需要單獨(dú)的處理。

AVpacket 用來(lái)存放解碼之前的數(shù)據(jù),它只是一個(gè)容器,其data成員指向?qū)嶋H的數(shù)據(jù)緩沖區(qū),在解碼的過(guò)程中可有av_read_frame創(chuàng)建和填充AVPacket中的數(shù)據(jù)緩沖區(qū),
當(dāng)數(shù)據(jù)緩沖區(qū)不再使用的時(shí)候可以調(diào)用av_free_apcket釋放這塊緩沖區(qū)。

AVFrame 存放從AVPacket中解碼出來(lái)的原始數(shù)據(jù),其必須通過(guò)av_frame_alloc來(lái)創(chuàng)建,通過(guò)av_frame_free來(lái)釋放。和AVPacket類似,AVFrame中也有一塊數(shù)據(jù)緩存空間,在調(diào)用av_frame_alloc的時(shí)候并不會(huì)為這塊緩存區(qū)域分配空間,需要使用其他的方法。在解碼的過(guò)程使用了兩個(gè)AVFrame,這兩個(gè)AVFrame分配緩存空間的方法也不相同

一個(gè)AVFrame用來(lái)存放從AVPacket中解碼出來(lái)的原始數(shù)據(jù),這個(gè)AVFrame的數(shù)據(jù)緩存空間通過(guò)調(diào)avcodec_decode_video分配和填充。
另一個(gè)AVFrame用來(lái)存放將解碼出來(lái)的原始數(shù)據(jù)變換為需要的數(shù)據(jù)格式(例如RGB,RGBA)的數(shù)據(jù),這個(gè)AVFrame需要手動(dòng)的分配數(shù)據(jù)緩存空間。代碼如下:

     AVFrame *pFrameYUV;
     pFrameYUV = av_frame_alloc();
     // 手動(dòng)為 pFrameYUV分配數(shù)據(jù)緩存空間
     int numBytes = avpicture_get_size(AV_PIX_FMT_YUV420P,pCodecCtx->widht,pCodecCtx->width);
     uint8_t *buffer = (uint8_t*)av_malloc(numBytes * sizeof(uint8_t));
     // 將分配的數(shù)據(jù)緩存空間和AVFrame關(guān)聯(lián)起來(lái)
     avpicture_fill((AVPicture *)pFrameYUV, buffer, AV_PIX_FMT_YUV420P,pCodecCtx->width,  pCodecCtx->height)

首先計(jì)算需要緩存空間大小,調(diào)用av_malloc分配緩存空間,最后調(diào)用avpicture_fill將分配的緩存空間和AVFrame關(guān)聯(lián)起來(lái)。
調(diào)用av_frame_free來(lái)釋放AVFrame,該函數(shù)不止釋放AVFrame本身的空間,還會(huì)釋放掉包含在其內(nèi)的其他對(duì)象動(dòng)態(tài)申請(qǐng)的空間,例如上面的緩存空間。

av_malloc和av_free,F(xiàn)Fmpeg并沒(méi)有提供垃圾回收機(jī)制,所有的內(nèi)存管理都要手動(dòng)進(jìn)行。av_malloc只是在申請(qǐng)內(nèi)存空間的時(shí)候會(huì)考慮到內(nèi)存對(duì)齊(2字節(jié),4字節(jié)對(duì)齊),
其申請(qǐng)的空間要調(diào)用av_free釋放。

調(diào)用的函數(shù)

av_register_all 這個(gè)函數(shù)不用多說(shuō)了,注冊(cè)庫(kù)所支持的容器格式及其對(duì)應(yīng)的CODEC。
avformat_open_input 打開(kāi)多媒體文件流,并讀取文件的頭,將讀取到的信息填充到AVFormatContext結(jié)構(gòu)體中。在使用結(jié)束后,要調(diào)用avformat_close_input關(guān)閉打開(kāi)的流
avformat_find_stream_info 上面提到,avformat_open_input只是讀取文件的頭來(lái)得到多媒體文件的信息,但是有些文件沒(méi)有文件頭或者文件頭的格式不正確,這就造成只調(diào)用
avformat_open_input可能得不到解碼所需要的必要信息,需要調(diào)用avformat_find_stream_info進(jìn)一步得到流的信息。

通過(guò)上面的三個(gè)函數(shù)已經(jīng)獲取了對(duì)多媒體文件進(jìn)行解碼的所需要信息,下面要做的就是根據(jù)這些信息得到相應(yīng)的解碼器。
結(jié)構(gòu)體AVCodecContext描述了編解碼器的上下文信息,包含了流中所使用的關(guān)于編解碼器的所有信息,可以通過(guò) AVFormatContext->AVStream->AVCodecContext來(lái)得到,在有了AVCodecContext后,可以通過(guò)codec_id來(lái)找到相應(yīng)的解碼器,具體代碼如下:

AVCodec* pCodec = nullptr;
pCodecCtxOrg = pFormatCtx->streams[videoStream]->codec; // codec context
// 找到video stream的 decoder
pCodec = avcodec_find_decoder(pCodecCtxOrg->codec_id);  
avcodec_find_decoder 可以通過(guò)codec_id或者名稱來(lái)找到相應(yīng)的解碼器,返回值是一個(gè)AVCodec的指針。
avcodec_open2 打開(kāi)相應(yīng)的編解碼器
av_read_frame 從流中讀取數(shù)據(jù)幀暫存到AVPacket中
avcodec_decode_video2 從AVPacket中解碼數(shù)據(jù)到AVFrame中

經(jīng)過(guò)以上的過(guò)程,AVFrame中的數(shù)據(jù)緩存中存放的就是解碼后的原始數(shù)據(jù)了。整個(gè)流程梳理如下:

解碼代碼流程.png

(1)RGB轉(zhuǎn)換成YUV

Y = 0.299R + 0.587G + 0.114B
U = 0.567(B - Y)
V = 0.713(R - Y)

值得注意的是,Y值范圍為[0, 1.0]、UV值范圍都是[-0.5, 0.5],在Accelerate框架的vImage_CVUtilities.h有描述。

(2)YUV轉(zhuǎn)換成RGB

R = Y + 1.402V
G = Y - 0.344U - 0.714V
B = Y + 1.772U

視音頻技術(shù)主要包含以下幾點(diǎn):封裝技術(shù),視頻壓縮編碼技術(shù)以及音頻壓縮編碼技術(shù)。如果考慮到網(wǎng)絡(luò)傳輸?shù)脑?,還包括流媒體協(xié)議技術(shù)。

視頻播放器播放一個(gè)互聯(lián)網(wǎng)上的視頻文件,需要經(jīng)過(guò)以下幾個(gè)步驟:解協(xié)議,解封裝,解碼視音頻,視音頻同步。

解協(xié)議的作用,就是將流媒體協(xié)議的數(shù)據(jù),解析為標(biāo)準(zhǔn)的相應(yīng)的封裝格式數(shù)據(jù)。視音頻在網(wǎng)絡(luò)上傳播的時(shí)候,常常采用各種流媒體協(xié)議,例如HTTP,RTMP,或是MMS等等。這些協(xié)議在傳輸視音頻數(shù)據(jù)的同時(shí),也會(huì)傳輸一些信令數(shù)據(jù)。這些信令數(shù)據(jù)包括對(duì)播放的控制(播放,暫停,停止),或者對(duì)網(wǎng)絡(luò)狀態(tài)的描述等。解協(xié)議的過(guò)程中會(huì)去除掉信令數(shù)據(jù)而只保留視音頻數(shù)據(jù)。例如,采用RTMP協(xié)議傳輸?shù)臄?shù)據(jù),經(jīng)過(guò)解協(xié)議操作后,輸出FLV格式的數(shù)據(jù)。
解封裝的作用,就是將輸入的封裝格式的數(shù)據(jù),分離成為音頻流壓縮編碼數(shù)據(jù)和視頻流壓縮編碼數(shù)據(jù)。封裝格式種類很多,例如MP4,MKV,RMVB,TS,F(xiàn)LV,AVI等等,它的作用就是將已經(jīng)壓縮編碼的視頻數(shù)據(jù)和音頻數(shù)據(jù)按照一定的格式放到一起。例如,F(xiàn)LV格式的數(shù)據(jù),經(jīng)過(guò)解封裝操作后,輸出H.264編碼的視頻碼流和AAC編碼的音頻碼流。
解碼的作用,就是將視頻/音頻壓縮編碼數(shù)據(jù),解碼成為非壓縮的視頻/音頻原始數(shù)據(jù)。音頻的壓縮編碼標(biāo)準(zhǔn)包含AAC,MP3,AC-3等等,視頻的壓縮編碼標(biāo)準(zhǔn)則包含H.264,MPEG2,VC-1等等。解碼是整個(gè)系統(tǒng)中最重要也是最復(fù)雜的一個(gè)環(huán)節(jié)。通過(guò)解碼,壓縮編碼的視頻數(shù)據(jù)輸出成為非壓縮的顏色數(shù)據(jù),例如YUV420P,RGB等等;壓縮編碼的音頻數(shù)據(jù)輸出成為非壓縮的音頻抽樣數(shù)據(jù),例如PCM數(shù)據(jù)。
視音頻同步的作用,就是根據(jù)解封裝模塊處理過(guò)程中獲取到的參數(shù)信息,同步解碼出來(lái)的視頻和音頻數(shù)據(jù),并將視頻音頻數(shù)據(jù)送至系統(tǒng)的顯卡和聲卡播放出來(lái)。

一般來(lái)說(shuō),視頻同步指的是視頻和音頻同步,也就是說(shuō)播放的聲音要和當(dāng)前顯示的畫(huà)面保持一致。想象以下,看一部電影的時(shí)候只看到人物嘴動(dòng)沒(méi)有聲音傳出;或者畫(huà)面是激烈的戰(zhàn)斗場(chǎng)景,而聲音不是槍炮聲卻是人物說(shuō)話的聲音,這是非常差的一種體驗(yàn)。
在視頻流和音頻流中已包含了其以怎樣的速度播放的相關(guān)數(shù)據(jù),視頻的幀率(Frame Rate)指示視頻一秒顯示的幀數(shù)(圖像數(shù));音頻的采樣率(Sample Rate)表示音頻一秒播放的樣本(Sample)的個(gè)數(shù)??梢允褂靡陨蠑?shù)據(jù)通過(guò)簡(jiǎn)單的計(jì)算得到其在某一Frame(Sample)的播放時(shí)間,以這樣的速度音頻和視頻各自播放互不影響,在理想條件下,其應(yīng)該是同步的,不會(huì)出現(xiàn)偏差。但,理想條件是什么大家都懂得。如果用上面那種簡(jiǎn)單的計(jì)算方式,慢慢的就會(huì)出現(xiàn)音視頻不同步的情況。要不是視頻播放快了,要么是音頻播放快了,很難準(zhǔn)確的同步。這就需要一種隨著時(shí)間會(huì)線性增長(zhǎng)的量,視頻和音頻的播放速度都以該量為標(biāo)準(zhǔn),播放快了就減慢播放速度;播放快了就加快播放的速度。所以呢,視頻和音頻的同步實(shí)際上是一個(gè)動(dòng)態(tài)的過(guò)程,同步是暫時(shí)的,不同步則是常態(tài)。以選擇的播放速度量為標(biāo)準(zhǔn),快的等待慢的,慢的則加快速度,是一個(gè)你等我趕的過(guò)程。

播放速度標(biāo)準(zhǔn)量的的選擇一般來(lái)說(shuō)有以下三種:

將視頻同步到音頻上,就是以音頻的播放速度為基準(zhǔn)來(lái)同步視頻。視頻比音頻播放慢了,加快其播放速度;快了,則延遲播放。
將音頻同步到視頻上,就是以視頻的播放速度為基準(zhǔn)來(lái)同步音頻。
將視頻和音頻同步外部的時(shí)鐘上,選擇一個(gè)外部時(shí)鐘為基準(zhǔn),視頻和音頻的播放速度都以該時(shí)鐘為標(biāo)準(zhǔn)。

DTS和PTS
上面提到,視頻和音頻的同步過(guò)程是一個(gè)你等我趕的過(guò)程,快了則等待,慢了就加快速度。這就需要一個(gè)量來(lái)判斷(和選擇基準(zhǔn)比較),到底是播放的快了還是慢了,或者正以同步的速度播放。在視音頻流中的包中都含有DTS和PTS,就是這樣的量(準(zhǔn)確來(lái)說(shuō)是PTS)。DTS,Decoding Time Stamp,解碼時(shí)間戳,告訴解碼器packet的解碼順序;PTS,Presentation Time Stamp,顯示時(shí)間戳,指示從packet中解碼出來(lái)的數(shù)據(jù)的顯示順序。
視音頻都是順序播放的,其解碼的順序不應(yīng)該就是其播放的順序么,為啥還要有DTS和PTS之分呢。對(duì)于音頻來(lái)說(shuō),DTS和PTS是相同的,也就是其解碼的順序和解碼的順序是相同的,但對(duì)于視頻來(lái)說(shuō)情況就有些不同了。
視頻的編碼要比音頻復(fù)雜一些,特別的是預(yù)測(cè)編碼是視頻編碼的基本工具,這就會(huì)造成視頻的DTS和PTS的不同。這樣視頻編碼后會(huì)有三種不同類型的幀:

I幀 關(guān)鍵幀,包含了一幀的完整數(shù)據(jù),解碼時(shí)只需要本幀的數(shù)據(jù),不需要參考其他幀。
P幀 P是向前搜索,該幀的數(shù)據(jù)不完全的,解碼時(shí)需要參考其前一幀的數(shù)據(jù)。
B幀 B是雙向搜索,解碼這種類型的幀是最復(fù)雜,不但需要參考其一幀的數(shù)據(jù),還需要其后一幀的數(shù)據(jù)。

I幀的解碼是最簡(jiǎn)單的,只需要本幀的數(shù)據(jù);P幀也不是很復(fù)雜,值需要緩存上一幀的數(shù)據(jù)即可,總體來(lái)說(shuō)都是線性,其解碼順序和顯示順序是一致的。B幀就比較復(fù)雜了,需要前后兩幀的順序,并且不是線性的,也是造成了DTS和PTS的不同的“元兇”,也是在解碼后有可能得不到完整Frame的原因。(更多I,B,P幀的信息可參考)
假如一個(gè)視頻序列,要這樣顯示I B B P,但是需要在B幀之前得到P幀的信息,因此幀可能以這樣的順序來(lái)存儲(chǔ)I P B B,這樣其解碼順序和顯示的順序就不同了,這也是DTS和PTS同時(shí)存在的原因。DTS指示解碼順序,PTS指示顯示順序。所以流中可以是這樣的:

Stream : I P B B
DTS      1 2 3 4
PTS      1 4 2 3

通常來(lái)說(shuō)只有在流中含有B幀的時(shí)候,PTS和DTS才會(huì)不同。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容