GPUImage-用視頻做視頻水印

前言

明白了GPUImage的強大功能,這次介紹的是兩個視頻的重疊,可以把兩個視頻文件合并,也可以把視頻和錄像結(jié)合在一起。

效果展示

視頻的截圖如下,視頻由兩個視頻合成,一個來自于文件abc.mp4,一個來自于攝像頭。

image

核心思路

攝像頭采集的數(shù)據(jù)通過GPUImageVideoCamera進入響應(yīng)鏈,視頻文件的數(shù)據(jù)通過GPUImageMovie進入響應(yīng)鏈,在GPUImageDissolveBlenderFilter進行合并,最后把數(shù)據(jù)傳給響應(yīng)鏈的終點GPUImageView以顯示到UI和GPUImageMovieWriter以寫入臨時文件,最后臨時文件通過ALAssetsLibrary寫入系統(tǒng)庫。

具體細節(jié)

1、GPUImageDissolveBlendFilter

GPUImageDissolveBlendFilter類繼承GPUImageTwoInputFilter,添加屬性mix作為片元著色器的mix參數(shù)。GPUImageDissolveBlendFilter在響應(yīng)鏈上需要接受兩個輸入,當(dāng)兩個輸入都就緒時,會通過mix()操作把輸入混合,并且輸出到響應(yīng)鏈上。

思考1:如果只有一個輸入會如何?

2、GPUImageMovie

GPUImageMovie類繼承了GPUImageOutput類,一般作為響應(yīng)鏈的源頭,可以通過url、playerItem、asset初始化。

3、GPUImageMovieWriter

GPUImageMovieWriter類實現(xiàn)GPUImageInput協(xié)議,一般作為響應(yīng)鏈的終點。shouldPassthroughAudio表示是否使用源音源。
movieFile.audioEncodingTarget = movieWriter;表示音頻來源是文件。

if (audioFromFile) {
        // 響應(yīng)鏈
        [movieFile addTarget:filter];
        [videoCamera addTarget:filter];
        movieWriter.shouldPassthroughAudio = YES;
        movieFile.audioEncodingTarget = movieWriter;
        [movieFile enableSynchronizedEncodingUsingMovieWriter:movieWriter];
    }
    else {
        // 響應(yīng)鏈
        [videoCamera addTarget:filter];
        [movieFile addTarget:filter];
        movieWriter.shouldPassthroughAudio = NO;
        videoCamera.audioEncodingTarget = movieWriter;
        movieWriter.encodingLiveVideo = NO;
    }

思考2:音頻來源的不同會對響應(yīng)鏈造成什么樣的影響?為什么?

4、響應(yīng)鏈
響應(yīng)鏈以GPUImageVideoCamera和GPUImageMovie作為輸入,最終以GPUImageMovieWriter為輸出。

  • 開始響應(yīng)鏈的輸入。
    [videoCamera startCameraCapture];
    [movieWriter startRecording];
    [movieFile startProcessing];

  • 設(shè)置movieWriter的結(jié)束回調(diào)。
[movieWriter setCompletionBlock:^{
}];

思考3:movieWriter的回調(diào)是什么時候調(diào)用的?由哪里觸發(fā)?

思考4:movieWriter的encodingLiveVideo有什么用?把其設(shè)置為YES和NO試試,觀察是否有影響?

總結(jié)

做demo的過程中遇到坑,GPUImage上面有Issues,但是并沒有人解答????????????????。
代碼地址在這里,參考鏈接上有趟坑的時候查到的一些資料。

附錄

幾個思考題都是做demo過程比較迷惑不解的地方和遇到的問題,答案分別是:

思考1:輸入只有一個輸入的時候,會一直等待第二個輸入,不會有輸出。問題出現(xiàn)在把videoCamera聲明為臨時變量,以為添加target會持有videoCamera的引用。實際上就會發(fā)生輸入只有一個的時候(只有視頻文件的信號),同時屏幕是白屏。

思考2:音頻的來源不同會導(dǎo)致CMTime的不同,響應(yīng)鏈視頻信息的CMTime默認采用第一個輸入的CMTime,故而修改音頻來源的時候需要修改響應(yīng)鏈的輸入順序,否則幾秒鐘的視頻文件會產(chǎn)生兩個多小時的文件(CMTime不同步導(dǎo)致)。

思考3:movieWriter的回調(diào)會在視頻處理結(jié)束的時候調(diào)用,由GPUImageMovie的
reader.status == AVAssetReaderStatusCompleted觸發(fā)。

思考4:encodingLiveVideo影響的其實是expectsMediaDataInRealTime屬性,YES時用于輸入流是實時的,比如說攝像頭。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容