JavaCV 本地視頻推流

<dependency>
    <groupId>org.bytedeco</groupId>
    <artifactId>javacv-platform</artifactId>
    <version>1.5.6</version>
</dependency>

??導(dǎo)入 JavaCV 依賴,編寫推流代碼如下:

import org.bytedeco.ffmpeg.global.avcodec;
import org.bytedeco.ffmpeg.global.avutil;
import org.bytedeco.javacv.*;

import java.nio.ByteBuffer;

public class LivePusher {

    public void pushLocalVideo2Rtmp(String localVideoPath, String rtmpAddress) throws Exception {
        FFmpegLogCallback.set();

        FFmpegFrameGrabber grabber = new FFmpegFrameGrabber(localVideoPath);
        grabber.setOption("nobuffer", "1");
        grabber.start();

        /*
         * 測試時推了一個剪映重新生成的高分辨率視頻,其分辨率達(dá)到了 3840x2160;
         * 導(dǎo)致下面的推送速度跟不上實際消耗的速度;將會造成直播卡頓; 因此,可以重置其分辨率
         */
        int imageWidth = grabber.getImageWidth();
        int imageHeight = grabber.getImageHeight();
        if (imageWidth > 1920 || imageHeight > 1080) {
            double wScale = imageWidth * 1.0 / 1920;
            double hScale = imageHeight * 1.0 / 1080;
            double scale = Math.max(wScale, hScale);
            grabber.setImageWidth((int) (imageWidth / scale));
            grabber.setImageHeight((int) (imageHeight / scale));
        }

        if (grabber.getFormatContext() == null || grabber.getFormatContext().nb_streams() < 1) {
            throw new RuntimeException("本地視頻中沒有流數(shù)據(jù)");
        }

        FFmpegFrameRecorder recorder = new FFmpegFrameRecorder(
            rtmpAddress, grabber.getImageWidth(), grabber.getImageHeight()
        );
        recorder.setFrameRate(grabber.getFrameRate());  // 設(shè)置幀率
        recorder.setGopSize((int) (grabber.getFrameRate() * 2));  // 設(shè)置關(guān)鍵幀
        recorder.setVideoBitrate(grabber.getVideoBitrate());
        recorder.setVideoCodec(avcodec.AV_CODEC_ID_H264);   // 視頻編碼格式
        recorder.setPixelFormat(avutil.AV_PIX_FMT_YUV420P); // 視頻源數(shù)據(jù)yuv
        recorder.setFormat("flv");
        recorder.setAudioCodec(avcodec.AV_CODEC_ID_AAC); // 音頻編碼格式
//        recorder.setAudioBitrate(grabber.getAudioBitrate());
        recorder.setAudioChannels(grabber.getAudioChannels());
        recorder.setSampleRate(grabber.getSampleRate());
        recorder.start();

        // 假設(shè) 1 秒中有 30 幀數(shù)據(jù),那么兩幀數(shù)據(jù)之間的時間間隔就是 1000 / 30;
        long interval = 1_000 / (int) grabber.getFrameRate();

        long startTime = System.currentTimeMillis();

        Frame frame;
        while ((frame = grabber.grab()) != null) {
            recorder.record(frame);
            long currentTime = 1_000 * (System.currentTimeMillis() - startTime);
            long frameTime = frame.timestamp;
            long sleepTime = (frameTime - currentTime) / 1_000;
            System.out.println("推流測試 >>>>>>>> " + getFrameTime(currentTime) + " >>>>>>>> " + getFrameTime(frameTime));
            try {
                if (interval > 0 && sleepTime > 500 + interval) {
                    Thread.sleep(interval);
                }
            } catch (Exception e) {
                e.printStackTrace();
            }
        }

        recorder.close();
        grabber.close();
    }

    private String getFrameTime(long frameTime) {
        long mills = (frameTime / 1000) % 1000;
        int sec = (int) (frameTime / 1_000 / 1_000);
        int min = sec / 60;
        sec %= 60;
        if (min >= 60) {
            int hour = min / 60;
            min %= 60;
            return String.format("%02d:%02d:%02d.%03d", hour, min, sec, mills);
        } else {
            return String.format("%02d:%02d.%03d", min, sec, mills);
        }
    }

}

??使用播放器驗證推流效果

??推流時,主要解決兩個問題:直播流卡頓音畫不同步

??卡頓的問題主要是采集本地視頻流和推流消耗的時間大于當(dāng)前采集到的視頻的時長,通俗描述是 1 分鐘時長的音視頻數(shù)據(jù),使用 FFmpegFrameGrabber 采集 + FFmpegFrameRecorder 推流錄制,需要消耗的時間超過 1 分鐘。因此可以適當(dāng)?shù)恼{(diào)用 setImageWidthsetImageHeight 降低視頻的分辨率;或者是調(diào)用 setVideoBitratesetVideoQuality 降低視頻比特率或質(zhì)量等;當(dāng)然,網(wǎng)絡(luò)也會造成卡頓。

??而對于音畫不同步,主要在于錄制器的幀率要保持和采集器的幀率一致,即 recorder.setFrameRate(grabber.getFrameRate()) 。

??另外,說到卡頓是推流消耗時間比音視頻時長要長,而如果 10 分鐘長的視頻。只需要 5 分鐘就可以推送完成又會怎么樣?測試過程使用 ffplay 進行播放,發(fā)現(xiàn)其會跳進度,即每次中間提前推送了的時長的數(shù)據(jù)直接被跳過,還有就是推流進程結(jié)束之后,還能夠繼續(xù)播放幾十秒鐘;因此,需要使用線程休眠盡量的保持推送時間和視頻時間的同步和一致;

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容