<dependency>
<groupId>org.bytedeco</groupId>
<artifactId>javacv-platform</artifactId>
<version>1.5.6</version>
</dependency>
??導(dǎo)入 JavaCV 依賴,編寫推流代碼如下:
import org.bytedeco.ffmpeg.global.avcodec;
import org.bytedeco.ffmpeg.global.avutil;
import org.bytedeco.javacv.*;
import java.nio.ByteBuffer;
public class LivePusher {
public void pushLocalVideo2Rtmp(String localVideoPath, String rtmpAddress) throws Exception {
FFmpegLogCallback.set();
FFmpegFrameGrabber grabber = new FFmpegFrameGrabber(localVideoPath);
grabber.setOption("nobuffer", "1");
grabber.start();
/*
* 測試時推了一個剪映重新生成的高分辨率視頻,其分辨率達(dá)到了 3840x2160;
* 導(dǎo)致下面的推送速度跟不上實際消耗的速度;將會造成直播卡頓; 因此,可以重置其分辨率
*/
int imageWidth = grabber.getImageWidth();
int imageHeight = grabber.getImageHeight();
if (imageWidth > 1920 || imageHeight > 1080) {
double wScale = imageWidth * 1.0 / 1920;
double hScale = imageHeight * 1.0 / 1080;
double scale = Math.max(wScale, hScale);
grabber.setImageWidth((int) (imageWidth / scale));
grabber.setImageHeight((int) (imageHeight / scale));
}
if (grabber.getFormatContext() == null || grabber.getFormatContext().nb_streams() < 1) {
throw new RuntimeException("本地視頻中沒有流數(shù)據(jù)");
}
FFmpegFrameRecorder recorder = new FFmpegFrameRecorder(
rtmpAddress, grabber.getImageWidth(), grabber.getImageHeight()
);
recorder.setFrameRate(grabber.getFrameRate()); // 設(shè)置幀率
recorder.setGopSize((int) (grabber.getFrameRate() * 2)); // 設(shè)置關(guān)鍵幀
recorder.setVideoBitrate(grabber.getVideoBitrate());
recorder.setVideoCodec(avcodec.AV_CODEC_ID_H264); // 視頻編碼格式
recorder.setPixelFormat(avutil.AV_PIX_FMT_YUV420P); // 視頻源數(shù)據(jù)yuv
recorder.setFormat("flv");
recorder.setAudioCodec(avcodec.AV_CODEC_ID_AAC); // 音頻編碼格式
// recorder.setAudioBitrate(grabber.getAudioBitrate());
recorder.setAudioChannels(grabber.getAudioChannels());
recorder.setSampleRate(grabber.getSampleRate());
recorder.start();
// 假設(shè) 1 秒中有 30 幀數(shù)據(jù),那么兩幀數(shù)據(jù)之間的時間間隔就是 1000 / 30;
long interval = 1_000 / (int) grabber.getFrameRate();
long startTime = System.currentTimeMillis();
Frame frame;
while ((frame = grabber.grab()) != null) {
recorder.record(frame);
long currentTime = 1_000 * (System.currentTimeMillis() - startTime);
long frameTime = frame.timestamp;
long sleepTime = (frameTime - currentTime) / 1_000;
System.out.println("推流測試 >>>>>>>> " + getFrameTime(currentTime) + " >>>>>>>> " + getFrameTime(frameTime));
try {
if (interval > 0 && sleepTime > 500 + interval) {
Thread.sleep(interval);
}
} catch (Exception e) {
e.printStackTrace();
}
}
recorder.close();
grabber.close();
}
private String getFrameTime(long frameTime) {
long mills = (frameTime / 1000) % 1000;
int sec = (int) (frameTime / 1_000 / 1_000);
int min = sec / 60;
sec %= 60;
if (min >= 60) {
int hour = min / 60;
min %= 60;
return String.format("%02d:%02d:%02d.%03d", hour, min, sec, mills);
} else {
return String.format("%02d:%02d.%03d", min, sec, mills);
}
}
}
??使用播放器驗證推流效果

??推流時,主要解決兩個問題:直播流卡頓 和 音畫不同步。
??卡頓的問題主要是采集本地視頻流和推流消耗的時間大于當(dāng)前采集到的視頻的時長,通俗描述是 1 分鐘時長的音視頻數(shù)據(jù),使用 FFmpegFrameGrabber 采集 + FFmpegFrameRecorder 推流錄制,需要消耗的時間超過 1 分鐘。因此可以適當(dāng)?shù)恼{(diào)用 setImageWidth 和 setImageHeight 降低視頻的分辨率;或者是調(diào)用 setVideoBitrate 或 setVideoQuality 降低視頻比特率或質(zhì)量等;當(dāng)然,網(wǎng)絡(luò)也會造成卡頓。
??而對于音畫不同步,主要在于錄制器的幀率要保持和采集器的幀率一致,即 recorder.setFrameRate(grabber.getFrameRate()) 。
??另外,說到卡頓是推流消耗時間比音視頻時長要長,而如果 10 分鐘長的視頻。只需要 5 分鐘就可以推送完成又會怎么樣?測試過程使用 ffplay 進行播放,發(fā)現(xiàn)其會跳進度,即每次中間提前推送了的時長的數(shù)據(jù)直接被跳過,還有就是推流進程結(jié)束之后,還能夠繼續(xù)播放幾十秒鐘;因此,需要使用線程休眠盡量的保持推送時間和視頻時間的同步和一致;