首先,簡單介紹一下AVFoundation
AVFoundation是一個可以用來使用和創(chuàng)建基于時間的視聽媒體的框架,它提供了一個能使用基于時間的視聽數(shù)據(jù)的詳細級別的Objective-C接口。例如:您可以用它來檢查,創(chuàng)建,編輯或是重新編碼媒體文件。也可以從設備中獲取輸入流,在視頻實時播放時操作和回放。下圖時AVFoundation在IOS中的架構(gòu)。

在使用時,應盡量使用最高級別的抽象的控件:
- 如果只是想播放視頻,應該使用AVKit框架。
- 在IOS中,如果只是想錄制視頻,可以使用UIKit框架(UIImagePickerController).
但是,值得注意的是,一些用在AV Foundation-including的基于時間數(shù)據(jù)結(jié)構(gòu)的原始數(shù)據(jù)結(jié)構(gòu)和帶有未公開的媒體數(shù)據(jù)描述的部分是聲明在Core Media框架的。
AVFoundation知識點
一、 Using Assets [自己理解為:數(shù)據(jù)的來源]
這個資源可以來自自己的ipod媒體庫或圖片也可以時文件
創(chuàng)建一個Assets
NSRUL *url = //后跟一個網(wǎng)址 如電影文件等資源
AVURLAsset *ansset = [[AVURLSset alloc] initwithURL:url options:nil];
二、 獲得一個視頻的圖像
使用AVASsetImageGenerator類來實現(xiàn)
用來生成圖像序列
三、 Playback
我們在播放視頻時可以使用AVPlayer和AVQueuePlayer播放,AVPlayer是AVQueuePlayer的父類
- 先創(chuàng)建一個路徑
- 可以使用AVPlayerItem加載路徑
- 使用AVPlayer播放文件
當然我們還可以控制它的播放速度
使用rate屬性,它是一個介于0.0--1.0之間的數(shù)
我們也可以播放多個項目 :
NSArray *items = // 設置一個播放的組合
AVQueuePlayer *queueplayer = [[AVQueuePlayer alloc]initwithItems:items];
//然后使用AVPlayerItem
AVPlayerItem *anItem = // get a player item
//使用canInsertItem:afterItem 測試
四、 Media capture
我們可以配置預設圖片的質(zhì)量和分辨率
AVCaptureSessionPresetHigh High 最高的錄制質(zhì)量,每臺設備不同
AVCaptureSessionPresetMedium Medium 基于無線分享的,實際值可能會改變
AVCaptureSessionPresetLow LOW 基于3g分享的
AVCaptureSessionPreset640x480 640x480 VGA
AVCaptureSessionPreset1280x720 1280x720 720p HD
AVCaptureSessionPresetPhoto Photo 完整的照片分辨率,不支持視頻輸出
判斷一個設備是否適用 :
AVCaptreSessuion *session = [[AVCaptureSession alloc]init];
if([session canSetSessionPreset:AVCaptureSessionPrese 1280x720]){
session.sessionPreset = AVCaptureSessionPreset 1280x720;
}else{
// Handle the failure.
}
可以在[session beginConfigration], [session commit configuration]中配置重新添加你想要適用的設備以及刪除以前的設備等操作 (詳解在六)。
五、 當我們不知道設備的一些特性時我們可以使用以下代碼查找相應的設備
NSArray *devices = [AVCaptureDevice devices];
for(AVCaptureDevice *device in device){
NSLog("Device name %@",[devic localizedName]);
//當然還可以判斷設備的位置
if([device hasMediaType:AVMediaTypeVideo]){
if([device postion] == AVCaptureDevicePostionBack){
NSLog(@"Device postion :back");
}else{
NSLog(@"Device postion :front");
}
}
}
下面的demo說明如何找到視頻輸入設備 :
NSArray *devices = [AVCaptureDevice devicesWithMediaType:AVMediaTypeVideo];
NSMutableArray *torchDevices = [[NSMutableArray alloc]init];
for(AVCaptureDevice *device in devices){
if([device hasTorch]&&[device supportsAVCaptureSessionPreset:AVCaptureSessionPreset 640x480]){
[torchDevices addObject:device];
}
}
六、 當我們不知道設備的一些特性時我們可以使用以下代碼查找相應的設備
AVCaptureSession *session = //一個設備session
[session beginConfiguration];
[session removeInput:frontFacingCameraDeviceInput];
[session AddInput:backFacikngCameraDeviceInput];
[session commitConfiguration];
七、 配置AVCaptureDeviceInput
AVCaptureSession *captureSession = <#Get a capture session#>;
AVCaptureDeviceInput *captureDeviceInput = <#Get a capture device input#>;
// 檢查是否適用
if ([captureSession canAddInput:captureDeviceInput]) {
// 適用則添加
[captureSession addInput:captureDeviceInput];
} else {
// Handle the failure.
}
八、 配置AVCaptureOutput
輸出的類型:
a.AVCaptureMovieFileOutput 輸出一個電影文件
b.AVCaptureVideoDataOutput 輸出處理視頻幀被捕獲
c.AVCaptureAudioDataOutput 輸出音頻數(shù)據(jù)被捕獲
d.AVCaptureStillImageOutput 捕獲元數(shù)據(jù)
AVCaptureSession *captureSession = <#Get a capture session#>;
AVCaptureMovieFileOutput *movieInput = <#Create and configure a movie output#>;
if ([captureSession canAddOutput:movieInput]) {
[captureSession addOutput:movieInput];
} else {
// Handle the failure.
}
九、保存到一個電影文件
AVCaptureMovieFileOutput *aMovieFileOutput = [[AVCaptureMovieFileOutput alloc] init];
CMTime maxDuration = <#Create a CMTime to represent the maximum duration#>;
aMovieFileOutput.maxRecordedDuration = maxDuration;
aMovieFileOutput.minFreeDiskSpaceLimit = <#An appropriate minimum given the quality of the movie format and the duration#>;
十、錄音設備
使用AVCaptureFileOutputRecordingDelegate代理而且必須實現(xiàn)方法:
captureOutput:didFinishRecordingToOutputFileAtURL:fromConnections:error: method
十一、像素和編碼格式
iphone 3G iphone 3GS iphone 4
yuvs,2vuy,BGRA,jpeg 420f,420v,BGRA,jpeg 420f, 420v, BGRA, jpeg
十二、靜態(tài)圖像捕捉
AVCaptureStillImageOutput *stillImageOutput = [[AVCaptureStillImageOutput alloc] init];
NSDictionary *outputSettings = [[NSDictionary alloc] initWithObjectsAndKeys:AVVideoCodecJPEG,AVVideoCodecKey, nil];
[stillImageOutput setOutputSettings:outputSettings];
十三、填充模式
支持使用videoGravity 設置三種模式:
- AVLayerVideoGravityResizeAspect:保留長寬比,未填充部分會有黑邊
- AVLayerVideoGravityResizeAspectFill:保留長寬比,填充所有的區(qū)域
- AVLayerVideoGravityResize:拉伸填滿所有的空間
設備之間切換:
- (AVCaptureDevice *)cameraWithPosition:(AVCaptureDevicePosition)position
{
NSArray *devices = [AVCaptureDevice devicesWithMediaType:AVMediaTypeVideo];
for ( AVCaptureDevice *device in devices ) {
if ( device.position == position ) return device;
return nil;
}
- (void)swapFrontAndBackCameras {
// 確保session已經(jīng)在使用了
NSArray *inputs = self.session.inputs;
for ( AVCaptureDeviceInput *input in inputs ) {
AVCaptureDevice *device = input.device;
if ( [device hasMediaType:AVMediaTypeVideo] ) {
AVCaptureDevicePosition position = device.position;
AVCaptureDevice *newCamera = nil;
AVCaptureDeviceInput *newInput = nil;
if (position == AVCaptureDevicePositionFront) {newCamera = [self cameraWithPosition:AVCaptureDevicePositionBack]; }
else {newCamera = [self cameraWithPosition:AVCaptureDevicePositionFront]; }
newInput = [AVCaptureDeviceInput deviceInputWithDevice:newCamera error:nil];
// beginConfiguration 確保更改未被立即使用
[self.session beginConfiguration];
[self.session removeInput:input];
[self.session addInput:newInput];
// 更改立即實現(xiàn)
[self.session commitConfiguration];
break;
}
}
}
AVFoundation的基本使用
初步了解了AVFoundation框架,那么我們一般用來做什么呢?
一個方向是可以用它來掃描二維碼。參考:使用系統(tǒng)原生代碼處理QRCode 想要看懂參考中的代碼,不得不了解些AVFoundation的使用啊。
- session
AVFoundation是基于session(會話)概念的。 一個session用于控制數(shù)據(jù)從input設備到output設備的流向。
聲明一個session:
AVCaptureSession *session = [[AVCaptureSession alloc] init];
session允許定義音頻視頻錄制的質(zhì)量。
[session setSessionPreset:AVCaptureSessionPresetLow];
- capture device
定義好session后,就該定義session所使用的設備了。(使用AVMediaTypeVideo 來支持視頻和圖片)
AVCaptureDevice *captureDevice = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
- capture device input
有了capture device, 然后就獲取其input capture device, 并將該input device加到session上。
AVCaptureDeviceInput *deviceInput = [AVCaptureDeviceInput deviceInputWithDevice:captureDevice error:&error];
if ( [session canAddInput:deviceInput] )
[session addInput:deviceInput];
- preview
在定義output device之前,我們可以先使用preview layer來顯示一下camera buffer中的內(nèi)容。這也將是相機的“取景器”。
AVCaptureVideoPreviewLayer可以用來快速呈現(xiàn)相機(攝像頭)所收集到的原始數(shù)據(jù)。
我們使用第一步中定義的session來創(chuàng)建preview layer, 并將其添加到main view layer上。
AVCaptureVideoPreviewLayer *previewLayer = [[AVCaptureVideoPreviewLayer alloc] initWithSession:session];
[previewLayer setVideoGravity:AVLayerVideoGravityResizeAspectFill];
CALayer *rootLayer = [[self view] layer];
[rootLayer setMasksToBounds:YES];
[previewLayer setFrame:CGRectMake(-70, 0, rootLayer.bounds.size.height, rootLayer.bounds.size.height)];
[rootLayer insertSublayer:previewLayer atIndex:0];
- start Run
最后需要start the session.
[session startRunning];