最近項(xiàng)目剛剛交付,偶然間用到了語(yǔ)音播報(bào)和語(yǔ)音搜索的功能。語(yǔ)音搜索我用的是訊飛的demo,感覺(jué)效果還不錯(cuò),感興趣的話可以去官網(wǎng)上面下載demo,里面講的特別的詳細(xì),不過(guò)稍顯麻煩一些。語(yǔ)音播報(bào)訊飛也有demo,不過(guò)做開(kāi)發(fā)當(dāng)然要尋求最簡(jiǎn)潔的處理方式,ios7.0之后新添加了一些新的功能,里面就有系統(tǒng)自帶的語(yǔ)音播報(bào)庫(kù)AVFoundation。關(guān)于語(yǔ)音播報(bào)的文章其實(shí)挺多的。文本轉(zhuǎn)語(yǔ)音技術(shù), 也叫TTS, 是Text To Speech的縮寫(xiě). iOS如果想做有聲書(shū)等功能的時(shí)候, 會(huì)用到這門技術(shù).
一,使用iOS自帶TTS需要注意的幾點(diǎn):
iOS7之后才有該功能
需要 AVFoundation 庫(kù)
AVSpeechSynthesizer: 語(yǔ)音合成器, 可以假想成一個(gè)可以說(shuō)話的人, 是最主要的接口
AVSpeechSynthesisVoice: 可以假想成人的聲音
AVSpeechUtterance: 可以假想成要說(shuō)的一段話
二,代碼示例, 播放語(yǔ)音
//語(yǔ)音播報(bào)
AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:@"床前明月光,疑是地上霜。"];
utterance.pitchMultiplier=0.8;
//中式發(fā)音
AVSpeechSynthesisVoice *voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"zh-CN"];
//英式發(fā)音
//? ? AVSpeechSynthesisVoice *voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"en-GB"];
utterance.voice = voice;
NSLog(@"%@",[AVSpeechSynthesisVoice speechVoices]);
AVSpeechSynthesizer *synth = [[AVSpeechSynthesizer alloc]init];
[synth speakUtterance:utterance];
三,AVSpeechSynthesizer介紹
這個(gè)類就像一個(gè)會(huì)說(shuō)話的人, 可以”說(shuō)話”, 可以”暫停”說(shuō)話, 可以”繼續(xù)”說(shuō)話, 可以判斷他當(dāng)前是否正在說(shuō)話.有以下的方法或者屬性:
說(shuō)話: speakUtterance
控制: continueSpeaking(繼續(xù)說(shuō)), pauseSpeakingAtBoundary(暫停說(shuō)話), paused(暫停狀態(tài)的屬性), speaking(說(shuō)話的狀態(tài)), stopSpeakingAtBoundary(停止說(shuō)話)
委托: delegate
四,AVSpeechBoundary介紹
這是一個(gè)枚舉. 在暫停, 或者停止說(shuō)話的時(shí)候, 停下的方式用這個(gè)枚舉標(biāo)示. 包括兩種:
AVSpeechBoundaryImmediate: 立即停
AVSpeechBoundaryWord : 說(shuō)完一個(gè)整詞再停
五,AVSpeechSynthesizerDelegate介紹
合成器的委托, 對(duì)于一些事件, 提供了響應(yīng)的接口.
didCancelSpeechUtterance: 已經(jīng)取消說(shuō)話
didContinueSpeechUtterance: 已經(jīng)繼續(xù)說(shuō)話
didFinishSpeechUtterance: 已經(jīng)說(shuō)完
didPauseSpeechUtterance: 已經(jīng)暫停
didStartSpeechUtterance:已經(jīng)開(kāi)始
willSpeakRangeOfSpeechString:將要說(shuō)某段話
六,AVSpeechSynthesisVoice介紹
AVSpeechSynthesisVoice定義了一系列的聲音, 主要是不同的語(yǔ)言和地區(qū).
voiceWithLanguage: 根據(jù)制定的語(yǔ)言, 獲得一個(gè)聲音.
speechVoices: 獲得當(dāng)前設(shè)備支持的聲音
currentLanguageCode: 獲得當(dāng)前聲音的語(yǔ)言字符串, 比如”ZH-cn”
language: 獲得當(dāng)前的語(yǔ)言
七,AVSpeechUtterance介紹
這個(gè)類就是一段要說(shuō)的話. 主要的屬性和方法有:
pitchMultiplier: 音高
postUtteranceDelay: 讀完一段后的停頓時(shí)間
preUtteranceDelay: 讀一段話之前的停頓
rate: 讀地速度, 系統(tǒng)提供了三個(gè)速度: AVSpeechUtteranceMinimumSpeechRate, AVSpeechUtteranceMaximumSpeechRate, AVSpeechUtteranceDefaultSpeechRate
speechString: 要讀的字符串
voice: 使用的聲音, 是AVSpeechSynthesisVoice對(duì)象
上面這些是關(guān)于語(yǔ)音播報(bào)的基本用法和一些屬性、方法,但是如何結(jié)合程序推送,在程序后臺(tái)運(yùn)行的時(shí)候?qū)崿F(xiàn)語(yǔ)音播報(bào)的效果呢?當(dāng)然還有很多需要注意的地方。
1.啟用推送喚醒
和上面的后臺(tái)獲取類似,更改Info.plist,在UIBackgroundModes下加入remote-notification即可開(kāi)啟,當(dāng)然同樣的更簡(jiǎn)單直接的辦法是使用Capabilities,勾選下面的三個(gè)modes。
2.更改推送的payload
在iOS7中,如果想要使用推送來(lái)喚醒應(yīng)用運(yùn)行代碼的話,需要在payload中加入content-available,并設(shè)置為1。
{"aps":{"content-available":1,"alert":"今天是個(gè)好天氣"}}
"content-available":1??推送喚醒
"alert":""??推送內(nèi)容
"badge":1 ??app右上角數(shù)字
“sound”:”default” ??默認(rèn)聲音
aps
{
content-available: 1
alert: {...}
}
3.實(shí)現(xiàn)推送喚醒代碼并通知系統(tǒng)
最后在appDelegate中實(shí)現(xiàn)-application:didReceiveRemoteNotification:fetchCompletionHandle:。這部分內(nèi)容和上面的后臺(tái)獲取部分完全一樣,在此不再重復(fù)。
//接收到推送消息
- (void)application:(UIApplication *)application didReceiveRemoteNotification:(NSDictionary *)userInfo fetchCompletionHandler:(nonnull void (^)(UIBackgroundFetchResult))completionHandler {
NSLog(@"remote: %@", userInfo);
//回調(diào)
completionHandler(UIBackgroundFetchResultNewData);
//語(yǔ)音播報(bào)
AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:userInfo[@"aps"][@"alert"]];
AVSpeechSynthesizer *synth = [[AVSpeechSynthesizer alloc] init];
[synth speakUtterance:utterance];
}
完成以上步驟就可在后臺(tái)進(jìn)行語(yǔ)音播報(bào)了。
參考文章鏈接:
一、http://www.itdecent.cn/p/174fd2673897
二、https://onevcat.com/2013/08/ios7-background-multitask/
三、http://hayageek.com/ios-silent-push-notifications/
四、http://blog.csdn.net/u012477117/article/details/52039506