iOS如何實現(xiàn)語音播報及后臺播放

最近項目剛剛交付,偶然間用到了語音播報和語音搜索的功能。語音搜索我用的是訊飛的demo,感覺效果還不錯,感興趣的話可以去官網(wǎng)上面下載demo,里面講的特別的詳細,不過稍顯麻煩一些。語音播報訊飛也有demo,不過做開發(fā)當然要尋求最簡潔的處理方式,ios7.0之后新添加了一些新的功能,里面就有系統(tǒng)自帶的語音播報庫AVFoundation。關(guān)于語音播報的文章其實挺多的。文本轉(zhuǎn)語音技術(shù), 也叫TTS, 是Text To Speech的縮寫. iOS如果想做有聲書等功能的時候, 會用到這門技術(shù).

一,使用iOS自帶TTS需要注意的幾點:

iOS7之后才有該功能

需要 AVFoundation 庫

AVSpeechSynthesizer: 語音合成器, 可以假想成一個可以說話的人, 是最主要的接口

AVSpeechSynthesisVoice: 可以假想成人的聲音

AVSpeechUtterance: 可以假想成要說的一段話

二,代碼示例, 播放語音

//語音播報

AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:@"床前明月光,疑是地上霜。"];

utterance.pitchMultiplier=0.8;

//中式發(fā)音

AVSpeechSynthesisVoice *voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"zh-CN"];

//英式發(fā)音

//? ? AVSpeechSynthesisVoice *voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"en-GB"];

utterance.voice = voice;

NSLog(@"%@",[AVSpeechSynthesisVoice speechVoices]);

AVSpeechSynthesizer *synth = [[AVSpeechSynthesizer alloc]init];

[synth speakUtterance:utterance];

三,AVSpeechSynthesizer介紹

這個類就像一個會說話的人, 可以”說話”, 可以”暫停”說話, 可以”繼續(xù)”說話, 可以判斷他當前是否正在說話.有以下的方法或者屬性:

說話: speakUtterance

控制: continueSpeaking(繼續(xù)說), pauseSpeakingAtBoundary(暫停說話), paused(暫停狀態(tài)的屬性), speaking(說話的狀態(tài)), stopSpeakingAtBoundary(停止說話)

委托: delegate

四,AVSpeechBoundary介紹

這是一個枚舉. 在暫停, 或者停止說話的時候, 停下的方式用這個枚舉標示. 包括兩種:

AVSpeechBoundaryImmediate: 立即停

AVSpeechBoundaryWord : 說完一個整詞再停

五,AVSpeechSynthesizerDelegate介紹

合成器的委托, 對于一些事件, 提供了響應(yīng)的接口.

didCancelSpeechUtterance: 已經(jīng)取消說話

didContinueSpeechUtterance: 已經(jīng)繼續(xù)說話

didFinishSpeechUtterance: 已經(jīng)說完

didPauseSpeechUtterance: 已經(jīng)暫停

didStartSpeechUtterance:已經(jīng)開始

willSpeakRangeOfSpeechString:將要說某段話

六,AVSpeechSynthesisVoice介紹

AVSpeechSynthesisVoice定義了一系列的聲音, 主要是不同的語言和地區(qū).

voiceWithLanguage: 根據(jù)制定的語言, 獲得一個聲音.

speechVoices: 獲得當前設(shè)備支持的聲音

currentLanguageCode: 獲得當前聲音的語言字符串, 比如”ZH-cn”

language: 獲得當前的語言

七,AVSpeechUtterance介紹

這個類就是一段要說的話. 主要的屬性和方法有:

pitchMultiplier: 音高

postUtteranceDelay: 讀完一段后的停頓時間

preUtteranceDelay: 讀一段話之前的停頓

rate: 讀地速度, 系統(tǒng)提供了三個速度: AVSpeechUtteranceMinimumSpeechRate, AVSpeechUtteranceMaximumSpeechRate, AVSpeechUtteranceDefaultSpeechRate

speechString: 要讀的字符串

voice: 使用的聲音, 是AVSpeechSynthesisVoice對象

上面這些是關(guān)于語音播報的基本用法和一些屬性、方法,但是如何結(jié)合程序推送,在程序后臺運行的時候?qū)崿F(xiàn)語音播報的效果呢?當然還有很多需要注意的地方。

1.啟用推送喚醒

和上面的后臺獲取類似,更改Info.plist,在UIBackgroundModes下加入remote-notification即可開啟,當然同樣的更簡單直接的辦法是使用Capabilities,勾選下面的三個modes。

2.更改推送的payload

在iOS7中,如果想要使用推送來喚醒應(yīng)用運行代碼的話,需要在payload中加入content-available,并設(shè)置為1。

{"aps":{"content-available":1,"alert":"今天是個好天氣"}}

"content-available":1??推送喚醒

"alert":""??推送內(nèi)容

"badge":1 ??app右上角數(shù)字

“sound”:”default” ??默認聲音

aps

{

content-available: 1

alert: {...}

}

3.實現(xiàn)推送喚醒代碼并通知系統(tǒng)

最后在appDelegate中實現(xiàn)-application:didReceiveRemoteNotification:fetchCompletionHandle:。這部分內(nèi)容和上面的后臺獲取部分完全一樣,在此不再重復。

//接收到推送消息

- (void)application:(UIApplication *)application didReceiveRemoteNotification:(NSDictionary *)userInfo fetchCompletionHandler:(nonnull void (^)(UIBackgroundFetchResult))completionHandler {

NSLog(@"remote: %@", userInfo);

//回調(diào)

completionHandler(UIBackgroundFetchResultNewData);

//語音播報

AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:userInfo[@"aps"][@"alert"]];

AVSpeechSynthesizer *synth = [[AVSpeechSynthesizer alloc] init];

[synth speakUtterance:utterance];

}

完成以上步驟就可在后臺進行語音播報了。

參考文章鏈接:

一、http://www.lxweimin.com/p/174fd2673897

二、https://onevcat.com/2013/08/ios7-background-multitask/

三、http://hayageek.com/ios-silent-push-notifications/

四、http://blog.csdn.net/u012477117/article/details/52039506

五、http://www.cnblogs.com/luerniu/p/5901350.html

六、https://www.oschina.net/question/2556708_2194798

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

推薦閱讀更多精彩內(nèi)容