非常感谢大家利用自己宝贵的时间来阅读我的文章 , 今天给大家带来的是一个集成讯飞语音识别功能的小demo,为textview添加一个语音输入的功能,相信在这个智能化趋势的大环境的下,很多人能用得到这个功能。如果需要的话希望能帮到你 , 当然, 有任何不妥的地方 欢迎指正。
先上demo --->XunFeiDemo
效果展示:
功能实现,sdk中提供了两种方式,一种是带界面的语音识别,有一个识别语音的动画的界面效果。另一种是*面的。我这里使用的是带界面的,不带界面的自己可以去看一下,大同小异
第一步:去讯飞开发者平台注册账号、创建应用、下载SDK、拖入项目
第二步:添加依赖库
1
2
3
4
5
6
7
8
9
10
|
libz.tbd
AVFoundation.framework
SystemConfiguration.framework
Foundation.framework
CoreTelephony.framework
AudioToolbox.framework
UIKit.framework
AddressBook.framework
CoreLocation.framework
CoreGraphics.framework
|
第三步:AppDelegate配置
1
2
3
4
5
6
7
8
9
10
|
- (BOOL)application:(UIApplication *)application didFinishLaunchingWithOptions:(NSDictionary *)launchOptions {
//存储路径
NSArray *paths = NSSearchPathForDirectoriesInDomains(NSCachesDirectory, NSUserDomainMask, YES);
NSString *cachePath = [paths objectAtIndex:0];
[IFlySetting setLogFilePath:cachePath];
//创建语音配置,appid必须要传入,仅执行一次则可
NSString *initString = [[NSString alloc] initWithFormat:@"appid=%@",@"你的appid"];
//所有服务启动前,需要确保执行createUtility
[IFlySpeechUtility createUtility:initString];
}
|
第四步:把demo里的ISRDataHelper.h及.m文件拖入项目中
第五步:控制器代码
1、引用头文件
1
2
3
|
#import "iflyMSC/IFlyMSC.h"
#import "ISRDataHelper.h"
|
2、初始化_iflyRecognizerView
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
|
//有界面
-(void)initRecognizer{
//单例模式,UI的实例
if (_iflyRecognizerView == nil) {
//UI显示剧中
_iflyRecognizerView= [[IFlyRecognizerView alloc] initWithCenter:self.view.center];
[_iflyRecognizerView setParameter:@"" forKey:[IFlySpeechConstant PARAMS]];
//设置听写模式
[_iflyRecognizerView setParameter:@"iat" forKey:[IFlySpeechConstant IFLY_DOMAIN]];
}
_iflyRecognizerView.delegate = self;
if (_iflyRecognizerView != nil) {
//设置最长录音时间
[_iflyRecognizerView setParameter:@"30000" forKey:[IFlySpeechConstant SPEECH_TIMEOUT]];
//设置后端点 3000
[_iflyRecognizerView setParameter:@"3000" forKey:[IFlySpeechConstant VAD_EOS]];
//设置前端点 3000
[_iflyRecognizerView setParameter:@"3000" forKey:[IFlySpeechConstant VAD_BOS]];
//设置采样率,推荐使用16K 16000
[_iflyRecognizerView setParameter:@"16000" forKey:[IFlySpeechConstant SAMPLE_RATE]];
// if ([instance.language isEqualToString:[IATConfig chinese]]) {
// //设置语言 zh_cn
[_iflyRecognizerView setParameter:@"zh_cn" forKey:[IFlySpeechConstant LANGUAGE]];
// //设置方言 mandarin
[_iflyRecognizerView setParameter:@"mandarin" forKey:[IFlySpeechConstant ACCENT]];
// }else if ([instance.language isEqualToString:[IATConfig english]]) {
// //设置语言
// [_iflyRecognizerView setParameter:instance.language forKey:[IFlySpeechConstant LANGUAGE]];
// }
// //设置是否返回标点符号 0
[_iflyRecognizerView setParameter:@"1" forKey:[IFlySpeechConstant ASR_PTT]];
}
}
|
3、按钮点击响应
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
-(void)startBtn{
if (_iflyRecognizerView == nil) {
[self initRecognizer ];
}
//设置音频来源为麦克风
[_iflyRecognizerView setParameter:IFLY_AUDIO_SOURCE_MIC forKey:@"audio_source"];
//设置听写结果格式为json
[_iflyRecognizerView setParameter:@"plain" forKey:[IFlySpeechConstant RESULT_TYPE]];
//保存录音文件,保存在sdk工作路径中,如未设置工作路径,则默认保存在library/cache下
[_iflyRecognizerView setParameter:@"asr.pcm" forKey:[IFlySpeechConstant ASR_AUDIO_PATH]];
[_iflyRecognizerView start];
}
|
4、代理方法,结果解析
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
- (void)onResult:(NSArray *)resultArray isLast:(BOOL)isLast
{
NSMutableString *result = [[NSMutableString alloc] init];
NSDictionary *dic = [resultArray objectAtIndex:0];
for (NSString *key in dic) {
[result appendFormat:@"%@",key];
}
self.textField.text =[NSString stringWithFormat:@"%@%@",_textField.text,result];
[_iflyRecognizerView cancel];
}
- (void)onError: (IFlySpeechError *) error
{
NSLog(@"识别出错");
}
|
恩,理论上到这里就算完成~,这里仅提供一个参考,具体使用请查看集成文档
以上这篇为textView添加语音输入功能的实例代码(集成讯飞语音识别)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。
原文链接:http://blog.csdn.net/xiaozhaoqiang/article/details/79066806