为textView添加语音输入功能的实例代码(集成讯飞语音识别)

时间:2022-09-19 19:37:18

非常感谢大家利用自己宝贵的时间来阅读我的文章 , 今天给大家带来的是一个集成讯飞语音识别功能的小demo,为textview添加一个语音输入的功能,相信在这个智能化趋势的大环境的下,很多人能用得到这个功能。如果需要的话希望能帮到你 , 当然, 有任何不妥的地方 欢迎指正。

先上demo --->XunFeiDemo

效果展示:

为textView添加语音输入功能的实例代码(集成讯飞语音识别)

功能实现,sdk中提供了两种方式,一种是带界面的语音识别,有一个识别语音的动画的界面效果。另一种是*面的。我这里使用的是带界面的,不带界面的自己可以去看一下,大同小异

第一步:去讯飞开发者平台注册账号、创建应用、下载SDK、拖入项目

第二步:添加依赖库

?
1
2
3
4
5
6
7
8
9
10
libz.tbd
AVFoundation.framework
SystemConfiguration.framework
Foundation.framework
CoreTelephony.framework
AudioToolbox.framework
UIKit.framework
AddressBook.framework
CoreLocation.framework
CoreGraphics.framework

第三步:AppDelegate配置

?
1
2
3
4
5
6
7
8
9
10
- (BOOL)application:(UIApplication *)application didFinishLaunchingWithOptions:(NSDictionary *)launchOptions {
 //存储路径
 NSArray *paths = NSSearchPathForDirectoriesInDomains(NSCachesDirectory, NSUserDomainMask, YES);
 NSString *cachePath = [paths objectAtIndex:0];
 [IFlySetting setLogFilePath:cachePath];
 //创建语音配置,appid必须要传入,仅执行一次则可
 NSString *initString = [[NSString alloc] initWithFormat:@"appid=%@",@"你的appid"];
 //所有服务启动前,需要确保执行createUtility
 [IFlySpeechUtility createUtility:initString];
}

第四步:把demo里的ISRDataHelper.h及.m文件拖入项目中

第五步:控制器代码

1、引用头文件

?
1
2
3
#import "iflyMSC/IFlyMSC.h"
 
#import "ISRDataHelper.h"

2、初始化_iflyRecognizerView

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
//有界面
-(void)initRecognizer{
 //单例模式,UI的实例
 if (_iflyRecognizerView == nil) {
  //UI显示剧中
  _iflyRecognizerView= [[IFlyRecognizerView alloc] initWithCenter:self.view.center];
  [_iflyRecognizerView setParameter:@"" forKey:[IFlySpeechConstant PARAMS]];
  //设置听写模式
  [_iflyRecognizerView setParameter:@"iat" forKey:[IFlySpeechConstant IFLY_DOMAIN]];
 }
 _iflyRecognizerView.delegate = self;
 if (_iflyRecognizerView != nil) {
  //设置最长录音时间
  [_iflyRecognizerView setParameter:@"30000" forKey:[IFlySpeechConstant SPEECH_TIMEOUT]];
  //设置后端点 3000
  [_iflyRecognizerView setParameter:@"3000" forKey:[IFlySpeechConstant VAD_EOS]];
  //设置前端点 3000
  [_iflyRecognizerView setParameter:@"3000" forKey:[IFlySpeechConstant VAD_BOS]];
  //设置采样率,推荐使用16K 16000
  [_iflyRecognizerView setParameter:@"16000" forKey:[IFlySpeechConstant SAMPLE_RATE]];
  //  if ([instance.language isEqualToString:[IATConfig chinese]]) {
  //   //设置语言 zh_cn
  [_iflyRecognizerView setParameter:@"zh_cn" forKey:[IFlySpeechConstant LANGUAGE]];
  //   //设置方言 mandarin
  [_iflyRecognizerView setParameter:@"mandarin" forKey:[IFlySpeechConstant ACCENT]];
  //  }else if ([instance.language isEqualToString:[IATConfig english]]) {
  //   //设置语言
  //   [_iflyRecognizerView setParameter:instance.language forKey:[IFlySpeechConstant LANGUAGE]];
  //  }
  //  //设置是否返回标点符号 0
  [_iflyRecognizerView setParameter:@"1" forKey:[IFlySpeechConstant ASR_PTT]];
 }
}

3、按钮点击响应

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
-(void)startBtn{
 
 if (_iflyRecognizerView == nil) {
 
  [self initRecognizer ];
 
 }
 
 //设置音频来源为麦克风
 
 [_iflyRecognizerView setParameter:IFLY_AUDIO_SOURCE_MIC forKey:@"audio_source"];
 
 //设置听写结果格式为json
 
 [_iflyRecognizerView setParameter:@"plain" forKey:[IFlySpeechConstant RESULT_TYPE]];
 
 //保存录音文件,保存在sdk工作路径中,如未设置工作路径,则默认保存在library/cache下
 
 [_iflyRecognizerView setParameter:@"asr.pcm" forKey:[IFlySpeechConstant ASR_AUDIO_PATH]];
 
 [_iflyRecognizerView start];
 
}

4、代理方法,结果解析

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
- (void)onResult:(NSArray *)resultArray isLast:(BOOL)isLast
{
 NSMutableString *result = [[NSMutableString alloc] init];
 NSDictionary *dic = [resultArray objectAtIndex:0];
 for (NSString *key in dic) {
  [result appendFormat:@"%@",key];
 }
  self.textField.text =[NSString stringWithFormat:@"%@%@",_textField.text,result];
 [_iflyRecognizerView cancel];
}
- (void)onError: (IFlySpeechError *) error
{
 NSLog(@"识别出错");
}

恩,理论上到这里就算完成~,这里仅提供一个参考,具体使用请查看集成文档

以上这篇为textView添加语音输入功能的实例代码(集成讯飞语音识别)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。

原文链接:http://blog.csdn.net/xiaozhaoqiang/article/details/79066806