本文实例为大家分享了python调用百度语音REST API的具体代码,供大家参考,具体内容如下
(百度的rest接口的部分网址发生了一定的变化,相关代码已更新)
百度通过 REST API 的方式给开发者提供一个通用的 HTTP 接口,基于该接口,开发者可以轻松的获得语音合成与语音识别能力。SDK中只提供了PHP、C和JAVA的相关样例,使用python也可以灵活的对端口进行调用,本文描述了简单使用Python调用百度语音识别服务 REST API 的简单样例。
1、语音识别与语音合成的调用
注册开发者帐号和创建应用的过程就不再赘述,百度的REST API在调用过程基本分为三步:
- 获取token
- 向Rest接口提交数据
- 处理返回数据
具体代码如下所示:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
|
#!/usr/bin/python3
import urllib.request
import urllib
import json
import base64
class BaiduRest:
def __init__( self , cu_id, api_key, api_secert):
# token认证的url
self .token_url = "https://openapi.baidu.com/oauth/2.0/token?grant_type=client_credentials&client_id=%s&client_secret=%s"
# 语音合成的resturl
self .getvoice_url = "http://tsn.baidu.com/text2audio?tex=%s&lan=zh&cuid=%s&ctp=1&tok=%s"
# 语音识别的resturl
self .upvoice_url = 'http://vop.baidu.com/server_api'
self .cu_id = cu_id
self .getToken(api_key, api_secert)
return
def getToken( self , api_key, api_secert):
# 1.获取token
token_url = self .token_url % (api_key,api_secert)
r_str = urllib.request.urlopen(token_url).read()
token_data = json.loads(r_str)
self .token_str = token_data[ 'access_token' ]
pass
def getVoice( self , text, filename):
# 2. 向Rest接口提交数据
get_url = self .getvoice_url % (urllib.parse.quote(text), self .cu_id, self .token_str)
voice_data = urllib.request.urlopen(get_url).read()
# 3.处理返回数据
voice_fp = open (filename, 'wb+' )
voice_fp.write(voice_data)
voice_fp.close()
pass
def getText( self , filename):
# 2. 向Rest接口提交数据
data = {}
# 语音的一些参数
data[ 'format' ] = 'wav'
data[ 'rate' ] = 8000
data[ 'channel' ] = 1
data[ 'cuid' ] = self .cu_id
data[ 'token' ] = self .token_str
wav_fp = open (filename, 'rb' )
voice_data = wav_fp.read()
data[ 'len' ] = len (voice_data)
data[ 'speech' ] = base64.b64encode(voice_data).decode( 'utf-8' )
post_data = json.dumps(data)
r_data = urllib.request.urlopen( self .upvoice_url,data = bytes(post_data,encoding = "utf-8" )).read()
# 3.处理返回数据
return json.loads(r_data)[ 'result' ]
if __name__ = = "__main__" :
# 我的api_key,供大家测试用,在实际工程中请换成自己申请的应用的key和secert
api_key = "SrhYKqzl3SE1URnAEuZ0FKdT"
api_secert = "hGqeCkaMPb0ELMqtRGc2VjWdmjo7T89d"
# 初始化
bdr = BaiduRest( "test_python" , api_key, api_secert)
# 将字符串语音合成并保存为out.mp3
bdr.getVoice( "你好北京邮电大学!" , "out.mp3" )
# 识别test.wav语音内容并显示
print (bdr.getText( "out.wav" ))
|
2、调用pyaudio使用麦克风录制声音
python中的pyaudio库可以直接通过麦克风录制声音,可使用pip进行安装。我们可以通过调用该库,获取到wav测试语音。
具体代码如下所示:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
|
#!/usr/bin/python3
# -*- coding: utf-8 -*-
from pyaudio import PyAudio, paInt16
import numpy as np
from datetime import datetime
import wave
class recoder:
NUM_SAMPLES = 2000 #pyaudio内置缓冲大小
SAMPLING_RATE = 8000 #取样频率
LEVEL = 500 #声音保存的阈值
COUNT_NUM = 20 #NUM_SAMPLES个取样之内出现COUNT_NUM个大于LEVEL的取样则记录声音
SAVE_LENGTH = 8 #声音记录的最小长度:SAVE_LENGTH * NUM_SAMPLES 个取样
TIME_COUNT = 60 #录音时间,单位s
Voice_String = []
def savewav( self ,filename):
wf = wave. open (filename, 'wb' )
wf.setnchannels( 1 )
wf.setsampwidth( 2 )
wf.setframerate( self .SAMPLING_RATE)
wf.writeframes(np.array( self .Voice_String).tostring())
# wf.writeframes(self.Voice_String.decode())
wf.close()
def recoder( self ):
pa = PyAudio()
stream = pa. open ( format = paInt16, channels = 1 , rate = self .SAMPLING_RATE, input = True ,
frames_per_buffer = self .NUM_SAMPLES)
save_count = 0
save_buffer = []
time_count = self .TIME_COUNT
while True :
time_count - = 1
# print time_count
# 读入NUM_SAMPLES个取样
string_audio_data = stream.read( self .NUM_SAMPLES)
# 将读入的数据转换为数组
audio_data = np.fromstring(string_audio_data, dtype = np.short)
# 计算大于LEVEL的取样的个数
large_sample_count = np. sum ( audio_data > self .LEVEL )
print (np. max (audio_data))
# 如果个数大于COUNT_NUM,则至少保存SAVE_LENGTH个块
if large_sample_count > self .COUNT_NUM:
save_count = self .SAVE_LENGTH
else :
save_count - = 1
if save_count < 0 :
save_count = 0
if save_count > 0 :
# 将要保存的数据存放到save_buffer中
#print save_count > 0 and time_count >0
save_buffer.append( string_audio_data )
else :
#print save_buffer
# 将save_buffer中的数据写入WAV文件,WAV文件的文件名是保存的时刻
#print "debug"
if len (save_buffer) > 0 :
self .Voice_String = save_buffer
save_buffer = []
print ( "Recode a piece of voice successfully!" )
return True
if time_count = = 0 :
if len (save_buffer)> 0 :
self .Voice_String = save_buffer
save_buffer = []
print ( "Recode a piece of voice successfully!" )
return True
else :
return False
if __name__ = = "__main__" :
r = recoder()
r.recoder()
r.savewav( "test.wav" )
|
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。
原文链接:https://blog.csdn.net/wolfblood_zzx/article/details/46418635