Python調用百度api實現語音識別詳解
最近在學習python,做一些python練習題
github上幾年前的練習題
有一題是這樣的:
使用 Python 實現:對著電腦吼一聲,自動打開瀏覽器中的默認網站。
例如,對著筆記本電腦吼一聲“百度”,瀏覽器自動打開百度首頁。
然後開始search相應的功能需要的模塊(windows10),理一下思路:
- 本地錄音
- 上傳錄音,獲得返回結果
- 組一個map,根據結果打開相應的網頁
所需模塊:
- PyAudio:錄音接口
- wave:打開錄音文件並設置音頻參數
- requests:GET/POST
為什麼要用百度語音識別api呢?因為免費試用。。
不多說,登錄百度雲,創建應用
查看文檔REST API文檔
文檔寫的蠻詳細的,簡單概括就是
1.可以下載使用SDK
2.不需要下載使用SDK
選擇2.
- 根據文檔組裝url獲取token
- 處理本地音頻以JSON格式POST到百度語音識別服務器,獲得返回結果
語音格式
格式支持:pcm(不壓縮)、wav(不壓縮,pcm編碼)、amr(壓縮格式)。推薦pcm 采樣率 :16000 固定值。 編碼:16bit 位深的單聲道。
百度服務端會將非pcm格式,轉為pcm格式,因此使用wav、amr會有額外的轉換耗時。
保存為pcm格式可以識別,隻是windows自帶播放器識別不瞭pcm格式的,所以改用wav格式,畢竟用的模塊是wave
?
首先是本地錄音
import wave from pyaudio import PyAudio, paInt16 framerate = 16000 # 采樣率 num_samples = 2000 # 采樣點 channels = 1 # 聲道 sampwidth = 2 # 采樣寬度2bytes FILEPATH = 'speech.wav' def save_wave_file(filepath, data): wf = wave.open(filepath, 'wb') wf.setnchannels(channels) wf.setsampwidth(sampwidth) wf.setframerate(framerate) wf.writeframes(b''.join(data)) wf.close() #錄音 def my_record(): pa = PyAudio() #打開一個新的音頻stream stream = pa.open(format=paInt16, channels=channels, rate=framerate, input=True, frames_per_buffer=num_samples) my_buf = [] #存放錄音數據 t = time.time() print('正在錄音...') while time.time() < t + 4: # 設置錄音時間(秒) #循環read,每次read 2000frames string_audio_data = stream.read(num_samples) my_buf.append(string_audio_data) print('錄音結束.') save_wave_file(FILEPATH, my_buf) stream.close()
然後是獲取token
import requests import base64 #百度語音要求對本地語音二進制數據進行base64編碼 #組裝url獲取token,詳見文檔 base_url = "https://openapi.baidu.com/oauth/2.0/token?grant_type=client_credentials&client_id=%s&client_secret=%s" APIKey = "LZAdqHUGC********mbfKm" SecretKey = "WYPPwgHu********BU6GM*****" HOST = base_url % (APIKey, SecretKey) def getToken(host): res = requests.post(host) return res.json()['access_token'] #傳入語音二進制數據,token #dev_pid為百度語音識別提供的幾種語言選擇 def speech2text(speech_data, token, dev_pid=1537): FORMAT = 'wav' RATE = '16000' CHANNEL = 1 CUID = '********' SPEECH = base64.b64encode(speech_data).decode('utf-8') data = { 'format': FORMAT, 'rate': RATE, 'channel': CHANNEL, 'cuid': CUID, 'len': len(speech_data), 'speech': SPEECH, 'token': token, 'dev_pid':dev_pid } url = 'https://vop.baidu.com/server_api' headers = {'Content-Type': 'application/json'} # r=requests.post(url,data=json.dumps(data),headers=headers) print('正在識別...') r = requests.post(url, json=data, headers=headers) Result = r.json() if 'result' in Result: return Result['result'][0] else: return Result
最後就是對返回的結果進行匹配,這裡使用webbrowser
這個模塊
webbrower.open(url)
完整demo
#!/usr/bin/env python # -*- coding: utf-8 -*- # Date : 2018-12-02 19:04:55 import wave import requests import time import base64 from pyaudio import PyAudio, paInt16 import webbrowser framerate = 16000 # 采樣率 num_samples = 2000 # 采樣點 channels = 1 # 聲道 sampwidth = 2 # 采樣寬度2bytes FILEPATH = 'speech.wav' base_url = "https://openapi.baidu.com/oauth/2.0/token?grant_type=client_credentials&client_id=%s&client_secret=%s" APIKey = "********" SecretKey = "************" HOST = base_url % (APIKey, SecretKey) def getToken(host): res = requests.post(host) return res.json()['access_token'] def save_wave_file(filepath, data): wf = wave.open(filepath, 'wb') wf.setnchannels(channels) wf.setsampwidth(sampwidth) wf.setframerate(framerate) wf.writeframes(b''.join(data)) wf.close() def my_record(): pa = PyAudio() stream = pa.open(format=paInt16, channels=channels, rate=framerate, input=True, frames_per_buffer=num_samples) my_buf = [] # count = 0 t = time.time() print('正在錄音...') while time.time() < t + 4: # 秒 string_audio_data = stream.read(num_samples) my_buf.append(string_audio_data) print('錄音結束.') save_wave_file(FILEPATH, my_buf) stream.close() def get_audio(file): with open(file, 'rb') as f: data = f.read() return data def speech2text(speech_data, token, dev_pid=1537): FORMAT = 'wav' RATE = '16000' CHANNEL = 1 CUID = '*******' SPEECH = base64.b64encode(speech_data).decode('utf-8') data = { 'format': FORMAT, 'rate': RATE, 'channel': CHANNEL, 'cuid': CUID, 'len': len(speech_data), 'speech': SPEECH, 'token': token, 'dev_pid':dev_pid } url = 'https://vop.baidu.com/server_api' headers = {'Content-Type': 'application/json'} # r=requests.post(url,data=json.dumps(data),headers=headers) print('正在識別...') r = requests.post(url, json=data, headers=headers) Result = r.json() if 'result' in Result: return Result['result'][0] else: return Result def openbrowser(text): maps = { '百度': ['百度', 'baidu'], '騰訊': ['騰訊', 'tengxun'], '網易': ['網易', 'wangyi'] } if text in maps['百度']: webbrowser.open_new_tab('https://www.baidu.com') elif text in maps['騰訊']: webbrowser.open_new_tab('https://www.qq.com') elif text in maps['網易']: webbrowser.open_new_tab('https://www.163.com/') else: webbrowser.open_new_tab('https://www.baidu.com/s?wd=%s' % text) if __name__ == '__main__': flag = 'y' while flag.lower() == 'y': print('請輸入數字選擇語言:') devpid = input('1536:普通話(簡單英文),1537:普通話(有標點),1737:英語,1637:粵語,1837:四川話\n') my_record() TOKEN = getToken(HOST) speech = get_audio(FILEPATH) result = speech2text(speech, TOKEN, int(devpid)) print(result) if type(result) == str: openbrowser(result.strip(',')) flag = input('Continue?(y/n):')
經測試,大吼效果更佳
到此這篇關於Python調用百度api實現語音識別詳解的文章就介紹到這瞭,更多相關Python 語音識別內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!