Python調用百度api實現語音識別詳解

最近在學習python,做一些python練習題

github上幾年前的練習題

有一題是這樣的:

使用 Python 實現:對著電腦吼一聲,自動打開瀏覽器中的默認網站。

例如,對著筆記本電腦吼一聲“百度”,瀏覽器自動打開百度首頁。

然後開始search相應的功能需要的模塊(windows10),理一下思路:

  1. 本地錄音
  2. 上傳錄音,獲得返回結果
  3. 組一個map,根據結果打開相應的網頁

所需模塊:

  1. PyAudio:錄音接口
  2. wave:打開錄音文件並設置音頻參數
  3. requests:GET/POST

為什麼要用百度語音識別api呢?因為免費試用。。

不多說,登錄百度雲,創建應用

查看文檔REST API文檔

文檔寫的蠻詳細的,簡單概括就是

1.可以下載使用SDK

2.不需要下載使用SDK

選擇2.

  1. 根據文檔組裝url獲取token
  2. 處理本地音頻以JSON格式POST到百度語音識別服務器,獲得返回結果

語音格式

格式支持:pcm(不壓縮)、wav(不壓縮,pcm編碼)、amr(壓縮格式)。推薦pcm 采樣率 :16000 固定值。 編碼:16bit 位深的單聲道。

百度服務端會將非pcm格式,轉為pcm格式,因此使用wav、amr會有額外的轉換耗時。

保存為pcm格式可以識別,隻是windows自帶播放器識別不瞭pcm格式的,所以改用wav格式,畢竟用的模塊是wave?

首先是本地錄音

import wave
from pyaudio import PyAudio, paInt16

framerate = 16000  # 采樣率
num_samples = 2000  # 采樣點
channels = 1  # 聲道
sampwidth = 2  # 采樣寬度2bytes
FILEPATH = 'speech.wav'

def save_wave_file(filepath, data):
    wf = wave.open(filepath, 'wb')
    wf.setnchannels(channels)
    wf.setsampwidth(sampwidth)
    wf.setframerate(framerate)
    wf.writeframes(b''.join(data))
    wf.close()

#錄音
def my_record():
    pa = PyAudio()
    #打開一個新的音頻stream
    stream = pa.open(format=paInt16, channels=channels,
                     rate=framerate, input=True, frames_per_buffer=num_samples)
    my_buf = [] #存放錄音數據

    t = time.time()
    print('正在錄音...')
 
    while time.time() < t + 4:  # 設置錄音時間(秒)
    	#循環read,每次read 2000frames
        string_audio_data = stream.read(num_samples)
        my_buf.append(string_audio_data)
    print('錄音結束.')
    save_wave_file(FILEPATH, my_buf)
    stream.close()

然後是獲取token

import requests
import base64 #百度語音要求對本地語音二進制數據進行base64編碼

#組裝url獲取token,詳見文檔
base_url = "https://openapi.baidu.com/oauth/2.0/token?grant_type=client_credentials&client_id=%s&client_secret=%s"
APIKey = "LZAdqHUGC********mbfKm"
SecretKey = "WYPPwgHu********BU6GM*****"

HOST = base_url % (APIKey, SecretKey)

def getToken(host):
    res = requests.post(host)
    return res.json()['access_token']



#傳入語音二進制數據,token
#dev_pid為百度語音識別提供的幾種語言選擇
def speech2text(speech_data, token, dev_pid=1537):
    FORMAT = 'wav'
    RATE = '16000'
    CHANNEL = 1
    CUID = '********'
    SPEECH = base64.b64encode(speech_data).decode('utf-8')

    data = {
        'format': FORMAT,
        'rate': RATE,
        'channel': CHANNEL,
        'cuid': CUID,
        'len': len(speech_data),
        'speech': SPEECH,
        'token': token,
        'dev_pid':dev_pid
    }
    url = 'https://vop.baidu.com/server_api'
    headers = {'Content-Type': 'application/json'}
    # r=requests.post(url,data=json.dumps(data),headers=headers)
    print('正在識別...')
    r = requests.post(url, json=data, headers=headers)
    Result = r.json()
    if 'result' in Result:
        return Result['result'][0]
    else:
        return Result

最後就是對返回的結果進行匹配,這裡使用webbrowser這個模塊

webbrower.open(url)

完整demo

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# Date    : 2018-12-02 19:04:55
import wave
import requests
import time
import base64
from pyaudio import PyAudio, paInt16
import webbrowser


framerate = 16000  # 采樣率
num_samples = 2000  # 采樣點
channels = 1  # 聲道
sampwidth = 2  # 采樣寬度2bytes
FILEPATH = 'speech.wav'

base_url = "https://openapi.baidu.com/oauth/2.0/token?grant_type=client_credentials&client_id=%s&client_secret=%s"
APIKey = "********"
SecretKey = "************"

HOST = base_url % (APIKey, SecretKey)


def getToken(host):
    res = requests.post(host)
    return res.json()['access_token']


def save_wave_file(filepath, data):
    wf = wave.open(filepath, 'wb')
    wf.setnchannels(channels)
    wf.setsampwidth(sampwidth)
    wf.setframerate(framerate)
    wf.writeframes(b''.join(data))
    wf.close()


def my_record():
    pa = PyAudio()
    stream = pa.open(format=paInt16, channels=channels,
                     rate=framerate, input=True, frames_per_buffer=num_samples)
    my_buf = []
    # count = 0
    t = time.time()
    print('正在錄音...')
  
    while time.time() < t + 4:  # 秒
        string_audio_data = stream.read(num_samples)
        my_buf.append(string_audio_data)
    print('錄音結束.')
    save_wave_file(FILEPATH, my_buf)
    stream.close()


def get_audio(file):
    with open(file, 'rb') as f:
        data = f.read()
    return data


def speech2text(speech_data, token, dev_pid=1537):
    FORMAT = 'wav'
    RATE = '16000'
    CHANNEL = 1
    CUID = '*******'
    SPEECH = base64.b64encode(speech_data).decode('utf-8')

    data = {
        'format': FORMAT,
        'rate': RATE,
        'channel': CHANNEL,
        'cuid': CUID,
        'len': len(speech_data),
        'speech': SPEECH,
        'token': token,
        'dev_pid':dev_pid
    }
    url = 'https://vop.baidu.com/server_api'
    headers = {'Content-Type': 'application/json'}
    # r=requests.post(url,data=json.dumps(data),headers=headers)
    print('正在識別...')
    r = requests.post(url, json=data, headers=headers)
    Result = r.json()
    if 'result' in Result:
        return Result['result'][0]
    else:
        return Result


def openbrowser(text):
    maps = {
        '百度': ['百度', 'baidu'],
        '騰訊': ['騰訊', 'tengxun'],
        '網易': ['網易', 'wangyi']

    }
    if text in maps['百度']:
        webbrowser.open_new_tab('https://www.baidu.com')
    elif text in maps['騰訊']:
        webbrowser.open_new_tab('https://www.qq.com')
    elif text in maps['網易']:
        webbrowser.open_new_tab('https://www.163.com/')
    else:
        webbrowser.open_new_tab('https://www.baidu.com/s?wd=%s' % text)


if __name__ == '__main__':
    flag = 'y'
    while flag.lower() == 'y':
        print('請輸入數字選擇語言:')
        devpid = input('1536:普通話(簡單英文),1537:普通話(有標點),1737:英語,1637:粵語,1837:四川話\n')
        my_record()
        TOKEN = getToken(HOST)
        speech = get_audio(FILEPATH)
        result = speech2text(speech, TOKEN, int(devpid))
        print(result)
        if type(result) == str:
            openbrowser(result.strip(','))
        flag = input('Continue?(y/n):')

經測試,大吼效果更佳 

到此這篇關於Python調用百度api實現語音識別詳解的文章就介紹到這瞭,更多相關Python 語音識別內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: