讯飞语音

来源:互联网 发布:php xss过滤 编辑:程序博客网 时间:2024/04/27 19:26

1.首先在讯飞开放平台注册账号
http://www.xfyun.cn/?ch=bdtg

2.在控制台添加应用 获得APPID
这里写图片描述

然后添加应用
这里写图片描述

之后就是下载SDK了
在组合服务下载SDK中下载
这里写图片描述

下载好后解压出来得到以下文件
这里写图片描述

把libs下的资源放入到你的工程的libs下面
手动添加到依赖库add as library

你还需要把assets文件夹复制到main下面
这里写图片描述

在项目build.gradle文件的android{}内,配置下面一段代码,同步一下gradle文件

sourceSets {        main {            jniLibs.srcDirs = ['libs']        }    }

当然还必须有权限了

  <!--连接网络权限,用于执行云端语音能力 -->    <uses-permission android:name="android.permission.INTERNET"/>    <!--获取手机录音机使用权限,听写、识别、语义理解需要用到此权限 -->    <uses-permission android:name="android.permission.RECORD_AUDIO"/>    <!--读取网络信息状态 -->    <uses-permission android:name="android.permission.ACCESS_NETWORK_STATE"/>    <!--获取当前wifi状态 -->    <uses-permission android:name="android.permission.ACCESS_WIFI_STATE"/>    <!--允许程序改变网络连接状态 -->    <uses-permission android:name="android.permission.CHANGE_NETWORK_STATE"/>    <!--读取手机信息权限 -->    <uses-permission android:name="android.permission.READ_PHONE_STATE"/>    <!--读取联系人权限,上传联系人需要用到此权限 -->    <uses-permission android:name="android.permission.READ_CONTACTS"/>    <!-- 如需使用人脸识别,还要添加:摄相头权限,拍照需要用到 -->    <uses-permission android:name="android.permission.CAMERA" />

接下来就是代码了

先创建一个Application类在里面进行配置

public class MyApp extends Application {    @Override    public void onCreate() {        super.onCreate();        //讯飞语音        SpeechUtility.createUtility(this, SpeechConstant.APPID +"=你的APPID");    }}

记得在Manifest.xml中配置
这里写图片描述

注意这里的“=”号不能删除哦


public class JsonParser {    public static String parseIatResult(String json) {        StringBuffer ret = new StringBuffer() ;        try {            JSONTokener tokener = new JSONTokener(json) ;            JSONObject joResult = new JSONObject(tokener) ;            JSONArray words = joResult.getJSONArray("ws" );            for (int i = 0; i < words.length(); i++) {                // 转写结果词,默认使用第一个结果                JSONArray items = words.getJSONObject(i).getJSONArray("cw" );                JSONObject obj = items.getJSONObject(0 );                ret.append(obj.getString("w" ));//                  如果需要多候选结果,解析数组其他字段//                 for(int j = 0; j < items.length(); j++)//                 {//                      JSONObject obj = items.getJSONObject(j);//                      ret.append(obj.getString("w"));//                 }            }        } catch (Exception e) {            e.printStackTrace();        }        return ret.toString();    }    public static String parseGrammarResult(String json) {        StringBuffer ret = new StringBuffer() ;        try {            JSONTokener tokener = new JSONTokener(json) ;            JSONObject joResult = new JSONObject(tokener) ;            JSONArray words = joResult.getJSONArray("ws" );            for (int i = 0; i < words.length(); i++) {                JSONArray items = words.getJSONObject(i).getJSONArray("cw" );                for (int j = 0; j < items.length() ; j++)                {                    JSONObject obj = items.getJSONObject(j);                    if (obj.getString("w").contains( "nomatch"))                    {                        ret.append( "没有匹配结果.") ;                        return ret.toString();                    }                    ret.append( "【结果】" + obj.getString("w" ));                    ret.append("【置信度】 " + obj.getInt("sc" ));                    ret.append("\n ");                }            }        } catch (Exception e) {            e.printStackTrace();            ret.append(" 没有匹配结果 .");        }        return ret.toString();    }    public static String parseLocalGrammarResult(String json) {        StringBuffer ret = new StringBuffer() ;        try {            JSONTokener tokener = new JSONTokener(json) ;            JSONObject joResult = new JSONObject(tokener) ;            JSONArray words = joResult.getJSONArray("ws" );            for (int i = 0; i < words.length(); i++) {                JSONArray items = words.getJSONObject(i).getJSONArray("cw" );                for (int j = 0; j < items.length() ; j++)                {                    JSONObject obj = items.getJSONObject(j);                    if (obj.getString("w").contains( "nomatch"))                    {                        ret.append( "没有匹配结果.") ;                        return ret.toString();                    }                    ret.append( "【结果】" + obj.getString("w" ));                    ret.append("\n ");                }            }            ret.append("【置信度】 " + joResult.optInt("sc" ));        } catch (Exception e) {            e.printStackTrace();            ret.append(" 没有匹配结果 .");        }        return ret.toString();    }}


import android.os.Bundle;import android.support.v7.app.AppCompatActivity;import android.util.Log;import android.view.View;import android.widget.Button;import android.widget.EditText;import android.widget.Toast;import com.iflytek.cloud.ErrorCode;import com.iflytek.cloud.InitListener;import com.iflytek.cloud.RecognizerListener;import com.iflytek.cloud.RecognizerResult;import com.iflytek.cloud.SpeechConstant;import com.iflytek.cloud.SpeechError;import com.iflytek.cloud.SpeechRecognizer;import com.iflytek.cloud.SpeechSynthesizer;import com.iflytek.cloud.SpeechUtility;import com.iflytek.cloud.SynthesizerListener;import com.iflytek.cloud.ui.RecognizerDialog;import com.iflytek.cloud.ui.RecognizerDialogListener;import org.json.JSONException;import org.json.JSONObject;import java.util.HashMap;import java.util.LinkedHashMap;import static com.bawei.guolijun20171101.R.id.btn_startspeech;import static com.bawei.guolijun20171101.R.id.btn_startspeektext;public class MainActivity extends AppCompatActivity implements View.OnClickListener{    private Button btn1;    private Button btn2;    private EditText et_input;    private static final String TAG = MainActivity.class .getSimpleName();    private HashMap<String, String> mIatResults = new LinkedHashMap<String , String>();    @Override    protected void onCreate(Bundle savedInstanceState) {        super.onCreate(savedInstanceState);        setContentView(R.layout.activity_main);        btn1 = (Button) findViewById(btn_startspeech);        btn2 = (Button) findViewById(btn_startspeektext);        et_input = (EditText) findViewById(R.id.et_input);      btn1.setOnClickListener(this);        btn2.setOnClickListener(this);        initSpeech() ;    }    private void initSpeech() {        // 将“12345678”替换成您申请的 APPID,申请地址: http://www.xfyun.cn        // 请勿在 “ =”与 appid 之间添加任务空字符或者转义符        SpeechUtility.createUtility(this, SpeechConstant.APPID + "=59f855b9");    }    @Override    public void onClick(View v) {        switch (v.getId()) {            case R.id.btn_startspeech: //语音识别(把声音转文字)                startSpeechDialog();                break;            case R.id. btn_startspeektext:// 语音合成(把文字转声音)                speekText();                break;        }    }    private void speekText() {        //1. 创建 SpeechSynthesizer 对象 , 第二个参数: 本地合成时传 InitListener        SpeechSynthesizer mTts = SpeechSynthesizer.createSynthesizer( this, null);//2.合成参数设置,详见《 MSC Reference Manual》 SpeechSynthesizer 类//设置发音人(更多在线发音人,用户可参见 附录 13.2        mTts.setParameter(SpeechConstant. VOICE_NAME, "vixyun" ); // 设置发音人        mTts.setParameter(SpeechConstant. SPEED, "50" );// 设置语速        mTts.setParameter(SpeechConstant. VOLUME, "80" );// 设置音量,范围 0~100        mTts.setParameter(SpeechConstant. ENGINE_TYPE, SpeechConstant. TYPE_CLOUD); //设置云端//设置合成音频保存位置(可自定义保存位置),保存在 “./sdcard/iflytek.pcm”//保存在 SD 卡需要在 AndroidManifest.xml 添加写 SD 卡权限//仅支持保存为 pcm 和 wav 格式, 如果不需要保存合成音频,注释该行代码        mTts.setParameter(SpeechConstant. TTS_AUDIO_PATH, "./sdcard/iflytek.pcm" );//3.开始合成        mTts.startSpeaking( et_input.getText().toString(), new MySynthesizerListener()) ;    }    class MySynthesizerListener implements SynthesizerListener{        @Override        public void onSpeakBegin() {            showTip(" 开始播放 ");        }        @Override        public void onSpeakPaused() {            showTip(" 暂停播放 ");        }        @Override        public void onSpeakResumed() {            showTip(" 继续播放 ");        }        @Override        public void onBufferProgress(int percent, int beginPos, int endPos ,                                     String info) {            // 合成进度        }        @Override        public void onSpeakProgress(int percent, int beginPos, int endPos) {            // 播放进度        }        @Override        public void onCompleted(SpeechError error) {            if (error == null) {                showTip("播放完成 ");            } else if (error != null ) {                showTip(error.getPlainDescription( true));            }        }        @Override        public void onEvent(int eventType, int arg1 , int arg2, Bundle obj) {            // 以下代码用于获取与云端的会话 id,当业务出错时将会话 id提供给技术支持人员,可用于查询会话日志,定位出错原因            // 若使用本地能力,会话 id为null            //if (SpeechEvent.EVENT_SESSION_ID == eventType) {            //     String sid = obj.getString(SpeechEvent.KEY_EVENT_SESSION_ID);            //     Log.d(TAG, "session id =" + sid);            //}        }    }    private void startSpeechDialog() {        //1. 创建RecognizerDialog对象        RecognizerDialog mDialog = new RecognizerDialog(this, new MyInitListener()) ;        //2. 设置accent、 language等参数        mDialog.setParameter(SpeechConstant. LANGUAGE, "zh_cn" );// 设置中文        mDialog.setParameter(SpeechConstant. ACCENT, "mandarin" );        // 若要将UI控件用于语义理解,必须添加以下参数设置,设置之后 onResult回调返回将是语义理解        // 结果        // mDialog.setParameter("asr_sch", "1");        // mDialog.setParameter("nlp_version", "2.0");        //3.设置回调接口        mDialog.setListener( new MyRecognizerDialogListener()) ;        //4. 显示dialog,接收语音输入        mDialog.show() ;    }    class MyRecognizerDialogListener implements RecognizerDialogListener {        /**         * @param results         * @param isLast  是否说完了         */        @Override        public void onResult(RecognizerResult results, boolean isLast) {            String result = results.getResultString(); //为解析的            showTip(result) ;            System. out.println(" 没有解析的 :" + result);            String text = JsonParser.parseIatResult(result) ;//解析过后的            System. out.println(" 解析后的 :" + text);            String sn = null;            // 读取json结果中的 sn字段            try {                JSONObject resultJson = new JSONObject(results.getResultString()) ;                sn = resultJson.optString("sn" );            } catch (JSONException e) {                e.printStackTrace();            }            mIatResults .put(sn, text) ;//没有得到一句,添加到            StringBuffer resultBuffer = new StringBuffer();            for (String key : mIatResults.keySet()) {                resultBuffer.append(mIatResults .get(key));            }            et_input.setText(resultBuffer.toString());// 设置输入框的文本            et_input .setSelection(et_input.length()) ;//把光标定位末尾        }        @Override        public void onError(SpeechError speechError) {        }    }    class MyInitListener implements InitListener {        @Override        public void onInit(int code) {            if (code != ErrorCode.SUCCESS) {                showTip("初始化失败 ");            }        }    }    private void startSpeech() {        //1. 创建SpeechRecognizer对象,第二个参数: 本地识别时传 InitListener        SpeechRecognizer mIat = SpeechRecognizer.createRecognizer( this, null); //语音识别器        //2. 设置听写参数,详见《 MSC Reference Manual》 SpeechConstant类        mIat.setParameter(SpeechConstant. DOMAIN, "iat" );// 短信和日常用语: iat (默认)        mIat.setParameter(SpeechConstant. LANGUAGE, "zh_cn" );// 设置中文        mIat.setParameter(SpeechConstant. ACCENT, "mandarin" );// 设置普通话        //3. 开始听写        mIat.startListening( mRecoListener);    } private RecognizerListener mRecoListener = new RecognizerListener() {        // 听写结果回调接口 (返回Json 格式结果,用户可参见附录 13.1);//一般情况下会通过onResults接口多次返回结果,完整的识别内容是多次结果的累加;//关于解析Json的代码可参见 Demo中JsonParser 类;//isLast等于true 时会话结束。        public void onResult(RecognizerResult results, boolean isLast) {            Log.e (TAG, results.getResultString());            System.out.println(results.getResultString()) ;            showTip(results.getResultString()) ;        }        // 会话发生错误回调接口        public void onError(SpeechError error) {            showTip(error.getPlainDescription(true)) ;            // 获取错误码描述            Log. e(TAG, "error.getPlainDescription(true)==" + error.getPlainDescription(true ));        }        // 开始录音        public void onBeginOfSpeech() {            showTip(" 开始录音 ");        }        //volume 音量值0~30, data音频数据        public void onVolumeChanged(int volume, byte[] data) {            showTip(" 声音改变了 ");        }        // 结束录音        public void onEndOfSpeech() {            showTip(" 结束录音 ");        }        // 扩展用接口        public void onEvent(int eventType, int arg1 , int arg2, Bundle obj) {        }    };    private void showTip (String data) {        Toast.makeText( this, data, Toast.LENGTH_SHORT).show() ;    }}
<Button    android:layout_width="match_parent"    android:layout_height="wrap_content"    android:id="@+id/btn_startspeech"    android:text="语音识别 "    />    <Button        android:id="@+id/btn_startspeektext"        android:text="语音合成"        android:layout_width="match_parent"        android:layout_height="wrap_content" />    <EditText        android:id="@+id/et_input"        android:layout_margin="10dp"        android:layout_width="match_parent"        android:layout_height="80dp"        android:hint="请输入文本信息 ..." />
 
如果设备是android 5.0及其以上,需要将工程中的armeabi和armeabi-v7a文件夹中都放上libmsc.so,如果你下载的SDK中没有armeabi-v7a对应的库,可以将armeabi中的libmsc.so复制一份到armeabi-v7a文件夹中。



原创粉丝点击