关于迅飞的语音合成和识别
来源:互联网 发布:caffe 语义分割网络 编辑:程序博客网 时间:2024/05/16 01:19
讯飞语音开发集成地址http://www.xfyun.cn/ 解压
里面的的libs的的包,如下的包
将MCS.jar,Sunflower.jar的包,放在你功程的libs下,
在你的main下新建jniLibs包,将arm64-v84,armeabi,armeabi-v7a,mips,mips64,x86,x86_64放入,另外将你下载的SDK的assets包复制到main下
接下来上代码
详情请查看http://blog.csdn.net/taa1007/article/details/78407126
首先在清单文件中配置权限
<uses-permission android:name="android.permission.INTERNET" /> <!--获取手机录音机使用权限,听写、识别、语义理解需要用到此权限 --> <uses-permission android:name="android.permission.RECORD_AUDIO" /> <!--读取网络信息状态 --> <uses-permission android:name="android.permission.ACCESS_NETWORK_STATE" /> <!--获取当前wifi状态 --> <uses-permission android:name="android.permission.ACCESS_WIFI_STATE" /> <!--允许程序改变网络连接状态 --> <uses-permission android:name="android.permission.CHANGE_NETWORK_STATE" /> <!--读取手机信息权限 --> <uses-permission android:name="android.permission.READ_PHONE_STATE" /> <!--读取联系人权限,上传联系人需要用到此权限 --> <uses-permission android:name="android.permission.READ_CONTACTS" />
接下来是布局
<LinearLayout xmlns:android= "http://schemas.android.com/apk/res/android" android:layout_width="match_parent" android:layout_height="match_parent" android:orientation="vertical" > <EditText android:id="@+id/et_input" android:layout_margin="10dp" android:layout_width="match_parent" android:layout_height="80dp" android:hint="请输入文本信息 ..." /> <Button android:id="@+id/btn_startspeech" android:text="点击按钮语音输入 " android:layout_width="match_parent" android:layout_height="wrap_content" /> <Button android:id="@+id/btn_startspeektext" android:text="语音合成(把文字转声音) " android:layout_width="match_parent" android:layout_height="wrap_content" /></LinearLayout>
主要的东西来了
MainActivity
import android.os.Bundle;import android.support.v7.app.AppCompatActivity;import android.util.Log;import android.view.View;import android.widget.Button;import android.widget.EditText;import android.widget.Toast;import com.iflytek.cloud.ErrorCode;import com.iflytek.cloud.InitListener;import com.iflytek.cloud.RecognizerListener;import com.iflytek.cloud.RecognizerResult;import com.iflytek.cloud.SpeechConstant;import com.iflytek.cloud.SpeechError;import com.iflytek.cloud.SpeechRecognizer;import com.iflytek.cloud.SpeechSynthesizer;import com.iflytek.cloud.SpeechUtility;import com.iflytek.cloud.SynthesizerListener;import com.iflytek.cloud.ui.RecognizerDialog;import com.iflytek.cloud.ui.RecognizerDialogListener;import org.json.JSONException;import org.json.JSONObject;import java.util.HashMap;import java.util.LinkedHashMap;public class MainActivity extends AppCompatActivity implements View.OnClickListener{ private static final String TAG = MainActivity.class .getSimpleName(); private EditText et_input; private Button btn_startspeech, btn_startspeektext ; // 用HashMap存储听写结果 private HashMap<String, String> mIatResults = new LinkedHashMap<String , String>(); @Override protected void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.layout.activity_main); initView() ; initSpeech() ; } private void initView() { setContentView(R.layout.activity_main) ; et_input = (EditText) findViewById(R.id.et_input ); btn_startspeech = (Button) findViewById(R.id.btn_startspeech ); btn_startspeektext = (Button) findViewById(R.id.btn_startspeektext ); btn_startspeech .setOnClickListener(this) ; btn_startspeektext .setOnClickListener(this) ; } private void initSpeech() { // 将“12345678”替换成您申请的 APPID,申请地址: http://www.xfyun.cn // 请勿在 “ =”与 appid 之间添加任务空字符或者转义符 SpeechUtility. createUtility( this, SpeechConstant. APPID + "=59f831fbb" ); } @Override public void onClick(View v) { switch (v.getId()) { case R.id.btn_startspeech: //语音识别(把声音转文字) startSpeechDialog(); break; case R.id. btn_startspeektext:// 语音合成(把文字转声音) speekText(); break; } } private void speekText() { //1. 创建 SpeechSynthesizer 对象 , 第二个参数: 本地合成时传 InitListener SpeechSynthesizer mTts = SpeechSynthesizer.createSynthesizer( this, null);//2.合成参数设置,详见《 MSC Reference Manual》 SpeechSynthesizer 类//设置发音人(更多在线发音人,用户可参见 附录 13.2 mTts.setParameter(SpeechConstant. VOICE_NAME, "vixyun" ); // 设置发音人 mTts.setParameter(SpeechConstant. SPEED, "50" );// 设置语速 mTts.setParameter(SpeechConstant. VOLUME, "80" );// 设置音量,范围 0~100 mTts.setParameter(SpeechConstant. ENGINE_TYPE, SpeechConstant. TYPE_CLOUD); //设置云端//设置合成音频保存位置(可自定义保存位置),保存在 “./sdcard/iflytek.pcm”//保存在 SD 卡需要在 AndroidManifest.xml 添加写 SD 卡权限//仅支持保存为 pcm 和 wav 格式, 如果不需要保存合成音频,注释该行代码 mTts.setParameter(SpeechConstant. TTS_AUDIO_PATH, "./sdcard/iflytek.pcm" );//3.开始合成 mTts.startSpeaking( et_input.getText().toString(), new MySynthesizerListener()) ; } class MySynthesizerListener implements SynthesizerListener { @Override public void onSpeakBegin() { showTip(" 开始播放 "); } @Override public void onSpeakPaused() { showTip(" 暂停播放 "); } @Override public void onSpeakResumed() { showTip(" 继续播放 "); } @Override public void onBufferProgress(int percent, int beginPos, int endPos , String info) { // 合成进度 } @Override public void onSpeakProgress(int percent, int beginPos, int endPos) { // 播放进度 } @Override public void onCompleted(SpeechError error) { if (error == null) { showTip("播放完成 "); } else if (error != null ) { showTip(error.getPlainDescription( true)); } } @Override public void onEvent(int eventType, int arg1 , int arg2, Bundle obj) { // 以下代码用于获取与云端的会话 id,当业务出错时将会话 id提供给技术支持人员,可用于查询会话日志,定位出错原因 // 若使用本地能力,会话 id为null //if (SpeechEvent.EVENT_SESSION_ID == eventType) { // String sid = obj.getString(SpeechEvent.KEY_EVENT_SESSION_ID); // Log.d(TAG, "session id =" + sid); //} } } private void startSpeechDialog() { //1. 创建RecognizerDialog对象 RecognizerDialog mDialog = new RecognizerDialog(this, new MyInitListener()) ; //2. 设置accent、 language等参数 mDialog.setParameter(SpeechConstant. LANGUAGE, "zh_cn" );// 设置中文 mDialog.setParameter(SpeechConstant. ACCENT, "mandarin" ); // 若要将UI控件用于语义理解,必须添加以下参数设置,设置之后 onResult回调返回将是语义理解 // 结果 // mDialog.setParameter("asr_sch", "1"); // mDialog.setParameter("nlp_version", "2.0"); //3.设置回调接口 mDialog.setListener( new MyRecognizerDialogListener()) ; //4. 显示dialog,接收语音输入 mDialog.show() ; } class MyRecognizerDialogListener implements RecognizerDialogListener { /** * @param results * @param isLast 是否说完了 */ @Override public void onResult(RecognizerResult results, boolean isLast) { String result = results.getResultString(); //为解析的 showTip(result) ; System. out.println(" 没有解析的 :" + result); String text = JsonParser.parseIatResult(result) ;//解析过后的 System. out.println(" 解析后的 :" + text); String sn = null; // 读取json结果中的 sn字段 try { JSONObject resultJson = new JSONObject(results.getResultString()) ; sn = resultJson.optString("sn" ); } catch (JSONException e) { e.printStackTrace(); } mIatResults .put(sn, text) ;//没有得到一句,添加到 StringBuffer resultBuffer = new StringBuffer(); for (String key : mIatResults.keySet()) { resultBuffer.append(mIatResults .get(key)); } et_input.setText(resultBuffer.toString());// 设置输入框的文本 et_input .setSelection(et_input.length()) ;//把光标定位末尾 } @Override public void onError(SpeechError speechError) { } } class MyInitListener implements InitListener { @Override public void onInit(int code) { if (code != ErrorCode.SUCCESS) { showTip("初始化失败 "); } } } /** * 语音识别 */ private void startSpeech() { //1. 创建SpeechRecognizer对象,第二个参数: 本地识别时传 InitListener SpeechRecognizer mIat = SpeechRecognizer.createRecognizer( this, null); //语音识别器 //2. 设置听写参数,详见《 MSC Reference Manual》 SpeechConstant类 mIat.setParameter(SpeechConstant. DOMAIN, "iat" );// 短信和日常用语: iat (默认) mIat.setParameter(SpeechConstant. LANGUAGE, "zh_cn" );// 设置中文 mIat.setParameter(SpeechConstant. ACCENT, "mandarin" );// 设置普通话 //3. 开始听写 mIat.startListening(mRecoListener); } // 听写监听器 private RecognizerListener mRecoListener = new RecognizerListener() { // 听写结果回调接口 (返回Json 格式结果,用户可参见附录 13.1);//一般情况下会通过onResults接口多次返回结果,完整的识别内容是多次结果的累加;//关于解析Json的代码可参见 Demo中JsonParser 类;//isLast等于true 时会话结束。 public void onResult(RecognizerResult results, boolean isLast) { Log.e (TAG, results.getResultString()); System.out.println(results.getResultString()) ; showTip(results.getResultString()) ; } // 会话发生错误回调接口 public void onError(SpeechError error) { showTip(error.getPlainDescription(true)) ; // 获取错误码描述 Log. e(TAG, "error.getPlainDescription(true)==" + error.getPlainDescription(true )); } // 开始录音 public void onBeginOfSpeech() { showTip(" 开始录音 "); } //volume 音量值0~30, data音频数据 public void onVolumeChanged(int volume, byte[] data) { showTip(" 声音改变了 "); } // 结束录音 public void onEndOfSpeech() { showTip(" 结束录音 "); } // 扩展用接口 public void onEvent(int eventType, int arg1 , int arg2, Bundle obj) { } }; private void showTip (String data) { Toast.makeText( this, data, Toast.LENGTH_SHORT).show() ; }}
还有一个类
public class JsonParser { public static String parseIatResult(String json) { StringBuffer ret = new StringBuffer() ; try { JSONTokener tokener = new JSONTokener(json) ; JSONObject joResult = new JSONObject(tokener) ; JSONArray words = joResult.getJSONArray("ws" ); for (int i = 0; i < words.length(); i++) { // 转写结果词,默认使用第一个结果 JSONArray items = words.getJSONObject(i).getJSONArray("cw" ); JSONObject obj = items.getJSONObject(0 ); ret.append(obj.getString("w" ));// 如果需要多候选结果,解析数组其他字段// for(int j = 0; j < items.length(); j++)// {// JSONObject obj = items.getJSONObject(j);// ret.append(obj.getString("w"));// } } } catch (Exception e) { e.printStackTrace(); } return ret.toString(); } public static String parseGrammarResult(String json) { StringBuffer ret = new StringBuffer() ; try { JSONTokener tokener = new JSONTokener(json) ; JSONObject joResult = new JSONObject(tokener) ; JSONArray words = joResult.getJSONArray("ws" ); for (int i = 0; i < words.length(); i++) { JSONArray items = words.getJSONObject(i).getJSONArray("cw" ); for (int j = 0; j < items.length() ; j++) { JSONObject obj = items.getJSONObject(j); if (obj.getString("w").contains( "nomatch")) { ret.append( "没有匹配结果.") ; return ret.toString(); } ret.append( "【结果】" + obj.getString("w" )); ret.append("【置信度】 " + obj.getInt("sc" )); ret.append("\n "); } } } catch (Exception e) { e.printStackTrace(); ret.append(" 没有匹配结果 ."); } return ret.toString(); } public static String parseLocalGrammarResult(String json) { StringBuffer ret = new StringBuffer() ; try { JSONTokener tokener = new JSONTokener(json) ; JSONObject joResult = new JSONObject(tokener) ; JSONArray words = joResult.getJSONArray("ws" ); for (int i = 0; i < words.length(); i++) { JSONArray items = words.getJSONObject(i).getJSONArray("cw" ); for (int j = 0; j < items.length() ; j++) { JSONObject obj = items.getJSONObject(j); if (obj.getString("w").contains( "nomatch")) { ret.append( "没有匹配结果.") ; return ret.toString(); } ret.append( "【结果】" + obj.getString("w" )); ret.append("\n "); } } ret.append("【置信度】 " + joResult.optInt("sc" )); } catch (Exception e) { e.printStackTrace(); ret.append(" 没有匹配结果 ."); } return ret.toString(); }}
为什么要学,现在语音智能化越来越流行,基本上手机App,或者手机都有语音功能,学会之后,为你的未来在职场上更添一笔。
阅读全文
0 0
- 关于迅飞的语音合成和识别
- 语音识别和语音合成
- 语音合成和识别接口
- 百度语音识别和合成
- .net中语音识别和语音合成
- Unity语音识别和语音合成 Android
- Unity语音识别和语音合成 IOS
- android应用百度语音识别、语音合成和语音唤醒
- android语音识别和合成第三方
- 安卓开发之科大讯飞的语音合成和语音识别初实践
- 安卓开发之科大讯飞的语音合成和语音识别初实践
- .net中语音识别和语音合成[入门]
- SAPI 5.1 语音合成 和 语音识别 [C#][1]
- 在.net中使用语音识别和语音合成技术
- 简单的语音合成与语音识别(科大讯飞)
- 关于语音合成的一点思考
- 百度语音识别和合成SDK for PHP
- c#语音识别与合成
- Java业务抽象
- Struts2 中struts.xml的骨架
- 【前端早读课Live】手把手带你折腾前端脚手架
- IO分割
- Qt中QFont详解以及arm移植字库的配置
- 关于迅飞的语音合成和识别
- Grub被损坏后的修复演示
- jquery无缝插件liMarquee动态滚动
- Angular4-在线竞拍应用-组件的生命周期
- 【视频集】iPhone X 开箱+评测视频汇总(主流媒体)
- JDK的安装和Android SDK的升级和讲解
- 20171026-每日一练
- Docker删除none镜像
- LeetCode基础-排序-二叉堆排序(优先队列)