科大讯飞Flash平台语音云开发SDK使用指南

合集下载

Unity-Demo之?语音识别-讯飞SDK使用过程

Unity-Demo之?语音识别-讯飞SDK使用过程

Unity-Demo之✨语音识别-讯飞SDK使用过程因为工作需求,现在要选择连接一个语音识别功能接入系统中,所以目前正在尝试使用讯飞的语音识别SDK进行连接。

在使用语音识别的sdk之前先查阅了一下语音识别的基本知识然后去讯飞的官网注册信息并创建一个应用用于使用SDK基本步骤处理完了,下面就是下载SDK进行集成使用了,我这里用的是语音唤醒的SDK,按照官方教程做就行。

教程在这-语音唤醒SDK教程当上面这几步做完了之后,接下来就是将这个工程打包成给unity 使用的aar包了。

可以参考这个教程:将Android Studio的工程打包成aar包给unity使用这样只是将讯飞语音的SDK可以跟Unity一起使用了,但是还没有写具体调用sdk的使用方法,还需要在Android Studio中写一些调用此语音识别的SDK的接口提供给Unity中使用才行。

正文:简单分析下SDK的结构,便于使用SDK包说明《Android SDK目录结构一览》•manifests:android配置应用权限文件•sample:相关离线能力demo(语音唤醒WakeDemo)•assets:SDK相关资源配置文件•Libs:动态库和jar包•res:UI文件和相关布局文件xml•readme说明(必看)•release 版本说明吐了语音唤醒搞了一天了,unity打包出来apk居然直接白屏安卓端语音识别代码package com.example.unity_asr;import android.os.Bundle;import android.util.Log;import com.iflytek.cloud.RecognizerListener;import com.iflytek.cloud.RecognizerResult;import com.iflytek.cloud.SpeechError;import com.iflytek.cloud.SpeechRecognizer;import com.iflytek.cloud.SpeechConstant;import com.iflytek.cloud.SpeechUtility;import com.unity3d.player.UnityPlayer;import com.unity3d.player.UnityPlayerActivity;import org.json.JSONException;import org.json.JSONObject;import java.util.HashMap;import java.util.LinkedHashMap;public class MainActivity extends UnityPlayerActivity {private SpeechRecognizer mIat;private HashMap<String, String> mIatResults = new LinkedHashMap<String, String>();@Overrideprotected void onCreate(Bundle savedInstanceState) {super.onCreate(savedInstanceState);//初始化SpeechUtility.createUtility(this, SpeechConstant.APPID + "=60307482");mIat = SpeechRecognizer.createRecognizer(this, null);//设置mIat的参数//表示是什么服务mIat.setParameter(SpeechConstant.DOMAIN, "iat");//设置语言mIat.setParameter(NGUAGE, "zh_cn");//接受语言的类型mIat.setParameter(SpeechConstant.ACCENT, "mandarin");//使用什么样引擎mIat.setParameter(SpeechConstant.ENGINE_TYPE, SpeechConstant.TYPE_CLOUD);}//创建一个监听器RecognizerListener mRecognizerLis = new RecognizerListener() {@Override//当声音改变的时候调用public void onVolumeChanged(int i, byte[] bytes) {}@Override//开始说话的时候调用public void onBeginOfSpeech() {}@Override//结束说话的时候调用public void onEndOfSpeech() {}@Override//返回结果public void onResult(RecognizerResult recognizerResult, boolean b) {printResult(recognizerResult);}@Override//出错的时候调用public void onError(SpeechError speechError) {}@Override//自定义事件public void onEvent(int i, int i1, int i2, Bundle bundle) {}};//解析Json的方法//方法来自speechDemo->java->voicedemo->IatDemo中的printResult方法private void printResult(RecognizerResult results) {String text = JsonParser.parseIatResult(results.getResultString());String sn = null;// 读取json结果中的sn字段try {JSONObject resultJson = new JSONObject(results.getResultString());sn = resultJson.optString("sn");} catch (JSONException e) {e.printStackTrace();}mIatResults.put(sn, text);StringBuffer resultBuffer = new StringBuffer();for (String key : mIatResults.keySet()) {resultBuffer.append(mIatResults.get(key));}//把消息发送给Unity场景中MsgController物体上的OnResult 方法UnityPlayer.UnitySendMessage("MsgController", "OnResult", resultBuffer.toString());}//这个方法让Unity来调用public void beginListen() {//开始识别mIat.startListening(mRecognizerLis);}public int beginTest(int a, int b){//交互测试UnityPlayer.UnitySendMessage("Canvans","TestDemo","");return a+b;}}。

讯飞语点PC版用户手册

讯飞语点PC版用户手册

声明版权声明版权所有© 2008, 安徽科大讯飞信息科技股份有限公司,保留所有权利。

商标声明安徽科大讯飞信息科技股份有限公司的产品是安徽科大讯飞信息科技股份有限公司专有。

在提及其他公司及其产品时将使用各自公司所拥有的商标,这种使用的目的仅限于引用。

本文档可能涉及安徽科大讯飞信息科技股份有限公司的专利(或正在申请的专利)、商标、版权或其他知识产权,除非得到安徽科大讯飞信息科技股份有限公司的明确书面许可协议,本文档不授予使用这些专利(或正在申请的专利)、商标、版权或其他知识产权的任何许可协议。

不作保证声明安徽科大讯飞信息科技股份有限公司不对此文档中的任何内容作任何明示或暗示的陈述或保证,而且不对特定目的的适销性及适用性或者任何间接、特殊或连带的损失承担任何责任。

本手册内容若有变动,恕不另行通知。

本手册例子中所用的公司、人名和数据若非特别声明,均属虚构。

未得到安徽科大讯飞信息科技股份有限公司明确的书面许可,不得为任何目的、以任何形式或手段(电子的或机械的)复制或传播手册的任何部分。

保密声明本文档(包括任何附件)包含的信息是保密信息。

接收人了解其获得的本文档是保密的,除用于规定的目的外不得用于任何目的,也不得将本文档泄露给任何第三方。

本软件产品受最终用户许可协议(EULA)中所述条款和条件的约束,该协议位于产品文档和/或软件产品的联机文档中,使用本产品,表明您已阅读并接受了EULA的条款。

版权所有© 安徽科大讯飞信息科技股份有限公司Copyrights © Anhui USTC iFLYTEK CO., LTD.目录1.概述 (3)2.运行环境 (4)2.1支持操作系统 (4)2.2资源要求 (4)2.3网络要求 (4)2.4支持语言 (4)3.下载及安装 (5)3.1下载地址 (5)3.2安装方法 (5)4.使用方法 (6)4.1启动语点和主界面展示 (6)4.2语点激活方式 (7)4.3标准语点使用流程 (8)4.4听写激活方式(可支持离线、在线使用) (9)4.5标准听写使用流程 (10)5.设置 (11)5.1微博账号 (12)5.2用户设置 (12)6.详细功能和说法(联网) (13)6.1微博 (13)6.2音乐 (14)6.3视频 (15)6.4邮件操作 (16)6.5电话短信 (16)6.6天气查询 (17)6.7股票查询 (17)6.8火车航班查询 (17)6.9网络搜索 (18)6.10电脑操作 (18)6.11语音提醒 (19)6.12闲聊/笑话/对诗/翻译 (19)7.详细功能和说法(离线) (20)7.1电脑操作 (20)7.2本地音乐点播 (20)1. 概述讯飞语点PC版是科大讯飞公司最新研发的在UltraBook上的语音交互产品,该产品使用了科大讯飞最新的嵌入式语音和语音云技术,为最终用户能够更便捷使用PC提供了新的交互方案。

Android基于讯飞语音SDK实现语音识别

Android基于讯飞语音SDK实现语音识别

Android基于讯飞语⾳SDK实现语⾳识别⼀、准备⼯作1、你需要android⼿机应⽤开发基础2、科⼤讯飞语⾳识别SDK android版3、科⼤讯飞语⾳识别开发API⽂档4、android⼿机当然SDK和API有多个版本可选,按照你的需要下载,其次,下载需要填写资料申请注册,申请通过或可获得Appid 如下图,申请⼀个APPID,就可以了。

⼆、语⾳识别流程1、创建识别控件函数原型Public RecognizerDialog(Context context,String params)其中Context表⽰当前上下⽂环境,传this即可Params有参数详见API⽂档2、⽤Appid登录到科⼤讯飞服务器(⾃动连接,需要联⽹)主要⽤到SpeechUser(com.iflytek.speech包下)类下的getUser().login()函数其中getUser()表⽰获取⽤户对象,可以实现⽤户登录,注销等操作Login函数原型Public boolean login(Context context,String usr,String pwd,String参数详见API⽂档3、读取语⾔识别语法详见API⽂档4、设置识别参数及识别监听器通过RecognizerDialog下的setEngine()⽅法设置参数函数原型public void setEngine(String engine,String params,String grammar)详细的参数请参考API⽂档5、识别结果回调需要实现RecognizerDialogListener接⼝,其中有两个⽅法需要重写,分别是1)public void onResults(ArrayList<RecognizerResult> results,boolean isLast)其中result是RecognizerResult对象的集合,RecognizerResult的属性有String text 识别⽂本Int confidence 识别可信度2)public void onEnd(SpeechError error)6、识别结果处理(⾃⾏处理)⾃⼰将⽂本进⾏处理。

科大讯飞股份有限公司WebAPI开发手册说明书

科大讯飞股份有限公司WebAPI开发手册说明书

讯飞翻译Webapi 开发手册科大讯飞股份有限公司USTC iFLYTEK CO., LTD.目录概述 (1)获取令牌 (3)1.接口说明 (3)翻译服务_GET (4)1.接口说明 (4)签名计算 (6)概述开发者是讯飞语音云WebAPI 的使用者,因此在文档中提到的客户等同于开发者。

用户则是开发者所推出产品的直接使用者,也是讯飞语音云WebAPI 的间接使用者。

讯飞语音云开发者用户开发基于讯飞语音云的应用应用依赖于讯飞语音云不知不觉中感受讯飞语音云的服务图1 WebAPI 的服务对象服务器端为MSP 平台的核心部分,提供HTTP 应用、用户管理、语音服务等服务,位于局域网内,对外统一接入Internet ,为客户端提供唯一的访问点。

其中:HTTP 服务器负责将客户端发送的服务请求发送至业务服务器,然后由业务服务器按照具体的服务类型进行处理,调用ISP 语音应用平台获取具体的语音服务,而后把处理结果返回给HTTP 服务器,再回复客户端。

互联网用户直接通过MSP服务器提供的Internet访问点使用语音服务,首先获取令牌,取得服务权限,然后调用后续相关的服务,业务流程如图2。

图2 业务流程现网服务地址:(此地址只可以进行功能调试,禁止压测)获取令牌1.接口说明调用接口获取所需要的服务令牌。

除了HTTP 1.0规范自带的各种字段外,WebAPI支持扩展请求头:X-parX-Par支持的参数列表:经过base64解码后结果:翻译服务_GET1.接口说明本接口将带翻译的文本转换为目标语言文本输出,请求的类型为HTTP GET方式。

消息头说明:响应消息base64解码:参数说明:签名计算1.签名方式概述:在服务请求的server url上增加携带sign参数例如:/webapi/webits/v1/its.do?svc=&token=&q=&from=&to=&sign=sign计算方法:sign = md5sum($(q) + &(x-par) + $(key))其中q为带翻译的文本如:q = 你好其中x-par 为携带在headers中的x-par header的值其中key为云端获取的属于该应用私钥。

科大讯飞语音云使用说明

科大讯飞语音云使用说明

******************************************************************************用户可以用两种方式来调用API,直接使用REST | 在JavaScript中使用RESTRESTREST,或者叫做Representational State Transfer,在语言云API中并不等同于传统的REST。

传统的REST提供对于资源的访问,而语言云REST API提供对于服务的访问。

因此,在语言云API中,一个单独的URI就是一个服务端点。

在语言云中,所有的API访问都是通过HTTP请求的方式。

并且需要从域进行访问。

语言云只支持GET和POST方式的HTTP请求。

用户通过在HTTP请求中指定参数来获取对应的结果。

举个例子,对“我是中国人。

”这句话做依存句法分析,并且返回plain格式的结果。

GET请求及返回结果示例:$ curl -i "/analysis/?api_key=YourApiKey&text=我是中国人。

&pattern=dp&format=plain"HTTP/1.1 200 OKServer: nginx/1.1.19Date: Fri, 03 Jan 2014 04:24:32 GMTContent-Type: text/plainTransfer-Encoding: chunkedConnection: keep-aliveVary: Accept-Encoding是_1 -1 HED中国_2 人_3 ATT人_3 是_1 VOBPOST请求及返回结果示例:$ curl -i -d "api_key=YourApiKey&text=我是中国人。

&pattern=dp&format=plain" "/analysis/" HTTP/1.1 200 OKServer: nginx/1.1.19Date: Fri, 03 Jan 2014 05:58:55 GMTContent-Type: text/plainTransfer-Encoding: chunkedConnection: keep-aliveVary: Accept-Encoding我_0 是_1 SBV是_1 -1 HED中国_2 人_3 ATT人_3 是_1 VOB使用Python语言以GET方式调用REST API代码示例如下:1.# -*- coding:utf8 -*-2.import urllib23.if __name__ == '__main__':4. url_get_base = "/analysis/?"5. api_key = ''6. text = ''7. format = ''8. pattern = ''9. result = urllib2.urlopen( "%sapi_key=%s&text=%s&format=%s&pattern=%s" % (url_get_base,api_key,text,format,pattern))10. content = result.read().strip()11. print content更多使用其他编程语言以GET和POST方式调用REST API代码示例以及注意事项请参考API编程调用示例。

科大讯飞 MSC 集成指南说明书

科大讯飞 MSC 集成指南说明书

科大讯飞股份有限公司IFLYTEK CO.,LTD. 科大讯飞MSC集成指南目录1. 概述 (1)2. 预备工作 (2)Step 1 导入SDK (2)Step 2 添加用户权限 (2)Step 3 初始化 (3)3. 语音输入UI (5)4. 语音听写 (6)4.1. 上传联系人 (7)4.2. 上传用户词表 (7)5. 命令词识别(语法识别) (9)5.1. 在线命令词识别 (9)5.1.1. 应用级命令词识别 (9)5.1.2. 终端级命令词识别 (11)5.2. 离线命令词识别 (12)6. 语音合成 (13)7. 语义理解 (14)7.1. 语音语义理解 (14)7.2. 文本语义理解 (14)8. 本地功能集成(语记) (15)8.1. 本地识别 (15)8.2. 本地合成 (16)8.3. 获取语记参数 (16)9. 语音评测 (17)10. 唤醒 (19)11. 声纹密码 (19)11.1. 声纹注册 (19)11.2. 声纹验证 (21)11.3. 模型操作 (21)12. 人脸识别 (22)12.1. 人脸注册 (22)12.2. 人脸验证 (23)12.3. 人脸检测 (23)12.4. 人脸聚焦 (23)13. 附录 (24)13.1. 识别结果说明 (24)13.2. 合成发音人列表 (25)13.3. 错误码列表 (26)13.4. 声纹业务 (27)13.5. 人脸识别结果说明 (28)常见问题 (29)1. 概述本文档是集成科大讯飞MSC (Mobile Speech Client ,移动语音终端)Android 版SDK 的用户指南,介绍了语音听写、语音识别、语音合成、语义理解、语音评测等接口的使用。

MSC SDK 的主要功能接口如下图所示:图1 MSC 主要功能接口为了更好地理解后续内容,这里先对文档中出现的若干专有名词进行解释说明:表1 名词解释2.预备工作Step 1 导入SDK将开发工具包中libs目录下的Msc.jar和armeabi复制到Android工程的libs目录(如果工程无libs目录,请自行创建)中,如下图所示:图 2 导入SDK如果您的项目有libs/armeabi-v7a这个目录,请务必把libmsc.so复制一份到这个目录。

科大讯飞Flash平台语音云开发SDK使用指南

科大讯飞Flash平台语音云开发SDK使用指南

本软件产品受最终用户许可协议( EULA)中所述条款和条件的约束,该协议位于产 品文档和/或软件产品的联机文档中, 如果您使用本产品,表明您已阅读并接受了 EULA 的 条款。
Hale Waihona Puke 版权所有© 安徽科大讯飞信息科技股份有限公司 Copyright © Anhui USTC iFLYTEK CO., LTD.
目 录
第1章 概述 ........................................................................................................................................ 1
1.1 目的 .....................................................................................................................1 1.2 范围 .....................................................................................................................1
第3章 合成开发接口说明 ................................................................................................................. 4
3.1 公共方法..............................................................................................................4 3.2 事件 .....................................................................................................................4 3.3 构造函数详细信息 ...............................................................................................4 3.4 方法详细信息 ......................................................................................................6 3.4.1 synthStart ............................................................................................6 3.4.2 synthStop ..............................................................................................7 3.4.3 logSave ..................................................................................................8 3.4.4 dispose ..................................................................................................8 3.4.5 Play .......................................................................................................9 3.4.6 Pause......................................................................................................9 3.4.7 Stop .......................................................................................................9 3.5 事件详细信息 ....................................................................................................10 3.5.1 合成音频到达事件 ...............................................................................10 3.5.2 合成完成事件 .......................................................................................10 3.5.3 错误事件 ..............................................................................................10 3.5.4 可以开始播放事件 ............................................................................... 11 3.5.5 音频数据等待事件 ............................................................................... 11 3.5.6 播放结束事件 ....................................................................................... 11

科大讯飞水滴平台用户使用手册说明书

科大讯飞水滴平台用户使用手册说明书

公司密级:A科大讯飞股份有限公司文档密级:公司内部A水滴平台用户使用手册版本1.0目录1.文档简介42.平台介绍42.1注册登录42.2平台首页52.3基本资料62.4权限管理62.5其他说明73.使用说明73.1产品线负责人73.2平台负责人93.3普通用户104.集成说明115.附录11修订文档历史记录水滴平台用户使用手册1.文档简介本文档主要介绍新版水滴平台基本功能,以及用户使用说明。

用户使用包括介绍平台不同角色成员使用注意事项,以及介绍管理平台集成水滴平台权限模块的集成步骤。

本文档适用范围为产品线负责人、平台负责人、普通用户,帮助其熟悉整个平台的使用注意事项。

针对系统管理员特殊权限页面不做详细介绍。

2.平台介绍2.1注册登录登录页面:用户登录页面包含<快速注册>跳转链接注册页面:新版水滴平台,用户账户不再需要系统管理员集中分配;用户可以通过用户注册页面进行注册。

用户注册需要提交登录名、中文名称、账户类型(域账户或普通账户)、手机号码、电子邮箱等信息。

账户类型选择域账户时,登录名需要和讯飞公司域账号保持一致,登录密码默认为公司域账号密码;选择普通账户类型时,登录名没有严格限制,默认密码为000000,建议登录进入平台后立即修改密码。

无特殊情况,建议注册账户时选择域账户类型。

用户注册页面包含<快速登录>跳转链接,用户注册账号成功会直接跳转到登录页面。

2.2平台首页登录成功,进入水滴平台首页。

首页展示了登录用户拥有权限的平台入口,新版水滴平台对平台进行分组展示(如下图TAB可切换分组);首页右上角展示<我的控制台>、<修改密码>、<退出>操作入口。

进入<我的控制台>会进入水滴平台管理控制台,分别包含基本资料、权限管理模块,详见如下介绍。

2.3基本资料基本资料:展示当前登录用户基本信息,并支持资料修改;我的权限:展示当前登录用户拥有的产品权限及平台角色权限。

语音云开放平台_开放语音合成、语音识别、语音搜索、声纹识别等语音技术_免费快速开发移动互联网语音应用6

语音云开放平台_开放语音合成、语音识别、语音搜索、声纹识别等语音技术_免费快速开发移动互联网语音应用6

您好,欢迎来到语音云开放平台! 请登录 免费注册首页平台介绍在线演示开发者专区下载专区应用推荐语音通行证论坛语音平台· 什么是MSP· 为何选择MSP· MSP 主要功能语音技术· 语音合成· 语音识别语音转写首页 > 平台介绍注册 | 申请appid | SDK 下载 | 开发文档 | 新手教程 | 常见问题 | 语音云社区 | 诚聘英才 | 邮件反馈科大讯飞 | 语音云官方网站 | 讯飞输入法 | 讯飞语点 | 讯飞口讯 | 开心熊宝 | 悠听 | 语音电子书安徽科大讯飞信息科技股份有限公司Copyright©2012 皖ICP 备05001217号目录[隐藏]1. 语音转写1.1 什么是语音转写1.2 讯飞的语音转写技术怎么样1.3 MSP 语音转写云服务特点1. 语音转写1.1 什么是语音转写语音转写是基于自然语言处理技术,将自然语言转换为文本输出。

自然语言处理技术所涵盖的研究内容非常广泛,从研究成果的表现形式来说,基本可以分为基础研究和应用研究两大类:基础研究:主要指对自然语言内在规律的研究,从研究深度和难度上大致可以划分为词典编撰、分词断句、词性分析、语言模型、语法分析、语义分析、语用分析等等。

应用研究:主要指基于基础研究的成果,面向不同的应用,研发相关的自然语言处理技术,大的方向至少包括:拼音输入法、信息检索、信息抽取、自动摘要、机器翻译、语音合成、语音识别、文本匹配、文本分类、对话系统等。

自然语言处理技术中最核心的自然语言理解技术,从进展和目前所取得的成果来说,都与人们的普遍预期有较大差距。

但是随着自然语言处理技术的研究积累,以及计算机技术水平的快速发展,越来越多的自然语言处理技术正逐步走向实用,并且创造了巨大的经济价值和社会价值。

互联网、电子文本、短消息、语音通讯等等自然语言媒介的快速增长,也为自然语言处理技术的研究和应用提供了非常好的机遇。

语音云开放平台_开放语音合成、语音识别、语音搜索、声纹识别等语音技术_免费快速开发移动互联网语音应用3

语音云开放平台_开放语音合成、语音识别、语音搜索、声纹识别等语音技术_免费快速开发移动互联网语音应用3

您好,欢迎来到语音云开放平台! 请登录 免费注册首页平台介绍在线演示开发者专区下载专区应用推荐语音通行证论坛语音平台· 什么是MSP· 为何选择MSPmsp 主要功能语音技术· 语音合成· 语音识别· 语音转写首页 > 平台介绍目录[隐藏]1. MSP 主要功能1.1 概述1.2 语音合成1.3 语音识别1.4 语法功能1.5 语音听写1.6 开发功能1. MSP 主要功能1.1 概述MSP 语音云平台目前集成了语音识别引擎InterReco 、语音合成引擎InterPhonic 、语音听写引擎IAT ,能够提供语音合成、语音识别、语音听写等语音服务,产品的功能也能够体现这些语音引擎的特点。

1.2 语音合成InterPhonic 语音合成系统是科大讯飞公司推出的新一代文语转化引擎,采用最先进的中文文本、韵律分析算法和大语料库的合成方法,合成语音已经接近真人的自然效果。

主要功能有:1) 高质量语音,将输入文本实时转换为流畅、清晰、自然和具有表现力的语音数据;2) 多语种服务,整合了多语种语音合成引擎,可提供中文、中英文混读、纯正英文、粤语、粤英文混读的语音合成服务;3) 多音色服务,提供丰富、风格多样化的音色选择,如浑厚淳正的男声,温柔甜美的女声,标准地道的英语男女声等等,所有音色库均继承科大讯飞语音合成技术一贯的优良品质。

用户可供根据不同应用业务需要,选择最适合应用场景的语音风格,并支持实时动态的音色切换;4) 高精度文本分析技术,保证了对文本中未登录词(如地名)、多音字、特殊符号(如标点、数字)、韵律短语等智能分析和处理;5) 多字符集支持,支持输入GB2312、GBK 、Big5、Unicode 和UTF-8等多种字符集,普通文本和带有CSSML 标注等多种格式的文本信息;6) 多种数据输出格式,支持输出多种采用率的线性Wav ,A/U 率Wav 和Vox 等格式的语音数据;7) 提供预录音合成模板,对合成文本中符合语音模板固定成分的文本使用发音人预录语音,非固定成分使用合成语音。

科大讯飞5.0语音软件的安装和操作要领

科大讯飞5.0语音软件的安装和操作要领

朗读效果排名的话,是这样的(由高至低):a. neospeech liangb. 科大讯飞小燕c. neospeech lilyd. neospeech huie. 科大讯飞小宇科大讯飞电话语音识别InterReco——应用开发及工具包为了方便语音识别系统的开发,InterReco提供了一系列的开发接口和应用工具,从而使得应用系统的开发更加高效,主要包含如下:一、应用开发接口·语音识别接口语音识别接口是InterReco提供的最重要的对外接口,是应用开发人员使用识别引擎进行语音识别开发所必需使用的接口。

这个接口提供强大的功能,能够发挥InterReco语音识别系统的优势,通过不同的并发编程模型简化编程复杂度,优化系统性能表现。

·语法接口语法编译管理接口提供API形式的语法编译和管理的方法,主要用来解决动态语法的编译、加载、激活的过程。

用户根据需要使用这些接口可以对自己的应用程序做出恰当的优化,提高应用系统灵活性。

语法管理接口允许用户管理和设置语法缓冲的策略。

·端点检测接口端点检测是语音识别一个重要的输入环节,该接口允许用户通过编程对端点检测的处理策略,和语音识别引擎进行交互。

·音频输入接口该接口提供一套能够使用户把电话语音输入设备挂接到InterReco语音识别引擎的方法,包含各种品牌的电话语音卡和麦克风。

通过这个接口,能够消除输入设备的多样化带来的集成复杂度,使得产品在音频输入方面具备优秀的可扩展性。

·管理维护接口该接口提供管理维护接口、日志接口、以及其他一些辅助接口。

二、应用优化方法分析和优化在语音识别的开发、应用过程中扮演非常重要的角色,好的分析和优化工具往往能够决定语音识别的应用是否能够成功。

InterReco 2.0中提供的主要分析优化方法有:·分析识别效果通过Call-Log纪录,使用分析工具分析统计,得出当前应用的总体识别率、语法内识别率等重要技术指标。

科大讯飞 XFS3031CN中文语音合成芯片 数据手册

科大讯飞 XFS3031CN中文语音合成芯片 数据手册

数据手册合肥讯飞数码科技有限公司安徽省合肥市国家级高新技术产业开发区信息产业基地讯飞语音大厦************0551- 5331837 XFS3031CN中文语音合成芯片数据手册XFS3031CN中文语音合成芯片数据手册目 录1 概述............................................................................................................................................. - 1 -2 主要应用领域............................................................................................................................. - 1 -3 功能特点..................................................................................................................................... - 1 -4 订货信息..................................................................................................................................... - 2 -5 系统构成框图............................................................................................................................. - 2 -6 引脚定义..................................................................................................................................... - 3 -7 芯片控制方式............................................................................................................................. - 5 - 7.1 控制命令 . (5)7.2 芯片回传 (5)8 通讯方式..................................................................................................................................... - 6 - 8.1 硬件连接 . (6)8.2 通讯传输字节格式 (6)9 芯片通讯协议............................................................................................................................. - 7 - 9.1 上位机发送的控制命令.. (7)9.1.1 语音合成命令............................................................................................................... - 8 -9.1.2 停止合成命令............................................................................................................... - 9 -9.1.3 暂停合成命令............................................................................................................... - 9 -9.1.4 恢复合成命令............................................................................................................. - 10 -9.1.5 状态查询命令............................................................................................................. - 10 -9.1.6 进入POWER DOWN 状态命令 .............................................................................. - 11 -9.2 芯片反馈信息 (11)10 产品规格................................................................................................................................... - 12 - 10.1 封装 . (12)10.2 特性参数 (13)10.2.1 极限值 ........................................................................................................................ - 13 -10.2.2 直流电气特性............................................................................................................. - 13 -10.2.3 音频DAC特性 .......................................................................................................... - 13 - 10.3 焊接工艺要求 (14)10.3.1 烘烤温度及时间......................................................................................................... - 14 -10.3.2 回流焊的峰值温度..................................................................................................... - 14 -11 .附录 ......................................................................................................................................... - 15 - 11.1 文本控制标记列表.. (15)11.2 提示音列表 (16)11.2.1 声音提示音列表......................................................................................................... - 16 -11.2.2 和弦提示音列表......................................................................................................... - 16 - 11.3 芯片状态查询方法说明 (17)XFS3031CN中文语音合成芯片数据手册1 概述XFS3031CN是合肥讯飞数码科技有限公司推出的一款高性价比的中文语音合成芯片。

讯飞移动广告平台Android SDK接入指南

讯飞移动广告平台Android SDK接入指南

科大讯飞股份有限公司iFLYTEK CO.,LTD讯飞移动广告平台Android SDK接入指南讯飞移动广告平台/,中国最大的移动交互式广告平台。

平台凭借优质的广告资源、精准的数据分析、高效稳定的收益效果、智能多维的交互形式,为开发者带来强悍稳定的变现能力,致力于构建一个高质、高效的广告技术服务平台。

讯飞移动广告平台聚焦移动广告聚合优化,通过先进的收入优化算法和简单易用的管理界面,帮助开发者快速实现应用变现,大幅提高移动广告收入。

独创的智能语音交互广告,打破了传统广告交互形式,让广告变得更生动有趣,从而带来极致的广告体验和最高效的广告收益。

1.概述欢迎使用讯飞移动广告平台。

通过本文档,您可以在几分钟之内轻松完成移动广告的集成过程。

集成过1.0~1.6版本SDK的开发者朋友,请先阅读SDK2.0集成注意事项,方便您快速集成。

2.集成说明2.1申请appid在/网站中注册成为开发者并创建一款应用,您将获得一个appid,用于标识您的应用。

2.2导入SDK1.下载最新版SDK的zip包,将其中的libs 文件夹下jar文件复制到本地工程libs子目录下。

2.Eclipse用户右键点击工程根目录,选择Properties -> Java Build Path -> Libraries,然后点击Add External JARs... 选择指向jar的路径,点击OK,即导入成功。

2.3配置AndroidManifest文件2.4组件声明2.5添加旗帜广告旗帜广告,即Banner 广告,可以将该广告视图放于任何可以容纳的位置(容纳的容器或位置必须在屏幕内并且尺寸等于或大于广告视图,推荐放在界面的顶部或底部)。

旗帜广告具备轮播功能,默认15秒轮播一次。

为了提高应用体验效果,开发者可以为放置广告的Layout自定义背景色或背景图片。

2.6添加插屏广告插屏广告,是一种开发者可以在界面过场时请求并根据需要进行展示的间质性广告形式。

智慧语音助手产品操作手册

智慧语音助手产品操作手册

讯飞智慧语音助手用户手册智慧语音助手用户使用手册科大讯飞讯飞智元信息科技有限公司1概述智慧语音助手是面向公检法领域的,只需将usb 麦克风直连工作电脑。

基于桌面端输入文字的场景,通过语音识别、语音理解等技术对音频信息进行智能化识别,并结合专业定制的法言法语模型进行优化处理并上屏,为法官、检察官和干警提供一套快速输入的工具,有效提高办公办案质效。

以下为连接拓扑图:2功能介绍2.1安装客户端双击安装包,进入安装界面根据提示依次点击下一步,安装过程中可选择安装文件夹,默认安装文件夹:C:\Program 智慧语音助手。

安装完毕后点击桌面“智慧语音助手”图标即可启动软件。

2.2精简模式及标准模式客户端支持精简模式和标准模式两种显示模式的切换。

需要使用语音输入时,建议在精简模式下,使用小窗口来控制语音输入功能的开启/ 关闭。

点击客户端右上角切换按钮,可以在两种显示模式下进行切换。

注:标准模式暂不开放,仅开放精简模式供部署用。

精简模式标准模式2.3 语音转写当启动客户端后,网络连接正常且有麦克风设备接入。

点击客户端上的“麦克风”按钮,即可进入转写状态。

此时将鼠标光标移入输入框中,对着麦克风进行说话即可进行转写。

再次点击麦克风按钮,即可停止转写。

语音识别状态显示效果关闭识别中2.3.1 热词配置建议将常用词汇如单位、人名、地名等添加为个性化热词,添加后可以提高对应热词的识别率。

操作路径:精简模式下,点击客户端下发“添加热词”功能按钮,打开热词添加页面,在输入框中输入对应的热词点击“添加”按钮进行添加;标准模式下,点击客户端右上角“设置”功能按钮,打开热词添加页面,在输入框中输入对应的热词点击“添加”按钮进行添加;注意:热词只支持中文,最多8 个字。

热词最多可以添加100 个。

2.3.2 资料配置上传办公资料,训练后可提升资料内容的整体识别率。

操作路径:打开设置页面,选中“资料配置”,点击“上传文件”选择本地word或txt文件进行上传,点击“应用”按钮后开始资料训练。

广行-讯飞智能语音助手使用说明书

广行-讯飞智能语音助手使用说明书

广行-讯飞智能语音助手用户使用手册产品简介:广行-讯飞智能语音助手是一款广行科技与科大讯飞联合开发打造的,通过语音能够在安徽广电机顶盒上进行频道切换、节目查询、影视点播、天气查询、股票查询、菜单导航、打开应用,功能操作的产品。

该产品摆脱了传统电视的按键操作,通过语音进行控制,最大程度的提升了安徽广电机顶盒操作上的便利。

基础操作:长按语音键:1、机顶盒启动后,任意时刻按住遥控器上的【语音】键,电视屏幕右下方将弹出语音交互框;2、语音交互框内出现“说完后松手”的提示字样出现,请距离遥控器顶部的麦克风15厘米以内用清晰流畅的普通话对着遥控器说出您的指令;3、在说完指令后,松开【语音】键,语音交互框将呈现“正在识别中”字样;4、稍等片刻,语音交互框中将呈现用户所述内容及语音助手反馈内容;5、之后,语音助手将自动执行反馈内容的操作。

短按语音键:短按语音键,电视屏幕右侧将会弹出智能语音助手的界面。

界面与长按后弹出的界面有所不同,会有主要功能的提示。

用户可通过上下键、确定、返回键逐级查询主要功能的帮助提示。

支持功能:一、频道切换功能功能简介:高清交互平台目前为用户提供了180余个电视频道。

现在您不需要再记忆频道号,输入数字进行频道切换了,只需说出频道的名称或频道序号就能直接收看该频道。

使用方法:说出频道名称或频道序号即可切换到指定频道。

详细步骤:1、机顶盒启动后,任意时刻按住遥控器上的【语音】键;2、当屏幕上出现“说完后松手”的提示字样出现时,请距离遥控器顶部的麦克风15厘米以内用清晰流畅的普通话对着遥控器说出您想要收看的频道名称。

比如您可以说:“中央一台 /我想看安徽卫视 /切换到卡酷动画 / 12频道”等;3、说完指令后,请松开语音键;稍候片刻,就会跳转到您想看的电视频道了。

二、节目查询功能功能简介:您可以通过语音查询某一个频道有哪些节目或者某一个节目将在什么时间播出使用方法:说出频道节目单查询指令就能浏览指定频道的节目播出时间表说出节目的播出时间查询指令就能查看指定节目的播出时间信息。

科大讯飞语音云开发文档

科大讯飞语音云开发文档

科⼤讯飞语⾳云开发⽂档⽬录隐藏前⾔1. 概述1.1. MSP20⽹络拓扑结构说明1.2. 名词和缩略语1.3. ⽂档说明2. QTTS开发接⼝说明2.1. QTTS接⼝简介2.1.1. QTTS接⼝函数列表2.1.2. 返回值说明2.1.3. 发包组件2.1.4. 开发包⽀持情况2.2. 函数调⽤2.2.1. QTTSInit2.2.2. QTTSSessionBegin2.2.3. QTTSTextPut2.2.4. QTTSAudioGet2.2.5. QTTSAudioInfo2.2.6. QTTSSessionEnd2.2.7. QTTSLogEvent2.2.8. QTTSFini3. QISR开发接⼝说明3.1. QISR接⼝简介3.1.1. QISR接⼝函数列表3.1.2. 返回值说明3.1.3. 发包组件3.1.4. 开发包⽀持情况3.2. 函数调⽤3.2.1. QISRInit3.2.2. QISRSessionBegin3.2.3. QISRGrammarActivate3.2.4. QISRAudioWrite3.2.5. QISRGetResult3.2.6. QISRSessionEnd3.2.7. QISRGetParam3.2.8. QISRFini4. 错误码的定义4.1. 宏4.2. 错误码列表前⾔欢迎使⽤iFLY Mobile Speech Platform 2.0讯飞移动语⾳平台!iFLY Mobile Speech Platform 2.0讯飞移动语⾳平台是基于讯飞公司已有的ISP和IMS产品,开发出的⼀款符合移动互联⽹⽤户使⽤的语⾳应⽤开发平台,提供语⾳合成、语⾳听写、语⾳识别、声纹识别等服务,为语⾳应⽤开发爱好者提供⽅便易⽤的开发接⼝,使得⽤户能够基于该开发接⼝进⾏多种语⾳应⽤开发。

其主要功能有:1) 实现基于HTTP协议的语⾳应⽤服务器,集成讯飞公司最新的语⾳引擎,⽀持语⾳合成、语⾳听写、语⾳识别、声纹识别等服务;2) 提供基于移动平台和PC上的语⾳客户端⼦系统,内部集成⾳频处理和⾳频编解码模块,提供关于语⾳合成、语⾳听写、语⾳识别和声纹识别完善的API。

科大讯飞 智能知识库使用手册

科大讯飞 智能知识库使用手册

科大讯飞智能知识库使用手册摘要:一、引言二、科大讯飞智能知识库简介1.产品定位2.功能特点三、功能详解1.知识查询2.知识管理3.知识创作4.知识分享与传播四、应用场景1.个人知识提升2.企业知识管理3.教育与培训五、操作指南1.注册与登录2.基本操作教程3.高级功能使用六、常见问题与解决方案七、结语正文:一、引言在信息爆炸的时代,如何有效地获取、管理、应用知识成为一大难题。

科大讯飞智能知识库应运而生,为用户提供一个全方位、高效的知识服务平台。

本文将详细介绍科大讯飞智能知识库的功能特点、应用场景以及操作指南等内容,帮助用户更好地利用这一工具提升自身知识水平。

二、科大讯飞智能知识库简介1.产品定位科大讯飞智能知识库是一款集知识查询、管理、创作、分享与传播于一体的智能化知识服务平台。

旨在为用户提供一站式知识解决方案,满足个人和企业不断增长的知识需求。

2.功能特点(1)知识查询:用户可以通过关键词搜索、目录导航等方式快速定位所需知识资源。

(2)知识管理:智能知识库提供个人知识库管理功能,用户可以对自己的知识进行分类、标签、收藏等管理操作。

(3)知识创作:用户可以利用智能知识库进行知识创作,包括文本、图片、音频等多种形式。

(4)知识分享与传播:用户可以将知识库中的内容一键分享给好友或社群,实现知识的传播与交流。

三、功能详解1.知识查询:智能知识库涵盖了众多领域的知识资源,用户可通过输入关键词或选择目录进行查询。

2.知识管理:用户可以对自己的知识进行分类、标签、收藏等管理操作,方便后续查找和学习。

3.知识创作:智能知识库提供了丰富的模板和素材,用户可以轻松地进行知识创作,打造属于自己的知识体系。

4.知识分享与传播:用户可以将知识库中的内容一键分享给好友或社群,共同学习、进步。

四、应用场景1.个人知识提升:利用智能知识库进行高效学习,拓宽知识面,提升自身能力。

2.企业知识管理:企业可以搭建内部知识库,实现知识共享,提高员工工作效率。

sdk使用教程

sdk使用教程

sdk使用教程SDK是软件开发工具包(Software Development Kit)的缩写,它是一组开发工具、库和文档的集合,旨在帮助开发者更快速、更高效地开发软件应用程序。

一、SDK的基本概念与作用1.1 什么是SDK?SDK是由软件公司、硬件厂商或第三方提供的一些开发工具、库和文档的集合,用于帮助开发者在特定平台上构建应用程序。

1.2 SDK的作用SDK的作用是简化开发过程,提供一系列的工具和资源,使开发者能够更快速、更高效地开发应用程序。

它可以提供一些常用功能的实现,减少代码的编写量,提高开发效率。

二、SDK的使用流程2.1 下载和安装SDK在开始使用SDK之前,首先需要从官方网站或其他途径下载并安装SDK。

安装过程通常会包括一些必要的配置和设置,根据不同的SDK,可能需要安装其他依赖软件。

2.2 创建项目安装完SDK后,就可以创建一个新的项目。

根据具体开发平台和开发工具,创建一个新的项目可能会有不同的步骤和选项,但一般都会包括设置项目名称、选择开发平台、配置项目属性等。

2.3 导入SDK在创建项目之后,需要将SDK导入到项目中供开发使用。

通常,可以将SDK以库文件或模块的形式导入到项目中,然后在代码中引用它们。

2.4 编写代码在导入SDK后,就可以开始编写代码了。

根据SDK的具体功能和特点,在编写代码时可能需要按照相应的规范和API进行调用。

一般来说,SDK会提供一份详细的文档,其中包含了API的使用说明和示例代码,可以参考文档进行开发。

2.5 调试和测试在编写完成代码后,可以进行调试和测试。

开发工具一般会提供一系列的调试工具,可以帮助开发者检查和修复代码中的错误,并确保应用程序的正常运行。

2.6 打包和发布在经过测试没有问题之后,就可以将应用程序打包并发布到相关的应用商店或平台上。

打包和发布的具体流程和步骤可能会因平台和SDK的不同而有所区别。

三、常见SDK的使用示例3.1 Android SDKAndroid SDK是一套用于Android平台开发的工具集合。

科大讯飞语音合成接口webapi调用方法

科大讯飞语音合成接口webapi调用方法

科⼤讯飞语⾳合成接⼝webapi调⽤⽅法1.先搬官⽹demo,做了⼀些改动,在vue中调⽤,需要安装worker-loader(我的版本2.0.0)package.json然后在vue.config.js中配置(这⾥如果worker-loader版本过⾼会报错)configureWebpack: config => {config.module.rules.push({test: /\.worker.js$/,use: {loader: 'worker-loader',options: { inline: true, name: 'workerName.[hash].js' }}})},然后核⼼代码:audio.js/** @Autor: lycheng* @Date: 2020-01-13 16:12:22*//*** Created by iflytek on 2019/11/19.** 在线语⾳合成调⽤demo* 此demo只是⼀个简单的调⽤⽰例,不适合⽤到实际⽣产环境中** 在线语⾳合成 WebAPI 接⼝调⽤⽰例接⼝⽂档(必看):https:///doc/tts/online_tts/API.html* 错误码链接:* https:///doc/tts/online_tts/API.html* https:///document/error-code (code返回错误码时必看)**/// 1. websocket连接:判断浏览器是否兼容,获取websocket url并连接,这⾥为了⽅便本地⽣成websocket url// 2. 连接websocket,向websocket发送数据,实时接收websocket返回数据// 3. 处理websocket返回数据为浏览器可以播放的⾳频数据// 4. 播放⾳频数据// ps: 该⽰例⽤到了es6中的⼀些语法,建议在chrome下运⾏// import {downloadPCM, downloadWAV} from 'js/download.js'import CryptoJS from 'crypto-js'import Enc from 'enc'import TransWorker from './transcode.worker.js'// import VConsole from 'vconsole'import { Base64 } from 'js-base64'// import './index.css'let transWorker = new TransWorker()//APPID,APISecret,APIKey在控制台-我的应⽤-语⾳合成(流式版)页⾯获取const APPID = '把⾃⼰的填上就ok'const API_SECRET = '把⾃⼰的填上就ok'const API_KEY = '把⾃⼰的填上就ok'function getWebsocketUrl() {return new Promise((resolve, reject) => {var apiKey = API_KEYvar apiSecret = API_SECRETvar url = 'wss:///v2/tts'var host = location.hostvar date = new Date().toGMTString()var algorithm = 'hmac-sha256'var headers = 'host date request-line'var signatureOrigin = `host: ${host}\ndate: ${date}\nGET /v2/tts HTTP/1.1`var signatureSha = CryptoJS.HmacSHA256(signatureOrigin, apiSecret)var signature = CryptoJS.enc.Base64.stringify(signatureSha)var authorizationOrigin = `api_key="${apiKey}", algorithm="${algorithm}", headers="${headers}", signature="${signature}"`var authorization = btoa(authorizationOrigin)url = `${url}?authorization=${authorization}&date=${date}&host=${host}`resolve(url)})}const TTSRecorder =class {constructor({speed = 30,voice = 50,pitch = 50,voiceName = 'xiaoyan',appId = APPID,text = '',tte = 'UTF8',defaultText = '请输⼊您要合成的⽂本',this.speed = speedthis.voice = voicethis.pitch = pitchthis.voiceName = voiceNamethis.text = textthis.tte = ttethis.defaultText = defaultTextthis.appId = appIdthis.audioData = []this.rawAudioData = []this.audioDataOffset = 0this.status = 'init'transWorker.onmessage = (e) => {this.audioData.push(...e.data.data)this.rawAudioData.push(...e.data.rawAudioData)}}// 修改录⾳听写状态setStatus(status) {this.onWillStatusChange && this.onWillStatusChange(this.status, status) this.status = status}// 设置合成相关参数setParams({ speed, voice, pitch, text, voiceName, tte }) {speed !== undefined && (this.speed = speed)voice !== undefined && (this.voice = voice)pitch !== undefined && (this.pitch = pitch)text && (this.text = text)tte && (this.tte = tte)voiceName && (this.voiceName = voiceName)this.resetAudio()}// 连接websocketconnectWebSocket() {this.setStatus('ttsing')return getWebsocketUrl().then(url => {let ttsWSif ('WebSocket' in window) {ttsWS = new WebSocket(url)} else if ('MozWebSocket' in window) {ttsWS = new MozWebSocket(url)} else {alert('浏览器不⽀持WebSocket')return}this.ttsWS = ttsWSttsWS.onopen = e => {this.webSocketSend()this.playTimeout = setTimeout(() => {this.audioPlay()}, 1000)}ttsWS.onmessage = e => {this.result(e.data)}ttsWS.onerror = e => {clearTimeout(this.playTimeout)this.setStatus('errorTTS')alert('WebSocket报错,请f12查看详情')console.error(`详情查看:${encodeURI(url.replace('wss:', 'https:'))}`)}ttsWS.onclose = e => {console.log(e)}})}// 处理⾳频数据transToAudioData(audioData) {}// websocket发送数据webSocketSend() {var params = {common: {app_id: this.appId, // APPID},business: {aue: 'raw',auf: 'audio/L16;rate=16000',vcn: this.voiceName,speed: this.speed,volume: this.voice,pitch: this.pitch,bgs: 0,tte: this.tte,data: {status: 2,text: this.encodeText(this.text || this.defaultText,this.tte === 'unicode' ? 'base64&utf16le' : '')},}this.ttsWS.send(JSON.stringify(params))}encodeText (text, encoding) {switch (encoding) {case 'utf16le' : {let buf = new ArrayBuffer(text.length * 4)let bufView = new Uint16Array(buf)for (let i = 0, strlen = text.length; i < strlen; i++) {bufView[i] = text.charCodeAt(i)}return buf}case 'buffer2Base64': {let binary = ''let bytes = new Uint8Array(text)let len = bytes.byteLengthfor (let i = 0; i < len; i++) {binary += String.fromCharCode(bytes[i])}return window.btoa(binary)}case 'base64&utf16le' : {return this.encodeText(this.encodeText(text, 'utf16le'), 'buffer2Base64') }default : {return Base64.encode(text)}}}// websocket接收数据的处理result(resultData) {let jsonData = JSON.parse(resultData)// 合成失败if (jsonData.code !== 0) {alert(`合成失败: ${jsonData.code}:${jsonData.message}`)console.error(`${jsonData.code}:${jsonData.message}`)this.resetAudio()return}transWorker.postMessage(jsonData.data.audio)if (jsonData.code === 0 && jsonData.data.status === 2) {this.ttsWS.close()}}// 重置⾳频数据resetAudio() {this.audioStop()this.setStatus('init')this.audioDataOffset = 0this.audioData = []this.rawAudioData = []this.ttsWS && this.ttsWS.close()clearTimeout(this.playTimeout)}// ⾳频初始化audioInit() {let AudioContext = window.AudioContext || window.webkitAudioContextif (AudioContext) {this.audioContext = new AudioContext()this.audioContext.resume()this.audioDataOffset = 0}}// ⾳频播放audioPlay() {this.setStatus('play')let audioData = this.audioData.slice(this.audioDataOffset)this.audioDataOffset += audioData.lengthlet audioBuffer = this.audioContext.createBuffer(1, audioData.length, 22050) let nowBuffering = audioBuffer.getChannelData(0)if (audioBuffer.copyToChannel) {audioBuffer.copyToChannel(new Float32Array(audioData), 0, 0)} else {}}let bufferSource = this.bufferSource = this.audioContext.createBufferSource() bufferSource.buffer = audioBufferbufferSource.connect(this.audioContext.destination)bufferSource.start()bufferSource.onended = event => {if (this.status !== 'play') {return}if (this.audioDataOffset < this.audioData.length) {this.audioPlay()} else {this.audioStop()}}}// ⾳频播放结束audioStop() {this.setStatus('endPlay')clearTimeout(this.playTimeout)this.audioDataOffset = 0if (this.bufferSource) {try {this.bufferSource.stop()} catch (e) {console.log(e)}}}start() {if(this.audioData.length) {this.audioPlay()} else {if (!this.audioContext) {this.audioInit()}if (!this.audioContext) {alert('该浏览器不⽀持webAudioApi相关接⼝')return}this.connectWebSocket()}}stop() {this.audioStop()}}export default TTSRecorder// ======================开始调⽤============================= // var vConsole = new VConsole()// let ttsRecorder = new TTSRecorder()// ttsRecorder.onWillStatusChange = function(oldStatus, status) {// // 可以在这⾥进⾏页⾯中⼀些交互逻辑处理:按钮交互等// // 按钮中的⽂字// let btnState = {// init: '⽴即合成',// ttsing: '正在合成',// play: '停⽌播放',// endPlay: '重新播放',// errorTTS: '合成失败',// }// $('.audio-ctrl-btn')// .removeClass(oldStatus)// .addClass(status)// .text(btnState[status])// }// $('.audio-ctrl-btn').click(function() {// if (['init', 'endPlay', 'errorTTS'].indexOf(ttsRecorder.status) > -1) {// ttsRecorder.start()// } else {// ttsRecorder.stop()// }// })// $('#input_text').change(function(){// ttsRecorder.setParams({// text: this.value// })transcode.worker.js(这个官⽹demo⾥⾯有)/** @Autor: lycheng* @Date: 2020-01-13 16:12:22*/(function(){let minSampleRate = 22050self.onmessage = function(e) {transcode.transToAudioData(e.data)}var transcode = {transToAudioData: function(audioDataStr, fromRate = 16000, toRate = 22505) { let outputS16 = transcode.base64ToS16(audioDataStr)let output = transcode.transS16ToF32(outputS16)output = transcode.transSamplingRate(output, fromRate, toRate)output = Array.from(output)self.postMessage({data: output,rawAudioData: Array.from(outputS16)})},transSamplingRate: function(data, fromRate = 44100, toRate = 16000) { var fitCount = Math.round(data.length * (toRate / fromRate))var newData = new Float32Array(fitCount)var springFactor = (data.length - 1) / (fitCount - 1)newData[0] = data[0]for (let i = 1; i < fitCount - 1; i++) {var tmp = i * springFactorvar before = Math.floor(tmp).toFixed()var after = Math.ceil(tmp).toFixed()var atPoint = tmp - beforenewData[i] = data[before] + (data[after] - data[before]) * atPoint}newData[fitCount - 1] = data[data.length - 1]return newData},transS16ToF32: function(input) {var tmpData = []for (let i = 0; i < input.length; i++) {var d = input[i] < 0 ? input[i] / 0x8000 : input[i] / 0x7ffftmpData.push(d)}return new Float32Array(tmpData)},base64ToS16: function(base64AudioData) {base64AudioData = atob(base64AudioData)const outputArray = new Uint8Array(base64AudioData.length) for (let i = 0; i < base64AudioData.length; ++i) {outputArray[i] = base64AudioData.charCodeAt(i)}return new Int16Array(new DataView(outputArray.buffer).buffer)},}})()在vue中调⽤:import ttsRecorder from '../api/audio.js'speakInfo(){var ttss=new ttsRecorder()ttss.setParams({text:'要合成的⽂本'})ttss.start()}然后调⽤这个⽅法就⾏了。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

本文档可能涉及安徽科大讯飞信息科技股份有限公司的专利 (或正在申请的专利) 、 商 标、版权或其他知识产权,除非得到安徽科大讯飞信息科技股份有限公司的明确书面许可 协议,本文档不授予使用这些专利(或正在申请的专利) 、商标、版权或其他知识产权的任 何许可协议。
本手册提及的其它产品和公司名称均可能是各自所有者的商标。
目 录
第1章 概述 ........................................................................................................................................ 1
1.1 目的 .....................................................................................................................1 1.2 范围 .....................................................................................................................1
第4章 RECOGNIZER 开发接口说明 ....................................................................................................12
4.1 公共方法............................................................................................................12 4.2 事件 ...................................................................................................................12 4.3 构造函数详细信息 .............................................................................................12
第2章 使用说明 ................................................................................................................................ 2
2.1 开发工具..............................................................................................................2 2.2 申请 APPID.............................................................................................................2 2.3 支持的平台 ..........................................................................................................2 2.4 库加载 .................................................................................................................2
本软件产品受最终用户许可协议( EULA)中所述条款和条件的约束,该协议位于产 品文档和/或软件产品的联机文档中, 如果您使用本产品,表明您已阅读并接受了 EULA 的 条款。
版权所有© 安徽科大讯飞信息科技股份有限公司 Copyright © Anhui USTC iFLYTEK CO., LTD.
讯飞语音云 Flash 平台 SDK
开发手册
安徽科大讯飞信息科技股份有限公司 ANHUI USTC iFLYTEK CO., LTD.
本手册内容若有变动,恕不另行通知。本手册例子中所用的公司、人名和数据若非特 别声明,均属虚构。未得到安徽科大讯飞信息科技股份有限公司明确的书面许可,不得以 任何目的、以任何形式或手段(电子的或机械的)复制或传播手册的任何部分。
第3章 合成开发接口说明 ................................................................................................................. 4
3.1 公共方法..............................................................................................................4 3.2 事件 .....................................................................................................................4 3.3 构造函数详细信息 ...............................................................................................4 3.4 方法详细信息 ......................................................................................................6 3.4.1 synthStart ............................................................................................6 3.4.2 synthStop ..............................................................................................7 3.4.3 logSave ..................................................................................................8 3.4.4 dispose ..................................................................................................8 3.4.5 Play .......................................................................................................9 3.4.6 Pause......................................................................................................9 3.4.7 Stop .......................................................................................................9 3.5 事件详细信息 ....................................................................................................10 3.5.1 合成音频到达事件 ...............................................................................10 3.5.2 合成完成事件 .......................................................................................10 3.5.3 错误事件 ..............................................................................................10 3.5.4 可以开始播放事件 ............................................................................... 11 3.5.5 音频数据等待事件 ............................................................................... 11 3.5.6 播放结束事件 ....................................................................................... 11
4.4 方法详细信息 ....................................................................................................14 4.4.1 recogStart ..........................................................................................14 4.4.2 recordStop ..........................................................................................15 4.4.3 recogStop ............................................................................................16 4.4.4 logSave ................................................................................................16 4.4.5 dispose ................................................................................................17 4.4.6 grammarSet ..........................................................................................17 4.4.7 dataUpload ..........................................................................................18 4.5 事件细信息 ....................................................................................................18 4.5.1 麦克风状态事件 ...................................................................................18 4.5.2 录音停止事件 .......................................................................................19 4.5.3 音频到达事件 .......................................................................................19 4.5.4 结果获取事件 .......................................................................................19 4.5.5 识别完成事件 .......................................................................................20 4.5.6 错误事件 ..............................................................................................20
相关文档
最新文档