GB/T36464.1-2020

信息技术智能语音交互系统第1部分:通用规范

Informationtechnology—Intelligentspeechinteractionsystem—Part1:Generalspecifications

本文分享国家标准信息技术智能语音交互系统第1部分:通用规范的全文阅读和高清PDF的下载,信息技术智能语音交互系统第1部分:通用规范的编号:GB/T36464.1-2020。信息技术智能语音交互系统第1部分:通用规范共有19页,发布于2020-11-01
  • 中国标准分类号(CCS)L77
  • 国际标准分类号(ICS)35.240.01
  • 实施日期2020-11-01
  • 文件格式PDF
  • 文本页数19页
  • 文件大小1.23M

以图片形式预览信息技术智能语音交互系统第1部分:通用规范

信息技术智能语音交互系统第1部分:通用规范


国家标准 GB/36464.1一2020 信息技术智能语音交互系统 第 部分:通用规范 nformationteehnology一Inteligenspeechinteraetionsystemr Part1:Generalspeeifieations 2020-04-28发布 2020-11-01实施 国家市场监督管理总局 发布 国家标涯花警理委员会国家标准
GB;/T36464.1一2020 目 次 前言 范围 规范性引用文件 2 术语和定义 3 系统通用功能框架 语音交互界面要求 5.1语音采集 5.2语音播报 输人输出 5,3 5.!环境噪声适应能力 数据资源要求 6.1音频数据 6.2文本数据 前端处理要求 7.1语音唤醒 7.2声源定位 7.3声纹识别 语音增强 7.4 7.5 格式转换 7.6重采样 语音处理要求 8 8.1语音识别 8.2语义理解 8.3语音合成 8.4端点检测 8.5语音编解码 8.6全双工交互 8.7情感计算 服务接口要求 10应用业务处理要求 附录A(资料性附录》部分参数及其计算方法 l0 A.1概述 10 A.2拾音距离 10 A.3语音交互成功率 10 A.4语音唤醒
GB/T36464.1一2020 A.5语音识别 1l A.6语义理解 A.7语音合成 12 A.8语音质量 12 A.9声纹识别率 15 A.l10语音编解压缩率 13 A语音增强" . 15 A.l12声源定位 13 13 A.13语音打断成功率 15 参考文献
GB;/T36464.1一2020 前 言 GB/T36464《信息技术智能语音交互系统》拟分为以下几个部分 第1部分:通用规范; 第2部分:智能家居; 第3部分:智能客服; 第4部分;移动终端; 第5部分:车载终端 本部分为GB/T36464的第1部分 本部分按照GB/T1.1一2009给出的规则起草 请注意本文件的某些内容可能涉及专利 本文件的发布机构不承担识别这些专利的责任 本部分由全国信息技术标准化技术委员会(sAc/TC28)提出并归口 本部分起草单位;电子技术标准化研究院科大讯飞股份有限公司.沈阳新松机器人自动化股 份有限公司、深圳市优必选科技股份有限公司、科学院自动化研究所、上海智臻智能网络科技股份 有限公司、盲人协会、 ,电信集团有限公司、百度在线网络技术(北京)有限公司、中科讯飞互联 北京)信息科技有限公司、上海计算机软件技术开发中心、北京小米移动软件有限公司、西宁市大数据 服务管理局、中汽研(天津)汽车工程研究院有限公司、西宁大数据有限公司、极限元(杭州)智能科技股 份有限公司移动通信有限公司研究院、厦门盈趣科技股份有限公司、深圳市腾讯计算机系统有限 公司、重庆中科云从科技有限公司、医学科学院生物医学工程研究所、广东省标准化研究院、苏州思 必驰信息科技有限公司、出门问问信息科技有限公司,哈尔滨亿时代数码科技开发有限公司、四川赛闯 检测股份有限公司 本部分主要起草人;董建、马万钟、徐洋、,张锋、袁杰、,陶建华、王海坤、叶雷鸣、李洪亮、李庆忠、杨震、 吕彦锋、宋文林、穆亚敏、潘熔、蔡立志、朱亚军、周伟、孟宪明、孙巍、温正棋、鲍薇、杨本植、陈建成 戴小兰、翟尤、李军、蒲江波、王佳胜,龙梦竹、陈威钢、赵她、冯丽
GB;/T36464.1一2020 信息技术智能语音交互系统 第1部分通用规范 范围 GB/T36464的本部分给出了智能语音交互系统通用功能框架,规定了语音交互界面、数据资源、 前端处理、语音处理、服务接口,应用业务处理等功能单元要求 本部分适用于智能语音交互系统的通用设计,开发、应用和维护 规范性引用文件 下列文件对于本文件的应用是必不可少的 凡是注日期的引用文件,仅注日期的版本适用于本文 件 凡是不注日期的引用文件,其最新版本(包括所有的修改单)适用于本文件 GB/T1l460信息技术汉字字型要求和检测方法 GB18030信息技术中文编码字符集 GB/T210242007 中文请音合成系统通用技术规也 GB/T34083一2017中文语音识别互联网服务接口规范 GB/T341452017中文语音合成互联网服务接口规范 s/T11380-2008自动声纹识别(说话人识别技术规范 术语和定义 下列术语和定义适用于本文件 3.1 语音交互speechinteraction 人类和功能单元之间通过语音进行的信息传递和交流活动 [[GB/T36464.2一2018,定义3.1] 3.2 语音交互系统speeehinteraetionsystem 由功能单元(或其组合)、数据资源等组成的能够实现与人类之间进行语音交互的系统 [GB/T36464.22018,定义3.2] 3.3 智能语音交互系统smartspeeehinteraetionsystemm 以语音识别,语义理解,语音合成等全部或部分人工智能技术为基础,由智能软硬件组成,具备智能 人机交互能力的语音交互系统 3.4 人机交互humanmachineinteractionm 人类和功能单元之间,为完成确定任务,以一定的交互方式进行的信息传递和交流活动
GB/T36464.1一2020 3.5 功能单元funetiomalunit 能够完成特定任务的硬件实体,或软件实体,或硬件实体和软件实体 [GB/T5271.12000,定义01.01.401 3.6 语音合成speeehsynthesis 通过机械的、电子的方法合成人类语言的过程 [[GB/T21024一2007,定义3.1] 3.7 语音识别speeeh reoenttion 将人类的声音信号转化为文字或者指令的过程 [GB/T21023一2007,定义3.1] 3.8 关键字识别keywordspotting 针对连续语音流中的特定关键字进行识别和检出的过程 注:关字识别不需要识别全部文字,只需要识别和检测出关注的关键字及其出现位置 3.9 命令字识别commmandworlrecognitionm -种基于语音识别语法的语音识别方式,是在语音识别语法规则限定的范围内,对于给定的语音输 人,语音识别引擎给出语音识别语法覆盖范围内的文本或拒识作为识别结果 [GB/T34083一2017,定义3.3] 3.10 连续语音识别comtimous sspeechreeognitionm 识别任意的连续语音,并给出相对应的文本 注;连续语音识别不限制用户说话的词汇,内容和方式,用户可以以任意说的形式输人语音 [GB/T340832017,定义3.4们 3.11 语义理解semantiunderstanding 使功能单元理解人说话的意图 3.12 semanticdiet 语义词典 tionary 用于语义理解的词汇工具 3.13 语义库 nantielibrary Sem 以语义网络表示的结构化知识的集合 注语义库包含具有语义信息的字,词,旬等说法 3.14 声纹voiceprint 对语音中所蕴含的、能表征和标识说话人的语音特征,以及基于这些特征(参数)建立的数学模型的 总称 [[SJ/T11380一2008,定义3.1.1 3.15 VPR 声纹识别voiceprint egmtn 说话人识别pakerreenion
GB;/T36464.1一2020 根据待识别语音的声纹特征识别该段语音所对应的说话人的过程 [[SI/T11380一2008,定义3.1.6 3.16 mode 声纹模型oieeprint" 对声纹特征进行描述的数学模型 [S/T113802008,定义3.1.3] 3.17 ;voice 语音唤醒speechwakeup;v trigger 处于音频流监听状态的语音交互系统,在检测到特定的特征或事件出现后,切换到命令字识别,连 续语音识别等其他处理状态的过程 3.18 唤醒命令字wakeupcommandword 用于唤醒处于关键字识别状态的语音交互系统所用的结构化关键字 3.19 误唤醒falsewakeup 语音唤醒过程中出现的,无音频流或音频流中没有出现唤醒所需的特征或事件时,语音唤醒系统被 唤醒的现象 3.20 eeeh ssion 语音压缩spe compre 用于在较窄的频带上传输或存储语音信号,或者采用比正常情况下所必需的比特量少的一种语音 处理技术 [GB/T5271.292006,定义29.01.27] 3.21 压缩等级compressionlevel 对语音压缩算法输出的压缩语音码流率的档次划分 注:不同的档次划分决定了编解码算法的复杂程度,决定了解码后的语音质量 3.22 端点检测voieeaetivitydeteetionm -种用于分析,判断连续音频流中有效语音起始点和结束点的语音处理技术 3.23 麦克风阵列 mmicrophonearray 由具有确定空间拓扑结构的多个麦克风组成的,对信号的空间特性进行采样并滤波的系统 3.24 语音增强speeehenhaneement 当有效语音信号被各种噪声干扰,甚至淹没后,从含有噪声背景的声音信号中提取有效语音信号, 抑制、降低噪声干扰的技术 3.25 混响 reyerberation 语音信号在室内传播时,由于反射、衍射等原因,使得语音信号到达语音采集设备的传播路径除了 直达路径外还存在着其他路径,从而产生接收信号幅度衰减、音质变差等降低语音信号质量的现象 3.26 有效语音信号valid lspeechsignal 有效语音valid speech
GB/T36464.1一2020 语音采集过程中所关注,期望的语音信号 3.27 噪声 noise 语音采集过程中,采集到的由非有效语音信号源发出的,能干扰、影响对有效语音信号的理解或处 理的声音信号 3.28 acousticsourcelocalization 声源定位 对发声物体位置的判断过程 3.29 语音打断speeehinterruption 语音交互系统在播放声音的过程中,当语音采集设备检测到有效语音输人时,中断播放声音,转到 语音识别等其他处理过程 [[GB/T36464,22018,定义3,18] 3.30 情感计算 eompting affective 在人机交互过程中对特定情感的收集、识别、决策和表示 系统通用功能框架 智能语音交互系统(以下简称系统)包括语音交互界面、前端处理、语音处理、服务接口,应用业务处 理和数据资源等功能单元,其中 语音交互界面提供系统与人直接进行语音交互的人机界面,包括语音信号输人、输出以及由前 a 端处理、语音处理支撑的语音能力 数据资源包括系统处理的音频数据和文本数据 b 前端处理提供语音唤醒、声源定位、声纹识别语音增强、格式转换、重采样等功能; c 语音处理提供语音识别语义理解、语音合成、端点检测、语音编解码、全双工交互、情感计算等 d 功能 服务接口提供外部设备/设施调用系统语音服务的接口 e 应用业务处理对语音处理的结果转换为对应的应用指令并反馈业务响应结果 系统的通用功能框架见图1;部分参数定义及其计算方法参见附录A
GB;/T36464.1一2020 服务接口 前端处理 语音处理 应用业务处理 语音交互界面 数据资源 语音 智能语音交互系统的通用功能框架 语音交互界面要求 5 5.1语音采集 系统应通过传声器或麦克风阵列等具备语音采集能力的拾音设备对语音进行采集;应根据不同的 拾音距离,提供近场拾音和/或远场拾音中的一种 5.2语音播报 系统应通过音频播放设备对语音进行播报;应支持播放语音所需的性能要求,例如音频格式、带 宽等 5.3输入输出 系统应支持中文普通话输人输出;除中文普通话之外,对有方言和其他语种输人输出需求的,系统 应支持地方方言、民族语言以及其他语种输人输出 5.4环境噪声适应能力 系统应在不同场景的典型环境噪声下能成功进行语音交互,确保人机交互可用 法,不同场景的典翠环境噪声参见GB8T38484的第2一万部分 数据资源要求 6.1音频数据 系统的音频数据主要用于语音识别和语音合成,要求如下 a 语音识别的输人音频数据格式应符合GB/T34083一2017中表1的要求; b 语音合成的输出音频数据格式应符合GB/T34145一2017中表2的要求 6.2文本数据 系统的文本数据主要用于各功能单元之间的信息传输、交换和共享,要求如下:
GB/T36464.1一2020 应与具体操作系统和平台无关,并且可扩展; a b) 宜是结构化数据,便于系统处理 c 中文编码字符应符合GB18030的规定,并依据GB/T114600进行检测 d)中文语音合成数据交换格式应符合GB/T21024一2007中第5章的要求 前端处理要求 7.1语音唤醒 命令字唤醒 7.1.1 系统应支持使用预先定义的命令字来对系统进行语音唤醒 7.1.2命令字声纹唤醒 系统在语音唤醒过程中,宜支持使用文本相关声纹识别和命令字匹配,且在声纹确认成功后能唤醒 系统 7.1.3自定义唤醒命令字 系统应支持对用于语音唤醒的命令字进行自定义 7.1.4 多唤醒命令字 系统应支持使用不同的命令字进行语音唤醒;可根据指定的唤醒命令字进人对应的状态或模式 7.1.5多音频流监听 系统在进行语音唤醒时,应支持同时监听多个音频流 7.2声源定位 系统应支持通过对声源的平面角、方位角和声源距离的计算,来对发声源进行定位 7.3声纹识别 7.3.1 一般要求 系统应支持下列声纹识别功能 文本相关的声纹识别; a b 文本无关的声纹识别; c 指定文本的声纹识别 声纹模型训练 d 声纹模型自适应; e 声纹确认; 声纹辨认; 8 声纹检出: 声纹追踪; 语言相关的声纹识别; y
GB;/T36464.1一2020 k)语言无关的声纹识别 上述功能描述和要求应符合s/T113802008第3章的要求 7.3.2声纹文本获取 系统应支持获取指定文本或自定义文本,用于声纹模型训练、声纹模型自适应、声纹确认和声纹 辨认 7.4语音增强 7.4.1噪声抑制 系统应支持对输人语音中的背景噪声进行抑制,提高语音的信噪比 7.4.2混响消除 系统应支持对输人语音中的晚期混响进行抑制,提升语音信号的清晰度和可懂度 7.5格式转换 系统应支持将音频的格式转换到另外一种格式,以满足语音处理的要求 7.6重采样 系统应支持改变数字语音信号的采样率,以满足语音处理的要求 语音处理要求 8 8.1语音识别 8.1.1 -般要求 系统应支持下列全部或大部分语音识别功能 中文语音识别服务; a b)多语种识别; c 多方言识别; ) 多语种混读识别; 自定义语法; 个性化识别 识别结果多候选; g h)自定义热词; 识别结果进阶; j 语言信息识别; ks 说话者信息识别 上述功能描述和要求应符合GB/T340832017中4.2和4.3的要求 8.1.2语音识别方式 系统应支持近场音频处理和/或远场音频处理中的一种;应至少支持关键字识别命令字识别连续
GB/T36464.1一2020 语音识别中的一种 8.2语义理解 8.2.1自定义语义词典 系统能支持应用程序自定义语义词典和用户自定义语义词典 8.2.2 自定义语义库 系统能支持应用程序自定义语义库和用户自定义语义库 8.2.3模糊识别 系统应正确处理错别字、同义词、多字少字问题 8.2.4语义抽取 系统在交互过程中,应抽取语义要素和用户的关键意图 8.2.5语义排序 系统能在语义理解结果中给出多个排序后的理解结果,供用户进行选择或二次确认 8.3语音合成 系统应支持下列全部或大部分语音合成功能 a 中文语音合成 流式语音合成 b 多种合成文本编码 c 个性化合成; d 多语种合成; e 多方言合成; f 多语种混读合成 8 h 合成音频多音色 用户自定义分词; 用户自定义读音; 合成文本位置信息; k lD 文本分词和拼音信息; 音频时间信息 m 上述功能描述和要求应符合GB/T34145-2017中4.2和4.3的要求 8.4端点检测 8.4.1单端点检测 系统应支持从一段连续的音频流中检测出第一个语音段的起始点和结束点 8.4.2 多端点检测 系统应支持从一段连续的音频流中检测出多个语音段的起始点和结束点
GB;/T36464.1一2020 8.4.3端点检测灵敏度设置 系统应支持设置语音等待超时时长和尾部静音长度,调整语音端点检测的灵敏度 8.5语音编解码 8.5.1变码率编码 系统应支持通过设置编码等级或通过其他方式改变语音编码算法输出的编码语音的码流率 8.5.2压缩等级设置 系统应支持根据当前网络状况、系统性能等要求来设置语音编码算法的压缩等级 8.6全双工交互 系统宜支持全双工语音交互;在此状态下,应支持一次语音唤醒和随时语音打断,能进行上下文语 境和开放式对话管理,能控制对话节奏和预测用户意图等 情感计算 8.7 系统宜支持以语音信号为载体的情感计算 服务接口要求 系统应具备可供外部调用的服务接口 其中,中文语音识别的互联网接口应符合GB/T34083的 规定,中文语音合成的互联网接口应符合GB/T34145的规定 10应用业务处理要求 系统应支持将用户意图转换成应用和业务的控制命令或系统指令,实现应用和业务的响应
GB/T36464.1一2020 附 录 A 资料性附录 部分参数及其计算方法 概述 本附录给出了用于描述智能语音交互系统的部分参数定义及其计算方法 A.2拾音距离 当声源与拾音设备之间的距离<1m时,为近场;当声源与拾音设备之间的距离>lm时,为远场 A.3语音交互成功率 在一定的时间段内,成功的语音交互会话总数占有效的语音交互会话总数的百分比 “成功的语音 交互会话”指获取到完整的语音服务结果,期间未产生差错的语音交互会话;“有效的语音交互会话”指 全部的语音交互会话去除由于用户终端故障或用户行为,参数错误导致的失败会话 交互成功率的计算方法参见公式(A.1) ×100% Ps= A.1 式中 P 交互成功率,%; 交互成功的次数; F 交互失败的次数 A.4语音唤醒 A.4.1唤醒率 某段时间内的语音唤醒操作中,成功唤醒的次数占语音唤醒总次数的比率 用于描述语音唤醒操 作的正确响应情况,其计算方法参见公式(A.2): .A.2 二x10% pw 式中 唤醒率,% pw N, 成功唤醒次数; 语音唤醒操作次数 N A.4.2误唤醒频度 误唤醒频度描述误唤醒操作在单位时间内出现的频度,其计算方法参见公式(A.3) 10
GB;/T36464.1一2020 Nrw A.3 frw " 式中 误唤醒频度,单位为次每小时(次/h); Fw 在考察的时长内出现误唤醒的次数; NFw 评价时长,单位为小时(h) A.5语音识别 A.5.1字准确率 字准确率的计算方法参见GB/T210232007的5.2.1的规定 A.5.2句识别率 句识别率的计算方法参见公式(A.4): ×100% A.4 P N 式中: 句识别率,%; N 智能语音交互系统正确识别的句数; N, -标注总句数 A.5.3起始响应时间 从检测到用户有效语音输人时起至得到第一部分识别结果时止中间经过的时间,单位为毫秒 ms),用于描述语音识别响应的实时性 A.5.4结束响应时间 从检测到用户有效语音输人结束时起至得到最后一部分识别结果时止中间经过的时间,单位为毫 秒(ms),用于描述语音识别响应的实时性 A.6语义理解 A.6.1语义理解正确率 语义理解正确率计算方法参见公式(A.5) Nss ×100% A.5 R、= 式中 语义理解正确率,%; Rss 操作意图及语义要素均被正确判断的次数, Ns 用户输人被正确识别出文本信息的总次数 N A.6.2响应正确率 语文理解响应正确率计算方法参见公式(A.6) 11
GB/T36464.1一2020 NN里×10% (A.6 Rs跟=- N 式中 语义理解响应正确率,%; RsR N 操作意图及语义要素均被正确判断的次数 被正确拒识的次数 NR -用户输人被正确识别出文本信息的总次数 N A.7语音合成 A.7.1合成响应时间 合成响应时间描述了语音合成系统响应的及时性,指从用户写人合成文本时起至拿到第 一块合成 音频时止中间经过的时间,单位为毫秒(ms). A.7.2平均码流率 -次语音合成会话输出的合成音频数据总量除以语音合成会话的持续时间,单位为千比特每秒 kbit/s) 合成音频数据总量以解码后的音频数据量计算,语音合成会话的持续时间指从用户写人合 成文本时起至拿到最后一块合成音频时止中间经过的时间 语音合成系统的平均码流率宜大于或等于合成音频格式的标称码流率 A.8语音质量 A.8.1声强级 声强级用于度量声音的大小,其计算方法参见GB/T16404一1996中3.5的规定 A.8.2信噪比 信噪比用来描述智能语音交互系统使用的背景环境,其计算方法参见GB/T21023一2007中4.6 的规定 A.8.3平均意见得分 平均意见得分(MOS)是语音质量的一种主观度量 MOS量化分值参见表A.1 表A.1主观NOs量化分值 评分 主观测听效果 优秀,察觉不到任何不自然,音色接近播音员 较好,仅能察觉若干不自然 尚可,能察觉到不自然但可以接受,评分分界线 较差,明显察觉不自然并不愿意接受 极差,无法接受 12
GB;/T36464.1一2020 A.9声纹识别率 声纹识别率包括错误拒绝率、错误接受率、漏识率,误警率等参数,其计算方法参见SI/T11380 2008中3.3.2的规定 A.10语音编解压缩率 语音编解压缩率为语音压缩算法输出的压缩音频与输人的待压缩音频的码流率之比 A.11 语音增强 A.11.1信噪比改善 信噪比改善为语音增强功能单元输出语音信噪比与输人语音信噪比的比值 A.11.2噪声抑制量 噪声抑制量的计算方法参见公式(A.7): I3 mn DR=1olog A.7 yn 式中: 噪声抑制量,单位为分贝(dB); DNR 输人信号中第n个噪声信号的振幅; '(n) 输出信号中第n个噪声信号的振幅; 'n N 输人信号频谱频率分量的总数量 A.12声源定位 A.12.1平面角定位误差 平面角定位误差为声源定位功能单元计算得到的声源位置平面角与真实值的差值 A.12.2俯仰角定位误差 俯仰角定位误差为声源定位功能单元计算得到的声源位置俯仰角与真实值的差值 A.12.3距离定位误差 距离定位误差为声源定位功能单元计算得到的声源位置距离与真实值的差值 A.13语音打断成功率 对话管理中,语音打断成功率指某段时间内,语音打断操作被正确响应的次数占总次数的比率 其 13
GB/T36464.1一2020 计算方法参见公式(A.8): (A.8 P=兴×100% 式中: P 语音打断成功率,%; N 被语音交互系统正确响应的次数 N 交互内容中需要执行打断操作的次数 14
GB;/T36464.1一2020 参 考文献 GB/T5271.1一2000信息技术词汇第1部分;基本术语 [2] GB/T5271.29一2006信息技术词汇第29部分;人工智能语音识别与合成 [3 GB/T16404一1996声学声强法测定噪声源的声功率级第1部分:离散点上的测量 [4]GB/T21023一2007 中文语音识别系统通用技术规范 [5幻 GB/T36464.2一2018信息技术智能语音交互系统第2部分:智能家居 [们 GB/T36464.3一2018信息技术智能语音交互系统第3部分;智能客服 [m GB/T36464.4一2018信息技术智能语音交互系统第4部分:移动终端 [8]GB/T36464.5一2018信息技术智能语音交互系统第5部分车载终端 [9ISO/IECDIS30150-1Information tethnology Affectivecomputinguserinterface(AUI)Part 1:Model 15

信息技术智能语音交互系统第1部分:通用规范GB/T36464.1-2020解析

随着人工智能的发展,智能语音交互系统在各行各业中的应用也越来越广泛。为了保证不同系统之间的互通性和兼容性,国家标准化管理委员会于2020年发布了《信息技术智能语音交互系统第1部分:通用规范GB/T36464.1-2020》。 该规范主要包括系统架构、数据格式、协议、安全等多个方面的要求。其中,系统架构是整个规范的核心,它包括客户端、服务端、前端处理、后端处理等四个部分,在不同场景下可以根据需要进行扩展或缩减。 在数据格式方面,规范定义了XML和JSON两种常用的数据格式,并对其进行了详细说明。此外,规范还要求系统支持多种数据编码方式,如UTF-8、GB2312等,以保证系统可以处理各种语言文字。 在协议方面,规范采用RESTful API协议作为基础协议,并对其进行了扩展,以满足语音交互系统的特殊需求。此外,规范还规定了API的请求和响应格式,包括请求方法、请求参数、响应代码和响应内容等。 在安全方面,规范要求系统必须支持HTTPS协议,并对通信过程中可能存在的风险进行了详细说明。此外,规范还要求系统具备防止恶意攻击的能力,如防止SQL注入、XSS攻击等。 总体来看,信息技术智能语音交互系统第1部分:通用规范GB/T36464.1-2020是一份非常重要的标准文件,为不同厂商之间的兼容性提供了指导,同时也为用户提供了更加安全、可靠的服务保障。

和信息技术智能语音交互系统第1部分:通用规范类似的标准

制鞋机械安全要求第8部分:定型机
上一篇 本文分享国家标准制鞋机械安全要求第8部分:定型机的全文阅读和高清PDF的下载,制鞋机械安全要求第8部分:定型机的编号:GB/T31301.8-2020。制鞋机械安全要求第8部分:定型机共有33页,发布于2020-11-01
工业机器人电气设备及系统第2部分:交流伺服驱动装置技术条件
本文分享国家标准工业机器人电气设备及系统第2部分:交流伺服驱动装置技术条件的全文阅读和高清PDF的下载,工业机器人电气设备及系统第2部分:交流伺服驱动装置技术条件的编号:GB/T37414.2-2020。工业机器人电气设备及系统第2部分:交流伺服驱动装置技术条件共有55页,发布于2020-11-01 下一篇
相关推荐