又一篇,奇富科技智能语音团队论文登上国际顶会INTERSPEECH 2024

7月10日消息,奇富科技智能语音团队论文《Qifusion-Net:基于特征融合的流式/非流式端到端语音识别框架》(Qifusion-Net: Layer-adapted Stream/Non-stream Model for End-to-End Multi-Accent Speech Recognition)被全球语音与声学顶级会议INTERSPEECH 2024收录。

这是继去年奇富科技团队《Eden-TTS:一种简单高效的非自回归“端到端可微分”神经网络的语音合成架构》论文之后的又一篇论文被该国际顶会认可。

资料显示,INTERSPEECH由国际语音通讯协会(International Speech Communication Association, ISCA)创办,是语音处理领域的顶级旗舰国际会议。作为全球最大的综合性语音处理领域的科技盛会,历届INTERSPEECH会议都备受全球各地语音语言领域人士的广泛关注。

此次被收录的奇富科技智能语音团队论文中Qifusion框架模型具有以下特点:

1.方言种类更丰富:

凭借自身在贷后场景及方言领域的丰富数据样本,Qifusion框架模型在原有东北官话、胶辽官话、北京官话、冀鲁官话、中原官话、江淮官话、兰银官话和西南官话等国内八种主流方言的基础上,精准强化了四川、重庆、山东、河南、贵州、广东、吉林、辽宁、黑龙江等用户密集地区的方言识别能力。这使得平均识别准确率相对提升了25%,尤其在川渝地区,方言识别准确率相对提升超35%。

2.方言识别更精准:

Qifusion框架模型具备自动识别不同口音的能力,并能在时间维度上对解码结果进行口音信息修正,使方言口音的语音识别误差率降低了30%以上,整体语音识别字错率降低了16%以上,显著提升了用户体验。此外,在业内知名的Kespeech 开源方言数据集性能对比测试中,Qifusion字错率刷新模型最低值,达到国内顶尖水平。

3.方言识别更高效:

Qifusion框架采用了创新的层自适应融合结构,能通过共享信息编码模块,更高效的提取方言信息。同时,该框架模型还支持即说即译功能,能在无需知晓额外方言信息的前提下,对不同方言口音的音频进行实时解码,实现精准的识别和转译。这使得Qifusion框架在业务场景中能够迅速准确地捕捉并响应用户需求。

据悉,奇富科技智能语音团队将受邀参与9月INTERSPEECH 2024科技盛会并发表主题报告,进一步分享其在语音识别领域的创新成果,与全球同行共探语音科技的未来。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2024-07-10
又一篇,奇富科技智能语音团队论文登上国际顶会INTERSPEECH 2024
奇富科技智能语音团队论文《Qifusion-Net:基于特征融合的流式/非流式端到端语音识别框架》 被全球语音与声学顶级会议INTERSPEECH 2024收录

长按扫码 阅读全文