亲宝软件园·资讯

展开

深度学习与人类语言处理-语音识别(part3)

周若梣 人气:2
上节回顾[深度学习与人类语言处理-语音识别(part2)](https://www.cnblogs.com/gongyanzh/p/12515971.html),这节课我们接着看seq2seq模型怎么做语音识别 --- ![](https://img2020.cnblogs.com/blog/1043283/202003/1043283-20200321102026085-1587501542.png) 上节课我们知道LAS做语音识别需要看完一个完整的序列才能输出,把我们希望语音识别模型可以在听到声音的时候就进行输出,一个直观的想法就是用单向的RNN,我们来看看CTC是怎么做的 ### CTC 根据上面说的,在线语音识别,模型在听到声音的时候就需要输出,我们看下使用RNN的基本架构 ![](https://img2020.cnblogs.com/blog/1043283/202003/1043283-20200321102037897-389680476.png) ``` input: 长度为T的声学特征 Encoder:单向RNN ouput:长度为T的token,每一个输出位置对应词典中每个词的概率 ``` 但是对每一个输入的声学特征不总是会有对应的输出token,每一声学特征所包含的信息是非常少的,所以CTC在输出的词汇表中加入了一个标记$\phi$,表示什么也没有,词典大小变为V+1 ``` ouput:长度为T的token,其中包括

加载全部内容

相关教程
猜你喜欢
用户评论