引入注意力机制后,SeqSeq模型的上下文向量是对于解码器的不同时刻是不同的,但训练后是稳定不变的

  尔雅 智慧树 mooc


+
账户
更新
搜索
帮助
主页