论文题目(Title):Learning to Generate Diverse and Authentic Reviews via an Encoder-Decoder Model with Transformer and GRU
研究问题(Question):评论生成,由上下文评论->生成评论
研…
LSTM 设计思想 姑且不看偏置。 W W W 和 U U U 是加权的矩阵,写模型的时候用 nn.Linear(in_dim, out_dim) 就成; σ \sigma σ 是 Sigmoid 函数
第一条,遗忘门,定义为 有多少内容需要被遗忘;第二条:输入门…