深度学习中如果神经网络的层数较多比较容易出现梯度消失问题。严格意义上来讲是在以下哪个环节出现样度消失间题?
A.反向传播更新参数 B.正向传播更新梦故 C.反向传播计算结果 D.正向传播计算结果
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。