Skip to content

我来回答下:始终不明白softmax_layer层反向传播函数backward_softmax_layer()中为什么不用对softmax函数求导? #32

@rockyzhengwu

Description

@rockyzhengwu

我感觉作者的意图是,softmax_layer 通常都是最后一层的激活函数, 作者把 softmax 的求导和 loss 放到一起了,你去看loss 的求导就发现 softmax 其实已经算过了,所以 softmax_layer就不处理,所以 softmax 后一定是接上某个loss 的

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions