在 TensorFlow 的 API 文件中,經常會遇到術語「logits」。 Logits 是指神經網路層產生的未縮放活化值。在使用 softmax 函數轉換為機率之前,它們被解釋為對數機率。
tf.nn.softmax
tf.nn.softmax_cross_entropy_with_logits
此函數將softmax運算與交叉熵損失的計算結合起來。它在內部執行 softmax 變換,然後計算預測機率和真實標籤之間的交叉熵。輸出是形狀為 [batch_size, 1] 的總和指標。關鍵差異
tf.nn.softmax_cross_entropy_with_logits 旨在計算 softmax 和交叉熵損失只需一步。它比手動應用 softmax 再進行交叉熵計算更有效處理數值穩定性問題。何時使用 tf.nn.softmax_cross_entropy_with_logits
以上是**TensorFlow 中的「tf.nn.softmax」和「tf.nn.softmax_cross_entropy_with_logits」有什麼不同?的詳細內容。更多資訊請關注PHP中文網其他相關文章!