Rumah >pembangunan bahagian belakang >Tutorial Python >**Apakah Perbezaan Antara `tf.nn.softmax` dan `tf.nn.softmax_cross_entropy_with_logits` dalam TensorFlow?**
Dalam dokumentasi API TensorFlow, istilah "logit" sering ditemui. Logit merujuk kepada nilai pengaktifan tidak berskala yang dihasilkan oleh lapisan rangkaian saraf. Ia ditafsirkan sebagai kebarangkalian log sebelum ditukar kepada kebarangkalian menggunakan fungsi softmax.
tf.nn.softmax
Fungsi ini menggunakan elemen fungsi softmax mengikut tensor input. Softmax menormalkan nilai input supaya jumlahnya menjadi 1, menjadikannya sesuai untuk mewakili kebarangkalian. Bentuk output kekal sama dengan input.
tf.nn.softmax_cross_entropy_with_logits
Fungsi ini menggabungkan operasi softmax dengan pengiraan kehilangan rentas entropi. Ia secara dalaman melakukan transformasi softmax dan kemudian mengira entropi silang antara kebarangkalian yang diramalkan dan label sebenar. Output ialah metrik ringkasan dengan bentuk [saiz_kelompok, 1].
Perbezaan Utama
tf.nn.softmax_cross_entropy_with_logits direka untuk mengira kedua-dua softmax dan kehilangan cross-entropy dalam satu langkah. Ia mengendalikan isu kestabilan berangka dengan lebih berkesan daripada menggunakan softmax secara manual diikuti dengan pengiraan silang entropi.
Bila menggunakan tf.nn.softmax_cross_entropy_with_logits
Atas ialah kandungan terperinci **Apakah Perbezaan Antara `tf.nn.softmax` dan `tf.nn.softmax_cross_entropy_with_logits` dalam TensorFlow?**. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!