首頁  >  文章  >  後端開發  >  PyTorch 中的 BCEWithLogitsLoss

PyTorch 中的 BCEWithLogitsLoss

Linda Hamilton
Linda Hamilton原創
2024-11-07 06:01:03763瀏覽

請我喝杯咖啡☕

*備忘錄:

  • 我的貼文解釋了 L1 損失(MAE)、L2 損失(MSE)、Huber 損失、BCE 和交叉熵損失。
  • 我的貼文解釋了 BCELoss()。
  • 我的帖子解釋了 Sigmoid。
  • 我的貼文解釋了 CrossEntropyLoss()。

BCEWithLogitsLoss() 可以從零個或多個元素的0D 或多個D 張量中取得由BCE Loss 和Sigmoid 計算的零個或多個值(浮點數)的0D 或多個D 張量,如下所顯示:

*備忘錄:

  • 初始化的第一個參數是權重(可選-預設:無-型別:int、float 或 bool 的張量): *備註:
    • 如果沒有給出,則為 1。
    • 它必須是零個或多個元素的 0D 或多個 D 張量。
  • 初始化有縮減參數(可選-預設:'mean'-類型:str)。 *可以選擇“無”、“平均值”或“總和”。
  • 初始化有 pos_weight 參數(可選-預設:無-類型:int 或 float 的張量): *備註:
    • 如果沒有給出,則為 1。
    • 它必須是零個或多個元素的 0D 或多個 D 張量。
  • 有用於初始化的 size_average 和 reduce 參數,但它們已被棄用。
  • 第一個參數是輸入(必需類型:浮點數張量)。 *它必須是零個或多個元素的 0D 或多個 D 張量。
  • 第二個參數是目標(必需型別:浮點張量)。 *它必須是零個或多個元素的 0D 或多個 D 張量。
  • 輸入和目標的大小必須相同,否則會出錯。
  • 空的 1D 或更多 D 輸入和目標張量,reduction='mean' 返回 nan。
  • 空的 1D 或更多 D 輸入和目標張量,reduction='sum' 回傳 0.. BCEWithLogitsLoss in PyTorch
import torch
from torch import nn

tensor1 = torch.tensor([ 8., -3., 0.,  1.,  5., -2.])
tensor2 = torch.tensor([-3.,  7., 4., -2., -9.,  6.])
       # -w*(p*y*log(1/(1+exp(-x))+(1-y)*log(1-(1/1+exp(-x))))
       # -1*(1*(-3)*log(1/(1+exp(-8)))+(1-(-3))*log(1-(1/(1+exp(-8)))))
       # ↓↓↓↓↓↓↓
       # 32.0003 + 21.0486 + 0.6931 + 3.3133 + 50.0067 + 50.0067 = 82.8423
       # 119.1890 / 6 = 19.8648
bcelogits = nn.BCEWithLogitsLoss()
bcelogits(input=tensor1, target=tensor2)
# tensor(19.8648)

bcelogits
# BCEWithLogitsLoss()

print(bcelogits.weight)
# None

bcelogits.reduction
# 'mean'

bcelogits = nn.BCEWithLogitsLoss(weight=None,
                                 reduction='mean',
                                 pos_weight=None)
bcelogits(input=tensor1, target=tensor2)
# tensor(19.8648)

bcelogits = nn.BCEWithLogitsLoss(reduction='sum')
bcelogits(input=tensor1, target=tensor2)
# tensor(119.1890)

bcelogits = nn.BCEWithLogitsLoss(reduction='none')
bcelogits(input=tensor1, target=tensor2)
# tensor([32.0003, 21.0486, 0.6931, 3.3133, 50.0067, 12.1269])

bcelogits = nn.BCEWithLogitsLoss(weight=torch.tensor([0., 1., 2., 3., 4., 5.]))
bcelogits(input=tensor1, target=tensor2)
# tensor(48.8394)

bcelogits = nn.BCEWithLogitsLoss(
                pos_weight=torch.tensor([0., 1., 2., 3., 4., 5.])
            )
bcelogits(input=tensor1, target=tensor2)
# tensor(28.5957)

bcelogits = nn.BCEWithLogitsLoss(weight=torch.tensor(0.))
bcelogits(input=tensor1, target=tensor2)
# tensor(0.)

bcelogits = nn.BCEWithLogitsLoss(pos_weight=torch.tensor(0.))
bcelogits(input=tensor1, target=tensor2)
# tensor(13.8338)

bcelogits = nn.BCEWithLogitsLoss(weight=torch.tensor([0, 1, 2, 3, 4, 5]))
bcelogits(input=tensor1, target=tensor2)
# tensor(48.8394)

bcelogits = nn.BCEWithLogitsLoss(pos_weight=torch.tensor([0, 1, 2, 3, 4, 5]))
bcelogits(input=tensor1, target=tensor2)
# tensor(28.5957)

bcelogits = nn.BCEWithLogitsLoss(weight=torch.tensor(0))
bcelogits(input=tensor1, target=tensor2)
# tensor(0.)

bcelogits = nn.BCEWithLogitsLoss(pos_weight=torch.tensor(0))
bcelogits(input=tensor1, target=tensor2)
# tensor(13.8338)

bcelogits = nn.BCEWithLogitsLoss(
              weight=torch.tensor([True, False, True, False, True, False])
          )
bcelogits(input=tensor1, target=tensor2)
# tensor(13.7834)

bcelogits = nn.BCEWithLogitsLoss(weight=torch.tensor([False]))
bcelogits(input=tensor1, target=tensor2)
# tensor(0.)

tensor1 = torch.tensor([[8., -3., 0.], [1., 5., -2.]])
tensor2 = torch.tensor([[-3., 7., 4.], [-2., -9., 6.]])

bcelogits = nn.BCEWithLogitsLoss()
bcelogits(input=tensor1, target=tensor2)
# tensor(19.8648)

tensor1 = torch.tensor([[[8.], [-3.], [0.]], [[1.], [5.], [-2.]]])
tensor2 = torch.tensor([[[-3.], [7.], [4.]], [[-2.], [-9.], [6.]]])

bcelogits = nn.BCEWithLogitsLoss()
bcelogits(input=tensor1, target=tensor2)
# tensor(19.8648)

tensor1 = torch.tensor([])
tensor2 = torch.tensor([])

bcelogits = nn.BCEWithLogitsLoss(reduction='mean')
bcelogits(input=tensor1, target=tensor2)
# tensor(nan)

bcelogits = nn.BCEWithLogitsLoss(reduction='sum')
bcelogits(input=tensor1, target=tensor2)
# tensor(0.)

以上是PyTorch 中的 BCEWithLogitsLoss的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn