<small id='kUvS'></small> <noframes id='2Rm8'>

  • <tfoot id='kylt'></tfoot>

      <legend id='wCuQt7q'><style id='FQbTdOR'><dir id='uVhLvorfm'><q id='gw3L5G'></q></dir></style></legend>
      <i id='0VRYuv1lcA'><tr id='PCKcSp3'><dt id='EkaO'><q id='F7Sv8'><span id='bFVvM'><b id='nXB6'><form id='ZsIoUqz'><ins id='JuiENz'></ins><ul id='sVHdT3'></ul><sub id='ELUhR3e'></sub></form><legend id='WKHki2zpt'></legend><bdo id='GXNaJ2'><pre id='oZEbyMk'><center id='9dvJq'></center></pre></bdo></b><th id='S0U8tYQ3wA'></th></span></q></dt></tr></i><div id='PRNedfJc'><tfoot id='R5QhL20Hp'></tfoot><dl id='sVeOGv1'><fieldset id='HYzb'></fieldset></dl></div>

          <bdo id='VT2Z'></bdo><ul id='HZV14fD3F'></ul>

          1. <li id='7f9WvFDJ2t'></li>
            登陆

            一号站平台网页版-PyTorch(七)——丢失函数

            admin 2019-11-05 227人围观 ,发现0个评论

            丢失函数根本概念

            丢失函数是用来评价模型猜测值与实在值的不共同程度,它是一个值为非负实数的函数。丢失函数越小,模型的鲁棒性就越好,就表明算法越挨近意义上的最优。咱们练习模型的进程,便是经过不断的迭代核算,运用梯度下降等优化算法不断调整参数,使得丢失函数越来越小。PyTorch运用mini-batch来进行核算,因而PyTorch中丢失函数核算出来的成果现已对mini-batc一号站平台网页版-PyTorch(七)——丢失函数h取了均匀。

            常见丢失函数及根本用法

            PyTorch中丢失函数能够经过torch.nn获取,根本用法如下:

            # 每个丢失函数的结构函数都会有自己的参数 
            criterion = LossCriterion()
            loss = criterion(x, y)

            PyTorch内置的常用的丢失函数主要有如下几种。

            • nn.L1Loss

            L1范数丢失,核算的是输入x和方针y之间差的绝对值,其间,x和y的维度有必要共同,得到的loss维度也是对应相同的。

            L1Loss核算公式

            nn.L1Loss的根本用法如下。

            L1Loss根本用法

            • nn.NLLLoss

            负对数似然丢失函数,一般用于练习指定类别数的分类问题。

            NLLLoss核算公式

            nn.NLLLoss的根本用法如下。

            NLLLoss根本用法

            NLLLoss中假如传递了weights参数,会对丢失函数进行加权,公式就变vagant成了如下方式。

            参加weights参数的NLLLoss公式

            • nn.MSELoss

            均方丢失函数,核算的是输入x和方针y之间的均方差。

            MSELoss公式

            nn.MSELoss一号站平台网页版-PyTorch(七)——丢失函数的根本用法如下。

            MSELoss根本用法

            • nn.CrossEntropyLoss

            多分类用的穿插熵丢失函数,LogSoft一号站平台网页版-PyTorch(七)——丢失函数Max和NLLLoss集成到一个类中,会调用nn.NLLLoss函数,咱们能够理解为CrossEntropyLoss( )=log_softmax( )+NLLLoss( )。

            CrossEntropyLoss公式

            nn.CrossEntropyLoss的根本用法如下。

            CrossEntropyLoss根本用法

            由于运用了NLLLoss,因而CrossEntropyLoss也能够传入weights参数,此刻公式就变成了如下方式。

            参加we一号站平台网页版-PyTorch(七)——丢失函数ights参数的CrossEntropyLoss公式

            一般多分类的情况下就会挑选此函数作为丢失函数。

            • nn.BCELoss

            输入x和方针y之间的二进制穿插熵,一般用于二分类使命,测验重构的差错。

            BCELoss公式

            nn.BCELoss的根本用法如下。

            BCELoss根本用法

            与NLLLoss相似,BCELoss也能够增加权重参数weights,此刻公式变一号站平台网页版-PyTorch(七)——丢失函数成如下方式。

            参加weights参数后的BCELoss公式

            留意,运用时需要在该层前面加上一个Sigmoid( )函数。

            请关注微信公众号
            微信二维码
            不容错过
            Powered By Z-BlogPHP