官术网_书友最值得收藏!

1.3 單層神經(jīng)網(wǎng)絡(luò)的概述

1.3.1 回歸模型

當(dāng)一個(gè)神經(jīng)網(wǎng)絡(luò)只有輸入層與輸出層時(shí),它是一個(gè)單層神經(jīng)網(wǎng)絡(luò),是最為簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),可用于實(shí)現(xiàn)線性回歸分析,也可用于解決簡(jiǎn)單的二分類問題,還可用于解決多分類問題。

當(dāng)使用單層神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)線性回歸分析時(shí),其原理與使用機(jī)器學(xué)習(xí)實(shí)現(xiàn)線性回歸分析的原理完全一致。單變量線性回歸模型如圖1.6所示。其中x為自變量,y為因變量。

圖1.6 單變量線性回歸模型

單變量線性回歸模型的數(shù)學(xué)表達(dá)式如下。

式中,θ表示權(quán)重,需要通過訓(xùn)練得到最優(yōu)值。

對(duì)于線性回歸模型,損失函數(shù)一般使用均方誤差(Mean Square Error,MSE),如下式所示。

式中,m表示樣本總數(shù);表示預(yù)測(cè)結(jié)果;i表示m個(gè)樣本中的第i個(gè)。

線性回歸模型可以使用TensorFlow實(shí)現(xiàn),代碼如下所示。

運(yùn)行代碼,結(jié)果如下所示。

TensorFlow線性回歸模型案例損失函數(shù)圖像如圖1.7所示。

圖1.7 TensorFlow線性回歸模型案例損失函數(shù)圖像

線性回歸模型也可以使用PyTorch實(shí)現(xiàn),代碼如下所示。

運(yùn)行代碼,結(jié)果如下所示。

PyTorch線性回歸模型案例損失函數(shù)圖像如圖1.8所示。

圖1.8 PyTorch線性回歸模型案例損失函數(shù)圖像

以上就是使用TensorFlow和PyTorch實(shí)現(xiàn)單變量線性回歸模型的代碼,可以看出兩種框架之間的實(shí)現(xiàn)方法存在一些差異,但是整體原理都是相同的,同時(shí)代碼的運(yùn)行結(jié)果是一樣的。

主站蜘蛛池模板: 东乌| 韩城市| 枣庄市| 区。| 分宜县| 利津县| 商水县| 南丹县| 津南区| 神木县| 莆田市| 会东县| 苏尼特左旗| 长宁区| 衡阳县| 聂荣县| 讷河市| 宁明县| 镇巴县| 多伦县| 云林县| 上饶市| 扎鲁特旗| 自治县| 阿尔山市| 白朗县| 荔波县| 津南区| 阿鲁科尔沁旗| 唐河县| 金乡县| 民丰县| 疏附县| 新沂市| 泗水县| 东乌珠穆沁旗| 望奎县| 茌平县| 太康县| 宁津县| 九寨沟县|