18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

實例:如何建立一個線性分類器并進(jìn)行優(yōu)化

zhKF_jqr_AI ? 來源:未知 ? 作者:易水寒 ? 2017-12-22 11:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

之前,論智曾在TOP 10:初學(xué)者需要掌握的10大機(jī)器學(xué)習(xí)(ML)算法介紹了一些基礎(chǔ)算法及其思路,為了與該帖聯(lián)動,我們特從機(jī)器學(xué)習(xí)熱門課程HSE的Introduction to Deep Learning和吳恩達(dá)的Neural Networks and Deep Learning中挑選了一些題目,演示PythonTensorFlow和Keras在深度學(xué)習(xí)中的實戰(zhàn)應(yīng)用.

如何建立一個線性分類器并進(jìn)行優(yōu)化.

在這個任務(wù)中,我們將實現(xiàn)一個線性分類器,并用numpy和隨機(jī)梯度下降算法對它進(jìn)行訓(xùn)練。

二元分類

為了更直觀,我們用人造數(shù)據(jù)(synthetic data)解決二元分類問題。

上圖中有紅、藍(lán)兩類數(shù)據(jù),從分布上看它們不是線性可分的。所以為了分類,我們應(yīng)該在里面添加特征或使用非線性模型。請注意,圖中兩類數(shù)據(jù)的決策邊緣都呈圓形,這意味著我們能通過建立二元特征來使它們線性分離,具體思路如下圖所示:

用expand函數(shù)添加二次函數(shù)后,我們得到了這樣的測試結(jié)果:

  1. # 簡單的隨機(jī)數(shù)測試

  2. dummy_X = np.array([

  3. [0,0],

  4. [1,0],

  5. [2.61,-1.28],

  6. [-0.59,2.1]

  7. ])

  8. # 調(diào)用expand函數(shù)

  9. dummy_expanded = expand(dummy_X)

  10. # 它應(yīng)該返回這些值: x0 x1 x0^2 x1^2 x0*x1 1

  11. dummy_expanded_ans = np.array([[0. , 0. , 0. , 0. , 0. , 1. ],

  12. [1. , 0. , 1. , 0. , 0. , 1. ],

  13. [2.61, -1.28, 6.8121, 1.6384, -3.3408, 1. ],

  14. [-0.59, 2.1 , 0.3481, 4.41, -1.239, 1. ]])

logistic回歸

曾經(jīng)我們提到過,logistic回歸非常適合二元分類問題。為了分類對象,我們需要預(yù)測對象表示為1(默認(rèn)類)的概率,這就需要用到線性模型和邏輯函數(shù)的輸出:

  1. defprobability(X, w):

  2. """

  3. 對輸入賦值特征和權(quán)值

  4. 根據(jù)上式,返回輸入x后y==1的預(yù)測概率,P(y=1|x)

  5. :參數(shù) X: feature matrix X of shape [n_samples,6] (expanded) →特征矩陣X

  6. :參數(shù) w: weight vector w of shape [6] for each of the expanded features →權(quán)值向量w

  7. :返回值: 范圍在 [0,1] 之間的一系列概率.

  8. """

  9. return1./ (1+ np.exp(-np.dot(X, w)))

在logistic回歸中,我們能通過最小化交叉熵發(fā)現(xiàn)最優(yōu)參數(shù)w:

實例:如何建立一個線性分類器并進(jìn)行優(yōu)化
  1. defcompute_loss(X, y, w):

  2. """

  3. 將特征矩陣X [n_samples,6], 目標(biāo)向量 [n_samples] of 1/0,

  4. 以及權(quán)值向量 w [6]代入上述公式, 計算標(biāo)量的損失函數(shù).

  5. """

  6. return-np.mean(y*np.log(probability(X, w)) + (1-y)*np.log(1-probability(X, w)))

由于用了梯度下降算法訓(xùn)練模型,我們還需要計算梯度,具體來說,就是要對每個權(quán)值的損失函數(shù)求導(dǎo):

以下是具體的數(shù)學(xué)計算過程(也可點擊https://math.stackexchange.com/questions/477207/derivative-of-cost-function-for-logistic-regression/2539508#2539508查看):

實例:如何建立一個線性分類器并進(jìn)行優(yōu)化
  1. defcompute_grad(X, y, w):

  2. """

  3. 將特征矩陣X [n_samples,6], 目標(biāo)向量 [n_samples] of 1/0,

  4. 以及權(quán)值向量 w [6]代入上述公式, 計算每個權(quán)值的導(dǎo)數(shù)vector [6].

  5. """

  6. returnnp.dot((probability(X, w) - y), X) / X.shape[0]

訓(xùn)練

現(xiàn)在我們已經(jīng)建立了函數(shù),接下來就該用隨機(jī)梯度下降訓(xùn)練分類器了。我們將試著調(diào)試超參數(shù),如batch size、學(xué)習(xí)率等,來獲得最佳設(shè)置。

Mini-batch SGD

不同于滿梯度下降,隨機(jī)梯度下降在每次迭代中只需要一個隨機(jī)樣本來計算其損失的梯度,并進(jìn)入下一個步驟:

  1. w = np.array([0,0,0,0,0,1])# 初始化

  2. eta =0.05# 學(xué)習(xí)率

  3. n_iter =100

  4. batch_size =4

  5. loss = np.zeros(n_iter)

  6. foriinrange(n_iter):

  7. ind = np.random.choice(X_expanded.shape[0], batch_size)

  8. loss[i] = compute_loss(X_expanded, y, w)

  9. dw = compute_grad(X_expanded[ind, :], y[ind], w)

  10. w = w - eta*dw

下圖展示了當(dāng)batch size=4時,決策面(decision surface)和交叉熵?fù)p失函數(shù)如何隨著不同batch的SGD發(fā)生變化。

實例:如何建立一個線性分類器并進(jìn)行優(yōu)化

左:決策面;右:損失函數(shù)

用Momentum優(yōu)化SGD

Momentum是模擬物理里動量的概念,如下圖所示,它能在相關(guān)方向加速SGD,抑制振蕩,從而加快收斂。從計算角度說,就是對上一步驟更新向量和當(dāng)前更新向量做加權(quán)平均,將其用于當(dāng)前計算。

實例:如何建立一個線性分類器并進(jìn)行優(yōu)化

  1. eta =0.05# 學(xué)習(xí)率

  2. alpha =0.9# momentum

  3. nu = np.zeros_like(w)

  4. n_iter =100

  5. batch_size =4

  6. loss = np.zeros(n_iter)

  7. foriinrange(n_iter):

  8. ind = np.random.choice(X_expanded.shape[0], batch_size)

  9. loss[i] = compute_loss(X_expanded, y, w)

  10. dw = compute_grad(X_expanded[ind, :], y[ind], w)

  11. nu = alpha*nu + eta*dw

  12. w = w - nu

下圖展示了引入Momentum后,當(dāng)batch size=4時相應(yīng)決策面和交叉熵?fù)p失函數(shù)隨不同batch SGD+momentum發(fā)生的變化??梢钥闯觯瑩p失函數(shù)下降速度明顯加快,更快收斂。

實例:如何建立一個線性分類器并進(jìn)行優(yōu)化

左:決策面;右:損失函數(shù)

RMSprop

加快收斂速度后,之后我們要做的是調(diào)整超參數(shù)學(xué)習(xí)率,這里我們介紹Hinton老爺子的RMSprop。這是一種十分高效的算法,利用梯度的平方來調(diào)整學(xué)習(xí)率:

  1. eta =0.05# 學(xué)習(xí)率

  2. alpha =0.9# momentum

  3. G = np.zeros_like(w)

  4. eps =1e-8

  5. n_iter =100

  6. batch_size =4

  7. loss = np.zeros(n_iter)

  8. foriinrange(n_iter):

  9. ind = np.random.choice(X_expanded.shape[0], batch_size)

  10. loss[i] = compute_loss(X_expanded, y, w)

  11. dw = compute_grad(X_expanded[ind, :], y[ind], w)

  12. G = alpha*G + (1-alpha)*dw**2

  13. w = w - eta*dw / np.sqrt(G + eps)

下圖是使用了SGD + RMSProp后決策面和損失函數(shù)的變化情況,較之之前,函數(shù)下降更快,收斂也更快。

實例:如何建立一個線性分類器并進(jìn)行優(yōu)化


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • ML
    ML
    +關(guān)注

    關(guān)注

    0

    文章

    154

    瀏覽量

    35334
  • 線性分類器
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    1532

原文標(biāo)題:課后作業(yè)(一):如何建立一個線性分類器并進(jìn)行優(yōu)化

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何對蜂鳥e203內(nèi)核乘除法器進(jìn)行優(yōu)化

    整個處理性能的重要手段之,本文介紹了乘法器和除法器的基本原理,以及針對乘除法器優(yōu)化的方案,希望能夠?qū)ψx者有所幫助。同時,在實際應(yīng)用中,需要根據(jù)具體應(yīng)用場景和需求,進(jìn)行針對性的
    發(fā)表于 10-24 06:47

    如何對電能質(zhì)量在線監(jiān)測裝置的應(yīng)用場景進(jìn)行分類?

    、功能配置、數(shù)據(jù)精度要求差異顯著,分類結(jié)果可直接指導(dǎo)裝置選型、校準(zhǔn)頻率設(shè)定及運維策略制定。以下從 4 核心維度進(jìn)行詳細(xì)分類、按電力系
    的頭像 發(fā)表于 09-02 17:48 ?473次閱讀
    如何對電能質(zhì)量在線監(jiān)測裝置的應(yīng)用場景<b class='flag-5'>進(jìn)行</b><b class='flag-5'>分類</b>?

    文詳解線性霍爾IC

    全面認(rèn)知·線性霍爾IC 線性霍爾IC,是種rail to rail的模擬輸出傳感,后端微控制處理起來簡單方便,因此與霍爾IC
    的頭像 發(fā)表于 07-24 17:59 ?1812次閱讀
    <b class='flag-5'>一</b>文詳解<b class='flag-5'>線性</b>霍爾IC

    文詳解線性穩(wěn)壓IC的引腳保護(hù)

    根據(jù)使用條件和環(huán)境的不同,需要對線性穩(wěn)壓IC的引腳進(jìn)行保護(hù)。本文將介紹六種可能的情況及相應(yīng)的保護(hù)電路示例。
    的頭像 發(fā)表于 06-12 11:16 ?1071次閱讀
    <b class='flag-5'>一</b>文詳解<b class='flag-5'>線性</b>穩(wěn)壓<b class='flag-5'>器</b>IC的引腳保護(hù)

    LM3686 帶有集成后線性穩(wěn)壓系統(tǒng)和低噪聲線性調(diào)節(jié)的降壓DC-DC轉(zhuǎn)換數(shù)據(jù)手冊

    LM3686 是款降壓直流/直流轉(zhuǎn)換,具有極低壓差線性穩(wěn)壓
    的頭像 發(fā)表于 04-29 13:37 ?520次閱讀
    LM3686 帶有集成后<b class='flag-5'>線性</b>穩(wěn)壓<b class='flag-5'>器</b>系統(tǒng)和低噪聲<b class='flag-5'>線性</b>調(diào)節(jié)<b class='flag-5'>器</b>的降壓DC-DC轉(zhuǎn)換<b class='flag-5'>器</b>數(shù)據(jù)手冊

    VirtualLab Fusion應(yīng)用:使用optiSLang進(jìn)行光柵優(yōu)化

    進(jìn)行優(yōu)化 -在本例中,光學(xué)系統(tǒng)由平面波光源和用于周期性介質(zhì)的光導(dǎo)耦合探測組成。 4. VirtualLab Fusion – 光導(dǎo)耦合探測 ?光波導(dǎo)耦合探測
    發(fā)表于 03-18 08:51

    VirtualLab Fusion應(yīng)用:非近軸衍射分束的設(shè)計與優(yōu)化

    )的結(jié)構(gòu)設(shè)計生成系列分束的初始設(shè)計,然后通過傅里葉模態(tài)法或嚴(yán)格耦合波分析(FMM/RCWA)進(jìn)優(yōu)化。為了給最后
    發(fā)表于 03-10 08:56

    簡單認(rèn)識線性位置傳感

    線性位置傳感種重要的測量設(shè)備,廣泛應(yīng)用于工業(yè)自動化、汽車工程、醫(yī)療設(shè)備、航空航天以及其他多個領(lǐng)域。本文將詳細(xì)解析線性位置傳感的定義、
    的頭像 發(fā)表于 02-02 14:50 ?988次閱讀

    電磁波譜的分類實例

    電磁波譜是指電磁波按照波長或頻率的不同而形成的系列范圍。電磁波譜包括從極低頻率的無線電波到極高頻率的伽馬射線。以下是電磁波譜的分類實例的介紹: 1. 無線電波(Radio Wa
    的頭像 發(fā)表于 01-20 16:50 ?3428次閱讀

    使用 sysbench 對 Flexus X 實例對 mysql 進(jìn)行性能測評

    、Flexus X 實例概述 1.1?Flexus X 實例 Flexus 云服務(wù) X 實例是華為云推出的
    的頭像 發(fā)表于 01-17 09:18 ?900次閱讀
    使用 sysbench 對 Flexus X <b class='flag-5'>實例</b>對 mysql <b class='flag-5'>進(jìn)行</b>性能測評

    LabVIEW使用Vision視覺進(jìn)行硬幣分類計數(shù)

    LabVIEW使用Vision視覺進(jìn)行硬幣分類計數(shù),有償,帶價加q:3430396759
    發(fā)表于 12-29 20:20

    線性負(fù)載分為哪些類型

    較小,但長期積累也會影響電能質(zhì)量。 高次諧波非線性負(fù)載:如某些通信設(shè)備、電子設(shè)備等,可能產(chǎn)生更高次的諧波,對電網(wǎng)和設(shè)備本身造成更大的危害。 四、其他分類方式 可控硅整流型非線性負(fù)載:
    發(fā)表于 12-18 15:18

    如何使用ddc進(jìn)行數(shù)據(jù)分類

    不同的主題劃分為不同的類別。以下是如何使用DDC進(jìn)行數(shù)據(jù)分類的步驟和注意事項: 、了解DDC的基本原則 十進(jìn)制分類 :DDC采用十進(jìn)制法,將所有的知識領(lǐng)域分為10
    的頭像 發(fā)表于 12-18 15:05 ?1579次閱讀

    使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類的步驟

    使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像分類涉及多個步驟的過程。 1. 問題定義 確定目標(biāo) :明確你想要分類的圖像類型,例如貓和狗、不同的植
    的頭像 發(fā)表于 11-15 15:01 ?1165次閱讀

    滑動變阻器有哪些分類?

    滑動觸點向方向移動時,電阻值逐漸增大;當(dāng)滑動觸點向另一個方向移動時,電阻值逐漸減小。線性變阻器具有調(diào)節(jié)精度高、穩(wěn)定性好等優(yōu)點,常用于需要精確調(diào)節(jié)電阻值的場合,如音頻放大器、電視接收
    發(fā)表于 11-07 10:08