18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于機(jī)器學(xué)習(xí)模型的六大可解釋性技術(shù)

C29F_xilinx_inc ? 來(lái)源:賽靈思 ? 作者:賽靈思 ? 2022-02-26 17:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文介紹目前常見(jiàn)的幾種可以提高機(jī)器學(xué)習(xí)模型的可解釋性的技術(shù)。

模型可解釋性匯總

簡(jiǎn)介

目前很多機(jī)器學(xué)習(xí)模型可以做出非常好的預(yù)測(cè),但是它們并不能很好地解釋他們是如何進(jìn)行預(yù)測(cè)的,很多數(shù)據(jù)科學(xué)家都很難知曉為什么該算法會(huì)得到這樣的預(yù)測(cè)結(jié)果。這是非常致命的,因?yàn)槿绻覀儫o(wú)法知道某個(gè)算法是如何進(jìn)行預(yù)測(cè),那么我們將很難將其遷移到其它的問(wèn)題中,很難進(jìn)行算法的debug。

本文介紹目前常見(jiàn)的幾種可以提高機(jī)器學(xué)習(xí)模型的可解釋性的技術(shù),包括它們的相對(duì)優(yōu)點(diǎn)和缺點(diǎn)。我們將其分為下面幾種:

1. Partial Dependence Plot (PDP);

2. Individual Conditional Expectation (ICE)

3. Permuted Feature Importance

4. Global Surrogate

5. Local Surrogate (LIME)

6. Shapley Value (SHAP)

六大可解釋性技術(shù)

01、Partial Dependence Plot (PDP)

PDP是十幾年之前發(fā)明的,它可以顯示一個(gè)或兩個(gè)特征對(duì)機(jī)器學(xué)習(xí)模型的預(yù)測(cè)結(jié)果的邊際效應(yīng)。它可以幫助研究人員確定當(dāng)大量特征調(diào)整時(shí),模型預(yù)測(cè)會(huì)發(fā)生什么樣的變化。

關(guān)于機(jī)器學(xué)習(xí)模型的六大可解釋性技術(shù)

上面圖中X軸表示特圖片的值y軸表示預(yù)測(cè)值。陰影區(qū)域中的實(shí)線顯示了平均預(yù)測(cè)如何隨圖片值的變化而變化。PDP能很直觀地顯示平均邊際效應(yīng),因此可能會(huì)隱藏異質(zhì)效應(yīng)。

例如,一個(gè)特征可能與一半數(shù)據(jù)的預(yù)測(cè)正相關(guān),與另一半數(shù)據(jù)負(fù)相關(guān)。那么PDP圖將只是一條水平線。

02、Individual Conditional Expectation (ICE)

ICE和PDP非常相似,但和PDP不同之處在于,PDP繪制的是平均情況,但是ICE會(huì)顯示每個(gè)實(shí)例的情況。ICE可以幫助我們解釋一個(gè)特定的特征改變時(shí),模型的預(yù)測(cè)會(huì)怎么變化。

關(guān)于機(jī)器學(xué)習(xí)模型的六大可解釋性技術(shù)

如上圖所示,與PDP不同,ICE曲線可以揭示異質(zhì)關(guān)系。但其最大的問(wèn)題在于:它不能像PDP那樣容易看到平均效果,所以可以考慮將二者結(jié)合起來(lái)一起使用。

03、Permuted Feature Importance

Permuted Feature Importance的特征重要性是通過(guò)特征值打亂后模型預(yù)測(cè)誤差的變化得到的。換句話說(shuō),Permuted Feature Importance有助于定義模型中的特征對(duì)最終預(yù)測(cè)做出貢獻(xiàn)的大小。

關(guān)于機(jī)器學(xué)習(xí)模型的六大可解釋性技術(shù)

如上圖所示,特征f2在特征的最上面,對(duì)模型的誤差影響是最大的,f1在shuffle之后對(duì)模型卻幾乎沒(méi)什么影響,生息的特征則對(duì)于模型是負(fù)面的貢獻(xiàn)。

04、Global Surrogate

Global Surrogate方法采用不同的方法。它通過(guò)訓(xùn)練一個(gè)可解釋的模型來(lái)近似黑盒模型的預(yù)測(cè)。

首先,我們使用經(jīng)過(guò)訓(xùn)練的黑盒模型對(duì)數(shù)據(jù)集進(jìn)行預(yù)測(cè);

然后我們?cè)谠摂?shù)據(jù)集和預(yù)測(cè)上訓(xùn)練可解釋的模型。

訓(xùn)練好的可解釋模型可以近似原始模型,我們需要做的就是解釋該模型。

注:代理模型可以是任何可解釋的模型:線性模型、決策樹(shù)、人類定義的規(guī)則等。

關(guān)于機(jī)器學(xué)習(xí)模型的六大可解釋性技術(shù)

使用可解釋的模型來(lái)近似黑盒模型會(huì)引入額外的誤差,但額外的誤差可以通過(guò)R平方來(lái)衡量。

由于代理模型僅根據(jù)黑盒模型的預(yù)測(cè)而不是真實(shí)結(jié)果進(jìn)行訓(xùn)練,因此全局代理模型只能解釋黑盒模型,而不能解釋數(shù)據(jù)。

05、Local Surrogate (LIME)

LIME(Local Interpretable Model-agnostic Explanations)和global surrogate是不同的,因?yàn)樗粐L試解釋整個(gè)模型。相反,它訓(xùn)練可解釋的模型來(lái)近似單個(gè)預(yù)測(cè)。LIME試圖了解當(dāng)我們擾亂數(shù)據(jù)樣本時(shí)預(yù)測(cè)是如何變化的。

關(guān)于機(jī)器學(xué)習(xí)模型的六大可解釋性技術(shù)

上面左邊的圖像被分成可解釋的部分。然后,LIME 通過(guò)“關(guān)閉”一些可解釋的組件(在這種情況下,使它們變灰)來(lái)生成擾動(dòng)實(shí)例的數(shù)據(jù)集。對(duì)于每個(gè)擾動(dòng)實(shí)例,可以使用經(jīng)過(guò)訓(xùn)練的模型來(lái)獲取圖像中存在樹(shù)蛙的概率,然后在該數(shù)據(jù)集上學(xué)習(xí)局部加權(quán)線性模型。最后,使用具有最高正向權(quán)重的成分來(lái)作為解釋。

06、Shapley Value (SHAP)

Shapley Value的概念來(lái)自博弈論。我們可以通過(guò)假設(shè)實(shí)例的每個(gè)特征值是游戲中的“玩家”來(lái)解釋預(yù)測(cè)。每個(gè)玩家的貢獻(xiàn)是通過(guò)在其余玩家的所有子集中添加和刪除玩家來(lái)衡量的。一名球員的Shapley Value是其所有貢獻(xiàn)的加權(quán)總和。Shapley 值是可加的,局部準(zhǔn)確的。如果將所有特征的Shapley值加起來(lái),再加上基值,即預(yù)測(cè)平均值,您將得到準(zhǔn)確的預(yù)測(cè)值。這是許多其他方法所沒(méi)有的功能。

關(guān)于機(jī)器學(xué)習(xí)模型的六大可解釋性技術(shù)

該圖顯示了每個(gè)特征的Shapley值,表示將模型結(jié)果從基礎(chǔ)值推到最終預(yù)測(cè)的貢獻(xiàn)。紅色表示正面貢獻(xiàn),藍(lán)色表示負(fù)面貢獻(xiàn)。

小結(jié)

機(jī)器學(xué)習(xí)模型的可解釋性是機(jī)器學(xué)習(xí)中一個(gè)非常活躍而且重要的研究領(lǐng)域。本文中我們介紹了6種常用的用于理解機(jī)器學(xué)習(xí)模型的算法。大家可以依據(jù)自己的實(shí)踐場(chǎng)景進(jìn)行使用。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4743

    瀏覽量

    96904
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3618

    瀏覽量

    51547
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8532

    瀏覽量

    136022
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的科學(xué)應(yīng)用

    配備科學(xué)發(fā)現(xiàn)仍需人類的直覺(jué)和靈感 ④正價(jià)可解釋性和透明 ⑤解決倫理和道德問(wèn)題、AI芯片用于“AI科學(xué)家”系統(tǒng) AI芯片的作用:七、用量子啟發(fā)AI技術(shù)發(fā)現(xiàn)新型超材料的案例 超材料特點(diǎn)
    發(fā)表于 09-17 11:45

    中國(guó)科學(xué)院西安光機(jī)所在計(jì)算成像可解釋性深度學(xué)習(xí)重建方法取得進(jìn)展

    圖1 MDFP-Net網(wǎng)絡(luò)結(jié)構(gòu) 近日,中國(guó)科學(xué)院西安光機(jī)所空間光學(xué)技術(shù)研究室在計(jì)算成像可解釋性深度學(xué)習(xí)重建方法研究取得創(chuàng)新進(jìn)展。相關(guān)研究成果發(fā)表于計(jì)算機(jī)視覺(jué)與圖形學(xué)領(lǐng)域國(guó)際著名期刊
    的頭像 發(fā)表于 06-09 09:27 ?428次閱讀
    中國(guó)科學(xué)院西安光機(jī)所在計(jì)算成像<b class='flag-5'>可解釋性</b>深度<b class='flag-5'>學(xué)習(xí)</b>重建方法取得進(jìn)展

    Gartner發(fā)布云技術(shù)發(fā)展的六大趨勢(shì)

    Gartner發(fā)布未來(lái)四年云技術(shù)發(fā)展的六大趨勢(shì),包括對(duì)云技術(shù)不滿、人工智能/機(jī)器學(xué)習(xí)(AI/ML)、多云和跨云、可持續(xù)
    的頭像 發(fā)表于 05-19 11:40 ?702次閱讀
    Gartner發(fā)布云<b class='flag-5'>技術(shù)</b>發(fā)展的<b class='flag-5'>六大</b>趨勢(shì)

    一種實(shí)時(shí)多線程VSLAM框架vS-Graphs介紹

    針對(duì)現(xiàn)有VSLAM系統(tǒng)語(yǔ)義表達(dá)不足、地圖可解釋性差的問(wèn)題,本文提出vS-Graphs,一種實(shí)時(shí)多線程VSLAM框架。該方案顯著提升了重建地圖的語(yǔ)義豐富度、可解釋性及定位精度。實(shí)驗(yàn)表明
    的頭像 發(fā)表于 04-19 14:07 ?628次閱讀
    一種實(shí)時(shí)多線程VSLAM框架vS-Graphs介紹

    模型領(lǐng)域常用名詞解釋(近100個(gè))

    本文總結(jié)了大模型領(lǐng)域常用的近100個(gè)名詞解釋,并按照模型架構(gòu)與基礎(chǔ)概念,訓(xùn)練方法與技術(shù),模型優(yōu)化與壓縮,推理與應(yīng)用,計(jì)算與性能優(yōu)化,數(shù)據(jù)與標(biāo)
    的頭像 發(fā)表于 02-19 11:49 ?1145次閱讀
    大<b class='flag-5'>模型</b>領(lǐng)域常用名詞<b class='flag-5'>解釋</b>(近100個(gè))

    AI大模型在汽車應(yīng)用中的推理、降本與可解釋性研究

    佐思汽研發(fā)布《2024-2025年AI大模型及其在汽車領(lǐng)域的應(yīng)用研究報(bào)告》。 推理能力成為大模型性能提升的驅(qū)動(dòng)引擎 2024下半年以來(lái),國(guó)內(nèi)外大模型公司紛紛推出推理模型,通過(guò)以CoT為
    的頭像 發(fā)表于 02-18 15:02 ?1669次閱讀
    AI大<b class='flag-5'>模型</b>在汽車應(yīng)用中的推理、降本與<b class='flag-5'>可解釋性</b>研究

    了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇

    ) 擴(kuò)展上下文+結(jié)構(gòu)化推理(支持更長(zhǎng)復(fù)雜輸入) 響應(yīng)控制 通用流暢優(yōu)先 強(qiáng)化分步解釋與中間過(guò)程可解釋性 3. 技術(shù)架構(gòu)差異 技術(shù)點(diǎn) Dee
    發(fā)表于 02-14 02:08

    機(jī)器學(xué)習(xí)模型市場(chǎng)前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長(zhǎng)以及計(jì)算能力的飛速提升,機(jī)器學(xué)習(xí)模型的市場(chǎng)前景愈發(fā)廣闊。下面,AI部落小編將探討機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 02-13 09:39 ?532次閱讀

    小白學(xué)解釋性AI:從機(jī)器學(xué)習(xí)到大模型

    科學(xué)AI需要可解釋性人工智能的崛起,尤其是深度學(xué)習(xí)的發(fā)展,在眾多領(lǐng)域帶來(lái)了令人矚目的進(jìn)步。然而,伴隨這些進(jìn)步而來(lái)的是一個(gè)關(guān)鍵問(wèn)題——“黑箱”問(wèn)題。許多人工智能模型,特別是復(fù)雜的模型,如
    的頭像 發(fā)表于 02-10 12:12 ?975次閱讀
    小白學(xué)<b class='flag-5'>解釋性</b>AI:從<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>到大<b class='flag-5'>模型</b>

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化>這本書(shū)。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項(xiàng)關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型深度
    發(fā)表于 01-14 16:51

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    近年來(lái),人工智能領(lǐng)域的大模型技術(shù)在多個(gè)方向上取得了突破的進(jìn)展,特別是在機(jī)器人控制領(lǐng)域展現(xiàn)出了巨大的潛力。在“具身智能機(jī)器人大
    發(fā)表于 12-29 23:04

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    設(shè)計(jì)專門(mén)的編碼器處理視覺(jué)、觸覺(jué)、位置等不同類型的傳感器數(shù)據(jù),再用cross-attention機(jī)制將它們對(duì)齊到同一語(yǔ)義空間。這種設(shè)計(jì)不僅提高了模型的感知能力,還增強(qiáng)了推理過(guò)程的可解釋性。在實(shí)驗(yàn)中,RT-1
    發(fā)表于 12-24 15:03

    Deloitte的六大技術(shù)趨勢(shì)

    在這個(gè)技術(shù)變革加速的時(shí)代,人工智能(AI)正以前所未有的速度改變企業(yè)的核心運(yùn)營(yíng)模式。此份報(bào)告圍繞空間計(jì)算、AI未來(lái)趨勢(shì)、智能硬件、IT升級(jí)、量子計(jì)算、智能核心六大主題展開(kāi)深入探討,無(wú)論是企業(yè)決策者
    的頭像 發(fā)表于 12-21 15:40 ?2773次閱讀
    Deloitte的<b class='flag-5'>六大</b><b class='flag-5'>技術(shù)</b>趨勢(shì)

    深度學(xué)習(xí)模型的魯棒優(yōu)化

    深度學(xué)習(xí)模型的魯棒優(yōu)化是一個(gè)復(fù)雜但至關(guān)重要的任務(wù),它涉及多個(gè)方面的技術(shù)和策略。以下是一些關(guān)鍵的優(yōu)化方法: 一、數(shù)據(jù)預(yù)處理與增強(qiáng) 數(shù)據(jù)清洗 :去除數(shù)據(jù)中的噪聲和異常值,這是提高
    的頭像 發(fā)表于 11-11 10:25 ?1867次閱讀

    魯棒機(jī)器學(xué)習(xí)中的重要

    機(jī)器學(xué)習(xí)領(lǐng)域,模型的魯棒是指模型在面對(duì)輸入數(shù)據(jù)的擾動(dòng)、異常值、噪聲或?qū)剐怨魰r(shí),仍能保持性能的能力。隨著人工智能
    的頭像 發(fā)表于 11-11 10:19 ?1779次閱讀