18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積網(wǎng)絡(luò)最新研究:通過(guò)AutoML和模型規(guī)模化提升精度與效率

nlfO_thejiangme ? 來(lái)源:YXQ ? 2019-06-04 17:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積網(wǎng)絡(luò)的部署通常在固定資源的情況下進(jìn)行,如果想要提高精度就需要更多的資源來(lái)部署更大、更深的網(wǎng)絡(luò)。實(shí)際應(yīng)用中,人們可以把ResNet-18拓展到ResNet-200增加層數(shù)提高精度,谷歌近期提出的GPipe也利用提升規(guī)模的方法在ImageNet上實(shí)現(xiàn)了84.3%的top-1精度。

Gpipe模型與ResNet不同規(guī)模的模型

對(duì)于擴(kuò)大模型的規(guī)模,通常的做法是增加卷積網(wǎng)絡(luò)的深度或?qū)挾?,或者利用更大的輸入分辨率?lái)訓(xùn)練和測(cè)評(píng)。雖然能夠大幅度提升精度,但需要復(fù)雜的手工調(diào)校來(lái)進(jìn)行優(yōu)化。

那么我們能不能找到一種更為通用的方法來(lái)使擴(kuò)大CNNs的規(guī)模以得到更好的精度和速度呢?谷歌在今年的ICML會(huì)議上給出了一種可行的解決方案。研究中提出了一種名為EfficientNet,通過(guò)簡(jiǎn)單高效地混合系數(shù)來(lái)結(jié)構(gòu)化地?cái)U(kuò)大CNNs的規(guī)模。與先前提高網(wǎng)絡(luò)維度參數(shù)不同,這種新的方法不會(huì)去調(diào)整寬度、深度和分辨率,而是利用固定的規(guī)模系數(shù)集均勻化地對(duì)每個(gè)維度進(jìn)行擴(kuò)增。

基于這種規(guī)?;椒ê妥詣?dòng)機(jī)器學(xué)習(xí),研究人員開(kāi)發(fā)出了新的網(wǎng)絡(luò)家族EfficientNets,不僅在精度上超過(guò)了前輩,更在效率上有了10倍的提升。

混合模型規(guī)?;獢U(kuò)大CNNs規(guī)模的好方法

研究人員首先系統(tǒng)地分析了不同維度上的規(guī)?;瘜?duì)于模型的影響。

在深度、寬度和分辨率等維度上記性擴(kuò)充后的模型效果提升,但單個(gè)維度在達(dá)到80%后很快趨近于飽和。

分別對(duì)于不同的維度進(jìn)行規(guī)模化后,研究人員發(fā)現(xiàn)對(duì)于網(wǎng)絡(luò)寬度、深度和圖像分辨率等所有維度的平衡下對(duì)于模型的表現(xiàn)提升最好。所以混合而不是單一的改變模型的規(guī)模是提升性能的較好選擇?;旌弦?guī)?;椒ǖ牡谝徊绞沁M(jìn)行柵格搜索,在固定資源限制的條件下尋找不同規(guī)模維度下的關(guān)系。這將為不同的維度尋找適宜的規(guī)模化系數(shù)來(lái)實(shí)現(xiàn)最好的效果。隨后利用這些搜索到的系數(shù)來(lái)對(duì)基準(zhǔn)網(wǎng)絡(luò)進(jìn)行擴(kuò)充,在給定的計(jì)算資源和模型大小下實(shí)現(xiàn)目標(biāo)模型。

上圖顯示了不同規(guī)?;姆椒?,與先前的方法不同,新提出的混合規(guī)模化方法在所有的維度上進(jìn)行了規(guī)?;嵘?。

實(shí)驗(yàn)表明這種混合規(guī)?;椒ū萴obileNet(+1.4%)和ResNet(+0.7%)都有提升。

EfficientNet架構(gòu)

前述的模型在規(guī)模化的時(shí)候依然高度依賴于基礎(chǔ)網(wǎng)絡(luò)模型。所以為了更好的提高模型的表現(xiàn),研究人員提出了新型基準(zhǔn)網(wǎng)絡(luò)模型。利用自動(dòng)機(jī)器學(xué)習(xí)框架來(lái)進(jìn)行神經(jīng)架構(gòu)搜索,同時(shí)優(yōu)化了精度和效率(FLOPS)。

最終的架構(gòu)類似MobileNetV2和MnasNet,使用了移動(dòng)反轉(zhuǎn)瓶頸卷積結(jié)構(gòu)(mobile inverted bottleneck),但在規(guī)模上有些許擴(kuò)大。基于這一基礎(chǔ)網(wǎng)絡(luò),研究人員利用不同的擴(kuò)充方式得到了規(guī)?;木W(wǎng)絡(luò)家族EfficientNets。

簡(jiǎn)單的基準(zhǔn)模型更容易擴(kuò)展和規(guī)模化

EfficientNet的表現(xiàn)

為了測(cè)試模型的性能,研究人員在ImageNet上對(duì)現(xiàn)有的先進(jìn)模型與EfficientNet進(jìn)行了比較,結(jié)果表明EfficientNet在精度和效率上都超過(guò)了現(xiàn)有的模型,甚至在相同精度下將模型參數(shù)和操作減小了一個(gè)數(shù)量級(jí)。

在下圖中可以看到,在左上角的高精度區(qū)域,B7型EfficientNet在ImageNet上達(dá)到了84.4%的top-1精度和97.1%的top-5精度,但與先前的GPipe相比在CPU上的運(yùn)行使用的參數(shù)減小了8.4倍同時(shí)速度提升了6.1倍。與廣泛使用的ResNet-50相比,相同參數(shù)的情況下提升了6.3%的top-1精度。

結(jié)果顯示了新的模型家族在精度與效率上的優(yōu)勢(shì)。

此外,為了驗(yàn)證模型的其他數(shù)據(jù)集上的表現(xiàn),研究人員還將模型遷移到了CIFAR-100和Flowers上,EfficientNet在參數(shù)減少一個(gè)數(shù)量級(jí)(21x)的情況下在8個(gè)測(cè)試數(shù)據(jù)集中的5個(gè)上取得了最好的精度,證明了這一方法具有穩(wěn)定的泛化能力。這種新的模型有望成為計(jì)算機(jī)視覺(jué)任務(wù)的新基準(zhǔn),研究人員開(kāi)源了所有的代碼,同時(shí)可以看在這里找到基于TPU的加速實(shí)現(xiàn)

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6241

    瀏覽量

    110011
  • 卷積網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    0

    文章

    43

    瀏覽量

    3095

原文標(biāo)題:谷歌最新研究EfficientNet,通過(guò)AutoML和模型規(guī)?;嵘扰c效率

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    , batch_size=512, epochs=20)總結(jié) 這個(gè)核心算法中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過(guò)程,是用來(lái)對(duì)MNIST手寫(xiě)數(shù)字圖像進(jìn)行分類的。模型將圖像作為輸入,通過(guò)
    發(fā)表于 10-22 07:03

    新型儲(chǔ)能正從規(guī)模化擴(kuò)張走向效能提升

    電子發(fā)燒友網(wǎng)綜合報(bào)道 在全球能源轉(zhuǎn)型與“雙碳”目標(biāo)的雙重驅(qū)動(dòng)下,新型儲(chǔ)能正從技術(shù)探索階段邁入規(guī)模化發(fā)展的關(guān)鍵時(shí)期。作為保障能源安全、促進(jìn)新能源消納的核心支撐,我國(guó)新型儲(chǔ)能產(chǎn)業(yè)已形成技術(shù)多元、規(guī)模領(lǐng)先
    的頭像 發(fā)表于 09-10 07:10 ?5700次閱讀

    軟通動(dòng)力如何推動(dòng)工業(yè)AI規(guī)?;?/b>落地

    近日,在2025世界人工智能大會(huì)(WAIC 2025)“AI數(shù)算 重構(gòu)智造產(chǎn)鏈生態(tài)”2025智能趨勢(shì)論壇上,軟通動(dòng)力集團(tuán)咨詢與數(shù)字創(chuàng)新服務(wù)線聯(lián)席總裁李國(guó)亮受邀出席圓桌對(duì)話:《智造“最后一公里”》——工業(yè)AI落地的關(guān)鍵路徑與生態(tài)協(xié)同,深入剖析了工業(yè)AI規(guī)?;?/b>落地的核心挑戰(zhàn)
    的頭像 發(fā)表于 07-30 17:27 ?745次閱讀

    飛騰CPU在濟(jì)南機(jī)場(chǎng)實(shí)現(xiàn)規(guī)?;?/b>應(yīng)用

    近日,隨著暑運(yùn)大幕正式開(kāi)啟,民航自主可控領(lǐng)域再傳捷報(bào)。中國(guó)航信和飛騰成功支持山東航空完成在濟(jì)南機(jī)場(chǎng)自助柜機(jī)軟硬件系統(tǒng)升級(jí),實(shí)現(xiàn)了自助柜機(jī)百分百國(guó)產(chǎn)。這也是飛騰CPU在航空公司離港應(yīng)用市場(chǎng)的首次規(guī)模化商業(yè)推廣落地。
    的頭像 發(fā)表于 07-10 15:43 ?591次閱讀

    模型推理顯存和計(jì)算量估計(jì)方法研究

    (如全連接層、卷積層等)確定所需的顯存大小; (3)將各層顯存大小相加,得到模型總的顯存需求。 基于神經(jīng)網(wǎng)絡(luò)剪枝的顯存估計(jì) 神經(jīng)網(wǎng)絡(luò)剪枝是一種減少
    發(fā)表于 07-03 19:43

    廣和通加速5G+AI規(guī)模化應(yīng)用

    規(guī)?;?/b>發(fā)展與豐富的行業(yè)應(yīng)用,這也為AI提供連接血脈和數(shù)字通道。5G提供高帶寬、低時(shí)延的確定性網(wǎng)絡(luò)能力,支撐AI終端實(shí)時(shí)控制與數(shù)據(jù)增量訓(xùn)練。
    的頭像 發(fā)表于 06-12 09:36 ?2520次閱讀

    AgiBot World Colosseo:構(gòu)建通用機(jī)器人智能的規(guī)?;?/b>數(shù)據(jù)平臺(tái)

    AgiBot World Colosseo:構(gòu)建通用機(jī)器人智能的規(guī)?;?/b>數(shù)據(jù)平臺(tái) 隨著人工智能在語(yǔ)言處理和計(jì)算機(jī)視覺(jué)領(lǐng)域取得突破,機(jī)器人技術(shù)仍面臨現(xiàn)實(shí)場(chǎng)景泛能力的挑戰(zhàn)。這一困境的核心在于高質(zhì)量機(jī)器人
    的頭像 發(fā)表于 03-12 11:42 ?1555次閱讀
    AgiBot World Colosseo:構(gòu)建通用機(jī)器人智能的<b class='flag-5'>規(guī)模化</b>數(shù)據(jù)平臺(tái)

    如何使用MATLAB實(shí)現(xiàn)一維時(shí)間卷積網(wǎng)絡(luò)

    本文對(duì)一維卷積操作進(jìn)行介紹,包括一維擴(kuò)展卷積和一維因果卷積,以及 MATLAB 對(duì)一維卷積的支持情況。在最后通過(guò)一個(gè)實(shí)例演示如何在 MATL
    的頭像 發(fā)表于 03-07 09:15 ?1516次閱讀
    如何使用MATLAB實(shí)現(xiàn)一維時(shí)間<b class='flag-5'>卷積</b><b class='flag-5'>網(wǎng)絡(luò)</b>

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個(gè)神經(jīng)元構(gòu)成,神經(jīng)元之間通過(guò)權(quán)重連接。信號(hào)在神經(jīng)網(wǎng)絡(luò)中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)(CNN) : CNN主要由
    的頭像 發(fā)表于 02-12 15:53 ?1086次閱讀

    如何通過(guò)地物光譜儀提升生態(tài)研究精度

    在生態(tài)研究中,準(zhǔn)確的數(shù)據(jù)收集和分析是理解生態(tài)系統(tǒng)動(dòng)態(tài)和健康狀況的關(guān)鍵。地物光譜儀作為一種先進(jìn)的遙感工具,可以顯著提升生態(tài)研究精度。本文將探討地物光譜儀在生態(tài)
    的頭像 發(fā)表于 01-10 13:44 ?530次閱讀
    如何<b class='flag-5'>通過(guò)</b>地物光譜儀<b class='flag-5'>提升</b>生態(tài)<b class='flag-5'>研究</b>的<b class='flag-5'>精度</b>?

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    的是百度的Picodet模型,它是一種基于深度卷積網(wǎng)絡(luò)(DNN)的輕量級(jí)目標(biāo)檢測(cè)模型,具有非常高的檢測(cè)精度,可以在低算力設(shè)備進(jìn)行實(shí)時(shí)的端到端
    發(fā)表于 12-19 14:33

    蔚來(lái)能源武漢制造中心規(guī)?;?/b>量產(chǎn)

    近日,中國(guó)光谷迎來(lái)了蔚來(lái)能源武漢制造中心的一個(gè)重要里程碑——第100座換電站正式下線。這一事件標(biāo)志著蔚來(lái)能源全球最大的能源產(chǎn)品生產(chǎn)基地已經(jīng)正式邁入規(guī)?;?/b>量產(chǎn)的新階段。 蔚來(lái)能源武漢制造中心占地面積約
    的頭像 發(fā)表于 12-06 11:38 ?1216次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)工具與框架

    : TensorFlow是由Google Brain團(tuán)隊(duì)開(kāi)發(fā)的開(kāi)源機(jī)器學(xué)習(xí)框架,它支持多種深度學(xué)習(xí)模型的構(gòu)建和訓(xùn)練,包括卷積神經(jīng)網(wǎng)絡(luò)。TensorFlow以其靈活性和可擴(kuò)展性而聞名,適用于研究
    的頭像 發(fā)表于 11-15 15:20 ?965次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),其靈感來(lái)源于生物的視覺(jué)皮層機(jī)制。它通過(guò)模擬人類視覺(jué)系統(tǒng)的處理方式,能夠自動(dòng)提取圖像特征,從而在圖像識(shí)別和分類任務(wù)中表現(xiàn)出色。
    的頭像 發(fā)表于 11-15 14:52 ?1104次閱讀

    模型加速賦能行業(yè) 訊飛星火引領(lǐng)大模型規(guī)?;?/b>落地時(shí)代

    經(jīng)過(guò)一年多的探索與調(diào)整,2024年的大模型產(chǎn)業(yè)開(kāi)始真正進(jìn)入到規(guī)模化落地應(yīng)用階段。在新的時(shí)期,模型之間的能力比拼只是基礎(chǔ),各家開(kāi)始真正進(jìn)入到是否能為產(chǎn)業(yè)帶來(lái)助力的硬實(shí)力比拼上。 10月24日,科大訊飛
    的頭像 發(fā)表于 10-28 14:03 ?658次閱讀