18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

深度學習框架只為GPU? 答案在這里

模擬對話 ? 2018-03-14 18:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

目前大多數(shù)的機器學習是在處理器上完成的,大多數(shù)機器學習軟件會針對GPU進行更多的優(yōu)化,甚至有人認為學習加速必須在GPU上才能完成,但事實上無論是運行機器學習的處理器還是優(yōu)化的深度學習框架,都不單只針對GPU,代號為“Skylake”的英特爾至強SP處理器就證明了這一點。

機器學習軟件在英特爾至強SP系列白金版上的一系列基準測試性能表現(xiàn)與在GPU上非常相近,了解了底層架構之后,我們可以看到,在性能如此接近的情況下,使用GPU加速器更像是在購買一種“奢侈品”,用戶在GPU以外還有很多其他的選擇。毫無疑問,在用戶只需要機器學習的情況下,“加速器”在性能和能耗方面更有優(yōu)勢,大多數(shù)人需要的不只是一臺“智能的用于機器學習的服務器”,那就讓我們來重點看一下英特爾至強SP 白金級處理器為什么是最佳的選擇:

CPU優(yōu)化深度學習框架和函數(shù)庫

英特爾在基于GPU優(yōu)化的框架中增加了CPU優(yōu)化深度學習框架, 打破了深度學習框架偏重于GPU而忽視了CPU的行業(yè)現(xiàn)狀,解決了目前這些框架缺乏CPU優(yōu)化的實際問題。

- TensorFlow由谷歌開發(fā),是一個領先的深度學習和機器學習框架,有面向Linux的處理器優(yōu)化

- Caffe是圖片識別領域最受歡迎的應用之一,英特爾提供的優(yōu)化可以在CPU運行時提高Caffe的性能

- Torch是當下流行的深度學習框架,需要在優(yōu)化的CPU上應用,可以通過英特爾軟件優(yōu)化(比如英特爾至強可擴展處理器)提高Torch在CPU上的性能

- Theano是一個開源的Python庫,很受機器學習程序員的歡迎,它可以幫助程序員高效地定義、優(yōu)化和評估涉及多維陣列的數(shù)學表達式

- Neon是一個基于Python的深度學習框架,目的是在現(xiàn)代深度神經(jīng)網(wǎng)絡上實現(xiàn)易用性和可擴展性,并致力于在所有硬件上實現(xiàn)性能的最大化

- MXNet是一個開源的深度學習框架

- Python及其函數(shù)庫是機器學習應用里最受歡迎的基礎組成,Python加速版過去幾年里得到了廣泛應用,并且可以直接下載或通過Conda、yum、apt-get或Docker images下載

- BigDL是一個面向Apache Spark的分布式深度學習函數(shù)庫。通過BigDL用戶可以把自己的深度學習應用當作標準Apache Spark程序來編寫,直接在現(xiàn)有Apache Spark或Hadoop集群上運行。在Torch基礎上開發(fā)的BigDL可以為深度學習提供綜合性支持:包括數(shù)值計算(通過Tensor)和高級神經(jīng)網(wǎng)絡;此外用戶還可以利用BigDL把提前訓練的Caffe或Torch模型載入Spark程序。英特爾曾聲稱在一個單節(jié)點至強處理器上(例如與GPU相比),BigDL中的處理速度比原始開源Caffe、Torch或TensorFlow要高一個數(shù)量級

- 英特爾MKL-DNN是一個開源的、性能強化的函數(shù)庫,用于加速在CPU上的深度學習框架

- 英特爾數(shù)據(jù)分析加速庫(DAAL)是一個包含了被優(yōu)化的算法構建模塊的開源函數(shù)庫,針對大數(shù)據(jù)問題最相關的數(shù)據(jù)分析階段。這個函數(shù)庫適用于當下流行的數(shù)據(jù)平臺,包括Hadoop、Spark、R和Matlab

結果證明了一切,無論是TensorFlow、Caffe,還是Torch、Theano,這些深度學習框架都針對英特爾數(shù)學核心函數(shù)庫(Intel MKL)和英特爾高級矢量擴展指令集(Intel AVX)進行了優(yōu)化。通過CPU優(yōu)化,TensorFlow和Caffe基準測試中的CPU性能分別提高了72倍和82倍。

機器學習加速器

科技與行業(yè)的發(fā)展都是瞬息萬變的,機器學習的加速器也會從GPU轉(zhuǎn)向FPGA、ASIC等等,除非我們永遠只需要一臺只能用于機器學習的服務器,只要在一臺服務器上想實現(xiàn)可以支持各種的工作負載,英特爾至強可擴展處理器無疑是最佳的解決方案。加速器的選擇正在變得多元化,這是整個行業(yè)的發(fā)展趨勢,多核CPU(英特爾至強融核處理器,特別是“Knights Mill”版)和FPGA(英特爾至強處理器,包含Intel/Altera FPGA)都可以提供更靈活的選擇、卓越的性價比和高能效?;谟⑻貭栔翉娙诤颂幚砥饔柧毣?qū)W習一個AlexNet圖片分類系統(tǒng)的速度,是使用NVIDIA GPU的類似配置系統(tǒng)的2.3倍;英特爾至強融核處理器的性價比最高可以是GPU解決方案的9倍,每瓦性能高達8倍,英特爾Nervana將推出更多專為人工智能開發(fā)的產(chǎn)品。英特爾至強SP系列處理器為機器學習提供了卓越的性能,同時相比其他解決方案也為我們帶來了更多的功能與選擇,讓我們在產(chǎn)品與行業(yè)的發(fā)展中都可以擁有更多可能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關注

    關注

    1650

    文章

    22219

    瀏覽量

    628078
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5053

    瀏覽量

    134036
  • 人工智能
    +關注

    關注

    1813

    文章

    49539

    瀏覽量

    259397
  • 機器學習
    +關注

    關注

    66

    文章

    8532

    瀏覽量

    136023
  • 深度學習
    +關注

    關注

    73

    文章

    5587

    瀏覽量

    123766
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    變壓器輸入和輸出電壓該怎么選?答案在這里!

    變壓器作為一種電力設備,輸入和輸出電壓的選用對于確保設備正常運行和安全至關重要。以下是選擇輸入和輸出電壓時,需要考慮的因素:
    的頭像 發(fā)表于 07-04 14:49 ?833次閱讀

    GPU架構深度解析

    GPU架構深度解析從圖形處理到通用計算的進化之路圖形處理單元(GPU),作為現(xiàn)代計算機中不可或缺的一部分,已經(jīng)從最初的圖形渲染專用處理器,發(fā)展成為強大的并行計算引擎,廣泛應用于人工智能、科學計算
    的頭像 發(fā)表于 05-30 10:36 ?935次閱讀
    <b class='flag-5'>GPU</b>架構<b class='flag-5'>深度</b>解析

    ARM Mali GPU 深度解讀

    ARM Mali GPU 深度解讀 ARM Mali 是 Arm 公司面向移動設備、嵌入式系統(tǒng)和基礎設施市場設計的圖形處理器(GPU)IP 核,憑借其異構計算架構、能效優(yōu)化和生態(tài)協(xié)同,成為全球移動
    的頭像 發(fā)表于 05-29 10:12 ?2441次閱讀

    為何 MCX 插頭會呈現(xiàn)大小不同?答案在這里

    同時,設備制造商在產(chǎn)品設計階段,會根據(jù)整體結構和接口規(guī)劃,審慎選擇合適大小的 MCX 插頭。這一決策不僅關乎插頭與內(nèi)部組件的適配,還影響著設備的外部接口兼容性和可擴展性,確保產(chǎn)品在復雜的電子生態(tài)系統(tǒng)中能夠無縫對接、協(xié)同工作。
    的頭像 發(fā)表于 04-11 08:40 ?394次閱讀
    為何 MCX 插頭會呈現(xiàn)大小不同?<b class='flag-5'>答案</b><b class='flag-5'>在這里</b>

    騰訊會議免費40分鐘不夠用?你要的秘訣在這里!

    影響效率。更令人擔憂的是,未來免費時長可能進一步縮短。那么,有沒有一種經(jīng)濟實惠又功能強大的解決方案呢?答案在這里:結合樹莓派和3CXPBX,你就能打造一個無時間限制
    的頭像 發(fā)表于 03-25 09:24 ?1353次閱讀
    騰訊會議免費40分鐘不夠用?你要的秘訣<b class='flag-5'>在這里</b>!

    買云數(shù)據(jù)庫要購買服務器嗎?答案在這里

    云數(shù)據(jù)庫通常無需用戶購買服務器,由提供商負責底層硬件維護。用戶可通過Web界面或API配置和管理數(shù)據(jù)庫,根據(jù)需求選擇合適的類型、規(guī)格和策略。在特殊情況下,如性能或安全需求無法滿足,用戶可能需自建數(shù)據(jù)庫并購買服務器。以下是UU云小編對云數(shù)據(jù)庫要購買服務器嗎相關問題的詳細解答:
    的頭像 發(fā)表于 01-17 09:55 ?471次閱讀

    美國高防云服務器真的好用嗎?答案在這里!

    美國高防云服務器在性能、安全性和可擴展性上具有優(yōu)勢,適合需要高速網(wǎng)絡連接、強大安全防護和靈活資源的用戶。選擇時需考慮提供商的服務質(zhì)量、技術支持、數(shù)據(jù)隱私和合規(guī)性等因素。雖然存在地理距離和時差挑戰(zhàn),但對于追求這些特性的用戶而言,美國高防云服務器仍是一個值得考慮的選擇。
    的頭像 發(fā)表于 12-25 10:31 ?427次閱讀

    Triton編譯器在機器學習中的應用

    多種深度學習框架,如TensorFlow、PyTorch、ONNX等,使得開發(fā)者能夠輕松地將不同框架下訓練的模型部署到GPU上。 2. Tr
    的頭像 發(fā)表于 12-24 18:13 ?1454次閱讀

    深度學習工作負載中GPU與LPU的主要差異

    ,一個新的競爭力量——LPU(Language Processing Unit,語言處理單元)已悄然登場,LPU專注于解決自然語言處理(NLP)任務中的順序性問題,是構建AI應用不可或缺的一環(huán)。 本文旨在探討深度學習工作負載中GPU
    的頭像 發(fā)表于 12-09 11:01 ?3744次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>工作負載中<b class='flag-5'>GPU</b>與LPU的主要差異

    GPU深度學習中的應用 GPUs在圖形設計中的作用

    隨著人工智能技術的飛速發(fā)展,深度學習作為其核心部分,已經(jīng)成為推動技術進步的重要力量。GPU(圖形處理單元)在深度學習中扮演著至關重要的角色,
    的頭像 發(fā)表于 11-19 10:55 ?2006次閱讀

    NPU在深度學習中的應用

    設計的硬件加速器,它在深度學習中的應用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學習算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和GPU
    的頭像 發(fā)表于 11-14 15:17 ?2616次閱讀

    pcie在深度學習中的應用

    深度學習模型通常需要大量的數(shù)據(jù)和強大的計算能力來訓練。傳統(tǒng)的CPU計算資源有限,難以滿足深度學習的需求。因此,GPU(圖形處理單元)和TPU
    的頭像 發(fā)表于 11-13 10:39 ?1697次閱讀

    PyTorch GPU 加速訓練模型方法

    深度學習領域,GPU加速訓練模型已經(jīng)成為提高訓練效率和縮短訓練時間的重要手段。PyTorch作為一個流行的深度學習
    的頭像 發(fā)表于 11-05 17:43 ?1992次閱讀

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構分析」閱讀體驗】--了解算力芯片GPU

    高效的并行計算,其適用于許多需要大量并行處理能力的任務,如圖形渲染和深度學習。 ●線程調(diào)度和管理 在GPU中,線程以線程束為單位進行調(diào)度和執(zhí)行。每個線程束通常包含32個線程。線程束調(diào)度器負責管理和切換
    發(fā)表于 11-03 12:55

    GPU深度學習應用案例

    GPU深度學習中的應用廣泛且重要,以下是一些GPU深度學習應用案例: 一、圖像識別 圖像識別是
    的頭像 發(fā)表于 10-27 11:13 ?1970次閱讀