18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達(dá)GPU廣泛使用 將帶來(lái)下一場(chǎng)AI變革

mK5P_AItists ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-05-16 10:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

日前,英偉達(dá) Developer Blog 上一篇博文詳細(xì)陳述了英偉達(dá)Volta Tensor Core GPU深度學(xué)習(xí)社群取得的巨大突破,以及種種突破背后的技術(shù)細(xì)節(jié)。

2017 年 5 月,在 GTC 2017 上,英偉達(dá) CEO 黃仁勛發(fā)布 Volta 架構(gòu) Tesla V100,它被稱為史上最快 GPU 加速器。2018 年 3 月,同樣也是在 GTC 上,黃仁勛發(fā)布「全球最大的 GPU」——DGX-2,搭載 16 塊 V100 GPU,速度達(dá)到 2 petaflops。

近年來(lái),英偉達(dá)在高速計(jì)算之路上越走越快。日前,英偉達(dá) Developer Blog 上一篇博文詳細(xì)陳述了英偉達(dá)Volta Tensor Core GPU 在深度學(xué)習(xí)社群取得的巨大突破,以及種種突破背后的技術(shù)細(xì)節(jié)。

由深度學(xué)習(xí)驅(qū)動(dòng)的人工智能現(xiàn)在解決了曾一度被認(rèn)為不可能的挑戰(zhàn),比如讓計(jì)算機(jī)理解自然語(yǔ)言、進(jìn)行對(duì)話以及自動(dòng)駕駛。既然深度學(xué)習(xí)能如此有效地解決一系列挑戰(zhàn),隨著算法復(fù)雜度呈現(xiàn)指數(shù)級(jí)增長(zhǎng),我們是否能將計(jì)算變得更快呢?基于此,英偉達(dá)設(shè)計(jì)了Volta Tensor Core架構(gòu)。

為了更快地計(jì)算,英偉達(dá)與許多公司以及研究人員一樣,一直在開發(fā)計(jì)算的軟件和硬件平臺(tái)。Google 是個(gè)典型的例子——他們的研究團(tuán)隊(duì)創(chuàng)建了 TPU(張量處理單元)加速器,當(dāng)利用 TPU 進(jìn)行加速時(shí),在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)可以達(dá)到優(yōu)異的性能。

這篇文章中,我們分享了英偉達(dá)實(shí)現(xiàn) GPU 巨大的性能提升后,在 AI 社群中取得的一些進(jìn)步:我們已經(jīng)在單芯片和單服務(wù)器上創(chuàng)造了 ResNet-50 的訓(xùn)練速度記錄。最近,fast.ai也宣布了他們利用英偉達(dá) VoltaTensor Core GPU 在單個(gè)云實(shí)例上的創(chuàng)紀(jì)錄表現(xiàn) 。

以下是我們的結(jié)果:

在訓(xùn)練 ResNet-50 時(shí),一個(gè) V100 Tensor Core GPU 的處理速度能達(dá)到 1075 張圖像/秒,與上一代 Pascal GPU 相比,它的性能提高了 4 倍。

一個(gè)由 8 個(gè) Tensor Core V100 驅(qū)動(dòng)的 DGX-1 服務(wù)器的處理速度能達(dá)到 7850 張圖像/秒,幾乎是去年在同一系統(tǒng)上處理速度(4200 張圖像/秒)的兩倍。

一個(gè)由 8 個(gè) Tensor Core V100 驅(qū)動(dòng)的 AWS P3 云實(shí)例可以在不到 3 小時(shí)內(nèi)完成

ResNet-50 的訓(xùn)練,比 TPU 實(shí)例快 3 倍。

圖 1:Volta Tensor Core GPU 在訓(xùn)練 ResNet-50 時(shí)所取得的速度突破

英偉達(dá) GPU 在對(duì)算法進(jìn)行大規(guī)模并行處理時(shí)效果極好,因此它極其適合用于深度學(xué)習(xí)。我們一直都沒有停止探索的腳步,Tensor CoreGPU 是我們利用多年的經(jīng)驗(yàn)和與世界各地的人工智能研究人員的密切合作,為深度學(xué)習(xí)模型創(chuàng)造的一種新的架構(gòu)。

結(jié)合高速 NVLink 互連以及在當(dāng)前所有框架內(nèi)的深度優(yōu)化,我們獲得了最先進(jìn)的性能。英偉達(dá) CUDA GPU 的可編程性在這里也非常重要。

V100 Tensor Core 打破了單處理器的最快處理速度記錄

英偉達(dá) Volta GPU 中引入了Tensor Core GPU 架構(gòu),這是英偉達(dá)深度學(xué)習(xí)平臺(tái)的巨大進(jìn)步。這種新硬件能加速矩陣乘法和卷積計(jì)算,這些計(jì)算在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)占總計(jì)算的很大一部分。

英偉達(dá) Tensor Core GPU 架構(gòu)能夠提供比功能單一的 ASIC 更高的性能,在不同工作負(fù)載下仍然具備可編程性。例如,每一個(gè) Tesla V100 Tensor Core GPU 用于深度學(xué)習(xí)可以達(dá)到 125 teraflop 的運(yùn)算速度,而 Google TPU 芯片只能達(dá)到 45 teraflop。包含 4 個(gè) TPU 芯片的「Cloud TPU」可以達(dá)到 125 teraflop,相比之下,4 個(gè) V100 芯片可以達(dá)到 500 teraflop。

我們的 CUDA 平臺(tái)使每一個(gè)深度學(xué)習(xí)框架都能充分利用Tensor Core GPU 的全部能力,加速諸如 CNN、RNN、GAN、RL 等各類神經(jīng)網(wǎng)絡(luò),以及基于這些網(wǎng)絡(luò)每年出現(xiàn)的成千上萬(wàn)個(gè)變種。

接下來(lái)是對(duì)Tensor Core架構(gòu)的更深入講解,大家可以在這里看到它獨(dú)特的功能。圖 2 顯示了 Tensor Core 計(jì)算張量的過程,雖然存儲(chǔ)是在低精度的 FP16 中,但是用精度更高的 FP32 來(lái)進(jìn)行計(jì)算,可以在維持精度時(shí)最大化吞吐量。

o4YBAFr7kdKAbP-XAABmNWScMoU711.jpg

圖 2:Volta Tensor Core 矩陣乘法計(jì)算

隨著最近的軟件改進(jìn),目前在單個(gè) V100 上訓(xùn)練 ResNet-50 的速度達(dá)到了 1360 張圖像/秒。我們現(xiàn)在正努力將這一訓(xùn)練軟件集成到流行的框架中,詳情如下。

為了讓性能最佳,基于 Tensor Core 進(jìn)行張量操作的存儲(chǔ)器布局應(yīng)該為 channel-interleaved 型數(shù)據(jù)布局(Number-Height-Width-Channel,常被稱為 NHWC),但往往默認(rèn)是 channel-major 型數(shù)據(jù)布局(Number-Channel-Width-Height,通常稱為 NCHW)。因此,cuDNN 庫(kù)會(huì)在 NCHW 和 NHWC 之間執(zhí)行張量轉(zhuǎn)置操作,如圖 3 所示。正如前面所提到的,由于卷積運(yùn)算現(xiàn)在的速度非???,所以這些轉(zhuǎn)置操作占了總運(yùn)行時(shí)間中相當(dāng)大的一部分。

為了消除這些轉(zhuǎn)置操作,我們直接用 NHWC 格式表示 RN-50 模型圖中的每個(gè)張量,MXNet 框架支持這一功能。此外,對(duì)所有其他非卷積層,我們還將優(yōu)化的 NHWC 實(shí)現(xiàn)添加到 MXNet 和 cuDNN 中,從而消除了訓(xùn)練過程中對(duì)張量轉(zhuǎn)置的需求。

o4YBAFr7kdKAPMYSAABsl2ZYsLk620.jpg

圖 3:優(yōu)化 NHWC 格式,以消除張量轉(zhuǎn)置

另一個(gè)優(yōu)化是基于阿爾達(dá)姆定律(并行計(jì)算中的加速比是用并行前的執(zhí)行速度和并行后的執(zhí)行速度之比來(lái)表示的,它表示了在并行化之后的效率提升情況),這一法則能預(yù)測(cè)并行處理的理論加速。由于 Tensor Core 顯著地加速了矩陣乘法和卷積層的計(jì)算,因此在訓(xùn)練時(shí)對(duì)其他層的計(jì)算占據(jù)了總運(yùn)行時(shí)間很大的一部分。我們可以確定這些新的性能瓶頸并進(jìn)行優(yōu)化。

如圖 4 所示,數(shù)據(jù)會(huì)移動(dòng)到 DRAM 或從 DRAM 中移出,因此許多非卷積層的性能會(huì)受到限制??梢岳闷洗鎯?chǔ)器將連續(xù)的層融合在一起,避免 DRAM traffic。例如,我們?cè)?MXNet 中創(chuàng)建一個(gè)圖優(yōu)化傳遞功能,以檢測(cè)連續(xù)的 ADD 和 ReLu 層,只要有可能就將這些層替換成融合層。在 MXNet 中可以非常簡(jiǎn)單地使用 NNVM(神經(jīng)網(wǎng)絡(luò)虛擬機(jī),Neural Network Virtual Machine)來(lái)實(shí)現(xiàn)這些類型的優(yōu)化。

o4YBAFr7kdKAFdrEAAA_C5Fg6cs295.jpg

圖 4 :進(jìn)行層融合操作,消除反復(fù)數(shù)據(jù)讀/寫

最后,我們繼續(xù)為常見的各類卷積創(chuàng)建額外的專用 kernel,以進(jìn)行優(yōu)化。

我們目前正在將許多這種優(yōu)化應(yīng)用于多個(gè)深度學(xué)習(xí)框架之中,包括 TensorFlow、PyTorch 和 MXNet 。我們利用單個(gè) Tensor Core V100 GPU 進(jìn)行標(biāo)準(zhǔn)的 90-epoch 訓(xùn)練,基于在 MXNet 上做的改進(jìn),處理速度達(dá)到 1075 張圖像/秒,與此同時(shí),我們的訓(xùn)練與單精度訓(xùn)練一樣達(dá)到了相同的 Top-1 分類精度(超過 75%)。我們?cè)趩螜C(jī)測(cè)試中的處理速度可以達(dá)到 1360 張圖像/秒,這意味著性能還有很大的提升空間??梢栽贜GC(NVIDIA GPU CLOUD)上利用 NVIDIA-optimized deep learning framework containers 實(shí)現(xiàn)性能的提升。

創(chuàng)紀(jì)錄的最高單節(jié)點(diǎn)速度

多個(gè) GPU 可以作為單節(jié)點(diǎn)運(yùn)行,以實(shí)現(xiàn)更高的吞吐量。然而,在將多個(gè) GPU 縮到單服務(wù)節(jié)點(diǎn)中工作時(shí),需要 GPU 之間存在高帶寬/低延遲通信路徑。英偉達(dá) NVLink 高速互連結(jié)構(gòu)允許我們將 8 個(gè) GPU 作為單服務(wù)器運(yùn)行,實(shí)現(xiàn)性能擴(kuò)展。這些大規(guī)模的加速服務(wù)器可以讓深度學(xué)習(xí)的計(jì)算達(dá)到 petaflop 量級(jí)的速度,并且在云端和本地部署中都可以被廣泛使用。

然而,雖然將 GPU 擴(kuò)展到 8 個(gè)可以顯著提高訓(xùn)練性能,但在這種框架下,主 CPU 執(zhí)行其他工作時(shí)性能會(huì)受到限制。而且,在這種框架下,對(duì)連接 GPU 的數(shù)據(jù)管道性能要求極高。

數(shù)據(jù)管道從磁盤中讀取編碼的 JPEG 樣例,然后再執(zhí)行解碼、調(diào)整圖像大小、圖像增強(qiáng)(如圖 5 所示)操作。這些操作提高了神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力,從而提高了訓(xùn)練模型的預(yù)測(cè)準(zhǔn)確性。而因?yàn)樵谟?xùn)練時(shí),有 8 個(gè) GPU 在進(jìn)行運(yùn)算操作,這會(huì)限制框架的整體性能。

圖 5:圖像解碼和增強(qiáng)數(shù)據(jù)管道

為了解決這個(gè)問題,我們開發(fā)了 DALI(Data Augmentation Library,數(shù)據(jù)擴(kuò)充庫(kù)),這是一個(gè)與框架無(wú)關(guān)的庫(kù),可以將計(jì)算從 CPU 轉(zhuǎn)移到 GPU 上。如圖 6 所示,DALI 將 JPEG 解碼的一部分、調(diào)整圖像大小以及其他所有增強(qiáng)操作移動(dòng)到 GPU 上。這些操作在 GPU 上的執(zhí)行速度要比在 CPU 上快得多,這緩解了 CPU 的負(fù)荷。DALI 使得 CUDA 的并行處理能力更加突出。消除 CPU 瓶頸之后,在單節(jié)點(diǎn)上的計(jì)算速度可以達(dá)到 7850 張圖像/秒。

o4YBAFr7kdKADgJDAABleOp1zxY646.jpg

圖 6:利用 DALI 優(yōu)化工作負(fù)荷

英偉達(dá)正在幫助將 DALI 融入到所有主流人工智能框架中。這一解決方案有助于提升具備 8 個(gè)以上 GPU 的系統(tǒng)的性能,比如英偉達(dá)最近發(fā)布的帶有 16 個(gè) Tesla V100 GPU 的DGX-2。

創(chuàng)紀(jì)錄的單個(gè)云實(shí)例處理速度

我們使用單 GPU 和單節(jié)點(diǎn)運(yùn)行來(lái)訓(xùn)練 ResNet-50(90 epoch),使預(yù)測(cè)準(zhǔn)確率超過 75%。通過算法的創(chuàng)新和超參數(shù)調(diào)節(jié),可以進(jìn)一步減少訓(xùn)練時(shí)間,在更少的 epoch 下達(dá)到更高精度。GPU 具備可編程的特性,并支持所有深度學(xué)習(xí)框架,這使得 AI 研究者能夠探索新的算法,并利用現(xiàn)有的算法進(jìn)行研究。

fast.ai 團(tuán)隊(duì)最近分享了基于英偉達(dá)硬件的優(yōu)秀成果,他們使用 PyTorch 在遠(yuǎn)小于 90 epoch 的訓(xùn)練下達(dá)到了很高的精確度。Jeremy Howard 和 fast.ai 的研究人員利用 8 個(gè) V100 Tensor Core GPU,在一個(gè) AWS P3 實(shí)例上用 ImageNet 訓(xùn)練 ResNet-50。他們對(duì)算法進(jìn)行創(chuàng)新,調(diào)節(jié)了一系列超參數(shù),不到 3 個(gè)小時(shí)就將模型訓(xùn)練好了,這比基于云實(shí)例的 TPU 計(jì)算(需要將近 9 個(gè)小時(shí)來(lái)訓(xùn)練 ResNet-50)快三倍。

我們進(jìn)一步期望這一博客中描述的提高吞吐量的方法同樣也適用于其他訓(xùn)練,例如前面提到的 fast.ai 的例子。

效果呈現(xiàn)指數(shù)級(jí)增長(zhǎng)

自從 Alex Krizhevsky 利用兩塊 GTX 580 GPU 贏得了 ImageNet 比賽,我們?cè)谏疃葘W(xué)習(xí)加速方面所取得的進(jìn)步令人難以置信。Krizhevsky 當(dāng)時(shí)花了 6 天時(shí)間來(lái)訓(xùn)練他的神經(jīng)網(wǎng)絡(luò)——AlexNet,這一網(wǎng)絡(luò)在當(dāng)時(shí)的表現(xiàn)優(yōu)于所有其他的圖像識(shí)別方法,引發(fā)了一場(chǎng)深度學(xué)習(xí)革命。我們最近發(fā)布的 DGX-2 可以在 18 分鐘內(nèi)訓(xùn)練好 AlexNet。從圖 7 可以看到,在這 5 年多的時(shí)間里,隨著硬件性能的提升,處理速度加快了 500 倍。

o4YBAFr7kdOATv-GAAA-i74eBhY379.jpg

圖 7:在 ImageNet 上訓(xùn)練 AlexNet 所需要的時(shí)間

Facebook 人工智能研究院(FAIR)開源了他們的語(yǔ)言翻譯模型 Fairseq,在不到一年的時(shí)間里,我們基于 DGX-2 和軟件棧的改進(jìn)(見圖 8),在訓(xùn)練 Fairseq 時(shí)實(shí)現(xiàn)了 10 倍的加速。

o4YBAFr7kdOAC2OcAAA43uzgDmo975.jpg

圖 8:訓(xùn)練 Fairseq 所需要的時(shí)間

圖像識(shí)別和語(yǔ)言翻譯僅僅是研究人員用 AI 力量解決無(wú)數(shù)難題的用例之一。Github 上共有超過 6 萬(wàn)個(gè)使用 GPU 加速框架的神經(jīng)網(wǎng)絡(luò)項(xiàng)目,GPU 的可編程性為 AI 社群正在構(gòu)建的所有類型的神經(jīng)網(wǎng)絡(luò)提供加速。我們的快速改進(jìn)使得 AI 研究人員能夠想象出更復(fù)雜的神經(jīng)網(wǎng)絡(luò),以解決更困難的挑戰(zhàn)。

這些長(zhǎng)久的進(jìn)步得益于我們對(duì) GPU 加速計(jì)算的全堆棧優(yōu)化算法。從構(gòu)建最先進(jìn)的深度學(xué)習(xí)加速器到復(fù)雜的系統(tǒng)(HBM、COWOS、SXM、NVSwitch、DGX),從先進(jìn)的數(shù)字計(jì)算庫(kù)和深度軟件棧(cuDNN,NCCL,NGC) 到加速所有的 DL 框架,英偉達(dá)對(duì) AI 的承諾為 AI 開發(fā)者提供了無(wú)與倫比的靈活性。

我們將繼續(xù)優(yōu)化整個(gè)堆棧,并持續(xù)實(shí)現(xiàn)性能的指數(shù)級(jí)提升,為 AI 社群提供推動(dòng)深度學(xué)習(xí)創(chuàng)新研究的有力工具。

總結(jié)

AI 繼續(xù)改變著各行各業(yè),驅(qū)動(dòng)出無(wú)數(shù)用例。理想的 AI 計(jì)算平臺(tái)需要提供出色的性能,能支持龐大且不斷增長(zhǎng)的模型,并具備可編程性,以應(yīng)對(duì)模型的多樣性需求。

英偉達(dá)的 Volta Tensor Core GPU 是世界上最快的 AI 處理器,只用一塊芯片就能讓深度學(xué)習(xí)的訓(xùn)練速度達(dá)到 125 teraflop。我們很快會(huì)將 16 塊 Tesla V100 整合到一個(gè)單服務(wù)器節(jié)點(diǎn)中,以創(chuàng)建世界上最快的計(jì)算服務(wù)器,提供 2 petaflops 的計(jì)算性能。

除了在加速上的優(yōu)異性能,GPU 的可編程性以及它在云、服務(wù)器制造商和整個(gè) AI 社群中的廣泛使用,將帶來(lái)下一場(chǎng) AI 變革。

無(wú)論你選擇什么深度學(xué)習(xí)框架(Caffe2, Chainer, Cognitive Toolkit, Kaldi, Keras, Matlab, MXNET, PaddlePaddle, Pytorch,TensorFlow),都可以用英偉達(dá)硬件進(jìn)行加速。此外,英偉達(dá) GPU 還用于訓(xùn)練 CNN、RNN、GAN、RL、混合網(wǎng)絡(luò)架構(gòu)以及每年基于這些網(wǎng)絡(luò)的成千上萬(wàn)個(gè)變體。AI 社群中目前存在很多驚人的應(yīng)用,我們期待著為 AI 的下一步發(fā)展提供動(dòng)力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5053

    瀏覽量

    134036
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4022

    瀏覽量

    97086

原文標(biāo)題:5 年提速 500 倍,英偉達(dá) GPU 創(chuàng)紀(jì)錄突破與技術(shù)有哪些?

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    國(guó)產(chǎn)GPU下一城,群起突圍英偉達(dá)+AMD

    上市。 ? 根據(jù)Jon Peddie Research的數(shù)據(jù),獨(dú)立GPU市場(chǎng)英偉達(dá)家獨(dú)大,近年來(lái)持續(xù)維持超80%的市場(chǎng)份額,而AMD公司則占據(jù)剩余近20%的市場(chǎng)份額。自人工智能市場(chǎng)爆
    的頭像 發(fā)表于 07-07 08:59 ?6554次閱讀
    國(guó)產(chǎn)<b class='flag-5'>GPU</b>再<b class='flag-5'>下一</b>城,群起突圍<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>+AMD

    英偉達(dá)自研HBM基礎(chǔ)裸片

    "后的下一AI GPU "Feynman"。 ? 有分析指出,英偉達(dá)此舉或是將部分GPU功能集
    的頭像 發(fā)表于 08-21 08:16 ?2371次閱讀

    安森美攜手英偉達(dá)推動(dòng)下一AI數(shù)據(jù)中心發(fā)展

    安森美(onsemi,美國(guó)納斯達(dá)克股票代號(hào):ON)宣布與英偉達(dá)(NVIDIA)合作,共同推動(dòng)向800V直流(VDC)供電架構(gòu)轉(zhuǎn)型。這一變革性解決方案將推動(dòng)下一代人工智能(
    的頭像 發(fā)表于 08-06 17:27 ?1021次閱讀

    一場(chǎng)圓桌論壇揭曉AI落地智慧園區(qū)的發(fā)展趨勢(shì)

    日前,達(dá)實(shí)智能成立30周年慶典暨“AIoT平臺(tái)+國(guó)產(chǎn)AI大模型”新品發(fā)布會(huì)隆重舉辦,現(xiàn)場(chǎng)進(jìn)行一場(chǎng)以“AI技術(shù)落地與園區(qū)智能化系統(tǒng)發(fā)展趨勢(shì)”為主題的圓桌論壇,備受關(guān)注。
    的頭像 發(fā)表于 03-31 10:11 ?556次閱讀

    英偉達(dá)殺瘋了!Blackwell橫掃市場(chǎng),AMD、英特爾加入降本浪潮

    電子發(fā)燒友網(wǎng)報(bào)道(文/莫婷婷)2月27日凌晨,英偉達(dá)公布了2025財(cái)年第四財(cái)季的財(cái)務(wù)數(shù)據(jù),這是DeepSeek面世后的第份財(cái)報(bào),業(yè)內(nèi)人士尤為關(guān)注DeepSeek給英偉
    的頭像 發(fā)表于 03-02 00:02 ?2286次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>殺瘋了!Blackwell橫掃市場(chǎng),AMD、英特爾加入降本浪潮

    英偉達(dá)帶來(lái)Reflex 2低延遲技術(shù)

    在 2025 年國(guó)際消費(fèi)電子展(CES 2025)上,英偉達(dá)不僅推出了備受矚目的 RTX 50 系列顯卡,還帶來(lái)項(xiàng)名為 Reflex 2 的低延遲技術(shù),引發(fā)行業(yè)
    的頭像 發(fā)表于 02-05 15:15 ?1968次閱讀

    黃仁勛宣布:豐田與英偉達(dá)攜手打造下一代自動(dòng)駕駛汽車

    近日,英偉達(dá)公司首席執(zhí)行官黃仁勛在次公開場(chǎng)合透露,英偉達(dá)將與全球知名汽車制造商豐田攜手合作,共同開發(fā)
    的頭像 發(fā)表于 01-09 10:25 ?835次閱讀

    美銀分析師:英偉達(dá)加大“物理AI”投入為明智之舉

    近日,美國(guó)銀行的分析師對(duì)英偉達(dá)在“物理AI”領(lǐng)域的最新動(dòng)向發(fā)表了評(píng)論。分析師指出,英偉達(dá)決定加大對(duì)“物理
    的頭像 發(fā)表于 01-08 10:51 ?676次閱讀

    英偉達(dá)收購(gòu)AI初創(chuàng)公司Run:ai

    :ai作為家專注于AI云計(jì)算軟件平臺(tái)開發(fā)的初創(chuàng)公司,其產(chǎn)品以高效利用高性能GPU資源為核心,致力于為用戶提供更快速、更便捷的機(jī)器學(xué)習(xí)加速方案。通過此次收購(gòu),
    的頭像 發(fā)表于 12-31 10:46 ?787次閱讀

    華為Mate 70系列,行走在AI山脊

    Mate系列會(huì)師原生鴻蒙,是下一場(chǎng)AI遠(yuǎn)足的起點(diǎn)
    的頭像 發(fā)表于 11-28 10:20 ?3191次閱讀
    華為Mate 70系列,行走在<b class='flag-5'>AI</b>山脊

    英偉達(dá)AI芯片過熱問題引關(guān)注

    近日,英偉達(dá)代Blackwell AI芯片遭遇過熱問題,這消息引發(fā)了業(yè)界的廣泛關(guān)注。據(jù)悉,
    的頭像 發(fā)表于 11-19 16:15 ?867次閱讀

    英偉達(dá)與軟銀攜手共建日本AI基礎(chǔ)設(shè)施

    近日,英偉達(dá)創(chuàng)始人兼CEO黃仁勛宣布,英偉達(dá)將與軟銀集團(tuán)合作,在日本共同建設(shè)AI基礎(chǔ)設(shè)施,其中包括日本最大的
    的頭像 發(fā)表于 11-13 14:41 ?985次閱讀

    英偉達(dá)加速Rubin平臺(tái)AI芯片推出,SK海力士提前交付HBM4存儲(chǔ)器

    日,英偉達(dá)(NVIDIA)的主要高帶寬存儲(chǔ)器(HBM)供應(yīng)商南韓SK集團(tuán)會(huì)長(zhǎng)崔泰源透露,英偉達(dá)執(zhí)行長(zhǎng)黃仁勛已要求SK海力士提前六個(gè)月交付用于英偉
    的頭像 發(fā)表于 11-05 14:22 ?1736次閱讀

    英偉達(dá)與信實(shí)集團(tuán)攜手,共筑印度AI基礎(chǔ)設(shè)施

    一場(chǎng)AI峰會(huì)上正式公布。英偉達(dá)首席執(zhí)行官黃仁勛與信實(shí)工業(yè)集團(tuán)董事長(zhǎng)穆克什·安巴尼進(jìn)行了深入會(huì)談,共同探討如何推動(dòng)AI技術(shù)在印度的發(fā)展。 此
    的頭像 發(fā)表于 10-29 15:21 ?995次閱讀

    英偉達(dá)與印度大企業(yè)聯(lián)手,共謀AI未來(lái)

    一場(chǎng)盛大的人工智能峰會(huì)。在峰會(huì)上,英偉達(dá)展示了其人工智能技術(shù)如何被印度各行業(yè)合作伙伴所應(yīng)用,以提升產(chǎn)品和服務(wù)的質(zhì)量與效率。這舉措不僅彰顯了英偉
    的頭像 發(fā)表于 10-27 14:56 ?890次閱讀