18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

什么是預訓練 AI 模型?

NVIDIA英偉達 ? 來源:未知 ? 2023-04-04 01:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

預訓練 AI 模型是為了完成特定任務而在大型數(shù)據(jù)集上訓練的深度學習模型。這些模型既可以直接使用,也可以根據(jù)不同行業(yè)的應用需求進行自定義。

如果要教一個剛學會走路的孩子什么是獨角獸,那么我們首先應該向孩子展示這種生物的圖像并描述其獨有特征。

那么,如果要教一臺人工智能(AI)機器什么是獨角獸,該從什么地方做起呢?

預訓練 AI 模型提供了解決方案。

預訓練 AI 模型是一種為了完成某項特定任務而在大型數(shù)據(jù)集上進行訓練的深度學習模型,它是一種類腦神經算法的表現(xiàn)形式,可以根據(jù)數(shù)據(jù)找到模式或進行預測。預訓練 AI 模型既可以直接使用,也可以根據(jù)某個應用的具體需求進行進一步微調。

為什么使用預訓練 AI 模型?

開發(fā)者可以使用預訓練模型并根據(jù)需求對其進行自定義,無需從頭開始構建 AI 模型。

無論是識別一匹虛構的馬,檢測自動駕駛汽車的安全隱患,還是根據(jù)醫(yī)學影像診斷癌癥,要構建一個 AI 應用,開發(fā)者首先需要一個能夠完成特定任務的 AI 模型。而這個模型需要大量具有代表性的數(shù)據(jù)進行學習。

模型的學習過程需要經歷好幾層傳入數(shù)據(jù),并在每一層強調與目標相關的特征。

例如,在創(chuàng)建一個能夠識別獨角獸的模型時,首先會為其提供獨角獸、馬、貓、老虎和其他動物的圖像作為傳入數(shù)據(jù)。

然后再構建具有代表性的數(shù)據(jù)特征層。從線條、顏色等簡單特征開始,深入到復雜的結構特征。依據(jù)計算出的概率,這些特征將被賦予不同程度的相關性。

舉個例子,當一個生物看起來越像馬,它是獨角獸而不是貓或老虎的概率就越大。這些概率值被存儲在 AI 模型的每個神經網絡層。隨著層數(shù)的增加,模型對表征的理解程度也在提高。

若要從頭開始創(chuàng)建一個這樣的模型,開發(fā)者通常需要調用包含數(shù)十億行數(shù)據(jù)的巨大數(shù)據(jù)集,并且這些數(shù)據(jù)可能十分昂貴且難以獲得。但如果因此在數(shù)據(jù)上讓步,就會導致模型性能不佳。

預先計算的概率表征(也稱權重)能夠節(jié)省開發(fā)者或企業(yè)的時間、金錢和精力。已建立完成的預訓練模型可通過這些權重進行訓練。

高質量的預訓練模型搭配大量準確且具有代表性的權重可以提高 AI 部署的成功率。

權重可以被修改,而且可以通過添加更多數(shù)據(jù)為模型進行進一步的自定義或微調。

在預訓練模型基礎上進行構建的開發(fā)者可以更快創(chuàng)建出 AI 應用,因為他們無需處理堆積如山的傳入數(shù)據(jù)或去計算密集的數(shù)據(jù)層的概率。

換言之,使用預訓練 AI 模型就像是用一件成衣根據(jù)自己的需求進行剪裁,而不用從布料和針線做起。

預訓練 AI 模型通常被用于遷移學習,可以基于多種模型架構類型而構建。其中一種流行的架構類型是 Transformer 模型,一種通過追蹤連續(xù)數(shù)據(jù)中的關系來學習上下文和意義的神經網絡。

AI 公司 Clarifai 是NVIDIA 初創(chuàng)加速計劃的高級合作伙伴。Clarifai 的平臺高級副總裁 Alfredo Ramos 表示,預訓練模型可以將 AI 應用的開發(fā)時間縮短一年并節(jié)約數(shù)十萬美元的成本。

預訓練模型如何推動 AI 的發(fā)展?

預訓練模型簡化并加快了 AI 的開發(fā),許多開發(fā)者和公司通過它們來加速各種 AI 用例。

預訓練模型主要推動了以下幾個領域的 AI 發(fā)展:

  • 自然語言處理:預訓練模型被用于翻譯、聊天機器人等自然語言處理應用。大型語言模型一般基于 Transformer 模型架構構建,是預訓練模型的延伸。世界上最大的 AI 模型之一NVIDIA NeMo Megatron就是一個預訓練大型語言模型。

  • 語音 AI:預訓練模型能幫助語音 AI 應用在不同的語言下也能直接使用。用例包括呼叫中心自動化、AI 助手和語音識別技術。

  • 計算機視覺:如上文所述的獨角獸模型,預訓練模型可以幫助 AI 快速識別生物或者物體、地點和人。預訓練模型通過這種方式加速計算機視覺,為體育運動、智慧城市等領域的應用提供近似于人類的視覺能力。

  • 醫(yī)療:在醫(yī)療應用方面,MegaMolBART(NVIDIA BioNeMo服務和框架的一部分)等預訓練 AI 模型能夠理解化學語言并學習現(xiàn)實世界分子中原子之間的關系,為科學界提供了一種加快藥物研發(fā)的強大工具。

  • 網絡安全:預訓練模型為實施 AI 網絡安全解決方案打下了基礎,并幫助人類安全分析師更快的發(fā)現(xiàn)威脅。包括人類和機器的數(shù)字指紋及異常、敏感信息和網絡釣魚檢測等多種情況。

  • 藝術和創(chuàng)作流程:為推動最新的 AI 藝術浪潮,預訓練模型可以在GauGANNVIDIA Canvas等工具的幫助下加快創(chuàng)作流程。

預訓練 AI 模型的自定義和微調為其帶來了無限的應用可能性,因此也可以用于更多其他行業(yè)。

何處獲取預訓練 AI 模型

谷歌、Meta、微軟、NVIDIA 等公司正在發(fā)明用于構建 AI 模型的尖端模型架構和框架。

這些模型有時會在模型中心或作為開放源碼發(fā)布,使開發(fā)者能夠對預訓練 AI 模型進行微調、提高其準確性并擴展模型庫。

NVIDIA NGC匯集了通過 GPU 優(yōu)化的 AI 軟件、模型和 Jupyter Notebook 示例,包括各種預訓練模型以及為 NVIDIA AI 平臺優(yōu)化的 AI 基準和訓練方式。

NVIDIA AI Enterprise是一套全面且安全的云原生 AI 與數(shù)據(jù)分析軟件套件,包含未加密的預訓練模型。這讓希望將 NVIDIA 預訓練模型整合到其自定義 AI 應用中的開發(fā)者和企業(yè)能夠查看模型權重和偏差、提高可解釋性并輕松進行調試。

在 GitHub、Hugging Face 等平臺也有數(shù)千個可供使用的開源模型。

十分重要的是,在訓練預訓練模型時,模型數(shù)據(jù)必須透明、可解釋、符合隱私要求,并且是獲得同意許可且無偏見的道德數(shù)據(jù)。

NVIDIA 預訓練 AI 模型

為幫助更多開發(fā)者將 AI 原型投入到生產中,NVIDIA 提供了幾種開箱即用的預訓練模型:

  • NVIDIA SegFormer是一個在 GitHub 上提供的 Transformer 模型,可實現(xiàn)簡單、高效、強大的語義分割。

  • NVIDIA 的專用計算機視覺模型經數(shù)百萬張圖像訓練而成,可用于智慧城市、停車管理等應用。

  • NVIDIA NeMo Megatron是一個大型可定制語言模型,包含在 NVIDIA NeMo 中。NeMo 是一個用于構建靈活、高性能對話式 AI、語音 AI 和生物學應用的開源框架。

  • NVIDIA StyleGAN是一個基于風格的生成器架構,用于生成式對抗網絡(或稱 GAN)。它可以使用遷移學習來無限生成各種不同風格的繪畫。

除此之外,NVIDIA 還能夠提供:

  • NVIDIA Riva:一款用于構建和部署語音 AI 應用的 GPU 加速軟件開發(fā)工具包,包含了十種語言的預訓練模型。

  • MONAI:由 NVIDIA 和倫敦國王學院聯(lián)合開發(fā)的開源醫(yī)療研究 AI 框架,包含了用于醫(yī)學影像的預訓練模型

點擊閱讀原文,進一步了解NVIDIA 預訓練 AI 模型。

掃描海報二維碼,即可觀看 NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛 GTC23 主題演講重播!


原文標題:什么是預訓練 AI 模型?

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    23

    文章

    4022

    瀏覽量

    97081

原文標題:什么是預訓練 AI 模型?

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    ai_cube訓練模型最后部署失敗是什么原因?

    ai_cube訓練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    摩爾線程“AI工廠”:五大核心技術支撐,打造大模型訓練超級工廠

    演講中表示,為應對生成式AI爆發(fā)式增長下的大模型訓練效率瓶頸,摩爾線程將通過系統(tǒng)級工程創(chuàng)新,構建新一代AI訓練基礎設施,致力于為AGI時代打
    的頭像 發(fā)表于 07-28 11:28 ?3697次閱讀
    摩爾線程“<b class='flag-5'>AI</b>工廠”:五大核心技術支撐,打造大<b class='flag-5'>模型</b><b class='flag-5'>訓練</b>超級工廠

    海思SD3403邊緣計算AI數(shù)據(jù)訓練概述

    模型,將模型轉化為嵌入式AI模型,模型升級AI攝像機,進行
    發(fā)表于 04-28 11:11

    首創(chuàng)開源架構,天璣AI開發(fā)套件讓端側AI模型接入得心應手

    ,聯(lián)發(fā)科帶來了全面升級的天璣AI開發(fā)套件2.0,在模型庫規(guī)模、架構開放程度、前沿端側AI技術支持和端側LoRA訓練落地等方面均迎來全面躍遷,為開發(fā)者提供了更全面、更開放、更強大的端側
    發(fā)表于 04-13 19:52

    用PaddleNLP為GPT-2模型制作FineWeb二進制訓練數(shù)據(jù)集

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP在4060單卡上實踐大模型訓練技術》發(fā)布后收到讀者熱烈反響,很多讀者要求進一步講解更多的技術細節(jié)。本文主要針對大語言模型
    的頭像 發(fā)表于 03-21 18:24 ?3442次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進制<b class='flag-5'>預</b><b class='flag-5'>訓練</b>數(shù)據(jù)集

    利用RAKsmart服務器托管AI模型訓練的優(yōu)勢

    AI模型訓練需要強大的計算資源、高效的存儲和穩(wěn)定的網絡支持,這對服務器的性能提出了較高要求。而RAKsmart服務器憑借其核心優(yōu)勢,成為托管AI模型
    的頭像 發(fā)表于 03-18 10:08 ?441次閱讀

    訓練好的ai模型導入cubemx不成功怎么處理?

    訓練好的ai模型導入cubemx不成功咋辦,試了好幾個模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18

    從Open Model Zoo下載的FastSeg大型公共訓練模型,無法導入名稱是怎么回事?

    從 Open Model Zoo 下載的 FastSeg 大型公共訓練模型。 運行 converter.py 以將 FastSeg 大型模型轉換為中間表示 (IR): pyth
    發(fā)表于 03-05 07:22

    Apex平臺:簡化AI API開發(fā),賦能開發(fā)者

    Apex是一個由Arya.ai公司傾力打造的AI API平臺,該平臺通過提供一系列訓練AI模型
    的頭像 發(fā)表于 02-20 09:45 ?745次閱讀

    用PaddleNLP在4060單卡上實踐大模型訓練技術

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 之前我們分享了《從零開始訓練一個大語言模型需要投資多少錢》,其中高昂的訓練費用讓許多對大模型
    的頭像 發(fā)表于 02-19 16:10 ?1857次閱讀
    用PaddleNLP在4060單卡上實踐大<b class='flag-5'>模型</b><b class='flag-5'>預</b><b class='flag-5'>訓練</b>技術

    KerasHub統(tǒng)一、全面的訓練模型

    深度學習領域正在迅速發(fā)展,在處理各種類型的任務中,訓練模型變得越來越重要。Keras 以其用戶友好型 API 和對易用性的重視而聞名,始終處于這一動向的前沿。Keras 擁有專用的內容庫,如用
    的頭像 發(fā)表于 12-20 10:32 ?704次閱讀

    GPU是如何訓練AI模型

    AI模型訓練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數(shù)等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何
    的頭像 發(fā)表于 12-19 17:54 ?1072次閱讀

    訓練AI模型需要什么樣的gpu

    訓練AI模型需要選擇具有強大計算能力、足夠顯存、高效帶寬、良好散熱和能效比以及良好兼容性和擴展性的GPU。在選擇時,需要根據(jù)具體需求進行權衡和選擇。
    的頭像 發(fā)表于 12-03 10:10 ?913次閱讀

    KiCon演講回顧(四):AI助力電子元件庫自動化提取

    “ ?李寧老師將帶您探索《基于AI的元件參數(shù)自動提取方法研究》中的前沿技術! ? ” 自動化電子元件庫的需求 華為挑戰(zhàn):基于訓練AI模型
    的頭像 發(fā)表于 11-25 11:56 ?1861次閱讀
    KiCon演講回顧(四):<b class='flag-5'>AI</b>助力電子元件庫自動化提取

    什么是大模型、大模型是怎么訓練出來的及大模型作用

    ,基礎模型。 ? 大模型是一個簡稱,完整的叫法,應該是“人工智能訓練模型”。
    的頭像 發(fā)表于 11-25 09:29 ?1.5w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓練</b>出來的及大<b class='flag-5'>模型</b>作用