18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

構(gòu)建、訓(xùn)練AI模型不必令人困惑且耗時(shí)

星星科技指導(dǎo)員 ? 來(lái)源:嵌入式計(jì)算設(shè)計(jì) ? 作者:Rich Nass ? 2022-11-24 15:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著技術(shù)被推向物聯(lián)網(wǎng)的邊緣,使用數(shù)量大幅攀升。開(kāi)發(fā)人員正在迅速部署其 AI 架構(gòu)。

毫不夸張地說(shuō),人工智能(AI)幾乎可以用于工業(yè)領(lǐng)域的任何應(yīng)用。隨著技術(shù)被推向物聯(lián)網(wǎng)的邊緣,使用數(shù)量大幅攀升。開(kāi)發(fā)人員正在迅速部署他們的人工智能架構(gòu),這要?dú)w功于Vecow等供應(yīng)商的進(jìn)步。

值得慶幸的是,必須手動(dòng)對(duì)AI設(shè)備進(jìn)行編程的日子已經(jīng)過(guò)去了。因此,部署速度在提高,而成本在縮小。雖然它變得越來(lái)越容易,但為特定的 AI 場(chǎng)景設(shè)計(jì)最佳模型仍然非常耗時(shí)且具有挑戰(zhàn)性。

設(shè)計(jì)過(guò)程中最困難的部分是訓(xùn)練 AI 模型以提供對(duì)象檢測(cè)、運(yùn)動(dòng)跟蹤和面部識(shí)別等核心功能。這種訓(xùn)練會(huì)影響系統(tǒng)成本:部署的模型效率越高,實(shí)現(xiàn)它所需的資源就越少。

Vecow的VHub AI開(kāi)發(fā)人員具有集成解決方案,可減少模型訓(xùn)練時(shí)間,并為工程師開(kāi)發(fā)基于邊緣的AI解決方案提供所需的資源。提供四個(gè)版本,從基于英特爾酷睿處理器的英特爾 NUC(下一代計(jì)算單元)入門(mén)套件到提供英特爾酷睿 SoC 或英特爾至強(qiáng)處理器選擇的 Titan 套件,適用于計(jì)算密集型應(yīng)用。所有版本都包括標(biāo)記工具、訓(xùn)練平臺(tái)、推理解決方案以及 200 多個(gè)用于典型 Edge 用例的預(yù)訓(xùn)練模型。

基于邊緣的 AI 的完整框架

VHub AI開(kāi)發(fā)人員為基于邊緣的計(jì)算應(yīng)用程序提供了完整的開(kāi)發(fā)框架。對(duì)于經(jīng)驗(yàn)豐富的開(kāi)發(fā)人員來(lái)說(shuō),該套件相對(duì)容易部署,并且與大多數(shù)平臺(tái)兼容,并包括一組 200 多個(gè)可擴(kuò)展的 AI 模型。這些模型涵蓋的應(yīng)用包括對(duì)象跟蹤、面部識(shí)別和運(yùn)動(dòng)檢測(cè)等常見(jiàn)功能。

因此,系統(tǒng)集成商可以專(zhuān)注于開(kāi)發(fā)和訓(xùn)練AI模型,而不是花時(shí)間集成和維護(hù)整個(gè)AI框架。預(yù)先集成和預(yù)測(cè)試的軟件工具進(jìn)一步簡(jiǎn)化了流程。

VHub AI開(kāi)發(fā)人員的四個(gè)不同版本有助于為特定應(yīng)用程序提供硬件和軟件資源的最佳組合。VHD NUC 系列是基本的入門(mén)套件;VHD ECX-1000 PoER 系列部署套件帶來(lái)了豐富的 I/O 功能;VHD ECX-1400 PEG 系列部署套件引入了 GPU 計(jì)算引擎;VHD RCX-1520R PEG 系列泰坦套件可為大多數(shù)計(jì)算密集型應(yīng)用程序提供更多 GPU 功能。

在所有版本中,該框架都經(jīng)過(guò)集成和測(cè)試,進(jìn)一步縮短了開(kāi)發(fā)時(shí)間。此外,VHub AI Developer 框架旨在保證穩(wěn)定的版本管理,因此設(shè)計(jì)不應(yīng)受到版本控制問(wèn)題的困擾,這在開(kāi)源 AI 培訓(xùn)工具中很常見(jiàn)。

使用案例

機(jī)器視覺(jué)和自動(dòng)化是AI的兩個(gè)流行用例,因此對(duì)于VHub AI開(kāi)發(fā)人員來(lái)說(shuō)也是如此。智能零售和訪問(wèn)控制也得到了突出應(yīng)用。以下是該工具在每種工具中脫穎而出的原因:

機(jī)器視覺(jué):效率和準(zhǔn)確性對(duì)于對(duì)工廠中的缺陷零件進(jìn)行分類(lèi)至關(guān)重要。帶有 VPU 和 GPU 加速器的預(yù)裝檢測(cè) SDK 能夠以低成本實(shí)現(xiàn)高精度。

自動(dòng)化:智能自動(dòng)化集成智能技術(shù)和服務(wù)來(lái)執(zhí)行關(guān)鍵任務(wù)。借助預(yù)安裝的自動(dòng)化監(jiān)控 SDK,制造商可以提高生產(chǎn)力。

智能零售:零售店需要了解和了解他們的客戶(hù),以增加收入和盈利能力。預(yù)安裝的功能識(shí)別 SDK 使工程師能夠捕獲性別、年齡范圍、客戶(hù)數(shù)量和店內(nèi)行為,以創(chuàng)建有針對(duì)性的體驗(yàn)。

訪問(wèn)控制:安全性通常取決于僅向授權(quán)用戶(hù)授予訪問(wèn)權(quán)限。使用面部識(shí)別,可以將數(shù)據(jù)存儲(chǔ)在視覺(jué)庫(kù)中,以快速方便地批準(zhǔn)或拒絕訪問(wèn)。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 物聯(lián)網(wǎng)
    +關(guān)注

    關(guān)注

    2938

    文章

    46998

    瀏覽量

    404043
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49540

    瀏覽量

    259404
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Cognizant加速AI模型企業(yè)級(jí)開(kāi)發(fā)

    全新解決方案旨在幫助企業(yè)快速大規(guī)模地構(gòu)建、微調(diào)和實(shí)施AI模型。 Cognizant 憑借其作為數(shù)據(jù)與AI
    的頭像 發(fā)表于 07-31 17:25 ?526次閱讀

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒(méi)有中文 查看AICube/AI_Cube.log,看看報(bào)什么錯(cuò)?
    發(fā)表于 07-30 08:15

    摩爾線程“AI工廠”:五大核心技術(shù)支撐,打造大模型訓(xùn)練超級(jí)工廠

    演講中表示,為應(yīng)對(duì)生成式AI爆發(fā)式增長(zhǎng)下的大模型訓(xùn)練效率瓶頸,摩爾線程將通過(guò)系統(tǒng)級(jí)工程創(chuàng)新,構(gòu)建新一代AI
    的頭像 發(fā)表于 07-28 11:28 ?3700次閱讀
    摩爾線程“<b class='flag-5'>AI</b>工廠”:五大核心技術(shù)支撐,打造大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>超級(jí)工廠

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型模型升級(jí)AI攝像機(jī),進(jìn)行
    發(fā)表于 04-28 11:11

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    ,聯(lián)發(fā)科帶來(lái)了全面升級(jí)的天璣AI開(kāi)發(fā)套件2.0,在模型庫(kù)規(guī)模、架構(gòu)開(kāi)放程度、前沿端側(cè)AI技術(shù)支持和端側(cè)LoRA訓(xùn)練落地等方面均迎來(lái)全面躍遷,為開(kāi)發(fā)者提供了更全面、更開(kāi)放、更強(qiáng)大的端側(cè)
    發(fā)表于 04-13 19:52

    是德科技推出AI數(shù)據(jù)中心構(gòu)建

    是德科技(NYSE:KEYS)推出Keysight AI (KAI)數(shù)據(jù)中心構(gòu)建器,這是一款先進(jìn)的軟件套件,通過(guò)模擬真實(shí)工作負(fù)載來(lái)評(píng)估新算法、組件和協(xié)議對(duì)AI訓(xùn)練性能的影響。KAI數(shù)據(jù)
    的頭像 發(fā)表于 04-07 11:06 ?708次閱讀

    利用RAKsmart服務(wù)器托管AI模型訓(xùn)練的優(yōu)勢(shì)

    AI模型訓(xùn)練需要強(qiáng)大的計(jì)算資源、高效的存儲(chǔ)和穩(wěn)定的網(wǎng)絡(luò)支持,這對(duì)服務(wù)器的性能提出了較高要求。而RAKsmart服務(wù)器憑借其核心優(yōu)勢(shì),成為托管AI模型
    的頭像 發(fā)表于 03-18 10:08 ?441次閱讀

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過(guò)大,有無(wú)解決方案?
    發(fā)表于 03-11 07:18

    小白學(xué)大模型構(gòu)建LLM的關(guān)鍵步驟

    你梳理如何在構(gòu)建AI算法應(yīng)用時(shí)做出合適的決策。訓(xùn)練LLM的三種選擇https://wandb.ai/site/articles/training-llms/在
    的頭像 發(fā)表于 01-09 12:12 ?1466次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:<b class='flag-5'>構(gòu)建</b>LLM的關(guān)鍵步驟

    GPU是如何訓(xùn)練AI模型

    AI模型訓(xùn)練過(guò)程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長(zhǎng)的。接下來(lái),AI部落小編帶您了解GPU是如何
    的頭像 發(fā)表于 12-19 17:54 ?1073次閱讀

    AI大語(yǔ)言模型開(kāi)發(fā)步驟

    開(kāi)發(fā)一個(gè)高效、準(zhǔn)確的大語(yǔ)言模型是一個(gè)復(fù)雜多階段的過(guò)程,涉及數(shù)據(jù)收集與預(yù)處理、模型架構(gòu)設(shè)計(jì)、訓(xùn)練與優(yōu)化、評(píng)估與調(diào)試等多個(gè)環(huán)節(jié)。接下來(lái),AI
    的頭像 發(fā)表于 12-19 11:29 ?1136次閱讀

    NVIDIA Isaac Sim滿足模型的多樣化訓(xùn)練需求

    光輪智能借助?NVIDIA Isaac Sim,通過(guò) 3D 生成與建模技術(shù)構(gòu)建高度逼真的虛擬場(chǎng)景,將現(xiàn)實(shí)世界的復(fù)雜場(chǎng)景抽象并轉(zhuǎn)化為高質(zhì)量的訓(xùn)練數(shù)據(jù)源,從而更有效地滿足模型的多樣化訓(xùn)練
    的頭像 發(fā)表于 11-23 14:55 ?1738次閱讀

    如何使用OpenUSD構(gòu)建支持生成式AI的合成數(shù)據(jù)工作流

    訓(xùn)練用于驅(qū)動(dòng)自主機(jī)器(例如機(jī)器人和自動(dòng)駕駛汽車(chē))的物理 AI 模型需要大量數(shù)據(jù)。獲取大量多樣化的訓(xùn)練數(shù)據(jù)可能很困難、耗時(shí)
    的頭像 發(fā)表于 11-20 09:50 ?1307次閱讀
    如何使用OpenUSD<b class='flag-5'>構(gòu)建</b>支持生成式<b class='flag-5'>AI</b>的合成數(shù)據(jù)工作流

    從零開(kāi)始訓(xùn)練一個(gè)大語(yǔ)言模型需要投資多少錢(qián)?

    一,前言 ? 在AI領(lǐng)域,訓(xùn)練一個(gè)大型語(yǔ)言模型(LLM)是一個(gè)耗時(shí)復(fù)雜的過(guò)程。幾乎每個(gè)做大型語(yǔ)言模型
    的頭像 發(fā)表于 11-08 14:15 ?1190次閱讀
    從零開(kāi)始<b class='flag-5'>訓(xùn)練</b>一個(gè)大語(yǔ)言<b class='flag-5'>模型</b>需要投資多少錢(qián)?

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語(yǔ)言模型(LLM)是一個(gè)復(fù)雜資源密集的過(guò)程,涉及到大量的數(shù)據(jù)、計(jì)算資源和專(zhuān)業(yè)知識(shí)。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)
    的頭像 發(fā)表于 11-08 09:30 ?1893次閱讀