18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

高通AI Hub:輕松實(shí)現(xiàn)Android圖像分類

大大通 ? 2024-11-26 01:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上一篇博文“Qualcomm AI Hub介紹”。高通AI Hub為開發(fā)者提供了一個(gè)強(qiáng)大的平臺(tái),以優(yōu)化、驗(yàn)證和部署在Android設(shè)備上的機(jī)器學(xué)習(xí)模型。這篇文章將介紹如何使用高通AI Hub進(jìn)行圖像分類的程式碼開發(fā),并提供一個(gè)實(shí)際的例子來展示其在Android平臺(tái)上的應(yīng)用。

程式碼介紹

高通AI Hub支持多種機(jī)器學(xué)習(xí)框架,如TensorFlow Lite、Quancomm AI Engine Direct和ONNX Runtime,并能夠?qū)⒂?xùn)練好的模型轉(zhuǎn)換為優(yōu)化的on-device執(zhí)行格式。開發(fā)者可以通過AI Hub的模型庫,選擇適合自己應(yīng)用需求的模型,并進(jìn)行相應(yīng)的優(yōu)化。此外,AI Hub還提供了詳細(xì)的on-device性能分析工具,幫助開發(fā)者了解模型在實(shí)際設(shè)備上的運(yùn)行情況。

于官方提供的Github ai-hub-apps進(jìn)行下載,使用Android Studio開啟app/android,就可以看到ImageClassification、SemanticSegmentation及SuperResolution,本篇博文介紹ImageClassification程式碼的部分及執(zhí)行,使用Android Studio開啟專案畫面如下圖:

wKgaomdFfweABGA5AAOeSe1BmGg453.png


ImageProcessing.java

里面有一個(gè)靜態(tài)方法 resizeAndPadMaintainAspectRatio,其功能是調(diào)整圖片大小,同時(shí)維持圖片的寬高比(Aspect Ratio)。如果圖片無法完全符合給定的輸出尺寸,則會(huì)加入填充區(qū)域(padding),使得最終輸出的圖片符合要求的寬度和高度。

TFLiteHelpers.java:

TensorFlow Lite (TFLite) 的輔助工具,用于為 TensorFlow Lite 模型建立解譯器(interpreter)和相應(yīng)的硬件加速委派(delegate),例如 GPU 或 NPU。主要功能是根據(jù)指定的硬件加速選項(xiàng),自動(dòng)嘗試為 TFLite 模型分配不同的硬件委派來優(yōu)化推論性能。

CreateInterpreterAndDelegatesFromOptions

用于根據(jù)指定的優(yōu)先級(jí)順序,創(chuàng)建 TFLite 解譯器并分配硬件加速委派。它會(huì)根據(jù)委派的優(yōu)先順序來嘗試分配不同的委派類型,如 GPU 或 NPU,并在無法使用時(shí)降級(jí)至 CPU 運(yùn)算(例如使用 XNNPack 提供的 CPU 加速)。

CreateInterpreterFromDelegates

此函式實(shí)際上是根據(jù)之前創(chuàng)建的委派來生成解譯器。主要負(fù)責(zé)配置 TFLite 解譯器的參數(shù),例如 CPU 線程數(shù)和是否使用 XNNPack 作為后備計(jì)算選項(xiàng)。若解譯器創(chuàng)建失敗,則會(huì)記錄失敗原因并返回 null。

CreateDelegate

此函式根據(jù)指定的委派類型(如 GPUv2 或 QNN_NPU)創(chuàng)建對(duì)應(yīng)的硬件委派。每一個(gè)委派都有對(duì)應(yīng)的函式進(jìn)行初始化,例如 CreateGPUv2Delegate 或 CreateQNN_NPUDelegate。

CreateGPUv2Delegate

這個(gè)函式負(fù)責(zé)創(chuàng)建和配置 GPUv2 委派,它會(huì)將 GPU 設(shè)定為最大性能模式,允許使用浮點(diǎn)精度 FP16 進(jìn)行計(jì)算,來提升 GPU 運(yùn)行效率。

CreateQNN_NPUDelegate

此函式負(fù)責(zé)為支持 Qualcomm NPU 的裝置創(chuàng)建 QNN 委派,根據(jù)裝置支持的硬件類型來選擇使用 DSP 或 HTP 來加速推論計(jì)算。

ImageClassification.java:

基于 TensorFlow Lite 的影像分類器,用來從給定的影像中推測(cè)出最有可能的物件類別。主要的功能包括模型的加載、預(yù)處理影像、推論以及后處理推論結(jié)果,并且能夠返回處理時(shí)間等性能資訊。

ImageClassification

功能:從指定的模型和標(biāo)簽路徑中創(chuàng)建影像分類器。

參數(shù):

context:應(yīng)用程式的上下文。

modelPath:模型文件的路徑。

labelsPath:標(biāo)簽文件的路徑。

delegatePriorityOrder:指定計(jì)算單元優(yōu)先順序(例如 GPU、CPU 等)。

preprocess

功能:將輸入的影像預(yù)處理為模型可以接受的格式。

步驟:

檢查影像尺寸是否符合模型的輸入要求,必要時(shí)進(jìn)行縮放。

根據(jù)模型的數(shù)據(jù)類型(如 FLOAT32 或 UINT8)轉(zhuǎn)換影像數(shù)據(jù)。

postprocess

功能:將模型輸出的結(jié)果轉(zhuǎn)換為可讀取的標(biāo)簽(類別)。

步驟:

讀取模型的輸出。

根據(jù)預(yù)測(cè)值選出信心最高的幾個(gè)結(jié)果(TOP-K),并轉(zhuǎn)換為對(duì)應(yīng)的標(biāo)簽名稱。

predictClassesFromImage()

功能:對(duì)給定的影像進(jìn)行分類,返回最有可能的類別。

步驟:
進(jìn)行預(yù)處理(preprocess)。

使用解釋器進(jìn)行推論。

后處理輸出結(jié)果(postprocess)。

返回分類結(jié)果。

findTopKFloatIndices() 和 findTopKByteIndices()

功能:從模型輸出的數(shù)據(jù)中找出信心最高的 K 個(gè)結(jié)果,分別處理 float 和 byte 類型的輸出。

實(shí)現(xiàn):使用優(yōu)先佇列(PriorityQueue)來追蹤最大值,并返回這些最大值對(duì)應(yīng)的索引。

MainActivity.java:

使用 TensorFlow Lite 來進(jìn)行影像分類。它主要負(fù)責(zé)初始化 UI 元件、管理影像選擇與處理、并進(jìn)行模型推論。如果執(zhí)行時(shí)發(fā)生圖像讀取錯(cuò)誤問題,需要在loadImageFromStringAsync函式做調(diào)整:

// try (InputStream inputImage = getAssets().open("images/" + imagePath))

try (InputStream inputImage = getAssets().open( imagePath))

模型及App執(zhí)行

TFLite模型:

模型部分可以依據(jù)AI Hub提供的Image Classification選項(xiàng)的TFLite模型,下載自己所需的模型,并放置于ImageClassification/src/main/assets檔案夾底下,修改Android Studio內(nèi)的 gradle.properties,修改:classification_tfLiteModelAsset=xxxxxxx.tflite

程式運(yùn)作:

高通AI Hub提供的Android程式碼,除了在高通提供相關(guān)芯片的開發(fā)板上執(zhí)行,也可以在擁有高通芯片的手機(jī)上執(zhí)行,實(shí)機(jī)測(cè)試是使用小米11手機(jī)。

執(zhí)行結(jié)果如下方Gif動(dòng)畫,App最下方Image透過下拉式選單選擇內(nèi)建的三張圖片或相簿圖片,選擇完成后上方會(huì)出現(xiàn)選擇的圖片,按下RUN MODEL按鈕即可開始推論,當(dāng)然也可以選擇CPU Only體驗(yàn)一下沒有硬件加速的推論時(shí)間,而All Hardware則會(huì)使用QNN_NPU + GPUv2 + XNNPack等硬件加速。

wKgaomdFfwiAMYJTAHYriBtf1IA347.gif

小結(jié)

本篇博文就到這里,通過高通AI Hub Android開發(fā)者可以更輕松地將先進(jìn)的AI模型集成到他們的應(yīng)用中。高通AI Hub的文檔和模型庫提供了豐富的資源,幫助開發(fā)者探索和實(shí)現(xiàn)AI領(lǐng)域的應(yīng)用。

參考

ai-hub-apps

AI Hub Image Classification

Q&A

問:如何獲取高通AI Hub Model的ImageClassification模型?

答:您可以訪問高通AI Hub的GitHub頁面或官方網(wǎng)站,這里提供了模型的開源代碼和安裝指南。

問:部署模型時(shí)需要注意哪些性能和精度問題?

答:在部署模型時(shí),您需要考慮模型的延遲、記憶體使用等性能指標(biāo),以及模型在特定設(shè)備上的精度。高通AI Hub提供了性能指標(biāo)和優(yōu)化指南,幫助您選擇最適合您需求的模型。

問:如果在部署過程中遇到問題,該如何解決?

答:如果在模型部署過程中遇到性能、精度或其他問題,您可以通過高通AI Hub的支持Slack 提交問題。此外,您也可以參考官方文檔中的疑難解答部分。

問:高通AI Hub Model可以在哪些設(shè)備上運(yùn)行?

答:高通AI Hub Model支持在多種設(shè)備上運(yùn)行,包括但不限于Snapdragon 845, Snapdragon 855/855+, Snapdragon 865/865+, Snapdragon 888/888+等多款芯片組的設(shè)備。

登錄大大通網(wǎng)站閱讀原文,提問/評(píng)論,獲取技術(shù)文檔等更多資訊!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 高通
    +關(guān)注

    關(guān)注

    78

    文章

    7668

    瀏覽量

    197959
  • Android
    +關(guān)注

    關(guān)注

    12

    文章

    3980

    瀏覽量

    132710
  • 開發(fā)板
    +關(guān)注

    關(guān)注

    25

    文章

    6027

    瀏覽量

    110731
  • Qualcomm
    +關(guān)注

    關(guān)注

    8

    文章

    680

    瀏覽量

    55046
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    330

    瀏覽量

    61741
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+化學(xué)或生物方法實(shí)現(xiàn)AI

    21世紀(jì)是生命科學(xué)的世紀(jì),生物技術(shù)的潛力將比電子技術(shù)更深遠(yuǎn)----- 里卡多-戈蒂爾 半導(dǎo)體實(shí)現(xiàn)AI應(yīng)該沒什么疑問了吧?化學(xué)、生物怎么實(shí)現(xiàn)AI呢? 生物大腦是一個(gè)由無數(shù)神經(jīng)元通過突觸連
    發(fā)表于 09-15 17:29

    【Sipeed MaixCAM Pro開發(fā)板試用體驗(yàn)】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)

    能夠有效捕捉AI生成圖像與真實(shí)手繪掃描圖像在紋理、筆觸、光影、全局一致性等方面的細(xì)微差異。 邊緣端部署:將模型量化、編譯,最終高效運(yùn)行在算力有限的MaixCAM-Pro開發(fā)板上。 實(shí)時(shí)推理:實(shí)
    發(fā)表于 08-21 13:59

    關(guān)于NanoEdge AI用于n-Class的問題求解

    我想請(qǐng)教一下關(guān)于NanoEdge AI用于n-Class的問題。我使用NanoEdge AI的n-Class模式,訓(xùn)練好模型,設(shè)計(jì)了3個(gè)分類,使用PC端的模擬工具測(cè)試過,模型可以正常對(duì)數(shù)據(jù)進(jìn)行
    發(fā)表于 08-11 06:44

    Android Studio中的Gemini支持多模態(tài)輸入功能

    在開發(fā)生命周期的每個(gè)階段,Android Studio 中的 Gemini 都已成為您的 AI 助手,助您更輕松地構(gòu)建高質(zhì)量的應(yīng)用。我們很高興地與您分享一項(xiàng)重大升級(jí):Android S
    的頭像 發(fā)表于 05-14 16:44 ?823次閱讀

    在友晶LabCloud平臺(tái)上使用PipeCNN實(shí)現(xiàn)ImageNet圖像分類

    利用深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像分類是通過使用多個(gè)卷積層來從輸入數(shù)據(jù)中提取特征,最后通過分類層做決策來識(shí)別出目標(biāo)物體。
    的頭像 發(fā)表于 04-23 09:42 ?775次閱讀
    在友晶LabCloud平臺(tái)上使用PipeCNN<b class='flag-5'>實(shí)現(xiàn)</b>ImageNet<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>

    基于RV1126開發(fā)板實(shí)現(xiàn)自學(xué)習(xí)圖像分類方案

    在RV1126開發(fā)板上實(shí)現(xiàn)自學(xué)習(xí):在識(shí)別前對(duì)物體圖片進(jìn)行模型學(xué)習(xí),訓(xùn)練完成后通過算法分類得出圖像的模型ID。 方案設(shè)計(jì)邏輯流程圖,方案代碼分為分為兩個(gè)業(yè)務(wù)流程,主體代碼負(fù)責(zé)抓取、合成
    的頭像 發(fā)表于 04-21 13:37 ?11次閱讀
    基于RV1126開發(fā)板<b class='flag-5'>實(shí)現(xiàn)</b>自學(xué)習(xí)<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>方案

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    生態(tài)和天璣AI生態(tài)的全面打通。這意味著,天璣開發(fā)者將有機(jī)會(huì)獲取更多NVIDIA TAO生態(tài)的AI開發(fā)資源,TAO生態(tài)開發(fā)者可將開發(fā)成果輕松移植到天璣各類端側(cè)平臺(tái),實(shí)現(xiàn)一次開發(fā),全域應(yīng)用
    發(fā)表于 04-13 19:52

    AI開發(fā)工具分類與功能

    當(dāng)下,AI開發(fā)工具不僅簡(jiǎn)化了AI開發(fā)的復(fù)雜流程,還提高了開發(fā)效率,推動(dòng)了AI技術(shù)的廣泛應(yīng)用。下面,AI部落小編為大家介紹AI開發(fā)工具的
    的頭像 發(fā)表于 04-12 10:12 ?891次閱讀

    行業(yè)集結(jié):共同定制 RK3566 集成 AI 眼鏡的前沿 AR 方案

    硬編碼· 超低功耗,路由器連接?;顩r下功耗低于 150uA· 內(nèi)置語音喚醒 / 命令詞· 方案成熟度,聲音和圖像上傳手機(jī)和服務(wù)器已有多個(gè)成熟案例,并有配套 APP適用場(chǎng)景與產(chǎn)品特性AI 眼鏡具備
    發(fā)表于 02-20 18:44

    xgboost在圖像分類中的應(yīng)用

    和易用性,在各種機(jī)器學(xué)習(xí)任務(wù)中得到了廣泛應(yīng)用,包括分類、回歸和排序問題。在圖像分類領(lǐng)域,盡管深度學(xué)習(xí)模型(如卷積神經(jīng)網(wǎng)絡(luò)CNN)占據(jù)主導(dǎo)地位,但XGBoost仍然有其獨(dú)特的應(yīng)用價(jià)值,特別是在數(shù)據(jù)量較小或需要快速原型開發(fā)的場(chǎng)景中。
    的頭像 發(fā)表于 01-19 11:16 ?1397次閱讀

    使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類的步驟

    使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像分類是一個(gè)涉及多個(gè)步驟的過程。 1. 問題定義 確定目標(biāo) :明確你想要分類圖像類型,例如貓和狗、不同的植物種類等。 數(shù)據(jù)需求 :確定需要多少數(shù)據(jù)以及
    的頭像 發(fā)表于 11-15 15:01 ?1165次閱讀

    如何在Android上構(gòu)建自定義AI功能

    在 "AI on Android Spotlight Week" 期間,我們深入探討了如何將自己的 AI 模型引入 Android 設(shè)備,如手機(jī)、平板電腦等。通過利用
    的頭像 發(fā)表于 11-15 11:51 ?2469次閱讀

    AI圖像識(shí)別攝像機(jī)

    ?AI圖像識(shí)別攝像機(jī)是一種集成了先進(jìn)算法和深度學(xué)習(xí)模型的智能監(jiān)控設(shè)備。這些攝像機(jī)不僅能夠捕捉視頻畫面,還能實(shí)時(shí)分析和處理所拍攝的內(nèi)容,從而實(shí)現(xiàn)對(duì)特定對(duì)象、場(chǎng)景或行
    的頭像 發(fā)表于 11-08 10:38 ?1179次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>圖像</b>識(shí)別攝像機(jī)

    手把手教你使用LabVIEW TensorRT實(shí)現(xiàn)圖像分類實(shí)戰(zhàn)(含源碼)

    Hello,大家好,我是virobotics(儀酷智能),一個(gè)深耕于LabVIEW和人工智能領(lǐng)域的開發(fā)工程師。 各位朋友,今天我們一起來探究一下如何基于LabVIEW使用TensorRT實(shí)現(xiàn)圖像分類
    的頭像 發(fā)表于 11-06 16:07 ?1202次閱讀
    手把手教你使用LabVIEW TensorRT<b class='flag-5'>實(shí)現(xiàn)</b><b class='flag-5'>圖像</b><b class='flag-5'>分類</b>實(shí)戰(zhàn)(含源碼)

    PowerPAD?輕松實(shí)現(xiàn)

    電子發(fā)燒友網(wǎng)站提供《PowerPAD?輕松實(shí)現(xiàn).pdf》資料免費(fèi)下載
    發(fā)表于 10-29 10:08 ?0次下載
    PowerPAD?<b class='flag-5'>輕松</b><b class='flag-5'>實(shí)現(xiàn)</b>