18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-4 Turbo多模態(tài),應(yīng)用生態(tài)加速

智能計(jì)算芯世界 ? 來(lái)源:智能計(jì)算芯世界 ? 2024-01-04 16:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文來(lái)自“GPT-4精華專題:多模態(tài)能力提升,應(yīng)用生態(tài)加速(2023)”,2023年11月7日,OpenAI通過(guò)開(kāi)發(fā)者大會(huì)推出新產(chǎn)品:

1)GPT4-Turbo:該模型通過(guò)增加上下文窗口以支持更長(zhǎng)的工作流,同時(shí)具備視覺(jué)和語(yǔ)音等多模態(tài)能力,輸入和輸出的tokens價(jià)格大幅下降,從而幫助開(kāi)發(fā)者以更低的價(jià)格獲取更高的模型性能。

2)GPTs:用戶只需輸入指令并提供外設(shè)的知識(shí)庫(kù)即可創(chuàng)建專屬GPT,應(yīng)用開(kāi)發(fā)門檻大幅降低,未來(lái)在收益計(jì)劃的助力下,AI應(yīng)用有望迎來(lái)大爆發(fā),形成全新的AI Agent生態(tài)。

3)Assistant API:開(kāi)發(fā)者可以通過(guò)函數(shù)調(diào)用、知識(shí)檢索、代碼解釋器簡(jiǎn)化應(yīng)用開(kāi)發(fā)流程、實(shí)現(xiàn)效率提升。

《400+份重磅ChatGPT專業(yè)報(bào)告》

1)算力端:OpenAI一系列新產(chǎn)品的推出成功打開(kāi)新流量入口,更多的用戶和開(kāi)發(fā)者希望參與其中,巨大的流量對(duì)算力底座提出更高的要求;疊加圖片等多模態(tài)生成所要求的tokens計(jì)算量遠(yuǎn)高于文本模態(tài)(根據(jù)OpenAI官網(wǎng)信息推算,在GPT-4-Turbo的Vision pricing calculator高保真度模式下,1張圖片所產(chǎn)生的tokens數(shù)大約是1個(gè)單詞的570或830倍),算力供給亟需擴(kuò)容。

2)存力端:在算力提效到達(dá)一定瓶頸的情況下,AI芯片未來(lái)將逐步通過(guò)堆疊HBM的方式來(lái)提升性能,擴(kuò)大單位算力的存儲(chǔ)能力,HBM等存力需求將迎來(lái)暴增。

3)應(yīng)用端:類比移動(dòng)互聯(lián)網(wǎng)時(shí)代,AI時(shí)代的應(yīng)用市場(chǎng)有望如同移動(dòng)互聯(lián)網(wǎng)時(shí)代具備無(wú)限潛力,GPTs數(shù)量將呈現(xiàn)非線性高速增長(zhǎng);此外,OpenAI的GPTs通過(guò)提供API,使得開(kāi)發(fā)者只需喂給大模型更多的垂類數(shù)據(jù)即可打造垂類AI應(yīng)用,同時(shí)使?jié)M足更多長(zhǎng)尾需求成為可能。

4)數(shù)據(jù)端:從OpenAI GPTs的Knowledge功能來(lái)看,專業(yè)知識(shí)與大模型通用能力的結(jié)合將成為未來(lái)的重中之重,私域數(shù)據(jù)庫(kù)和專業(yè)數(shù)據(jù)庫(kù)方向?qū)?huì)不斷產(chǎn)生新熱點(diǎn)、新需求,因此,如何在合規(guī)前提下留存垂類數(shù)據(jù)并構(gòu)建體系化數(shù)據(jù)庫(kù)、以及保證知識(shí)產(chǎn)權(quán)的確權(quán)或成為未來(lái)的重要議題。

31bb52aa-a1f2-11ee-8b88-92fbcf53809c.png

31d17544-a1f2-11ee-8b88-92fbcf53809c.png

為打造視覺(jué)大模型,建立高效視覺(jué)預(yù)訓(xùn)練體系以提升圖像理解能力至關(guān)重要,這影響到從圖像整體(如分類、圖文檢索、標(biāo)注)到部分區(qū)域(如物體識(shí)別、短語(yǔ)定位)及到像素細(xì)節(jié)(如語(yǔ)義、實(shí)例、全景分割)的各項(xiàng)任務(wù)。

通用視覺(jué)預(yù)訓(xùn)練方法主要可歸納為三大類。1)標(biāo)簽監(jiān)督:此方法在每張圖片都配有對(duì)應(yīng)標(biāo)簽的數(shù)據(jù)集上進(jìn)行訓(xùn)練,如圖像分類中,一張狗的照片會(huì)對(duì)應(yīng)“狗”的標(biāo)簽,模型的核心任務(wù)是準(zhǔn)確預(yù)測(cè)此標(biāo)簽。2)語(yǔ)言-圖像監(jiān)督:利用完整的文本描述來(lái)引導(dǎo)模型學(xué)習(xí),使模型能夠深入挖掘圖像內(nèi)容與文本語(yǔ)義間的關(guān)聯(lián)。3)僅圖像自監(jiān)督:利用圖像本身固有的結(jié)構(gòu)和信息來(lái)學(xué)習(xí)有意義的表示,而不依賴于顯式的人工注釋標(biāo)簽。

31edf7aa-a1f2-11ee-8b88-92fbcf53809c.png

320051fc-a1f2-11ee-8b88-92fbcf53809c.png

1)更長(zhǎng)的上下文(Context Length):GPT-4-turbo支持的上下文窗口(128k)相較于GPT-4-8k提升16倍,相較于GPT-4-32k提升4倍,即GPT-4-turbo可在單個(gè)prompt中處理超過(guò)300頁(yè)的文本,且GPT-4-turbo模型在較長(zhǎng)的上下文中更加準(zhǔn)確。我們認(rèn)為GPT-4-turbo更長(zhǎng)且更準(zhǔn)確的上下文處理能力將支持更長(zhǎng)的工作流,在B端有能力承擔(dān)更多的工作負(fù)載,提升用戶體驗(yàn)。

2)更豐富的世界知識(shí)(Better Knowledge):外部文檔和數(shù)據(jù)庫(kù)的截止更新日期從21年9月更新至23年4月,意味著OpenAI的大模型在半年內(nèi)已學(xué)習(xí)互聯(lián)網(wǎng)一年半的知識(shí),學(xué)習(xí)速度極快。

什么是GPTs:GPTs是指“針對(duì)特定目的定制的ChatGPT”,用戶可以通過(guò)自定義行為創(chuàng)建一個(gè)定制版的ChatGPT,定制版的ChatGPT具備帶有任何功能的可能性(在保證隱私和安全的情況下)。

不論是開(kāi)發(fā)者還是不會(huì)寫代碼的普通人,都可以擁有自定義版本的GPT。

更加個(gè)性化、私人化、場(chǎng)景化,每個(gè)人都可以擁有自己的AI Agent。GPTs通過(guò)結(jié)合①說(shuō)明/Instruction+②擴(kuò)展的知識(shí)/Expand knowledge+③操作/Actions,能夠在很多情況下更好地工作,并且為用戶提供更好地控制,用以幫助用戶輕松完成各種任務(wù)、或者獲得更多樂(lè)趣。

321e19a8-a1f2-11ee-8b88-92fbcf53809c.png

3244d5d4-a1f2-11ee-8b88-92fbcf53809c.png

32719ed4-a1f2-11ee-8b88-92fbcf53809c.png

32898b7a-a1f2-11ee-8b88-92fbcf53809c.png

32b0663c-a1f2-11ee-8b88-92fbcf53809c.png

針對(duì)開(kāi)發(fā)者在開(kāi)發(fā)API中的痛點(diǎn),OpenAI推出Assistant API,致力于為開(kāi)發(fā)者賦能。根據(jù)此前市場(chǎng)上推出的各種API,我們可以發(fā)現(xiàn)API通過(guò)接入各種程序和應(yīng)用,有助于幫助應(yīng)用實(shí)現(xiàn)特定功能。

例如,Shopify的Sidekick允許用戶在平臺(tái)上進(jìn)行操作;Discord的Clyde允許discord版主設(shè)置自定義人格;Snap my AI作為定制聊天機(jī)器人工具,可以添加至群聊中并提出建議。但以上API的構(gòu)建可能需要開(kāi)發(fā)者耗費(fèi)幾個(gè)月的時(shí)間、并由數(shù)十名工程師搭建,而目前Assistant API的推出將使其變得容易實(shí)現(xiàn)。

32c7426c-a1f2-11ee-8b88-92fbcf53809c.png

32daf17c-a1f2-11ee-8b88-92fbcf53809c.png

1)云側(cè)芯片龍頭:英偉達(dá)龍頭地位穩(wěn)固,AMD加速發(fā)展。

① 英偉達(dá):2023年11月13日,英偉達(dá)推出H200,內(nèi)存方面首次采用HBM3e,容量高達(dá)141GB,帶寬實(shí)現(xiàn)大幅提升;性能方面著重強(qiáng)化推理能力和HPC性能,可將Llama2模型的推理速度提高近一倍,相較于H100可降低50%的TCO和能耗成本。2023年以來(lái),英偉達(dá)AI芯片已發(fā)布多個(gè)產(chǎn)品,在云側(cè)算力芯片領(lǐng)域龍頭優(yōu)勢(shì)明顯。

② AMD:2023年6月,AMD正式發(fā)布MI300系列,MI300將CPU、GPU和內(nèi)存封裝為一體,大幅縮短DDR內(nèi)存行程和CPU-GPU PCIe行程,提高性能和效率;MI300采用Chiplet設(shè)計(jì),擁有13個(gè)基于3D堆疊的小芯片(5nm: 3個(gè)CPU,6個(gè)GPU;4個(gè)6nm芯片),包括24個(gè)Zen4 CPU內(nèi)核,同時(shí)融合CDNA 3和8個(gè)HBM3顯存堆棧,集成5nm和6nm IP,總共包含128GB HBM3顯存和1460億個(gè)晶體管。對(duì)比MI250加速卡,MI300可帶來(lái)8倍AI性能和5倍每瓦性能的提升(FP8),使ChatGPT和DALL-E等超大AI模型的訓(xùn)練時(shí)間可以從幾個(gè)月縮短到幾周。

32ec8c84-a1f2-11ee-8b88-92fbcf53809c.png

2)端側(cè)芯片格局:對(duì)于AI PC端側(cè)適用芯片,英特爾進(jìn)展保持領(lǐng)先,高通有望實(shí)現(xiàn)從0到1。

① 英特爾:PC主芯片包括CPU和GPU。GPU方面,根據(jù)Statista數(shù)據(jù),英特爾在22Q4全球PC GPU市場(chǎng)中占據(jù)71%的市場(chǎng)份額;CPU方面,根據(jù)Counterpoint Research數(shù)據(jù),英特爾在2022年全球Notebook CPU/SoC市場(chǎng)中占據(jù)69.6%的市場(chǎng)份額,當(dāng)前英特爾在PC主芯片市場(chǎng)中處于主導(dǎo)地位。23H2,英特爾推出Meteor Lake處理器,助力PC效能提升,專為AI任務(wù)設(shè)計(jì),在AI PC主芯片市場(chǎng)中具備先發(fā)優(yōu)勢(shì)。

② 高通:2023年10月,高通于驍龍峰會(huì)上推出驍龍X Elite芯片,可支持130億參數(shù)大模型,為Windows-on-Arm筆記本設(shè)計(jì),預(yù)計(jì)在2024年中期發(fā)布。算力方面,AI PC對(duì)PC芯片的算力要求更高,高通在端側(cè)AI推理能力優(yōu)于英特爾。與此同時(shí),生態(tài)方面,2022年至今Windows開(kāi)始支持高通,已發(fā)布多輪支持Arm架構(gòu)芯片的操作系統(tǒng)。未來(lái),高通在以驍龍X Elite為代表的AI PC芯片的助力下,將在PC領(lǐng)域?qū)崿F(xiàn)重要突破,逐步搶占市場(chǎng)份額。

3300827a-a1f2-11ee-8b88-92fbcf53809c.png

3)大廠自研趨勢(shì):科技巨頭加速自研,優(yōu)先服務(wù)于自身云服務(wù)業(yè)務(wù)及AI條線。微軟于23年11月16日Ignite技術(shù)大會(huì)上發(fā)布兩款自研芯片——Azure Maia 100和Azure Cobalt 100,分別用于大語(yǔ)言模型的訓(xùn)練推理和通用云服務(wù)的支持。近年來(lái),各大科技廠商紛紛自研芯片,一是為了降低自身對(duì)第三方芯片和外部供應(yīng)鏈的依賴;二是自研芯片可幫助各大廠商克服一定的通用芯片局限,通過(guò)CPU+GPU+DPU+定制芯片等結(jié)合方案,提升全系統(tǒng)整合效率、實(shí)現(xiàn)業(yè)務(wù)賦能;三是提高計(jì)算能效、減少長(zhǎng)期硬件成本。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    2037

    瀏覽量

    36451
  • 算力
    +關(guān)注

    關(guān)注

    2

    文章

    1339

    瀏覽量

    16491
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1235

    瀏覽量

    9713

原文標(biāo)題:GPT-4 Turbo多模態(tài),應(yīng)用生態(tài)加速

文章出處:【微信號(hào):AI_Architect,微信公眾號(hào):智能計(jì)算芯世界】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    商湯日日新V6.5模態(tài)大模型登頂全球權(quán)威榜單

    Pro)模態(tài)大模型以82.2的綜合成績(jī)登頂榜首,領(lǐng)先Gemini 2.5 Pro以及GPT-5等國(guó)際頂尖模型。
    的頭像 發(fā)表于 09-10 09:55 ?326次閱讀

    成都匯陽(yáng)投資關(guān)于大模型白熱化,應(yīng)用加速分化

    ? ? ? ?大模型: 加速模態(tài)研發(fā) ,閉源模型逐步逆襲開(kāi)源 模態(tài)技術(shù)路線尚未收斂 , 國(guó)內(nèi)外大模型廠商持續(xù)刷新 SOAT。 圖片領(lǐng)域
    的頭像 發(fā)表于 09-09 09:30 ?538次閱讀

    米爾RK3576部署端側(cè)模態(tài)輪對(duì)話,6TOPS算力驅(qū)動(dòng)30億參數(shù)LLM

    首輪推理延遲,適配對(duì)響應(yīng)速度敏感的車載、醫(yī)療等場(chǎng)景; 其二,模態(tài)融合再升級(jí)—— 在圖文基礎(chǔ)上集成語(yǔ)音、傳感器數(shù)據(jù),實(shí)現(xiàn) “看 + 聽(tīng) + 感知” 的跨模態(tài)對(duì)話; 其三,生態(tài)適配再拓展
    發(fā)表于 09-05 17:25

    GPT-5即將面市 性能遠(yuǎn)超GPT-4

    行業(yè)芯事
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2025年06月04日 13:38:23

    移遠(yuǎn)通信智能模組全面接入模態(tài)AI大模型,重塑智能交互新體驗(yàn)

    隨著千行百業(yè)數(shù)智化進(jìn)程的不斷加速,模態(tài)AI大模型的應(yīng)用需求不斷攀升,圖像、語(yǔ)音、視頻等多樣化的交互方式正逐漸成為推動(dòng)行業(yè)變革的新動(dòng)力。 ? 3月20日,全球物聯(lián)網(wǎng)整體解決方案供應(yīng)商移遠(yuǎn)通信宣布,其
    發(fā)表于 03-21 14:12 ?373次閱讀
    移遠(yuǎn)通信智能模組全面接入<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>AI大模型,重塑智能交互新體驗(yàn)

    移遠(yuǎn)通信智能模組全面接入模態(tài)AI大模型,重塑智能交互新體驗(yàn)

    隨著千行百業(yè)數(shù)智化進(jìn)程的不斷加速模態(tài)AI大模型的應(yīng)用需求不斷攀升,圖像、語(yǔ)音、視頻等多樣化的交互方式正逐漸成為推動(dòng)行業(yè)變革的新動(dòng)力。3月20日,全球物聯(lián)網(wǎng)整體解決方案供應(yīng)商移遠(yuǎn)通信宣布,其全系
    的頭像 發(fā)表于 03-20 19:03 ?611次閱讀
    移遠(yuǎn)通信智能模組全面接入<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>AI大模型,重塑智能交互新體驗(yàn)

    ?模態(tài)交互技術(shù)解析

    模態(tài)交互 模態(tài)交互( Multimodal Interaction )是指通過(guò)多種感官通道(如視覺(jué)、聽(tīng)覺(jué)、觸覺(jué)等)或多種交互方式(如語(yǔ)音、手勢(shì)、觸控、眼動(dòng)等)與計(jì)算機(jī)系統(tǒng)進(jìn)行自然、
    的頭像 發(fā)表于 03-17 15:12 ?3152次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    ,GPT-4.5將在未來(lái)幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術(shù)上進(jìn)行了諸多優(yōu)化和升級(jí),旨在為用戶提供更加精準(zhǔn)、高效的AI服務(wù)。 而在GPT-4.5發(fā)布后不久
    的頭像 發(fā)表于 02-13 13:43 ?921次閱讀

    體驗(yàn)MiniCPM-V 2.6 模態(tài)能力

    模態(tài)組網(wǎng)
    jf_23871869
    發(fā)布于 :2025年01月20日 13:40:48

    如何在邊緣端獲得GPT4-V的能力:算力魔方+MiniCPM-V 2.6

    本 OpenCompass 榜單上(綜合 8 個(gè)主流模態(tài)評(píng)測(cè)基準(zhǔn))平均得分 65.2,以8B量級(jí)的大小在單圖理解方面超越了 GPT-4o mini、GPT-4V、Gemini 1.5
    的頭像 發(fā)表于 01-20 13:40 ?975次閱讀
    如何在邊緣端獲得<b class='flag-5'>GPT4</b>-V的能力:算力魔方+MiniCPM-V 2.6

    商湯日日新模態(tài)大模型權(quán)威評(píng)測(cè)第一

    剛剛,商湯科技日日新SenseNova模態(tài)大模型,在權(quán)威綜合評(píng)測(cè)權(quán)威平臺(tái)OpenCompass的模態(tài)評(píng)測(cè)中取得榜單第一。
    的頭像 發(fā)表于 12-20 10:39 ?1390次閱讀

    思必馳發(fā)布AI辦公本Turbo,搭載專業(yè)級(jí)跨模態(tài)會(huì)議大模型

    近日,思必馳正式發(fā)布了其最新的AI辦公本Turbo,該設(shè)備搭載了專業(yè)級(jí)的跨模態(tài)會(huì)議大模型。這一創(chuàng)新技術(shù)的引入,標(biāo)志著思必馳在智能辦公領(lǐng)域邁出了重要的一步。
    的頭像 發(fā)表于 10-31 17:03 ?1245次閱讀

    訊飛星火大模型技術(shù)進(jìn)展及落地

    訊飛星火4.0 Turbo重磅發(fā)布,七大核心能力全面超過(guò)GPT-4 Turbo,數(shù)學(xué)和代碼能力超越GPT-4o,國(guó)內(nèi)外中英文14項(xiàng)主流測(cè)試集中訊飛星火4.0
    的頭像 發(fā)表于 10-27 15:50 ?2674次閱讀

    訊飛星火大模型4.0 Turbo正式發(fā)布

    近日,2024科大訊飛全球1024開(kāi)發(fā)者節(jié)正式開(kāi)幕。在數(shù)千名行業(yè)領(lǐng)袖、專家學(xué)者與開(kāi)發(fā)者的共同見(jiàn)證下,訊飛星火大模型4.0 Turbo正式發(fā)布。七大核心能力全面超過(guò)GPT-4 Turbo,數(shù)學(xué)和代碼能力超越
    的頭像 發(fā)表于 10-27 15:47 ?1346次閱讀

    Llama 3 與 GPT-4 比較

    隨著人工智能技術(shù)的飛速發(fā)展,我們見(jiàn)證了一代又一代的AI模型不斷突破界限,為各行各業(yè)帶來(lái)革命性的變化。在這場(chǎng)技術(shù)競(jìng)賽中,Llama 3和GPT-4作為兩個(gè)備受矚目的模型,它們代表了當(dāng)前AI領(lǐng)域的最前
    的頭像 發(fā)表于 10-27 14:17 ?1502次閱讀