18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖解AI核心技術(shù):大模型、RAG、智能體、MCP

jf_75140285 ? 來(lái)源:jf_75140285 ? 作者:jf_75140285 ? 2025-10-21 09:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

簡(jiǎn)介

本文整理了來(lái)自Daily Dose of Data Science最熱門或最新的文章,其中極具特色的動(dòng)圖以生動(dòng)形象的方式,幫助我們更好的理解AI中的一些核心技術(shù),希望能夠幫助大家更好的理解和使用AI。

大模型

Transformer vs. Mixture of Experts

混合專家 (MoE) 是一種流行的架構(gòu),它使用不同的“專家”來(lái)改進(jìn) Transformer 模型。
下圖解釋了它們與 Transformers 的區(qū)別。

wKgZPGjx0BWAWJgIAA4Azq6quOg663.gif

Transformer 使用前饋網(wǎng)絡(luò)。

MoE 使用專家,它們是前饋網(wǎng)絡(luò),但與 Transformer 中的網(wǎng)絡(luò)相比規(guī)模較小。在推理過(guò)程中,會(huì)選擇一部分專家。這使得 MoE 中的推理速度更快。

Fine-tuning LLMs

傳統(tǒng)的微調(diào)(如下圖所示)對(duì)于 LLM 來(lái)說(shuō)是不可行的,因?yàn)檫@些模型具有數(shù)十億個(gè)參數(shù)并且大小為數(shù)百 GB,并且并非每個(gè)人都可以使用這樣的計(jì)算基礎(chǔ)設(shè)施。

wKgZO2jx0BaAKfABAAHyYKgf0Rc811.gif


值得慶幸的是,今天我們有許多最佳方法來(lái)微調(diào) LLM,下面描述了五種流行的技術(shù):

wKgZO2jx0BeAUqWgAAebvMmG_ms504.gif

LoRA :添加兩個(gè)低秩矩陣 A ,以及 B包含可訓(xùn)練參數(shù)的權(quán)重矩陣。無(wú)需進(jìn)行微調(diào)W,只需調(diào)整這些低秩矩陣中的更新即可。

LoRA-FA :雖然 LoRA 顯著減少了可訓(xùn)練參數(shù)的總量,但它仍然需要大量的激活記憶來(lái)更新低秩權(quán)重。LoRA-FA(FA 代表 Frozen-A)會(huì)凍結(jié)矩陣,A并且僅更新矩陣B。

VeRA :在 LoRA 中,每一層都有一對(duì)不同的低秩矩陣A和B,并且這兩個(gè)矩陣都經(jīng)過(guò)訓(xùn)練。然而,在 VeRA 中,矩陣A和B是凍結(jié)的、隨機(jī)的,并在所有模型層之間共享。VeRA 專注于學(xué)習(xí)較小的、特定于層的縮放向量,記為b和d,它們是此設(shè)置中唯一可訓(xùn)練的參數(shù)。

Delta-LoRA :除了訓(xùn)練低秩矩陣之外,W還會(huì)對(duì)矩陣進(jìn)行調(diào)整,但不是以傳統(tǒng)方式。相反,將兩個(gè)連續(xù)訓(xùn)練步驟中低秩矩陣乘積與之間的差值(或增量)A添加B到W。

LoRA+ :在 LoRA 中,矩陣A和B都以相同的學(xué)習(xí)率更新。作者發(fā)現(xiàn),為矩陣設(shè)置更高的學(xué)習(xí)率B可以獲得更優(yōu)的收斂效果。

RAG(檢索增強(qiáng)生成)

傳統(tǒng)RAG

傳統(tǒng)RAG系統(tǒng)存在以下一些問(wèn)題:

wKgZPGjx0BiAW3uHAAOOTJki-zo007.gif

這些系統(tǒng)檢索一次,生成一次。這意味著如果檢索到的上下文不夠,LLM就無(wú)法動(dòng)態(tài)搜索更多信息。

RAG 系統(tǒng)可以提供相關(guān)的上下文,但無(wú)法通過(guò)復(fù)雜的查詢進(jìn)行推理。如果查詢需要多個(gè)檢索步驟,傳統(tǒng)的 RAG 就顯得力不從心了。

適應(yīng)性較差。LLM 無(wú)法根據(jù)實(shí)際問(wèn)題調(diào)整策略。

Agentic RAG

Agentic RAG 的工作流程如下:

wKgZO2jx0BqAPvqJAAb15zkjDoY081.gif


如上所示,我們的想法是在 RAG 的每個(gè)階段引入代理行為。

我們可以把智能體想象成能夠主動(dòng)思考任務(wù)的人——規(guī)劃、調(diào)整、迭代,直到找到最佳解決方案,而不僅僅是遵循既定的指令。LLM 的強(qiáng)大功能使這一切成為可能。

讓我們逐步理解這一點(diǎn):

步驟 1-2)用戶輸入查詢,代理重寫它(刪除拼寫錯(cuò)誤,簡(jiǎn)化嵌入等)

步驟 3)另一個(gè)代理決定是否需要更多細(xì)節(jié)來(lái)回答查詢。

步驟4)如果不是,則將重寫的查詢作為提示發(fā)送給LLM。

步驟 5-8) 如果答案是肯定的,另一個(gè)代理會(huì)查看其可以訪問(wèn)的相關(guān)資源(矢量數(shù)據(jù)庫(kù)、工具和 API 以及互聯(lián)網(wǎng)),并決定哪個(gè)資源有用。檢索相關(guān)上下文并將其作為提示發(fā)送給 LLM。

步驟9)以上兩條路徑中的任意一條都會(huì)產(chǎn)生響應(yīng)。

步驟 10)最后一個(gè)代理檢查答案是否與查詢和上下文相關(guān)。

步驟11)如果是,則返回響應(yīng)。

步驟 12)如果不是,則返回步驟 1。此過(guò)程持續(xù)幾次迭代,直到系統(tǒng)承認(rèn)它無(wú)法回答查詢。

這使得 RAG 更加穩(wěn)健,因?yàn)樵诿恳徊街?,代理行為都能確保個(gè)體結(jié)果與最終目標(biāo)保持一致。

Corrective RAG

Corrective RAG(CRAG)是改進(jìn) RAG 系統(tǒng)的常用技術(shù)。它引入了對(duì)檢索到的文檔進(jìn)行自我評(píng)估的步驟,有助于保留生成的響應(yīng)的相關(guān)性。
以下是其工作原理的概述:

wKgZPGjx0BuAScqTAAwQFJHery8329.gif

首先根據(jù)用戶查詢搜索文檔。

使用 LLM 評(píng)估檢索到的上下文是否相關(guān)。

僅保留相關(guān)上下文。

如果需要的話,進(jìn)行網(wǎng)絡(luò)搜索。

聚合上下文并生成響應(yīng)。

RAG 的 5 種分塊策略

wKgZO2jx0B2AVBAiAAu2gpNlYG4903.gif

智能體

5種智能體設(shè)計(jì)模式

Agentic behaviors允許 LLM 通過(guò)結(jié)合自我評(píng)估、規(guī)劃和協(xié)作來(lái)改進(jìn)他們的輸出!
下圖展示了構(gòu)建 AI 代理時(shí)采用的 5 種最流行的設(shè)計(jì)模式。

wKgZPGjx0B-AYuCUAAs_enYD4mM072.gif

反射模式

LLM會(huì)審查其工作以發(fā)現(xiàn)錯(cuò)誤并不斷迭代直到產(chǎn)生最終的響應(yīng)。

工具使用模式

工具允許 LLM 通過(guò)以下方式收集更多信息:

查詢矢量數(shù)據(jù)庫(kù)

執(zhí)行 Python 腳本

調(diào)用API等

這很有幫助,因?yàn)?LLM 不僅僅依賴于其內(nèi)部知識(shí)。

ReAct(Reason and Action)模式

ReAct 結(jié)合了以上兩種模式:

代理可以反映生成的輸出。

它可以使用工具與世界互動(dòng)。

這使得它成為當(dāng)今使用最強(qiáng)大的模式之一。

規(guī)劃模式

AI 不會(huì)一次性解決請(qǐng)求,而是通過(guò)以下方式創(chuàng)建路線圖:

細(xì)分任務(wù)

概述目標(biāo)

這種戰(zhàn)略思維可以更有效地解決任務(wù)。

Multi-agent模式

在此設(shè)置中:

我們有幾個(gè)agent。

每個(gè)agent都被分配了專門的角色和任務(wù)。

每個(gè)agent還可以訪問(wèn)工具。

所有agent共同努力以交付最終結(jié)果,同時(shí)在需要時(shí)將任務(wù)委派給其他agent。

智能體系統(tǒng)的5個(gè)等級(jí)

Agentic AI 系統(tǒng)不僅僅生成文本;它們還可以做出決策、調(diào)用函數(shù),甚至運(yùn)行自主工作流程。
該圖解釋了人工智能代理的 5 個(gè)級(jí)別——從簡(jiǎn)單的響應(yīng)者到完全自主的代理。

wKgZPGjx0CGACNtEAA3eCGvWMpQ469.gif

基本響應(yīng)器僅生成文本

路由器模式?jīng)Q定何時(shí)采取路徑

工具調(diào)用選擇并運(yùn)行工具

多代理模式管理多個(gè)代理

自主模式完全獨(dú)立運(yùn)作

MCP

Function calling & MCP

在 MCP 成為主流(或像現(xiàn)在這樣流行)之前,大多數(shù) AI 工作流程依賴于傳統(tǒng)的函數(shù)調(diào)用。
現(xiàn)在,MCP(模型上下文協(xié)議)正在改變開發(fā)人員為代理構(gòu)建工具訪問(wèn)和編排的方式。
以下是解釋函數(shù)調(diào)用和 MCP 的視覺(jué)說(shuō)明:

wKgZO2jx0COAc1Y_AApMnhwglsA463.gif

Function calling(函數(shù)調(diào)用)

函數(shù)調(diào)用是一種機(jī)制,它允許 LLM 根據(jù)用戶的輸入識(shí)別它需要什么工具以及何時(shí)調(diào)用它。
它通常的工作方式如下:

LLM 收到來(lái)自用戶的提示。

LLM 決定其所需的工具。

程序員實(shí)現(xiàn)程序來(lái)接受來(lái)自 LLM 的工具調(diào)用請(qǐng)求并準(zhǔn)備函數(shù)調(diào)用。

函數(shù)調(diào)用(帶有參數(shù))被傳遞給處理實(shí)際執(zhí)行的后端服務(wù)。

MCP(模型上下文協(xié)議)

函數(shù)調(diào)用關(guān)注的是模型想要做什么,而 MCP 關(guān)注的是如何讓工具變得可發(fā)現(xiàn)和可用——尤其是跨多個(gè)代理、模型或平臺(tái)。
MCP 無(wú)需在每個(gè)應(yīng)用程序或代理中都安裝硬接線工具,而是:

標(biāo)準(zhǔn)化工具的定義、托管和向 LLM 公開的方式。

使 LLM 能夠輕松發(fā)現(xiàn)可用的工具、了解其模式并使用它們。

在調(diào)用工具之前提供批準(zhǔn)和審計(jì)工作流程。

將工具實(shí)施與消費(fèi)的關(guān)注點(diǎn)分開。

MCP & A2A

Agent2Agent (A2A) 協(xié)議讓 AI 代理可以連接到其他代理。

wKgZPGjx0CaATvQ8AAp_HmS0eF4846.gif

MCP 為代理提供訪問(wèn)工具的權(quán)限。

而 A2A 允許代理與其他代理連接并以團(tuán)隊(duì)形式協(xié)作。

wKgZO2jx0CeASmdUAAQ3MsmZxTc559.gif

Next thing

在代理領(lǐng)域:

MCP 標(biāo)準(zhǔn)化了代理到工具的通信

Agent2Agent 協(xié)議標(biāo)準(zhǔn)化了 Agent 到 Agent 的通信。

但還缺少一件東西……

wKgZPGjx0CiAAj8_AAbbWlOeg3E394.gif


AG-UI(代理-用戶交互協(xié)議)標(biāo)準(zhǔn)化了后端代理和前端 UI 之間的交互層(下圖綠色層)。

wKgZPGjx0CqAYRpYAA0FZNx0RuQ967.gif


審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37213

    瀏覽量

    291940
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3365

    瀏覽量

    4814
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NanoEdge AI技術(shù)原理、應(yīng)用場(chǎng)景及優(yōu)勢(shì)

    NanoEdge AI 是一種基于邊緣計(jì)算的人工智能技術(shù),旨在將人工智能算法應(yīng)用于物聯(lián)網(wǎng)(IoT)設(shè)備和傳感器。這種技術(shù)核心思想是將數(shù)據(jù)處
    發(fā)表于 03-12 08:09

    【大語(yǔ)言模型:原理與工程實(shí)踐】核心技術(shù)綜述

    我也不打算把網(wǎng)上相關(guān)的信息在總結(jié)一下,這樣的話,工作量很大。 我主要看了-大語(yǔ)言模型基礎(chǔ)技術(shù)這節(jié) 大語(yǔ)言模型(Large Language Models,LLMs)的核心技術(shù)涵蓋了從
    發(fā)表于 05-05 10:56

    AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    人工智能在科學(xué)研究中的核心技術(shù),包括機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等。這些技術(shù)構(gòu)成了AI for Science的基石,使得AI能夠處理和分析
    發(fā)表于 10-14 09:16

    名單公布!【書籍評(píng)測(cè)活動(dòng)NO.52】基于大模型RAG應(yīng)用開發(fā)與優(yōu)化

    (Retrieval-Augmented Agenerated,檢索增強(qiáng)生成)與Agent(AI智能)。本篇小棗君首先嘗試用通俗易懂的語(yǔ)言幫助大家認(rèn)識(shí)RAG這一重要應(yīng)用形式。 01
    發(fā)表于 12-04 10:50

    【「基于大模型RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+Embedding技術(shù)解讀

    今天學(xué)習(xí)大模型RAG 檢索增強(qiáng)生成技術(shù)Embedding,即嵌入,是一種將離散數(shù)據(jù)(如文字、圖像、音頻等)轉(zhuǎn)換為連續(xù)的密集向量表示的技術(shù)。這些向量能夠反映原始數(shù)據(jù)之間的關(guān)系,使得計(jì)算機(jī)
    發(fā)表于 01-17 19:53

    【「基于大模型RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+第一章初體驗(yàn)

    《基于大模型RAG應(yīng)用開發(fā)與優(yōu)化》試讀報(bào)告 ——第一章:了解大模型RAG 近年來(lái),隨著人工智能技術(shù)的快速發(fā)展,大
    發(fā)表于 02-07 10:42

    【「基于大模型RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】RAG基本概念

    的安全性和數(shù)據(jù)的保密性。 未來(lái)以RAG為代表的人工智能發(fā)展,將開辟一條新通道,過(guò)去,各廠家追求實(shí)用的大模型等,但在實(shí)際用時(shí)總有些不稱手。通過(guò)RAG
    發(fā)表于 02-08 00:22

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識(shí)庫(kù)

    應(yīng)用。第六章深入探討了RAG架構(gòu)的工作原理,該技術(shù)通過(guò)在推理過(guò)程中實(shí)時(shí)檢索和注入外部知識(shí)來(lái)增強(qiáng)模型的生成能力。RAG架構(gòu)的核心是檢索器和生成
    發(fā)表于 03-07 19:49

    DevEco Studio AI輔助開發(fā)工具兩大升級(jí)功能 鴻蒙應(yīng)用開發(fā)效率再提升

    帶來(lái)了前所未有的智能問(wèn)答體驗(yàn)。 RAG增強(qiáng)型與傳統(tǒng)生成式AI的關(guān)鍵差異: 圖2:DeepSeek模型增強(qiáng)RAG能力前后效果對(duì)比圖 升級(jí)點(diǎn)2:
    發(fā)表于 04-18 14:43

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗(yàn)】+ 入門篇學(xué)習(xí)

    4.智能具有自主規(guī)劃和行動(dòng)的能力 5.大模型分為3個(gè)層次:基礎(chǔ)層(心臟)、垂直/行業(yè)層(動(dòng)脈)、應(yīng)用層(毛細(xì)血管) 6.AI Agent具備更顯著的去中心化特點(diǎn),能夠充分滿足每個(gè)人
    發(fā)表于 05-02 09:26

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】+混合專家

    感謝電子發(fā)燒友提供學(xué)習(xí)Deepseek核心技術(shù)這本書的機(jī)會(huì)。 讀完《Deepseek核心技術(shù)揭秘》,我深受觸動(dòng),對(duì)人工智能領(lǐng)域有了全新的認(rèn)識(shí)。了解Deepseek-R1 、Deepseek-V3
    發(fā)表于 07-22 22:14

    【內(nèi)測(cè)活動(dòng)同步開啟】這么???這么強(qiáng)?新一代大模型MCP開發(fā)板來(lái)啦!

    噪,無(wú)懼嘈雜環(huán)境 云端接入小聆AI,輕松實(shí)現(xiàn)個(gè)性化定制 搭載領(lǐng)先大模型全鏈路技術(shù):小聆AI 智能語(yǔ)音交互方案 集成情緒感知與表達(dá) :支持情感
    發(fā)表于 09-25 11:47

    藍(lán)牙核心技術(shù)概述

    藍(lán)牙核心技術(shù)概述(一):藍(lán)牙概述藍(lán)牙核心技術(shù)概述(二):藍(lán)牙使用場(chǎng)景藍(lán)牙核心技術(shù)概述(三): 藍(lán)牙協(xié)議規(guī)范(射頻、基帶鏈路控制、鏈路管理)藍(lán)牙核心技術(shù)概述(四):藍(lán)牙協(xié)議規(guī)范(HCI、
    發(fā)表于 11-24 16:06

    阿里云推出企業(yè)級(jí)大模型RAG系統(tǒng)

    在國(guó)際AI大數(shù)據(jù)峰會(huì)上,阿里云重磅推出了企業(yè)級(jí)大模型檢索增強(qiáng)生成(RAG)解決方案。這一解決方案旨在為企業(yè)提供更強(qiáng)大、更智能的大模型應(yīng)用工具
    的頭像 發(fā)表于 02-05 09:54 ?1744次閱讀

    AI網(wǎng)絡(luò)發(fā)展的四大核心技術(shù)支柱

    AI模型時(shí)代,隨著模型參數(shù)量與訓(xùn)練集規(guī)模的爆炸性增長(zhǎng),單純依賴GPU單體算力的提升已難以滿足需求,業(yè)界焦點(diǎn)逐漸轉(zhuǎn)向系統(tǒng)架構(gòu)層面的革新,其中,作為底層核心技術(shù)的網(wǎng)絡(luò)成為了突破的關(guān)鍵。
    的頭像 發(fā)表于 08-14 17:11 ?2230次閱讀