18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI最新突破性進展:語言模型可以解釋語言模型中的神經(jīng)元

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-05-12 11:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大家好,我是zenRRan。

OpenAI在昨天發(fā)布了一篇論文:《Language models can explain neurons in language models》,可謂是深度學習可解釋性又向前邁了一大步!誰又能想到,使用GPT-4來解釋模型的可解釋性,用魔法打敗魔法,666。

e77cb674-ef0f-11ed-90ce-dac502259ad0.png

大致內(nèi)容

使用 GPT-4 自動編寫大型語言模型中神經(jīng)元行為的解釋,并對這些解釋進行打分,并為 GPT-2 中的每個神經(jīng)元發(fā)布了這些(不完美的)解釋和分數(shù)的數(shù)據(jù)集。

介紹一下

語言模型變得更強大,部署更廣泛,但我們對它們內(nèi)部工作原理的理解仍然非常有限。例如,可能很難從它們的輸出中檢測到它們是使用有偏見的啟發(fā)式方法還是進行胡編亂造。可解釋性研究旨在通過查看模型內(nèi)部來發(fā)現(xiàn)更多信息。

可解釋性研究的一種簡單方法是首先了解各個組件(神經(jīng)元和注意力頭)在做什么。傳統(tǒng)上,這需要人類手動檢查神經(jīng)元,以確定它們代表數(shù)據(jù)的哪些特征。這個過程不能很好地擴展:很難將它應用于具有數(shù)百或數(shù)千億個參數(shù)的神經(jīng)網(wǎng)絡。OpenAI提出了一個自動化過程,該過程使用 GPT-4 來生成神經(jīng)元行為的自然語言解釋并對其進行評分,并將其應用于另一種語言模型中的神經(jīng)元。

這項工作是對齊研究方法的第三個支柱的一部分:希望使對齊研究工作本身自動化。這種方法的一個有前途的方面是它可以隨著人工智能發(fā)展的步伐而擴展。隨著未來的模型作為助手變得越來越智能和有用,我們會找到更好的解釋。

具體如何工作的呢

他們的方法包括在每個神經(jīng)元上運行 3 個步驟。

第 1 步:使用 GPT-4 生成解釋

給定一個 GPT-2 神經(jīng)元,通過向 GPT-4 顯示相關文本序列和激活來生成對其行為的解釋。

OpenAI一共舉了12個例子,這里我就隨便拿出幾個代表性的吧。

e793c9ae-ef0f-11ed-90ce-dac502259ad0.png

漫威漫畫的氛圍

模型生成的解釋:參考自電影、角色和娛樂。

e7bea372-ef0f-11ed-90ce-dac502259ad0.png

similes,相似

模型生成的解釋:比較和類比,常用“喜歡(like)”這個詞。

e7d9db4c-ef0f-11ed-90ce-dac502259ad0.png

shared last names,姓氏

模型生成的解釋:姓氏,它們一般跟在名字后面。

第 2 步:使用 GPT-4 進行模擬

再次使用 GPT-4 模擬為解釋而激活的神經(jīng)元會做什么。

e7f7708a-ef0f-11ed-90ce-dac502259ad0.png

漫威漫畫的氛圍

第 3 步:比較

根據(jù)模擬激活與真實激活的匹配程度對解釋進行評分

e8209794-ef0f-11ed-90ce-dac502259ad0.png

舉例:漫威漫畫的氛圍

e849ba66-ef0f-11ed-90ce-dac502259ad0.png

舉例:漫威漫畫的氛圍

最終得出比較的分數(shù)為:0.34

發(fā)現(xiàn)了什么

使用OpenAI自己的評分方法,可以開始衡量技術對網(wǎng)絡不同部分的工作情況,并嘗試改進目前解釋不力的部分的技術。例如,我們的技術對于較大的模型效果不佳,可能是因為后面的層更難解釋。

e86d1420-ef0f-11ed-90ce-dac502259ad0.png

正在解釋的模型中的參數(shù)量

盡管我們的絕大多數(shù)解釋得分很低,但我們相信我們現(xiàn)在可以使用 ML 技術來進一步提高我們產(chǎn)生解釋的能力。例如,我們發(fā)現(xiàn)我們可以通過以下方式提高分數(shù):

迭代解釋。我們可以通過要求 GPT-4 提出可能的反例,然后根據(jù)它們的激活修改解釋來提高分數(shù)。

使用更大的模型來給出解釋。隨著解釋器模型能力的提高,平均分數(shù)也會上升。然而,即使是 GPT-4 也給出了比人類更差的解釋,這表明還有改進的余地。

更改已解釋模型的架構。具有不同激活函數(shù)的訓練模型提高了解釋分數(shù)。

我們正在開源我們的數(shù)據(jù)集和可視化工具,用于 GPT-4 對 GPT-2 中所有 307,200 個神經(jīng)元的書面解釋,以及使用 OpenAI API 上公開可用的模型[1]進行解釋和評分的代碼。我們希望研究界能夠開發(fā)新技術來生成更高分的解釋,并開發(fā)更好的工具來使用解釋來探索 GPT-2。

我們發(fā)現(xiàn)超過 1,000 個神經(jīng)元的解釋得分至少為 0.8,這意味著根據(jù) GPT-4,它們解釋了神經(jīng)元的大部分頂級激活行為。大多數(shù)這些很好解釋的神經(jīng)元都不是很有趣。然而,也發(fā)現(xiàn)了許多 GPT-4 不理解的有趣神經(jīng)元。希望隨著解釋的改進,能夠快速發(fā)現(xiàn)對模型計算的有趣的定性理解。

神經(jīng)元跨層激活,更高的層更抽象:

e87e391c-ef0f-11ed-90ce-dac502259ad0.png

以Kat舉例

展望

我們的方法目前有很多局限性[2],我們希望在未來的工作中能夠解決這些問題。

我們專注于簡短的自然語言解釋,但神經(jīng)元可能具有非常復雜的行為,無法簡潔地描述。例如,神經(jīng)元可以是高度多義的(代表許多不同的概念),或者可以代表人類不理解或無法用語言表達的單一概念。

我們希望最終自動找到并解釋實現(xiàn)復雜行為的整個神經(jīng)回路,神經(jīng)元和注意力頭一起工作。我們當前的方法僅將神經(jīng)元行為解釋為原始文本輸入的函數(shù),而沒有說明其下游影響。例如,一個在句號上激活的神經(jīng)元可以指示下一個單詞應該以大寫字母開頭,或者遞增一個句子計數(shù)器。

我們解釋了神經(jīng)元的行為,但沒有試圖解釋產(chǎn)生這種行為的機制。這意味著即使是高分解釋也可能在分布外的文本上表現(xiàn)很差,因為它們只是描述了相關性。

我們的整個過程是計算密集型的。

我們對我們方法的擴展和推廣感到興奮。最終,我們希望使用模型來形成、測試和迭代完全通用的假設,就像可解釋性研究人員所做的那樣。

最終,OpenAI希望將最大的模型解釋為一種在部署前后檢測對齊和安全問題的方法。然而,在這些技術能夠使不誠實等行為浮出水面之前,我們還有很長的路要走。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)元

    關注

    1

    文章

    368

    瀏覽量

    19063
  • 語言模型
    +關注

    關注

    0

    文章

    567

    瀏覽量

    11222
  • OpenAI
    +關注

    關注

    9

    文章

    1235

    瀏覽量

    9713

原文標題:OpenAI最新突破性進展:語言模型可以解釋語言模型中的神經(jīng)元

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    脈沖神經(jīng)元模型的硬件實現(xiàn)

    息電位 vrest。 LIF神經(jīng)元模型在生物可解釋性上低于其他模型,只體現(xiàn)了神經(jīng)元計算的關鍵特性,并不能夠解釋真實
    發(fā)表于 10-24 08:27

    SNN加速器內(nèi)部神經(jīng)元數(shù)據(jù)連接方式

    的數(shù)量級,而且生物軸突的延遲和神經(jīng)元的時間常數(shù)比數(shù)字電路的傳播和轉換延遲要大得多,AER 的工作方式和神經(jīng)網(wǎng)絡的特點相吻合,所以受生物啟發(fā)的神經(jīng)形態(tài)處理器的NoC或SNN加速器通常使
    發(fā)表于 10-24 07:34

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經(jīng)形態(tài)計算、類腦芯片

    。是實現(xiàn)類腦芯片的基本模型。SNN神經(jīng)元通過短的電脈沖相互溝通,脈沖之間的時間間隔起著重要作用。 最有利于硬件實現(xiàn)的脈沖神經(jīng)元模型是“漏電整合-激發(fā)”
    發(fā)表于 09-17 16:43

    無刷直流電機單神經(jīng)元自適應智能控制系統(tǒng)

    常規(guī)PID,大大提高了系統(tǒng)的跟隨,能滿足BLDCM系統(tǒng)對實時的要求。 純分享帖,點擊下方附件免費獲取完整資料~~~ *附件:無刷直流電機單神經(jīng)元自適應智能控制系統(tǒng).pdf 【免責聲明】本文系網(wǎng)絡轉載,版權歸原作者所有。本文所
    發(fā)表于 06-26 13:36

    無刷直流電機單神經(jīng)元PI控制器的設計

    摘要:研究了一種基于專家系統(tǒng)的單神經(jīng)元PI控制器,并將其應用于無刷直流電機調(diào)速系統(tǒng)??刂破鲗崿F(xiàn)了PI參數(shù)的在線調(diào)整,在具有PID控制器良好動態(tài)性能的同時,減少微分項對系統(tǒng)穩(wěn)態(tài)運行時的影響,并較好
    發(fā)表于 06-26 13:34

    模型領域常用名詞解釋(近100個)

    本文總結了大模型領域常用的近100個名詞解釋,并按照模型架構與基礎概念,訓練方法與技術,模型優(yōu)化與壓縮,推理與應用,計算與性能優(yōu)化,數(shù)據(jù)與標簽,模型
    的頭像 發(fā)表于 02-19 11:49 ?1148次閱讀
    大<b class='flag-5'>模型</b>領域常用名詞<b class='flag-5'>解釋</b>(近100個)

    語言模型的解碼策略與關鍵優(yōu)化總結

    本文系統(tǒng)性地闡述了大型語言模型(LargeLanguageModels,LLMs)的解碼策略技術原理及其實踐應用。通過深入分析各類解碼算法的工作機制、性能特征和優(yōu)化方法,為研究者和工程師提供了全面
    的頭像 發(fā)表于 02-18 12:00 ?938次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的解碼策略與關鍵優(yōu)化總結

    語言模型管理的作用

    要充分發(fā)揮語言模型的潛力,有效的語言模型管理非常重要。以下,是對語言模型管理作用的分析,由AI部
    的頭像 發(fā)表于 01-02 11:06 ?525次閱讀

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-06 10:28 ?732次閱讀

    語言模型開發(fā)語言是什么

    在人工智能領域,大語言模型(Large Language Models, LLMs)背后,離不開高效的開發(fā)語言和工具的支持。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-04 11:44 ?949次閱讀

    Orange與OpenAI、Meta合作開發(fā)非洲語言AI大模型

    OpenAI和Meta將攜手法國電信運營商Orange SA,共同開發(fā)針對非洲語言的人工智能大模型。該項目旨在解決非洲大陸數(shù)千種方言模型短缺的問題,計劃于明年上半年正式啟動。
    的頭像 發(fā)表于 12-02 11:00 ?828次閱讀

    云端語言模型開發(fā)方法

    云端語言模型的開發(fā)是一個復雜而系統(tǒng)的過程,涉及數(shù)據(jù)準備、模型選擇、訓練優(yōu)化、部署應用等多個環(huán)節(jié)。下面,AI部落小編為您分享云端語言模型的開發(fā)
    的頭像 發(fā)表于 12-02 10:48 ?857次閱讀

    全新NVIDIA NIM微服務實現(xiàn)突破性進展

    全新 NVIDIA NIM 微服務實現(xiàn)突破性進展,可助力氣象技術公司開發(fā)和部署 AI 模型,實現(xiàn)對降雪、結冰和冰雹的預測。
    的頭像 發(fā)表于 11-21 10:07 ?910次閱讀

    循環(huán)神經(jīng)網(wǎng)絡在自然語言處理的應用

    自然語言處理(NLP)是人工智能領域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(RNN)因其在處理序列數(shù)據(jù)方面的優(yōu)勢而在NLP
    的頭像 發(fā)表于 11-15 09:41 ?1112次閱讀

    語言模型如何開發(fā)

    語言模型的開發(fā)是一個復雜且細致的過程,涵蓋了數(shù)據(jù)準備、模型架構設計、訓練、微調(diào)和部署等多個階段。以下是對大語言模型開發(fā)步驟的介紹,由AI部
    的頭像 發(fā)表于 11-04 10:14 ?838次閱讀