18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人的大腦和自監(jiān)督學(xué)習(xí)模型的相似度有多高?

OpenCV學(xué)堂 ? 來源:新智元 ? 作者:新智元 ? 2022-08-19 09:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導(dǎo)讀】人的大腦和自監(jiān)督學(xué)習(xí)模型的相似度有多高?

我們都知道,人類的大腦90%都是自監(jiān)督學(xué)習(xí)的,生物會不斷對下一步發(fā)生的事情做出預(yù)測。

自監(jiān)督學(xué)習(xí),就是不需要外部干預(yù)也能做出決策。

只有少數(shù)情況我們會接受外部反饋,比如老師說:「你搞錯了」。

而現(xiàn)在有學(xué)者發(fā)現(xiàn),大型語言模型的自監(jiān)督學(xué)習(xí)機制,像極了我們的大腦。

知名科普媒體Quanta Magazine近日報道,越來越多的研究發(fā)現(xiàn),自監(jiān)督學(xué)習(xí)模型,尤其是大型語言模型的自學(xué)方式,與我們的大腦的學(xué)習(xí)模式非常類似。

cf1e76c0-1f09-11ed-ba43-dac502259ad0.png

過去常見的AI系統(tǒng)都是使用大量標記數(shù)據(jù)進行訓(xùn)練的。

例如,圖像可能被標記為「虎斑貓」或「虎貓」,用以訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)來正確區(qū)分虎斑和虎。

cf336a6c-1f09-11ed-ba43-dac502259ad0.png

這種「自監(jiān)督」訓(xùn)練需要人工費力地標記數(shù)據(jù),而神經(jīng)網(wǎng)絡(luò)通常會走捷徑,學(xué)習(xí)將標簽與最少、有時甚至是膚淺的信息聯(lián)系起來。

例如,神經(jīng)網(wǎng)絡(luò)可能會使用草的存在來識別奶牛的照片,因為奶牛通常是在田野中拍攝的。

加州大學(xué)伯克利分校的計算機科學(xué)家阿列克謝·埃弗羅斯 (Alexei Efros) 說:

我們正在培養(yǎng)的算法,就像是一整個學(xué)期都沒來上課的本科生,雖然他們并沒有系統(tǒng)學(xué)習(xí)這些材料,但他們在考試中表現(xiàn)出色。

此外,對于對動物智能和機器智能的交叉感興趣的研究人員來說,這種「監(jiān)督學(xué)習(xí)」可能僅限于它對生物大腦的揭示。

許多動物,包括人類不使用標記數(shù)據(jù)集來學(xué)習(xí)。在大多數(shù)情況下,他們自己探索環(huán)境,并且通過這樣做,他們對世界獲得了豐富而深刻的理解。

現(xiàn)在,一些計算神經(jīng)科學(xué)家已經(jīng)開始探索使用很少或沒有人工標記數(shù)據(jù)進行訓(xùn)練的神經(jīng)網(wǎng)絡(luò)。

最近的研究結(jié)果表明,使用自我監(jiān)督學(xué)習(xí)模型構(gòu)建的動物視覺和聽覺系統(tǒng)的計算模型比監(jiān)督學(xué)習(xí)模型更接近大腦功能。

對一些神經(jīng)科學(xué)家來說,人工神經(jīng)網(wǎng)絡(luò)似乎開始揭示用大腦來類比機器學(xué)習(xí)的途徑。

有缺陷的監(jiān)督

大約10年前,受人工神經(jīng)網(wǎng)絡(luò)啟發(fā)的大腦模型開始出現(xiàn),同時一個名為AlexNet的神經(jīng)網(wǎng)絡(luò)徹底改變了對未知圖像進行分類的任務(wù)。

cf4c75de-1f09-11ed-ba43-dac502259ad0.png

這項成果在Alex Krizhevsky、Ilya Sutskever和Geoffrey E. Hinton 的論文「ImageNet Classification with Deep Convolutional Neural Networks」中發(fā)表。

cf5ed044-1f09-11ed-ba43-dac502259ad0.png

論文地址:https://dl.acm.org/doi/10.1145/3065386

與所有神經(jīng)網(wǎng)絡(luò)一樣,該網(wǎng)絡(luò)由多層人工神經(jīng)元組成,其中不同神經(jīng)元之間連接的權(quán)重不同。

如果神經(jīng)網(wǎng)絡(luò)未能正確分類圖像,學(xué)習(xí)算法會更新神經(jīng)元之間連接的權(quán)重,以降低在下一輪訓(xùn)練中錯誤分類的可能性。

該算法重復(fù)此過程多次,調(diào)整權(quán)重,直到網(wǎng)絡(luò)的錯誤率低到可以接受的程度。

之后,神經(jīng)科學(xué)家使用AlexNet開發(fā)了第一個靈長類視覺系統(tǒng)(Primate Visual System)的計算模型。

cf70fd50-1f09-11ed-ba43-dac502259ad0.png

當猴子和人工神經(jīng)網(wǎng)絡(luò)顯示相同的圖像時,真實神經(jīng)元和人工神經(jīng)元的活動顯示出類似的反應(yīng)。

在聽覺和氣味檢測的人工模型上也取得了相似的結(jié)果。

但隨著該領(lǐng)域的發(fā)展,研究人員意識到自監(jiān)督訓(xùn)練的局限性。

2017年,德國蒂賓根大學(xué)的計算機科學(xué)家Leon Gatys和他的同事拍攝了一張福特T型車的照片,然后在照片上覆蓋了豹皮圖案。

人工智能神經(jīng)網(wǎng)絡(luò)將原始圖像正確分類為Model T,但將修改后的圖像視為豹子。

原因是它只專注于圖像紋理,不了解汽車(或豹子)的形狀。

自監(jiān)督學(xué)習(xí)模型旨在避免此類問題。

瑞士巴塞爾弗里德里?!っ仔獱柹镝t(yī)學(xué)研究所的計算神經(jīng)科學(xué)家弗里德曼·岑克 (Friedemann Zenke) 說,

在這種方法中,人類不會標記數(shù)據(jù),相反,標簽來自數(shù)據(jù)本身。自監(jiān)督算法本質(zhì)上是在數(shù)據(jù)中創(chuàng)建空白,并要求神經(jīng)網(wǎng)絡(luò)填補空白。

例如,在所謂的大型語言模型中,訓(xùn)練算法將向神經(jīng)網(wǎng)絡(luò)顯示句子的前幾個單詞,并要求它預(yù)測下一個單詞。

當使用從互聯(lián)網(wǎng)收集的大量文本進行訓(xùn)練時,該模型似乎可以學(xué)習(xí)語言的句法結(jié)構(gòu),展示出令人印象深刻的語言能力——所有這些都沒有外部標簽或監(jiān)督。

計算機視覺方面也正在進行類似的努力。

2021年底,何愷明及其同事展示了著名的掩碼自動編碼器研究「Masked Auto-Encoder」(MAE)。

cfba4e60-1f09-11ed-ba43-dac502259ad0.png

論文地址:https://arxiv.org/abs/2111.06377

MAE將未掩碼部分轉(zhuǎn)換為潛在表示——壓縮的數(shù)學(xué)描述,其中包含有關(guān)對象的重要信息。

在圖像的情況下,潛在表示可能是一種數(shù)學(xué)描述,其中包括圖像中對象的形狀。然后解碼器將這些表示轉(zhuǎn)換回完整的圖像。

cfcc1604-1f09-11ed-ba43-dac502259ad0.png

大腦也是「自監(jiān)督」的

在這樣的系統(tǒng)中,一些神經(jīng)科學(xué)家認為,我們的大腦實際上也是自監(jiān)督學(xué)習(xí)的。

麥吉爾大學(xué)和魁北克人工智能研究所(Mila)的計算神經(jīng)科學(xué)家布萊克-理查茲(Blake Richards)說:「我認為毫無疑問,大腦所做的90%都是自監(jiān)督學(xué)習(xí)?!?/p>

生物大腦被認為是在不斷地預(yù)測,例如,一個物體在移動時的未來位置,或一句話中的下一個詞,就像自我監(jiān)督學(xué)習(xí)算法試圖預(yù)測圖像或一段文字的間隙一樣。

理查茲和他的團隊創(chuàng)建了一個自監(jiān)督模型,暗示了一個答案。他們訓(xùn)練了一個結(jié)合兩種不同神經(jīng)網(wǎng)絡(luò)的人工智能。

第一個,稱為ResNet架構(gòu),是為處理圖像而設(shè)計的;第二個,稱為遞歸網(wǎng)絡(luò),可以跟蹤先前的輸入序列,對下一個預(yù)期輸入進行預(yù)測。

為了訓(xùn)練聯(lián)合AI,該團隊從一連串的視頻開始,比如說10幀,讓ResNet逐一處理。

然后,遞歸網(wǎng)絡(luò)預(yù)測了第11幀的潛在表示,而不是簡單地匹配前10幀。自監(jiān)督學(xué)習(xí)算法將預(yù)測值與實際值進行比較,并指示神經(jīng)網(wǎng)絡(luò)更新其權(quán)重,以使預(yù)測效果更好。

為了進一步測試,研究人員向AI展示了一組視頻,西雅圖艾倫腦科學(xué)研究所的研究人員以前曾向小鼠展示過這些視頻。與靈長類動物一樣,小鼠的大腦區(qū)域?qū)iT用于靜態(tài)圖像和運動。艾倫研究人員在小鼠觀看視頻時記錄了小鼠視覺皮層的神經(jīng)活動。

理查茲的團隊發(fā)現(xiàn)了AI和活體大腦對視頻的反應(yīng)方式的相似之處。在訓(xùn)練過程中,人工神經(jīng)網(wǎng)絡(luò)中的一條途徑變得與小鼠大腦的腹側(cè)、物體探測區(qū)域更加相似,而另一條途徑則變得與注重運動的背側(cè)區(qū)域相似。

這些結(jié)果表明,我們的視覺系統(tǒng)有兩條專門的通路,因為它們有助于預(yù)測視覺的未來;單一的通路是不夠好的。

人類聽覺系統(tǒng)的模型講述了一個類似的故事。

6月,由Meta AI的研究科學(xué)家Jean-Rémi King領(lǐng)導(dǎo)的團隊訓(xùn)練了一個名為Wav2Vec 2.0的人工智能,它使用一個神經(jīng)網(wǎng)絡(luò)將音頻轉(zhuǎn)化為潛在的表征。研究人員對這些表征中的一些進行了屏蔽,然后將其送入另一個稱為轉(zhuǎn)化器的組件神經(jīng)網(wǎng)絡(luò)。

在訓(xùn)練過程中,轉(zhuǎn)化器預(yù)測被屏蔽的信息。在這個過程中,整個人工智能學(xué)會了將聲音轉(zhuǎn)化為潛在的表征,同樣,不需要標簽。

該團隊使用了大約600小時的語音數(shù)據(jù)來訓(xùn)練網(wǎng)絡(luò)。「這大約是一個孩子在前兩年的經(jīng)驗中得到的東西。」金說。

Meta AI的讓-雷米-金幫助訓(xùn)練了一種人工智能,它以模仿大腦的方式處理音頻--部分是通過預(yù)測下一步應(yīng)該發(fā)生什么

一旦該系統(tǒng)被訓(xùn)練出來,研究人員給它播放英語、法語和普通話的有聲讀物部分,然后將AI的表現(xiàn)與412人的數(shù)據(jù)進行了比較(這些人都是以這三種語言為母語的人),他們在核磁共振掃描對自己的大腦進行成像時,聽了同樣長的一段音頻。

結(jié)果顯示,盡管fMRI圖像有噪音且分辨率不高,但AI神經(jīng)網(wǎng)絡(luò)和人類的大腦「不僅相互關(guān)聯(lián),而且還以系統(tǒng)的方式關(guān)聯(lián)」。

AI早期層的活動與初級聽覺皮層的活動一致,而AI最深層的活動則與大腦中較高層的活動相一致,比如前額葉皮層。

「這是非常漂亮的數(shù)據(jù),雖然算不上是決定性的,但算得上是令人信服的證據(jù),表明我們學(xué)習(xí)語言的方式在很大程度上是在預(yù)測接下來會說的話?!?/p>

有人不同意:模擬大腦?模型、算法都差的遠

當然,也并非所有人都認同這種說法。

MIT的計算神經(jīng)科學(xué)家喬希-麥克德莫特(Josh McDermott)曾使用監(jiān)督和自監(jiān)督學(xué)習(xí)研究視覺和聽覺的模型。他的實驗室設(shè)計了一些人工合成的音頻和視覺信號,對于人類來說,這些信號只是難以捉摸的噪音。

然而,對于人工神經(jīng)網(wǎng)絡(luò)來說,這些信號似乎與真實語言和圖像沒有區(qū)別。這表明,在神經(jīng)網(wǎng)絡(luò)的深層形成的表征,即使是自監(jiān)督學(xué)習(xí),也與我們大腦中的表征不一樣。

麥克德莫特說:「這些自我監(jiān)督的學(xué)習(xí)方法是一種進步,因為你能夠?qū)W習(xí)能夠支持很多識別行為的表征,而不需要所有標簽。但仍然有很多監(jiān)督模型的特征?!?/p>

算法本身也需要更多改進。比如在Meta AI的Wav2Vec 2.0模型中,AI只預(yù)測了幾十毫秒的聲音的潛在表征,比人發(fā)出一個噪音音節(jié)的時間還要短,更不用說預(yù)測一個詞了。

要真正實現(xiàn)讓AI模型和人類大腦相類似,我們還有很多事情要做,金說。

如果目前發(fā)現(xiàn)的大腦和自我監(jiān)督學(xué)習(xí)模型之間的相似性在其他感官任務(wù)中也成立,將更有力地表明,無論我們的大腦有什么神奇的能力,都需要以某種形式進行自監(jiān)督學(xué)習(xí)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37233

    瀏覽量

    292073
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49539

    瀏覽量

    259403
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3618

    瀏覽量

    51549

原文標題:人腦90%都是自監(jiān)督學(xué)習(xí),AI大模型離模擬大腦還有多遠?

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進來呢?

    的基本理論。了解監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)的基本原理。例如,在監(jiān)督學(xué)習(xí)中,理解如何通過標注數(shù)據(jù)來訓(xùn)練模型進行分類或回歸任務(wù),像通過大量的
    發(fā)表于 07-08 17:44

    使用MATLAB進行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標注數(shù)據(jù)進行推斷的機器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?1052次閱讀
    使用MATLAB進行無<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>

    普渡機器接入DeepSeek滿血版模型

    2月20日起,普渡機器正式接入DeepSeek滿血版模型,機器智能語音交互能力迎來智能化升級里程碑!此次升級中,首批搭載該模型的貝拉P
    的頭像 發(fā)表于 02-20 16:50 ?1251次閱讀

    普強深思大模型智能機器重塑企業(yè)高效服務(wù)新范式

    普強深思大模型智能機器研大模型為核心引擎,開創(chuàng)性實現(xiàn)全流程自動化智能服務(wù),為企業(yè)客戶提供三大革新價值。
    的頭像 發(fā)表于 02-18 15:50 ?647次閱讀

    文心大模型將升級并開源

    提供更加高效、智能的服務(wù)。與此同時,百還明確了該系列模型的開源時間,定于6月30日正式對外開放源代碼。這一舉措將有助于推動AI技術(shù)的普及和發(fā)展,為更多開發(fā)者提供學(xué)習(xí)和創(chuàng)新的機會。 值得一提的是,百
    的頭像 發(fā)表于 02-14 14:25 ?649次閱讀

    機器學(xué)習(xí)模型市場前景如何

    當今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計算能力的飛速提升,機器學(xué)習(xí)模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機器學(xué)習(xí)模型市場的未來發(fā)展。
    的頭像 發(fā)表于 02-13 09:39 ?532次閱讀

    智能云四款大模型應(yīng)用完成DeepSeek適配

    智能云在AI大模型應(yīng)用方面取得了新的進展。近日,其旗下的客悅、曦靈、一見、甄知四款大模型應(yīng)用產(chǎn)品已正式上線接入DeepSeek模型的新版本。 此次升級后的產(chǎn)品,將為企業(yè)智能外呼、數(shù)
    的頭像 發(fā)表于 02-10 10:47 ?662次閱讀

    機器大腦+小腦”范式:算力魔方賦能智能自主導(dǎo)航

    ?在機器技術(shù)的發(fā)展中,“大腦+小腦”的架構(gòu)模式逐漸成為推動機器智能化的關(guān)鍵。其中, “大腦”作為機器的核心決策單元,承擔(dān)著復(fù)雜任務(wù)規(guī)劃
    的頭像 發(fā)表于 01-20 13:35 ?798次閱讀

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    重復(fù)項或使用編輯距離算法比較文本相似。數(shù)據(jù)標注:高質(zhì)量的數(shù)據(jù)標注直接影響模型的性能。標注過程應(yīng)遵循明確標注規(guī)則、選擇合適的標注工具、進行多輪審核和質(zhì)量控制等原則。數(shù)據(jù)增強:提高模型
    發(fā)表于 01-14 16:51

    基于移動回歸的時序擴散預(yù)測模型

    在人工智能領(lǐng)域,目前有很多工作采用回歸方法來模擬或是替代擴散模型,其中視覺回歸建模(Visual AutoRegressive modeling,簡稱 VAR)就是其中的典型代表,該工作利用
    的頭像 發(fā)表于 01-03 14:05 ?1487次閱讀
    基于移動<b class='flag-5'>自</b>回歸的時序擴散預(yù)測<b class='flag-5'>模型</b>

    【「具身智能機器系統(tǒng)」閱讀體驗】1.全書概覽與第一章學(xué)習(xí)

    非常感謝電子發(fā)燒友提供的這次書籍測評活動!最近,我一直在學(xué)習(xí)模型和人工智能的相關(guān)知識,深刻體會到機器技術(shù)是一個極具潛力的未來方向,甚至可以說是推動時代變革的重要力量。能參與這次活動并有機會深入
    發(fā)表于 12-27 14:50

    請問LDC1101測量電感的實際精度多高?

    我用LDC1101的評估板做了一個測量電感的裝置,實際精度多高?舉個例子我測得數(shù)據(jù)1.954709uh,實際精度能達到這么高嗎?精度和轉(zhuǎn)換時間有關(guān)系嗎?我設(shè)置轉(zhuǎn)換時間91hz和1455hz,測得uH精度都能達到小數(shù)點6位。這個
    發(fā)表于 12-26 07:59

    《具身智能機器系統(tǒng)》第7-9章閱讀心得之具身智能機器與大模型

    醫(yī)療領(lǐng)域,手術(shù)輔助機器需要毫米級的精確控制,書中有介紹基于視覺伺服的實時控制算法,以及如何利用大模型優(yōu)化手術(shù)路徑規(guī)劃。工業(yè)場景中,協(xié)作機器人面臨的主要挑戰(zhàn)是快速適應(yīng)新工藝流程。具身智能通過在線學(xué)習(xí)
    發(fā)表于 12-24 15:03

    時空引導(dǎo)下的時間序列監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】最近,香港科技大學(xué)、上海AI Lab等多個組織聯(lián)合發(fā)布了一篇時間序列無監(jiān)督預(yù)訓(xùn)練的文章,相比原來的TS2Vec等時間序列表示學(xué)習(xí)工作,核心在于提出了將空間信息融入到預(yù)訓(xùn)練階段,即在預(yù)訓(xùn)練階段
    的頭像 發(fā)表于 11-15 11:41 ?1094次閱讀
    時空引導(dǎo)下的時間序列<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學(xué)習(xí)</b>框架

    深度學(xué)習(xí)模型的魯棒性優(yōu)化

    深度學(xué)習(xí)模型的魯棒性優(yōu)化是一個復(fù)雜但至關(guān)重要的任務(wù),它涉及多個方面的技術(shù)和策略。以下是一些關(guān)鍵的優(yōu)化方法: 一、數(shù)據(jù)預(yù)處理與增強 數(shù)據(jù)清洗 :去除數(shù)據(jù)中的噪聲和異常值,這是提高模型魯棒性的基礎(chǔ)步驟
    的頭像 發(fā)表于 11-11 10:25 ?1868次閱讀