18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

騰訊自然語(yǔ)言處理面試問(wèn)題

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:ink ? 2020-11-03 18:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

師兄在騰訊,就讓師兄內(nèi)推了一下騰訊自然語(yǔ)言處理的實(shí)習(xí)。在內(nèi)推前,簡(jiǎn)單把李航的統(tǒng)計(jì)學(xué)習(xí)方法,簡(jiǎn)歷涉及的知識(shí)點(diǎn)都過(guò)了一遍,整理了一下,同時(shí)leetcode刷了大概100題。 準(zhǔn)備過(guò)后就把簡(jiǎn)歷給師兄了。投完簡(jiǎn)歷當(dāng)天下午就收到了騰訊的短信約晚上面試(這也太效率了= =)。下面簡(jiǎn)單記錄一些面試的問(wèn)題(很多問(wèn)題都是項(xiàng)目涉及的知識(shí)點(diǎn),每個(gè)人可能都不一樣)。

一面(技術(shù)面) 基本就是把簡(jiǎn)歷過(guò)了一遍,問(wèn)問(wèn)一些項(xiàng)目上的細(xì)節(jié)。

1、先簡(jiǎn)單自我介紹一下吧。
2、看你之前實(shí)習(xí)過(guò),說(shuō)說(shuō)當(dāng)時(shí)實(shí)習(xí)都做了些啥。
3、介紹一下transformer吧,除了self-attention還知道哪些attention。
4、看你用了反向翻譯,簡(jiǎn)單介紹一下吧,除了這個(gè)還知道哪些數(shù)據(jù)擴(kuò)充的方法嗎,每個(gè)方法有什么區(qū)別?
5、介紹一下R2L-Rerank吧。
6、講一講bert,roberta吧,BPE和word piece有什么區(qū)別?
7、介紹一下FGM。
8、介紹一下Focal loss。
9、python的迭代器和生成器。
10、算法題:打印二叉樹(shù)從右邊看能看到的節(jié)點(diǎn)。 一面還算順利結(jié)束后第二天就接到了二面的電話。

二面(技術(shù)面) 基本也是把項(xiàng)目比賽過(guò)一遍,然后問(wèn)一些細(xì)節(jié)。
1、簡(jiǎn)單介紹一下自己吧。
2、介紹一下AUC吧,和準(zhǔn)確率有啥區(qū)別。
3、介紹一下F-score,Macro-F1和micro-F1有啥區(qū)別。
4、bert如果輸入超過(guò)512怎么辦。
5、那你介紹一下transformer-xl吧。
6、如果你自己訓(xùn)練輸入長(zhǎng)度為1024的bert,使用的顯存會(huì)是原來(lái)的幾倍。
7、你在投的論文做的是什么,介紹一下,看你是用fairseq框架寫(xiě)的,具體修改了哪些模塊。
8、算法題:最長(zhǎng)上升子序列。
9、用過(guò)單機(jī)多卡或者多機(jī)多卡訓(xùn)練嗎?講一講。
10、你有什么要問(wèn)我的嗎? 二面也比較順利,第二天就接到了三面的電話。

三面(技術(shù)面) 我當(dāng)時(shí)看面經(jīng)別人都是兩面,我居然有三面= = ,三面應(yīng)該是一個(gè)leader面的。
1、之前實(shí)習(xí)是負(fù)責(zé)什么的,大概開(kāi)發(fā)的流程是什么樣的。
2、你做的這些項(xiàng)目是偏實(shí)驗(yàn)的的還是有一定的工業(yè)落地的,比如做了一個(gè)網(wǎng)站或者api等。
3、你們平常打比賽的時(shí)候,隊(duì)伍是怎么合作的?
4、你做的項(xiàng)目里的公開(kāi)數(shù)據(jù)集你知道是怎么采集的嗎?它會(huì)不會(huì)有很多臟數(shù)據(jù)?這些臟數(shù)據(jù)對(duì)模型有什么影響?你是怎么處理它們的?
5、有看過(guò)模型的bad case嗎?針對(duì)bad case做了哪些提升?
6、系統(tǒng)地介紹一下你研究的這個(gè)方向。最近你這個(gè)方向效果最好的論文是哪篇?它是怎么做的?
7、你有什么想問(wèn)的嗎?

三面沒(méi)有算法題,感覺(jué)問(wèn)的是一些方法論的東西。答得也還不錯(cuò),沒(méi)過(guò)幾天就接到了HR的電話。 HR面 HR很親切,面試體驗(yàn)很棒,上來(lái)先給我介紹了一下他們部門(mén)的一些發(fā)展歷史和現(xiàn)在的情況,然后了解了一下我的實(shí)驗(yàn)室,實(shí)驗(yàn)室的研究方向,之前的實(shí)習(xí)情況,大概詢問(wèn)了可以入職的時(shí)間。整個(gè)面試下來(lái)感覺(jué)平時(shí)的積累很重要,之后有空了也準(zhǔn)備把之前整理的資料慢慢寫(xiě)成博客。

責(zé)任編輯:xj

原文標(biāo)題:騰訊自然語(yǔ)言處理實(shí)習(xí)面經(jīng)

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 騰訊
    +關(guān)注

    關(guān)注

    7

    文章

    1682

    瀏覽量

    50731
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    629

    瀏覽量

    14517
  • 自然語(yǔ)言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13881

原文標(biāo)題:騰訊自然語(yǔ)言處理實(shí)習(xí)面經(jīng)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何優(yōu)化自然語(yǔ)言處理模型的性能

    優(yōu)化自然語(yǔ)言處理(NLP)模型的性能是一個(gè)多方面的任務(wù),涉及數(shù)據(jù)預(yù)處理、特征工程、模型選擇、模型調(diào)參、模型集成與融合等多個(gè)環(huán)節(jié)。以下是一些具體的優(yōu)化策略: 一、數(shù)據(jù)預(yù)處理優(yōu)化 文本清洗
    的頭像 發(fā)表于 12-05 15:30 ?2192次閱讀

    如何使用自然語(yǔ)言處理分析文本數(shù)據(jù)

    使用自然語(yǔ)言處理(NLP)分析文本數(shù)據(jù)是一個(gè)復(fù)雜但系統(tǒng)的過(guò)程,涉及多個(gè)步驟和技術(shù)。以下是一個(gè)基本的流程,幫助你理解如何使用NLP來(lái)分析文本數(shù)據(jù): 1. 數(shù)據(jù)收集 收集文本數(shù)據(jù) :從各種來(lái)源(如社交
    的頭像 發(fā)表于 12-05 15:27 ?2168次閱讀

    自然語(yǔ)言處理在聊天機(jī)器人中的應(yīng)用

    上歸功于自然語(yǔ)言處理技術(shù)的進(jìn)步。 聊天機(jī)器人的工作原理 聊天機(jī)器人的核心是一個(gè)對(duì)話系統(tǒng),它能夠處理用戶的輸入(通常是文本形式),并生成相應(yīng)的回復(fù)。這個(gè)系統(tǒng)通常包括以下幾個(gè)關(guān)鍵組件: 語(yǔ)言
    的頭像 發(fā)表于 12-05 15:24 ?1593次閱讀

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語(yǔ)言處理的基本概念及步驟

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的一個(gè)分支,它致力于研究如何讓計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。機(jī)器學(xué)習(xí)(Ma
    的頭像 發(fā)表于 12-05 15:21 ?2406次閱讀

    語(yǔ)音識(shí)別與自然語(yǔ)言處理的關(guān)系

    在人工智能的快速發(fā)展中,語(yǔ)音識(shí)別和自然語(yǔ)言處理(NLP)成為了兩個(gè)重要的技術(shù)支柱。語(yǔ)音識(shí)別技術(shù)使得機(jī)器能夠理解人類的語(yǔ)音,而自然語(yǔ)言處理則讓機(jī)器能夠理解、解釋和生成人類
    的頭像 發(fā)表于 11-26 09:21 ?1968次閱讀

    什么是LLM?LLM在自然語(yǔ)言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語(yǔ)言處理(NLP)領(lǐng)域迎來(lái)了革命性的進(jìn)步。其中,大型語(yǔ)言模型(LLM)的出現(xiàn),標(biāo)志著我們對(duì)語(yǔ)言理解能力的一次飛躍。LLM通過(guò)深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得
    的頭像 發(fā)表于 11-19 15:32 ?4266次閱讀

    ASR與自然語(yǔ)言處理的結(jié)合

    ASR(Automatic Speech Recognition,自動(dòng)語(yǔ)音識(shí)別)與自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的兩個(gè)重要分支,它們?cè)谠S多應(yīng)用中緊密結(jié)合,共同構(gòu)成了自然語(yǔ)言理解和生成的技術(shù)體系
    的頭像 發(fā)表于 11-18 15:19 ?1343次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強(qiáng)大的模型,在圖像識(shí)別和語(yǔ)音處理等領(lǐng)域取
    的頭像 發(fā)表于 11-15 14:58 ?1085次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其在處理序列數(shù)據(jù)方面的優(yōu)勢(shì)而在NLP中
    的頭像 發(fā)表于 11-15 09:41 ?1109次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語(yǔ)言處理任務(wù)

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)的出現(xiàn)
    的頭像 發(fā)表于 11-13 09:56 ?1523次閱讀

    自然語(yǔ)言處理的未來(lái)發(fā)展趨勢(shì)

    隨著技術(shù)的進(jìn)步,自然語(yǔ)言處理(NLP)已經(jīng)成為人工智能領(lǐng)域的一個(gè)重要分支。NLP的目標(biāo)是使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言,這不僅涉及到語(yǔ)言的表層形式,還包括
    的頭像 發(fā)表于 11-11 10:37 ?2062次閱讀

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能的快速發(fā)展中,自然語(yǔ)言處理(NLP)和機(jī)器學(xué)習(xí)(ML)成為了兩個(gè)核心的研究領(lǐng)域。它們都致力于解決復(fù)雜的問(wèn)題,但側(cè)重點(diǎn)和應(yīng)用場(chǎng)景有所不同。 1. 自然語(yǔ)言處理(NLP) 定義:
    的頭像 發(fā)表于 11-11 10:35 ?1948次閱讀

    自然語(yǔ)言處理的應(yīng)用實(shí)例

    在當(dāng)今數(shù)字化時(shí)代,自然語(yǔ)言處理(NLP)技術(shù)已經(jīng)成為我們?nèi)粘I畹囊徊糠?。從智能手機(jī)的語(yǔ)音助手到在線客服機(jī)器人,NLP技術(shù)的應(yīng)用無(wú)處不在。 1. 語(yǔ)音識(shí)別與虛擬助手 隨著Siri、Google
    的頭像 發(fā)表于 11-11 10:31 ?1984次閱讀

    使用LLM進(jìn)行自然語(yǔ)言處理的優(yōu)缺點(diǎn)

    自然語(yǔ)言處理(NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的一個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。大型語(yǔ)言模型(LLM)是NLP領(lǐng)域的一
    的頭像 發(fā)表于 11-08 09:27 ?3462次閱讀

    Llama 3 在自然語(yǔ)言處理中的優(yōu)勢(shì)

    自然語(yǔ)言處理(NLP)的快速發(fā)展中,我們見(jiàn)證了從基于規(guī)則的系統(tǒng)到基于機(jī)器學(xué)習(xí)的模型的轉(zhuǎn)變。隨著深度學(xué)習(xí)技術(shù)的興起,NLP領(lǐng)域迎來(lái)了新的突破。Llama 3,作為一個(gè)假設(shè)的先進(jìn)NLP模型,代表了這一
    的頭像 發(fā)表于 10-27 14:22 ?1001次閱讀