18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT plus有什么功能?OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能

技術(shù)程序猿華鋒 ? 來源:jf_32321025 ? 作者:jf_32321025 ? 2023-12-13 09:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能分析解答

在最近的OpenAI DevDay上,該組織發(fā)布了一項(xiàng)備受期待的公告:推出GPT-4 Turbo,這是對(duì)其突破性AI模型的改進(jìn)。在這里,我們?nèi)媪私釭PT-4 Turbo是什么、它的主要功能以及它如何使開發(fā)人員和用戶受益。

了解 OpenAI 的最新更新、具有視覺功能的 GPT-4 Turbo 及其主要功能,包括改進(jìn)的知識(shí)截止、擴(kuò)展的上下文窗口、預(yù)算友好的定價(jià)等。

什么是GPT-4 Turbo?

GPT-4 Turbo是現(xiàn)有GPT-4大語言模型的更新。它帶來了一些改進(jìn),包括大大增加的上下文窗口和對(duì)更多最新知識(shí)的訪問。OpenAI逐漸改進(jìn)ChatGPT中GPT-4的功能,添加了自定義指令、ChatGPT插件、DALL-E 3和高級(jí)數(shù)據(jù)分析。此最新更新帶來了許多令人興奮的新功能。

什么是GPT-4 Turbo With Vision?

具有視覺功能的GPT-4 Turbo是GPT-4 Turbo的變體,包含光學(xué)字符識(shí)別(OCR)功能。也就是說,您可以向它提供圖像,它可以返回圖像中包含的任何文本。例如,您可以輸入菜單的照片,它將返回該照片中寫入的食物選擇。同樣,您可以提供發(fā)票照片并自動(dòng)提取供應(yīng)商名稱和商品詳細(xì)信息。

ChatGPT默認(rèn)提供“with Vision”功能,開發(fā)人員可以通過在OpenAI API中選擇“gpt-4-vision”模型來使用。

GPT-4 Turbo主要特性

GPT-4 Turbo與之前的型號(hào)相比有多項(xiàng)改進(jìn),增強(qiáng)了其功能。以下是使其脫穎而出的一些關(guān)鍵功能:

改進(jìn)知識(shí)截止

wKgZomV4MfiAStCQAAE7saIRtao133.pngSam Altman承諾確保ChatGPT保持最新狀態(tài)

GPT-3.5和GPT-4的現(xiàn)有版本的知識(shí)截止日期為2021年9月。這意味著它們無法回答有關(guān)該時(shí)間之后發(fā)生的現(xiàn)實(shí)世界事件的問題,除非獲得外部數(shù)據(jù)源的訪問權(quán)限。

GPT-4將知識(shí)截止時(shí)間延長了19個(gè)月,至2023年4月。這意味著GPT-4 Turbo可以訪問截至該日期的信息和事件,使其成為更明智、更可靠的信息來源。此外,OpenAI的首席執(zhí)行官Sam Altman承諾“[OpenAI]將努力永遠(yuǎn)不會(huì)讓[GPT]再次過時(shí)。”

128K上下文窗口

大型語言模型(LLM)的上下文窗口是衡量其對(duì)話記憶持續(xù)時(shí)間的指標(biāo)。如果模型的上下文窗口包含4,000個(gè)令牌(約3,000個(gè)單詞),則聊天中超過4,000個(gè)令牌之前的所有內(nèi)容都會(huì)被忽略,并且響應(yīng)可能會(huì)變得不太準(zhǔn)確,甚至與之前的響應(yīng)相矛盾。對(duì)于處理較長的文檔或進(jìn)行長時(shí)間對(duì)話的聊天機(jī)器人來說,這是一個(gè)問題。

GPT-4的最大上下文長度為32k(32,000)個(gè)令牌。GPT-4 Turbo將其增加到128k令牌(大約240頁,每頁400個(gè)字)。這超過了Anthropic的Claude 2模型的100k最大上下文,并使其與Nous Research的YARN-MISTRAL-7b-128k模型保持一致。

較長的上下文窗口是否會(huì)導(dǎo)致整個(gè)窗口的響應(yīng)性能令人滿意,還有待觀察。斯坦福大學(xué)最近的研究表明,現(xiàn)有的長上下文模型只能在從文檔開頭或結(jié)尾附近檢索信息時(shí)提供準(zhǔn)確的響應(yīng)。

還值得注意的是,128k似乎只是實(shí)現(xiàn)“無限上下文”夢(mèng)想的墊腳石。微軟和西安交通大學(xué)的早期研究旨在將法學(xué)碩士規(guī)模擴(kuò)大到十億個(gè)代幣的背景。

GPT開始發(fā)售

OpenAI響應(yīng)了LLM市場(chǎng)日益激烈的競(jìng)爭(zhēng),并降低了GPT-4 Turbo的價(jià)格,以便為開發(fā)人員提供經(jīng)濟(jì)實(shí)惠的價(jià)格。使用OpenAI API時(shí),GPT-4 Turbo輸入代幣價(jià)格現(xiàn)在是之前價(jià)格的三分之一,從每1000個(gè)代幣3美分降至1美分。產(chǎn)出的代幣現(xiàn)在是半價(jià),從每1000個(gè)代幣6美分降至3美分。

GPT-3.5 Turbo模型也延續(xù)了同樣的趨勢(shì),以每1000個(gè)代幣0.1美分的價(jià)格提供了3倍便宜的輸入代幣,以每1000個(gè)代幣0.2美分的價(jià)格提供了2倍便宜的輸出代幣。

此外,經(jīng)過微調(diào)的GPT-3.5 Turbo 4K模型輸入代幣現(xiàn)在價(jià)格便宜4倍,價(jià)格從每1000個(gè)代幣1.2美分降至0.3美分,輸出代幣便宜2.7倍,從每1.6美分降至0.6美分每1000個(gè)代幣為美分。培訓(xùn)價(jià)格保持不變,為每1000個(gè)代幣0.8美分。

這些價(jià)格調(diào)整旨在使先進(jìn)的人工智能模型對(duì)開發(fā)者來說更??具成本效益。

GPT走向多模式:圖像提示和文本轉(zhuǎn)語音

“GPT-4 Turbo with Vision”宣布即將推出。您很快就可以通過直接在聊天框中輸入圖像作為提示來提示GPT-4 Turbo。然后,該工具將能夠生成標(biāo)題或提供圖像所描繪內(nèi)容的描述。它還將處理文本到語音的請(qǐng)求。

函數(shù)調(diào)用更新

函數(shù)調(diào)用是開發(fā)人員將生成式人工智能融入其應(yīng)用程序的一項(xiàng)功能。它使他們能夠向GPT-4 Turbo描述其應(yīng)用程序的功能或外部API。由于能夠在一條消息中調(diào)用多個(gè)函數(shù),此功能簡(jiǎn)化了與模型的交互。例如,用戶可以發(fā)送一條請(qǐng)求多個(gè)操作的消息,從而無需與模型進(jìn)行多次來回交互。

如何訪問GPT-4 Turbo

“所有付費(fèi)開發(fā)人員”都可以訪問GPT-4 Turbo,這意味著如果您具有API訪問權(quán)限,則只需在OpenAI API中傳遞“gpt-4-1106-preview”作為模型名稱即可。同樣,對(duì)于具有視覺功能的GPT-4 Turbo,您可以傳遞“gpt-4-vision-preview”作為模型名稱。

請(qǐng)注意,這些預(yù)覽模型尚未被認(rèn)為適合生產(chǎn)使用。然而,作為公告的一部分,Altman還承諾將在未來幾周內(nèi)推出可投入生產(chǎn)的版本。

對(duì)于非開發(fā)人員來說,GPT-4 Turbo可能會(huì)在未來幾周內(nèi)向ChatGPT Plus和ChatGPT Enterprise用戶提供。

速率限制

通過OpenAI API訪問GPt模型的速率受到限制。也就是說,您每月只能向API發(fā)出有限數(shù)量的請(qǐng)求。OpenAI現(xiàn)已發(fā)布關(guān)于速率限制如何運(yùn)作的更清晰指南,因此您的應(yīng)用程序不會(huì)意外被切斷。

此外,GPT-4的速率限制增加了一倍

由于GPT-4 Turbo目前處于預(yù)覽階段,因此GPT-4 Turbo的速率限制設(shè)置為每分鐘20個(gè)請(qǐng)求和每天100個(gè)請(qǐng)求。OpenAI已表示,他們目前不會(huì)適應(yīng)此模型的速率限制增加。然而,一旦公開版本可用,他們很可能會(huì)這樣做。

最后的思考

GPT-4 Turbo的發(fā)布為生成式AI的未來提供了令人興奮的一瞥,我們迫不及待地想掌握它。對(duì)于那些尋求更深入了解的人,我們關(guān)于在OpenAI API使用GPT-3.5和GPT-4的教程有很多值得探索的地方。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37213

    瀏覽量

    292015
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1235

    瀏覽量

    9712
  • ChatGPT
    +關(guān)注

    關(guān)注

    30

    文章

    1595

    瀏覽量

    9941
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價(jià)向美國政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語言模型GPT-5或?qū)?b class='flag-5'>發(fā)布。據(jù)外媒的報(bào)道,GPT-5很可能在周五凌晨發(fā)布。這是
    的頭像 發(fā)表于 08-07 14:13 ?5993次閱讀

    OpenAI簡(jiǎn)化大模型選擇:薩姆·奧特曼制定路線圖

    前的技術(shù)環(huán)境下,大模型被廣泛應(yīng)用于各種聊天機(jī)器人中,其中OpenAIChatGPT就是一個(gè)典型的例子。然而,對(duì)于大多數(shù)用戶來說,選擇最適合自己需求的AI模型卻并非易事。OpenAI目前
    的頭像 發(fā)表于 02-18 09:12 ?669次閱讀

    ChatGPT Plus 2025新功能搶先看:如何訂閱與使用全攻略

    的交互 ChatGPT Plus作為付費(fèi)訂閱服務(wù),提供了一系列增強(qiáng)功能和優(yōu)勢(shì),讓用戶體驗(yàn)更上一層樓: 更強(qiáng)模型驅(qū)動(dòng) (GPT-4及更高版本): ?訂閱用戶可訪問性能更強(qiáng)、回答更準(zhǔn)確、對(duì)
    的頭像 發(fā)表于 02-13 19:59 ?1798次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    GPT-4.5將在未來幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術(shù)上進(jìn)行了諸多優(yōu)化和升級(jí),旨在為用戶提供更加精準(zhǔn)、高效的AI服務(wù)。 而在GPT-4
    的頭像 發(fā)表于 02-13 13:43 ?921次閱讀

    OpenAI即將推出GPT-5模型

    先進(jìn)技術(shù),其中包括備受矚目的o3工具。通過整合這些技術(shù),GPT-5模型將實(shí)現(xiàn)更加強(qiáng)大的功能和性能。 值得一提的是,GPT-5模型將被廣泛應(yīng)用于OpenAI的聊天機(jī)器人
    的頭像 發(fā)表于 02-13 11:21 ?824次閱讀

    OpenAI免費(fèi)開放ChatGPT搜索功能

    近日,OpenAI宣布了一項(xiàng)重大決策:向所有用戶免費(fèi)開放ChatGPT搜索功能。這一舉措無疑將為用戶帶來更加高效、智能的搜索體驗(yàn)。 與谷歌等傳統(tǒng)搜索引擎的收錄模式相比,ChatGPT
    的頭像 發(fā)表于 02-06 14:35 ?717次閱讀

    OpenAI更新macOS ChatGPT應(yīng)用,推出“代理”功能實(shí)現(xiàn)無縫集成

    OpenAI近日宣布,針對(duì)macOS平臺(tái)的ChatGPT應(yīng)用程序迎來重大更新,此次更新引入了與多種筆記和編碼應(yīng)用程序的無縫集成功能,極大地提升了用戶體驗(yàn)和工作效率。 此次更新的核心亮點(diǎn)在于“代理
    的頭像 發(fā)表于 01-02 10:49 ?867次閱讀

    OpenAI桌面版ChatGPT新增應(yīng)用協(xié)作功能

    近日,OpenAI宣布了一項(xiàng)重要更新,為桌面版ChatGPT推出了“與應(yīng)用協(xié)作”(Work With Apps)功能。這一新功能旨在支持原生應(yīng)用程序的自動(dòng)化協(xié)作,為用戶帶來更加高效和便
    的頭像 發(fā)表于 12-23 10:52 ?857次閱讀

    ChatGPT新增實(shí)時(shí)搜索與高級(jí)語音功能

    OpenAI的第八天技術(shù)分享直播中,ChatGPT的搜索功能迎來了重大更新。此次更新不僅豐富了ChatGPT功能體系,更提升了其實(shí)用性和
    的頭像 發(fā)表于 12-17 14:08 ?854次閱讀

    OpenAI發(fā)布滿血版ChatGPT Pro

    ,OpenAI已經(jīng)向所有ChatGPT Plus、Team及Pro用戶開放了對(duì)o1模型的完整訪問權(quán)限。同時(shí),公司還推出了ChatGPT Pro訂閱服務(wù),月費(fèi)為200美元。訂閱用戶將能夠
    的頭像 發(fā)表于 12-06 11:10 ?1033次閱讀

    OpenAI推出ChatGPT搜索功能

    近日,OpenAI再次邁出了重要的一步,為其廣受好評(píng)的ChatGPT平臺(tái)添加了一項(xiàng)全新的搜索功能。 據(jù)悉,這項(xiàng)被命名為“ChatGPT搜索”的新功能
    的頭像 發(fā)表于 11-04 10:34 ?840次閱讀

    OpenAIChatGPT增添搜索功能

    近日,OpenAI宣布為其旗艦產(chǎn)品ChatGPT增添全新的搜索功能,此舉標(biāo)志著該公司對(duì)Alphabet旗下谷歌的直接挑戰(zhàn)進(jìn)一步升級(jí)。OpenAI周四正式揭曉了這一名為“
    的頭像 發(fā)表于 11-01 17:01 ?905次閱讀

    解鎖 GPT-4o!2024 ChatGPT Plus 代升級(jí)全攻略(附國內(nèi)支付方法)

    ChatGPT Plus 每月 20 美元,OpenAI 承諾 Plus 用戶享有更快的響應(yīng)速度、優(yōu)先使用新功能及最新模型,包括強(qiáng)大的
    的頭像 發(fā)表于 10-29 18:17 ?3448次閱讀

    訊飛星火大模型4.0 Turbo正式發(fā)布

    近日,2024科大訊飛全球1024開發(fā)者節(jié)正式開幕。在數(shù)千名行業(yè)領(lǐng)袖、專家學(xué)者與開發(fā)者的共同見證下,訊飛星火大模型4.0 Turbo正式發(fā)布。七大核心能力全面超過GPT-4 Turbo
    的頭像 發(fā)表于 10-27 15:47 ?1345次閱讀

    Llama 3 與 GPT-4 比較

    隨著人工智能技術(shù)的飛速發(fā)展,我們見證了一代又一代的AI模型不斷突破界限,為各行各業(yè)帶來革命性的變化。在這場(chǎng)技術(shù)競(jìng)賽中,Llama 3和GPT-4作為兩個(gè)備受矚目的模型,它們代表了當(dāng)前AI領(lǐng)域的最前
    的頭像 發(fā)表于 10-27 14:17 ?1502次閱讀