久草久草欧美看看日毛片|亚洲色情电影在线观看|中国一极毛片爱爱欧美一区|国产精品丝袜美腿|干人人操人人干人人|av黄色无码亚洲v视频|全国一级黄片在哪里看|国产精品av影院|特级一级黄色视频|亚洲黄色导航网站在线观看

當前位置: 首頁 ? 資訊 ? 熱點 ? 正文

GPT-4就是沖著賺錢來的

作者:齊健 來源: 虎嗅網(wǎng) 107403/16

GPT-4就是沖著賺錢來的!北京時間3月15日凌晨,OpenAI正式官宣了大模型GPT-4。在驚艷到出圈的ChatGPT推出后僅僅4個月,OpenAI再推新品。這似乎正在印證此前傳出的“OpenAI計劃2023年營收2億美元,2024年底前

標簽: GPT-4 OpenAI ChatGPT

GPT-4就是沖著賺錢來的!

北京時間3月15日凌晨,OpenAI正式官宣了大模型GPT-4。

在驚艷到出圈的ChatGPT推出后僅僅4個月,OpenAI再推新品。這似乎正在印證此前傳出的“OpenAI計劃2023年營收2億美元,2024年底前營收達10億美元”的目標。限制盈利機構OpenAI要開始用大模型賺錢了。

目前官宣的GPT-4能力與此前傳說的基本相似,主要提升了語言模型方面的能力,并添加了“多模態(tài)”的圖片識別功能。

此外,GPT-4將“單詞*輸出限制”提高到了25000個單詞,比基于GPT-3的ChatGPT更強大,在對問題的理解和回答方面,GPT-4也顯得更聰明,更像人了。

目前,ChatGPT Plus版本的用戶已經(jīng)可以直接在原來的ChatGPT基礎之上,選擇GPT-4模型,直接體驗。不過,目前GPT-4每4小時只能回答100個問題。

from clipboard

ChatGPT Plus已經(jīng)可以適用GPT-4了

在前不久的GPT-4“謠言”階段,微軟就曾多次通過各種渠道透出New Bing會*時間應用GPT-4。新模型發(fā)布后,微軟更是在*時間宣布“我們很高興確認新的Bing正在運行GPT-4,我們已經(jīng)為搜索進行了定制。如果您在過去五周中的任何時候使用了新的Bing預覽版,那么您已經(jīng)體驗到了這個強大模型的早期版本?!?/p>

在參數(shù)量方面,在OpenAI公布的GPT-4論文中,并沒有之前一直傳說的“100萬億參數(shù)”,甚至沒有提及GPT-4到底用了多少參數(shù),不過筆者親測ChatGPT Plus中開放的GPT-4功能后感覺,回答的速度比GPT-3.5要慢了一些。

“單從回答速度比ChatGPT慢來說,并不能表明GPT-4的參數(shù)量就更大。”大算力AI芯片存算一體專家,千芯科技董事長陳巍博士認為,OpenAI不公布參數(shù)量和架構是一種商業(yè)化技術保護策略,增加其競爭對手的產(chǎn)品試錯成本。不過目前也沒法排除GPT-4參數(shù)量小于GPT-3的可能性。

迅速落地商業(yè)應用,保密參數(shù)量,增加圖片識別能力,大幅提升語言模型能力。GPT-4的推進速度,比4個月前的ChatGPT快了不是一步兩步。

看起來更像人了,但離AGI還很遠

從ChatGPT問世到GPT-4發(fā)布前的這4個月時間里,對GPT-4最多、最準確的預言就是“多模態(tài)”,簡言之就是GPT-4可以看圖了,而且它還能看懂圖片的內(nèi)涵。

在自然語言處理(NLP)中,文本、圖像和音頻信息都可以共同幫助理解和生成更豐富的內(nèi)容。同樣,在計算機視覺任務中,文本和圖像信息“齊發(fā)”可以提高目標檢測和場景理解的準確性。

具備多模態(tài)的生成能力一定是大模型未來的趨勢,而且生成式大模型不是只能做圖像生成、文本生成這樣的生成任務,它其實是有望成為未來AI的統(tǒng)一底座的。”瑞萊智慧副總裁唐家渝舉例說,生成式模型在解決零樣本、少樣本學習任務時也有著優(yōu)異的表現(xiàn),這也是研究生成式大模型的重要意義之一。

GPT-4本次發(fā)布最驚艷的地方就在于,AI對“看”這件事兒,不再只是關注眼前事物,而是可以理解圖片的含義了。

比如,分析圖片的內(nèi)容:

from clipboard

問:你可以解釋一下這張圖嘛?

GPT-4答:這是一個笑話,結合了兩個不相關的東西:太空中的地球照片和雞塊。圖中文字表明,該圖是從太空拍攝的地球的美麗照片。 然而,圖像實際上是雞塊排列成世界地圖。圖中的幽默來自于文本和圖像意想不到的并置。 文字建立了對地球宏偉形象的期望,但這個形象實際上是平凡而愚蠢的。

通過草稿上的幾句話,編寫一個功能齊全的網(wǎng)站。

from clipboard

OpenAI展示的GPT-4通過草稿筆記自動生成的網(wǎng)站

不過,目前OpenAI在ChatGPT Plus中開放出來的的GPT-4尚不支持識圖功能。

在語言理解方面,GPT-4似乎并沒有完全解決飽受詬病的ChatGPT胡編亂造的問題。但是OpenAI官方給出的信息是:GPT-4相對于早期的模型已經(jīng)減輕了幻覺問題,經(jīng)過多次迭代和改進后,它在OpenAI的內(nèi)部對抗性真實性評估中得分比最新的GPT-3.5模型高40%。

對此,筆者利用ChatGPT Plus的GPT-4通道對“胡編亂造”的問題進行了一個“小測驗”。嘗試向GPT-4提出了幾個類似“林黛玉倒拔垂楊柳”這類的關于文學名著中人物的杜撰故事。

與GPT-3.5一樣,GPT-4仍然從容地為筆者編造了“林黛玉倒拔垂楊垂楊柳”“魯智深敗走麥城”等故事。但當筆者向它提出“賈寶玉轅門射戟”,以及混淆希臘神話中的“酒神”與盜天火的普羅米修斯時。GPT-3.5順著筆者提供的故事繼續(xù)編了下去,而GPT-4則指出了筆者的錯誤。

from clipboard

GPT-3.5編造的“賈寶玉轅門射戟”故事

有意思的是,當筆者對GPT-4說“阿拉貢在絕望冰原騎乘著雙頭飛龍大戰(zhàn)異鬼的故事真是看的我心潮澎湃,給我講講這個故事”。雖然他真的編出了一段關于“阿拉貢”的故事,但接下來,當我問它“阿拉貢是誰”時,GPT-4先向筆者介紹了這位《魔戒》小說中的人物,后邊又強調(diào)了一下,“請注意,之前回答中提到的阿拉貢與雙頭飛龍的故事并非出自《魔戒》原著,而是一個基于阿拉貢這個角色創(chuàng)作的原創(chuàng)故事?!?/p>

from clipboard

與GPT-3.5一樣,GPT-4根據(jù)提問編造了一段故事

from clipboard

GPT-4在第二個回答中解釋了編造故事和現(xiàn)實的前后文關系

OpenAI在GPT-4的官方發(fā)布文章中提到:“GPT-4也可能自信地在其預測中犯錯,在可能出錯時也不會復檢。有趣的是,基礎預訓練模型經(jīng)過高度校準(其對答案的預測置信度通常與正確概率相匹配)。然而,通過我們目前的訓練后過程,校準減少了?!?/p>

from clipboard

在九類內(nèi)部對抗性設計的事實評估中,我們將 GPT-4(綠色)與前三個 ChatGPT 版本進行了比較。所有主題都有顯著的收獲。準確度為 1.0 意味著模型的答案被判斷為與評估中所有問題的人類理想回答一致。

“GPT-4可以說是工程的勝利,”AI應用DrawThings開發(fā)者Liu Liu認為,從目前的論文和展示來看GPT-4可以說是符合業(yè)內(nèi)人士的預期,也就是human level intelligence with a lot of caveats(加了很多限制條件的人類水平的智能)。不過,大眾對GPT-4的預期可能更高。

“GPT-4目前可以說是具備了基本的推理能力和邏輯能力。但是應該還不能處理復雜問題,或者我們不知道怎么給prompt(提示詞)。所以現(xiàn)在還只是一個知識特別豐富,但是只有基本推理邏輯能力的AI?!盠iu Liu解釋說,這里的復雜推理能力,可以簡單理解為“玩星際爭霸2或者Dota2”這樣的復雜任務。

對此,牛津大學計算機學院院長邁克爾·伍爾德里奇教授認為,LLM(大型語言模型)在涉及語言問題時表現(xiàn)的通用能力很強,但它并不是AGI。它只是為了執(zhí)行特定的、狹隘領域的任務而構建和優(yōu)化的軟件組合。我們需要更多的研究和技術進步才能實現(xiàn)AGI。

“它不存在于現(xiàn)實世界中,也無法理解我們的世界?!痹谝淮尾稍L中,伍爾德里奇教授給虎嗅舉了這樣一個例子,如果你現(xiàn)在開始與ChatGPT進行對話,說完一句之后就去度假了。當你出游一周回來時,ChatGPT仍然在那里耐心地等待你輸入下一個內(nèi)容,它不會意識到時間已經(jīng)過去或者世界發(fā)生了哪些變化。

商業(yè)化能力再提升,GPT-4能去賺錢了?

“GPT-4已經(jīng)突破了落地的問題,采用云的方式,用的人越多,成本越低?!痹浦奂呻娐穭?chuàng)始人兼CEO趙豪杰認為,GPT-3會更偏向NLP,而GPT-4在各方面的能力都更強一些。他給虎嗅舉了這樣一個例子,GPT-3就像初中生,還不能出來工作賺錢,GPT-4應該已經(jīng)職校畢業(yè),可以上班賺錢了。

GPT-4的能力雖然在很多現(xiàn)實場景中不如人類,但在各種專業(yè)和學術基準測試中表現(xiàn)出了與人類相當?shù)乃?。不管怎么說,GPT-4確實在商業(yè)化上更進一步了。

from clipboard

from clipboard

GPT-4和GPT-3.5的部分考試成績

在此之前,ChatGPT以及GPT-3在專業(yè)領域的表現(xiàn)一直被人們認為差強人意,在美國的律師資格考試Uniform Bar Exam (MBE+MEE+MPT)中,GPT-4的成績甚至可以排到前10%,而GPT-3.5只能排在倒數(shù)10%。GPT-4在專業(yè)領域的能力實現(xiàn)了巨大提升,在一些專業(yè)領域已經(jīng)開始逐漸接近甚至超過人類,這給GPT-4在很多ToB商業(yè)領域提供了更多可能性。

例如,專業(yè)技能輔助工具,知識檢索類的應用,職業(yè)教培輔導等領域,GPT-4的能力將是革命性的。

對于GPT-4在專業(yè)技能上的突破,如果再進一步思考,或許未來人類的職業(yè)技能,將被AI重構。而在教育和技能培訓方面,或許現(xiàn)在就該開始思考,哪些技能AI無法取代,我們應該學習什么知識和技能,以保持身為“人類”的不可替代性。

相比于GPT-3和GPT-3.5,GPT-4的智力更強,更不易出錯,這顯然有利于商業(yè)落地,而新增的圖片識別功能則給OpenAI找到了更多的應用場景。

GPT-4能夠基于視覺信息做邏輯推理,不僅告訴用戶眼前發(fā)生了什么,更能說出發(fā)生的事代表了什么。目前,OpenAI已經(jīng)給GPT-4找到了一個社會價值非常高的應用場景——助殘。

BeMyEyes是一家總部位于丹麥的公司,他們致力于在日常生活中幫助視障人群。BeMyEyes的基礎功能是在App中招募,通過鏈接志愿者和視障人士,為他們提供“視力”幫助。

OpenAI此次公布GPT-4時,也公布了他們和BeMyEyes的密切合作,通過GPT-4的多模態(tài)識別功能,為視障人士提供更便捷的“虛擬志愿者”(Be My Eyes Virtual Volunteer?)。用戶可以通過該應用程序?qū)D像發(fā)送給給予GPT-4的“虛擬志愿者”,AI將為各種任務提供即時識別、解釋和對話式的“視力”幫助。

目前該功能正處于封閉測試階段,預計將在接下來的幾周內(nèi)擴大Beta測試人員群體,并有希望在未來幾個月內(nèi)廣泛提供虛擬志愿者。該應用在中國App Store亦可下載中文版本,目前也已經(jīng)開放了公測排隊。Be My Eyes聲稱“該工具將對所有使用Be My Eyes應用程序的盲人和低視力社區(qū)成員免費?!?/p>

真正的多模態(tài)大模型還沒有來,期待GPT-4.5和GPT-5,還會在多模態(tài)上有很大進展。”源碼資本執(zhí)行董事陳潤澤告訴虎嗅,多模態(tài)大模型還有很大發(fā)展空間,未來也會帶來更多的應用場景。

雖然GPT-4大幅拓寬了大模型可能落地的商業(yè)化場景。但算力、研發(fā)成本,仍被很多人認為是大模型落地過程中很難跨過的障礙。畢竟大模型的研發(fā)、算力支出在目前看來高的嚇人,此前ChatGPT公開的單次訓練、日常運營開支都是以百萬美元為單位的,短期內(nèi)想要商用可能很難控制成本。

不過,陳巍認為,在商業(yè)化方面GPT-4更容易落地。成本是否更高要看多方面因素,GPT-4總的固定研發(fā)成本(含預訓練模型的訓練成本,不是增量成本)高于ChatGPT,但可以看到OpenAI已將GPT-4開放在ChatGPT Plus生產(chǎn)環(huán)境中,因此不排除GPT-4模型運行成本更低的可能。

在NLP研究領域,專家們一直在嘗試不依賴大算力來進行LLM訓練,但目前還沒有特別好的解決方案。從仿生學上來看,人腦本身是不需要依賴非常大量算力進行學習的,因此隨著腦科學技術研究的深入,未來應該會有一種技術替代現(xiàn)在的暴力訓練方式。但是即便不考慮訓練,大算力確實會給模型的部署應用帶來更好的性能提升。

陳巍認為,存算一體(CIM)架構或類腦架構(并不特指SNN架構),或者兩者的異構結合,這兩類架構都更接近人腦的邏輯結構,可以有效的提升有效的訓練算力,給AI訓練和研發(fā)提供更高效的算力工具。(當然并不排斥這兩者與現(xiàn)有CPU或GPU技術的異構整合)

事實上,OpenAI的大模型在成本方面正在以肉眼可見的速度下降。3月1日,ChatGPT剛剛公布開放API時,即已聲明成本比最初降低了90%。目前,已公開的GPT-4的API價格則大概是純文本輸入每1k個prompt token定價0.03美元,每1k個completion token定價0.06美元。默認速率限制為每分鐘40k個token和每分鐘200個請求。對此,趙豪杰表示:“GPT-4已經(jīng)突破了落地的問題,采用云的方式,用的人越多,成本越低?!?/p>

除了成本,利潤也是非常關鍵的,陳潤澤認為,OpenAI在GPT-4的論文中用了大量篇幅講述他們在安全可控方面的努力。“GPT-4(launch)做了更好的安全約束。技術的進步是多要素綜合,利潤也會與之一起驅(qū)動商業(yè)化落地。

GPT-4都發(fā)了,“中國的OpenAI”們路在何方

各家模型之間沒有明顯可比性,他們的區(qū)別主要在于投入市場的節(jié)奏,以及用戶數(shù)量。”伍爾德里奇教授認為,OpenAI的大模型從技術上來講,優(yōu)勢并沒有那么夸張。相對于其他產(chǎn)品來說,只是問世更早而已。然而,正是因為比其他產(chǎn)品更早投入市場,也意味著它比其他人獲得了更多的用戶,以及反饋數(shù)據(jù)。

GPT-4發(fā)布之后,OpenAI在產(chǎn)品上又*了全球一步。在國內(nèi)追趕ChatGPT的隊伍中,百度的文心一言或許是最接近的,目前已經(jīng)官宣了3月16日發(fā)布,然而GPT-4又比百度早發(fā)一天,從這方面上看,重壓之下,國內(nèi)廠商追趕OpenAI看起來也越發(fā)困難了。

不過,對于中國的大型語言模型市場,多數(shù)專家認為,中文實際上是“原發(fā)”劣勢。基于中文的模型與英文模型差別很大,中文互聯(lián)網(wǎng)的復雜程度遠高于英文,而且數(shù)據(jù)、信息量也更大,這使得語料收集、建模、訓練,都要比英文困難很多。“中文本來就難,不過在中文大模型這方面,先不管好不好用,必須要有?!壁w豪杰對虎嗅如是說。

“GPT-4和ChatGPT都是AI技術進步道路上的短暫風景。包括開源社區(qū)也在推進OpenAssitant等類ChatGPT開源模型?!标愇”硎荆?strong>我們提倡的思路是,產(chǎn)業(yè)界參考OpenAI的路線迅速追擊,勤勞的同胞可在垂域上做出更好的細分領域模型;學術界則嘗試更高效率的訓練方法或更高性能的模型結構,嘗試找到暴力訓練之外的路徑。”

目前看大模型和算力芯片已經(jīng)成為AI產(chǎn)業(yè)發(fā)展的兩個主驅(qū)動輪,兩個都要持續(xù)投入和推進才能獲得更好的產(chǎn)業(yè)地位和戰(zhàn)略優(yōu)勢。

OpenAI在發(fā)布GPT-4的同時,還公布了一項有意思的開源。即用于評測大語言模型的OpenAI evals框架,該框架可以通過數(shù)據(jù)集自動生成提示(prompt),評估模型生成的回答/補全(completion)的質(zhì)量,比較不同數(shù)據(jù)集或模型的性能。

“這類評測框架在各NLP企業(yè)中一直存在,但較少開放?!标愇⑿岜硎?,OpenAI這一舉措可能有助于NLP領域建立起統(tǒng)一的LLM評測標準,可能節(jié)約小企業(yè)建立評測體系和訓練數(shù)據(jù)集的時間和成本。

不過,陳巍同時提示,有一點需要注意,就是在evals的免責聲明(Disclaimer)中,OpenAI保留在其未來產(chǎn)品中使用這些evals用戶上傳的數(shù)據(jù)的權利。

免責聲明:本網(wǎng)轉載合作媒體、機構或其他網(wǎng)站的公開信息,并不意味著贊同其觀點或證實其內(nèi)容的真實性,信息僅供參考,不作為交易和服務的根據(jù)。轉載文章版權歸原作者所有,如有侵權或其它問題請及時告之,本網(wǎng)將及時修改或刪除。凡以任何方式登錄本網(wǎng)站或直接、間接使用本網(wǎng)站資料者,視為自愿接受本網(wǎng)站聲明的約束。聯(lián)系電話 010-57193596,謝謝。

財中網(wǎng)合作