首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|大數據|物聯網|量子|元宇宙|智能汽車|特約記者
手機|互聯網|IT|5G|光通信|人工智能|云計算|芯片|報告|智慧城市|移動互聯網|會展
首頁 >> 人工智能 >> 正文

大模型企業(yè)對標:openAI 2024年H2最新進展

2024年11月29日 14:05  天翼智庫  

OpenAI業(yè)績超預期增長,預測2024年收入將增長131.25%,但研發(fā)新技術帶來成本飆升的巨大挑戰(zhàn);面向多模態(tài)、深度推理等前沿方向推出GPT-4o系列、o1系列等新模型;持續(xù)創(chuàng)新ChatGPT等產品功能,提升用戶交互體驗,并逐步探索新營收模式,在全球多地組建本地化團隊就近提供服務;受高層離職及企業(yè)轉型影響,解散并新建部分團隊;新模型發(fā)布帶動用戶生態(tài)持續(xù)繁榮,通過廣泛外部合作持續(xù)夯實高質量數據基礎、提升技術應用創(chuàng)新。

表1 Meta近半年最新進展的主要指標表

注:1)財務數據方面,“當前進展”列為2024年整體預測數據,“變化幅度”列基于2023年相應數據進行計算,全部數據源于OpenAI官網、負責人對外發(fā)言、公開資料;2)除特別注釋外,“變化幅度”列中定量變化指環(huán)比,定性變化指公司近半年進展對比上一階段(截止到天翼智庫團隊所做第一輪企業(yè)對標)的顯著變化;3)紅色向上箭頭表示增加;4)年度經常性收入指一年內從訂閱客戶處獲得的可預測收入。

財務近況:公司創(chuàng)收潛力大,研發(fā)新技術帶來成本飆升挑戰(zhàn)

2024年收入快速增長,且未來潛力巨大。財務文件顯示,2024年8月,OpenAI的月收入已達3億美元,自2023年初以來增長1700%;但毛利率僅41%,遠低于行業(yè)云軟件初創(chuàng)公司的65%平均水平,OpenAI計劃在2028年前將毛利率提升到67%。2024年10月,OpenAI首席財務官Sarah Friar接受外媒專訪期間預測OpenAI的2024年收入將達到37億美元,與2023年的16億美元相比增長131.25%,預計其收入明年將飆升至116億美元。隨著增長加速,OpenAI估值水漲船高,在今年10月的一輪融資后估值已達1570億美元,大約是年初估值的兩倍。

開發(fā)和運營更先進的AI系統(tǒng)為其帶來巨大開支。OpenAI聯合創(chuàng)始人Altman曾指出,隨著公司開發(fā)更復雜的模型,預計支出將繼續(xù)超過收入增長,可能還需要籌集數百億美元才能滿足成本。預估數據顯示,OpenAI今年運營總成本或將達85億美元,主要由模型推理、訓練、人力成本構成,分別為40億、30億、15億美元。推理成本方面,截至今年3月,OpenAI已花費近40億美元租用微軟的服務器集群來支持ChatGPT及其底層大模型的運轉,該集群相當于35萬個英偉達A100芯片,其中約29萬個芯片為ChatGPT提供支持。訓練成本(包括支付數據的費用)方面,截至第一季度,用于OpenAI模型訓練的服務器集群已包括12萬個英偉達A100,隨著OpenAI加快訓練最新旗艦模型,訓練成本可能將在今年翻一番。人力成本方面,截至目前OpenAI雇用大約1700名員工,隨著該公司與谷歌等科技巨頭爭奪技術人才,最終人力成本在今年可能將高達約15億美元。

大模型技術:面向多模態(tài)、深度推理等前沿方向推出新模型

1.新發(fā)布GPT-4o系列模型,提供多模態(tài)處理、低時延交互能力

GPT-4o為端到端多模態(tài)模型,可實現毫秒級先進視覺音頻理解。2024年5月,OpenAI發(fā)布新的“全能模型”(omni model)GPT-4o,能提供與GPT-4同等程度的模型能力,推理速度更快,還能提供同時理解文本、圖像、音頻等內容的多模態(tài)能力,具有如下亮點:(1)GPT-4o為端到端多模態(tài)模型,模型所有輸入和輸出都由同一神經網絡處理,在文本、推理和編碼智能方面基準測試實現GPT-4 Turbo級別性能,同時在多語言、音頻和視覺功能上達到新的高水位線;(2)毫秒級響應,GPT-4o對音頻輸入的響應時間最短為232毫秒,平均為320毫秒,與人類在對話中的響應時間相似;(3)更先進的視覺與音頻理解能力、智能感知語氣與語態(tài),GPT-4o支持在對話中隨時打斷,可根據場景生成多種語調,同時支持視頻對話;(4)API性價比顯著提升,與GPT-4 Turbo相比速度提升2倍、成本降低50%,速率限制提升5倍。

GPT-4o mini模型推進實現更具成本效益的人工智能。2024年7月,OpenAI發(fā)布GPT-4o mini,作為GPT-4o系列最具成本效益的型號,該模型具備以下特點:(1)多模態(tài)推理能力,具備文本、圖像、音頻、視頻的多模態(tài)推理能力,已在API中支持文本和視覺輸入,未來計劃擴展視頻和音頻的輸入、輸出;(2)性能表現優(yōu)異,在多個全球權威基準測試中成績超越GPT-3.5 Turbo等模型,如在MMLU文本智能與推理基準測試及Human Eval編碼性能測試中分別以82.0%和87.2%的得分領先,在MGSM數學推理測試及多模態(tài)推理領域的MMMU評估中分別獲得87.0%和59.4%的高分;(3)成本大幅降低,相比原版GPT-4o模型便宜96%-97%。(4)處理能力較強,擁有128k tokens的上下文處理能力,支持16k輸出tokens;(5)安全策略創(chuàng)新,是首個使用全新安全策略“指令層次結構”的AI模型,能優(yōu)先考慮特定指令,使惡意用戶更難讓模型執(zhí)行不當操作,有效抵御越獄攻擊、即時注入及系統(tǒng)即時提取等風險。

2. 基于GPT-4訓練CriticGPT模型以評估高級AI系統(tǒng)內容輸出

2024年6月,OpenAI發(fā)布基于GPT-4的模型CriticGPT,旨在找出ChatGPT代碼輸出錯誤、輔助改進,并更好地幫助工程師評估ChatGPT響應質量和準確性。CriticGPT的發(fā)布標志著RLHF(基于人類反饋的強化學習)領域取得重大進步,解決人類評估者在評估日益復雜的AI模型時面臨的核心挑戰(zhàn)。該模型具備如下特點:(1)可進行智能錯誤捕獲,能深入分析ChatGPT代碼輸出并指出其中錯誤,檢測LLM(大型語言模型)錯誤的準確率達63%;(2)可提高評估效率,使用CriticGPT輔助的人類評估者檢查ChatGPT代碼輸出,效率比不使用時高出60%;(3)自然語言反饋,能通過自然語言反饋指出代碼問題,還能幫助訓練師撰寫更全面的批評,減少虛構問題。

3.新發(fā)布o1系列推理模型,復雜推理能力大幅提升

OpenAI o1系列推動AI向更深層次的智能推理與問題解決能力發(fā)展。2024年9月,OpenAI推出o1系列模型,包括o1、o1-preview和o1-mini三款。該系列模型通過模仿人類的推理過程,能夠在回答前進行更深入思考,從而處理更復雜任務,主要特點如下:(1)采用全新推理范式,o1-preview運用思維鏈(CoT,Chain of Thought)+自我對弈強化學習的推理范式,可將復雜步驟拆解為更簡單部分,并在當前方法無效時嘗試不同方式,代表著Scaling up從預訓練擴展至后訓練階段;(2)領先的深度推理能力,如o1-preview在物理、化學和生物學等復雜任務的基準測試中表現可與博士生媲美,在國際數學奧林匹克競賽的資格考試中正確率達83%,GPT-4o僅為13%;(3)安全性提升,在一項最難的越獄測試中,o1-preview得分84(滿分100),遠高于GPT-4o的22分,證明o1-preview在安全規(guī)則的執(zhí)行和應對違規(guī)嘗試時表現更可靠。

輕量化版本OpenAI o1-mini更好滿足開發(fā)者對高效解決方案的需求。這款經過優(yōu)化的推理模型運行速度快、使用成本低,非常適合處理編程相關任務,主要特點如下:(1)性能優(yōu)化,作為o1系列的輕量版本,o1-mini在保持高質量輸出的同時大大提高響應速度,如單詞推理問題上,o1-mini比GPT-4o快3-5倍;(2)成本效益高,相比o1-preview,o1-mini使用成本降低80%;(3)編程專長,o1-mini在編碼任務上表現突出,可為開發(fā)者提供高效代碼生成和調試支持,在Codeforces編碼競賽中,o1-mini獲得1650 Elo的評分,與o1的1673 Elo相當,高于o1-preview的1258 Elo。

4.推出連續(xù)時間一致性模型促進生成式人工智能發(fā)展

2024年10月,OpenAI推出新型連續(xù)時間一致性模型sCM,將開啟視頻、圖像、三維模型、音頻等實時、高質量、跨領域的生成式人工智能新階段。模型主要特點如下:(1)創(chuàng)新提出TrigFlow統(tǒng)一框架,簡化理論公式,整合多個復雜過程,并讓訓練過程更穩(wěn)定,為后續(xù)模型改進提供堅實基礎;(2)生成速度顯著提升,僅需兩步采樣即可生成高質量樣本,生成速度提升50倍,如15億參數模型在單個A100 GPU上生成一張圖片只需0.11秒;(3)保持高質量輸出效果,采樣步驟答復減少但生成樣本質量與頂尖擴散模型相當;(4)具有跨領域生成能力,不僅適用于圖像生成,還可用于視頻、三維模型和音頻的實時生成,為多領域應用提供發(fā)展廣闊前景。

市場發(fā)展:持續(xù)創(chuàng)新產品功能,逐步探索新商業(yè)模式

1.產品與服務:不斷完善ChatGPT功能,提升用戶交互體驗

逐步開放“高級語音模式”(Advanced Voice Mode),提升人機交互體驗。2024年7月,OpenAI面向小部分ChatGPT Plus用戶推出ChatGPT高級語音模式的Alpha版本進行測試;9月正式向ChatGPT Plus和Team用戶推出高級語音模式,支持超過50種語言;10月用戶可直接在Windows電腦或Mac客戶端使用高級語音模式。高級語音模式的推出是AI對話技術的重要革新,使用戶能直接通過語音與ChatGPT進行對話,允許隨時打斷和調整,甚至能創(chuàng)建和回顧記憶,訪問以往交互信息和自定義指令,以提供更加精準和個性化的反饋,極大提升用戶交互體驗。

引入結構化輸出功能(Structured Outputs),顯著提升API可靠性和應用精確度。2024年8月,OpenAI在API中引入結構化輸出功能,允許API返回JSON或XML等更易于處理的數據格式,以確保模型生成的輸出能完全符合開發(fā)人員提供的JSON架構,顯著提升API的可靠性。同時,OpenAI更新Python和Node SDK,使開發(fā)者能像使用Pydantic或是Zod對象一樣,簡單提供工具的結構或回應格式,SDK便自動處理數據類型轉換,將開發(fā)者的數據類型轉換為支持的JSON結構。

發(fā)布GPT-4o with Canvas功能,提高寫作和編程的協作體驗。2024年10月,OpenAI發(fā)布新的交互方式Canvas,允許用戶在一個單獨窗口中與ChatGPT進行深度合作,進行詳細的內嵌反饋、針對性的編輯以及內容重寫。在編程方面,Canvas包括調試、代碼審查、添加注釋和在多種語言之間轉換代碼等功能;在寫作方面,Canvas提供文本潤色、可讀性調整、語法和清晰度建議等功能。Canvas功能特別適合需要廣泛編輯和修訂的任務,提升寫作和編程的效率和協作體驗。

發(fā)布ChatGPT Search,正式進軍AI搜索領域。2024年10月,OpenAI正式上線搜索功能ChatGPT Search,能使用網絡最新信息來回答問題,并提供相關來源的鏈接。ChatGPT Search覆蓋ChatGPT的網頁版、手機和桌面應用,可為用戶提供經過AI整合后的直接答案,使信息檢索更加高效、準確。未來,廣告可能會成為OpenAI下一步在搜索領域盈利的選擇。

2.商業(yè)模式:圍繞ChatGPT業(yè)務等主業(yè),逐步探索新營收模式

以消費者訂閱的ChatGPT業(yè)務為核心,通過吸引企業(yè)用戶增加收入。2024年10月,OpenAI首席財務官Sarah Friar表示,目前OpenAI大約75%的業(yè)務來自消費者訂閱,企業(yè)版ChatGPT雖剛起步,但已經實現可觀的年化收入,潛力巨大。企業(yè)版ChatGPT付費用戶在2024年9月已突破100萬,較2023年末的15萬增長566.67%。消費者用戶方面,ChatGPT付費用戶計劃的起價為每月20美元,周活躍用戶達2.5億,消費者用戶付費轉化率達5%-6%。2024年7月ChatGPT Plus付費用戶數已突破770萬,較去年同期增長285%,9月o1系列模型發(fā)布引發(fā)新一輪付費用戶增長,消費者付費用戶已突破1000萬。

API直接收入貢獻較弱且已在逐步收縮,未來或轉向與Azure深度合作的收入分成模式。調研機構Future Search曾在2024年7月對OpenAI的收入構成進行拆解,結果顯示,為開發(fā)者和企業(yè)提供直接訪問其AI模型的API接口服務僅為OpenAI貢獻15%的收入,OpenAI也從7月9日起停止來自非支持國家和地區(qū)的API流量以進行相應業(yè)務縮減。此外,通過2023年初與微軟Azure合作提供旗下AI模型訪問權限,OpenAI有望獲得2億美元的年度分成。

3.市場拓展策略:保持技術領先優(yōu)勢,組建本地團隊拓展國際業(yè)務

堅持開發(fā)最前沿的人工智能模型,將技術創(chuàng)新視為核心驅動力。OpenAI始終不斷投入資源進行GPT系列模型研發(fā)與升級,Sarah Friar曾在2024年7月對外強調,“對我們來說,最重要的是保持前沿,即建立前沿模型,確保我們最終將通用人工智能(AGI)造福于人類”。11月,OpenAI首席執(zhí)行官Altman指出,OpenAI當前重點將聚焦開發(fā)專注于推理和難題解決的模型,以應對更復雜的計算需求與市場挑戰(zhàn)。

通過在全球各地設立辦事處以更好地服務全球客戶,并獲得更多與當地政府、企業(yè)和合作伙伴進行交流和合作的機會。2024年4月,OpenAI宣布在日本東京設立該公司在亞洲的首個辦事處。10月,OpenAI宣布計劃在紐約、西雅圖、巴黎、布魯塞爾和新加坡開設5個新的辦事處,同時不斷擴大舊金山、倫敦、都柏林和東京辦事處,以增強全球影響力。OpenAI曾表示,新加坡是全球人均使用ChatGPT比例最高的地區(qū)之一,強調該地區(qū)對AI應用的準備程度。新加坡辦事處還將與政府主導的支持該地區(qū)AI發(fā)展的AI Singapore合作,OpenAI將向其投資多達100萬美元,以使自身的AI模型更適用于當地語言和文化。

組織及運營:向營利性企業(yè)轉型,新建團隊應對安全及算力需要

多名高層離職,公司向營利性企業(yè)轉型,部分團隊解散。2024年9月底,OpenAI首席技術官Mira Murati、首席研究官Bob McGrew和研究副總裁Barret Zoph先后宣布離職。此后,Mark Chen被任命為研究高級副總裁,OpenAI的研究工作將由他與首席科學家Jakub Pachocki共同領導,而原11位創(chuàng)始團隊成員僅剩Sam Altman和Wojciech Zaremba兩位仍在留任。同期,多家媒體報道OpenAI正計劃重組核心業(yè)務,轉變?yōu)闋I利性公益企業(yè),不再由非營利性董事會控制。10月23日,OpenAI專注于通用人工智能開發(fā)的“AGI Readiness”團隊負責人Miles Brundage宣布離職,計劃在OpenAI之外繼續(xù)從事該領域研究工作,而“AGI Readiness”團隊也即將解散。

重點布局AI安全及芯片領域,成立新團隊謀求技術自研。2024年5月,OpenAI宣布董事會成立安全與安保委員會,除OpenAI時任高層外,還聘請并咨詢了其他安全、安保和技術專家來支持這項工作,包括前網絡安全官員、為OpenAI提供安全建議的Rob Joyce和John Carlin。該委員會負責就OpenAI項目和運營的關鍵安全與保障決策提出建議。據路透社10月報道,OpenAI將進行硬件戰(zhàn)略調整,組建由約20名工程師組成的芯片開發(fā)團隊,與博通和臺積電聯手打造首款自研芯片,旨在支持其AI系統(tǒng)、優(yōu)化計算資源和降低成本。

行業(yè)影響力:新模型持續(xù)帶動生態(tài)繁榮,外部合作反哺技術創(chuàng)新

模型性能迭代帶動ChatGPT用戶生態(tài)持續(xù)擴大。統(tǒng)計網站tooltester 顯示,2023年5月至2024年4月的一年間,ChatGPT每月訪問量都在16億到18億之間浮動,2024年9月o1系列新模型的發(fā)布帶動用戶生態(tài)快速增長,使ChatGPT躍升為全球訪問量第十一的網站。根據Similarweb的最新數據,ChatGPT在2024年10月的月訪問量已突破31億次,相較去年同期同比增長112%,相比同年8月增長18.7%。

通過加強與媒體及科研院所合作,持續(xù)夯實高質量訓練數據基礎、提升模型技術應用能力。2024年5月至10月,OpenAI先后與《大西洋月刊》、Vox Media、TIME、康泰納仕、赫斯特等美國媒體以及意大利媒體集團GEDI簽訂內容協議,將多家媒體內容整合至其AI產品中,包括文章、視頻、音頻等多種形式內容,將為OpenAI的AI模型提供更為廣泛和多元的數據支持,進一步提升其技術水平和應用范圍。截至目前,OpenAI已與沃頓商學院、洛斯阿拉莫斯國家實驗室、美國商務部國家標準與技術研究院旗下的美國人工智能安全研究所、博通和臺積電等芯片企業(yè)達成戰(zhàn)略合作,合作涉及AI教學投資、生物科學研究、AI安全研究及測試評估、自研AI芯片生產等。

本文作者

江嘉琳

戰(zhàn)略發(fā)展研究所

二級分析師

暨南大學區(qū)域經濟學碩士,在區(qū)域市場分析、區(qū)域政策研究、用戶研究、產品體驗領域有豐富積累,聚焦視聯網、數字生活等領域研究工作。

張媛玥

戰(zhàn)略發(fā)展研究所

一級分析師

就職于中國電信研究院,長期從事人工智能、工業(yè)互聯網等領域的技術及產業(yè)研究。

王曉娣

戰(zhàn)略發(fā)展研究所

助理分析師

大連理工大學碩士,就職于中國電信研究院,專注于人工智能、工業(yè)互聯網等領域技術及產業(yè)研究工作。

編 輯:章芳
飛象網版權及免責聲明:
1.本網刊載內容,凡注明來源為“飛象網”和“飛象原創(chuàng)”皆屬飛象網版權所有,未經允許禁止轉載、摘編及鏡像,違者必究。對于經過授權可以轉載,請必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和飛象網來源。
2.凡注明“來源:XXXX”的作品,均轉載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網贊同其觀點和對其真實性負責。
3.如因作品內容、版權和其它問題,請在相關作品刊發(fā)之日起30日內與本網聯系,我們將第一時間予以處理。
本站聯系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯系方式,進行的“內容核實”、“商務聯系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權。
相關新聞              
 
人物
中國移動王曉云:6G已經進入面向產業(yè)技術創(chuàng)新的全新階段
精彩專題
2024中國算力大會
2024年國際信息通信展
中國信科亮相2024年國際信息通信展
第25屆中國國際光電博覽會
CCTIME推薦
關于我們 | 廣告報價 | 聯系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網 CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務業(yè)務經營許可證080234號 京公網安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經書面許可,禁止轉載、摘編、復制、鏡像