5月15日,字節跳動正式對外發布豆包大模型?;鹕揭媸亲止澨鴦悠煜略品掌脚_,原名“云雀”,是國內首批通過備案的大模型之一。目前豆包大模型日均處理1200億Tokens文本,生成3000萬張圖片。
今日引擎總裁譚待重點披露了豆包大模型的商業化價格——豆包主力模型在企業市場的定價為0.0008元/千Tokens,即0.8厘的價格可處理1500多個漢字,較行業平均價格便宜99.3%。市面上同規格模型的定價一般為0.12元/千Tokens,是豆包模型價格的150倍。
但火山方面并未披露豆包大模型的具體參數規模?;鹕椒矫嫒耸繉τ浾弑硎荆壳皡狄幠R呀洸皇呛饬看竽P湍芰Φ奈ㄒ恢笜?。采訪中譚待表示,“今年行業不再比拼參數規模了,因為大家都‘悟’了?!辈煌叽绲哪P途邆洳煌阅?,價格自然不同,但豆包是以最終能力最強的主力模型來定價,同時與行業價格進行對比。
在具體優化成本的方式上,譚待披露稱,一方面通過技術層面手段將成本做低,如對模型結構進行優化調整。其次是在工程方面將過去的單機推理升級為分布式推理,同時結合對云計算算力的混合調度,通過綜合方式將成本做低。
至于為什么要做降價這個市場動作,譚待表示,今年一個很大的變化在于行業大模型能力大幅提升,做應用這件事變得很重要,也就是一定要將生態做繁榮。譚待稱目前接觸的很多客戶都在做大模型方面的嘗試,但創新這件事的風險度很高,尤其在AI領域,因此需要將成本降低,拉動大家更廣泛地使用起來。從這個角度來講,不論是大企業還是個人,都需要更低成本、更高質量的大模型。
目前,大模型應用發展仍處于早期階段。QuestMobile數據顯示,截至今年3月,基于大模型的AIGC行業用戶量為7380萬,盡管同比增長了8倍,也僅占移動互聯網用戶量的6%。譚待認為,降低成本是推動大模型快進到“價值創造階段”的一個關鍵因素。
如今行業內降低大模型價格漸成趨勢,昨日OpenAI在進行大模型技術更新的同時,也宣布了價格的下降。OpenAI新推出的兩個嵌入模型:text-embedding-3-small模型與text-embedding-3-large模型,前者的價格僅為上一代的五分之一,每1000個tokens的價格從0.0001美元降低到0.00002美元。后者可以創建多達3072維(dimensions)的嵌入,其主要提升在于性能。
另在5月13日,智譜大模型開放平臺(bigmodel.cn)上線新的價格體系,入門級產品 GLM-3 Turbo 模型調用價格下調80%,從5元/百萬tokens降至1元/百萬tokens,1元可以購買100萬tokens。面壁智能方面針對大模型降價趨勢表示,自身產品小鋼炮MiniCPM一直0元購,降無可降。
對于降價這件事,譚待在采訪中表示,To B業務通過虧損換收入是不可持續的,所以火山不走這條路,更多考慮的是讓更多人來使用,“大的使用量才能打磨出好模型,也能大幅降低模型推理的單位成本。”譚待表示,通過技術手段將價格打下來后,行業便會踴躍進來嘗試這件事。
截至目前,字節跳動基于豆包大模型打造了AI對話助手“豆包”、AI應用開發平臺“扣子”、互動娛樂應用“貓箱”,以及星繪、即夢等AI創作工具,并把大模型接入抖音、番茄小說、飛書、巨量引擎等50余個業務,用以提升效率和優化產品體驗。
字節跳動產品和戰略副總裁朱駿認為,技術在快速演化,但用戶核心的需求沒有改變,包括高效獲取信息、工作提效、自我表達、社交娛樂等,字節跳動希望能夠找到適合的大模型應用形態。目前豆包是字節跳動重點投入的大模型應用。據朱駿透露,豆包上已有超過800萬個智能體被創建,月度活躍用戶達到2600萬。
豆包大模型在服務字節內部的同時,也在與火山引擎的眾多企業客戶合作共創,其所提供的是一個有多模態能力的模型家族,目前主要包括通用模型pro、通用模型lite、語音識別模型、語音合成模型、文生圖模型等九款模型。