(網(wǎng)經(jīng)社訊)豆包通用模型lite-4k/32k,千tokens推理輸入售價(jià)0.3厘;通義千問qwen-long,千tokens推理輸入售價(jià)0.5厘;百度文心ERNIE Speed、ERNIE Lite,宣布免費(fèi)。
針對(duì)近期的大模型降價(jià)狂潮,科技博主闌夕發(fā)文稱:行業(yè)里說千Tokens價(jià)格,光低價(jià)還不夠,吞吐量太小的話,再便宜也用不了多少。如果只是把價(jià)格降下去,吞吐還是小水管,那真是降了個(gè)寂寞。
以下是闌夕微博主要觀點(diǎn):
豆包大模型打響價(jià)格戰(zhàn)已經(jīng)過了一個(gè)星期,山雨欲來的效果還是挺明顯的,同行要么跟著一起降價(jià),要么開始寫小作文陰陽,特別熱鬧。
有比較急的,拿以前云雀模型的限流指標(biāo)和模型單元價(jià)格來算,暗戳戳說豆包實(shí)際使用價(jià)格要高。等火山引擎官網(wǎng)把不同版本、不同規(guī)格的銷售方案全部亮了出來,不管是預(yù)付費(fèi)還是后付費(fèi)都確實(shí)是擊穿地板的底價(jià)標(biāo)準(zhǔn),瞬間打臉回去。
豆包模型定價(jià),最值得關(guān)注的是把TPM(每分鐘token數(shù))提到80萬,比同行(一般是10萬到30萬tokens)高幾倍。如果對(duì)話文本小,RPM(每分鐘請(qǐng)求數(shù))上限1萬,能支持的并發(fā)量是同行(一般是60到120,輕量版是300到500)的幾十倍。其他大模型要不要跟?
行業(yè)里說千Tokens價(jià)格,光低價(jià)還不夠,吞吐量太小的話,再便宜也用不了多少。如果只是把價(jià)格降下去,吞吐還是小水管,那真是降了個(gè)寂寞。
(關(guān)于免費(fèi))大模型的算力燒錢主要在訓(xùn)練端,推理端的成本其實(shí)是每年都有幾十倍優(yōu)化空間的。但再怎么優(yōu)化,也不可能優(yōu)化到0。
足夠便宜,但依然能賺錢,由此促成應(yīng)用/商用市場的規(guī)模增長,包括OpenAI在內(nèi)的主流大模型開發(fā)商,都是這么一個(gè)思路,可以不講武德,但是商業(yè)規(guī)律還是得敬畏的。
不管怎么說,大模型toB還在做大蛋糕的階段,有更多公司一起解決企業(yè)入局的成本門檻,也都算是共贏吧。