環(huán)球熱議:MosaicML發(fā)布大型語言模型 MPT-7B 可商用

來源:DoNews快訊


(資料圖)

MosaicML+的+MPT-7B+是一個具有近70億個參數(shù)的大型語言模型,該團隊在自己的近萬億個標記的數(shù)據(jù)集上對其進行了訓練。MosaicML+遵循+Meta+的LLaMA模型的訓練方案。但即使有65,000個token,也可以閱讀整部小說并寫一篇結語。(站長之家)

標簽:

推薦

財富更多》

動態(tài)更多》

熱點