導航菜單

騰訊公布最新大模型訓練方法 可節(jié)省一半的算力成本

導讀 11月23日,騰訊披露,騰訊混元大模型背后自研機器學習框架Angel再次升級,大模型訓練效率提升至主流開源框架的2 6倍,千億級大模型的訓練可

11月23日,騰訊披露,騰訊混元大模型背后自研機器學習框架Angel再次升級,大模型訓練效率提升至主流開源框架的2.6倍,千億級大模型的訓練可以節(jié)省50%的算力成本。根據(jù)騰訊介紹,目前騰訊混元大模型在模型接入層面,提供的模型尺寸也相當豐富,包括千億級,百億級,十億級等等,可以適配多個不同的應(yīng)用場景,只需要經(jīng)過簡單的微調(diào)就能夠滿足其業(yè)務(wù)需求。

模型訓練成本以及推理服務(wù)的資源,成本都有了大大的降低,在問答以及內(nèi)容分類等常見應(yīng)用場景當中,具有更高的性價比。應(yīng)用方面更是覆蓋于各個領(lǐng)域,包括教育,金融,醫(yī)療,傳媒,交通,政務(wù)等等。騰訊內(nèi)部當前也有300多個業(yè)務(wù)以及應(yīng)用場景接入騰訊混元內(nèi)測,包括騰訊會議,騰訊新聞,騰訊視頻等。

免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

猜你喜歡:

最新文章: