【iThome新聞】Meta開發10億以下參數量的小型LLM模型MobileLLM
來源 iThome新聞 內容 大廠持續投入終端裝置上的AI模型開發。Llama模型家族獲得眾多開發人員使用後,Meta本周稍早又公布可在行動裝置上執行,參數量不到10億的新AI模型家族。 由於在雲端執行上百甚至上千億參數的大型語言模型(LLM)增加雲端運算成本及延遲性問題,推升了筆電或手機等行動裝置端上執行LLM的運行需求。Meta集結旗下Meta Reality Labs、PyTorch與Meta AI Research(FAIR)部門研發新訓練方法,建立參數量僅有1.25億、3.5億的新式模型MobileLLM。