來源
iThome新聞
內容
繼4月份公布可在裝置上執行的小語言模型OpenELM後,蘋果本周又公布了14億及70億參數的DCLM模型,號稱效能不輸競爭模型如Llama 3、Gemma或Mistral,或是更節省訓練運算資源。
來源
iThome新聞
內容
繼4月份公布可在裝置上執行的小語言模型OpenELM後,蘋果本周又公布了14億及70億參數的DCLM模型,號稱效能不輸競爭模型如Llama 3、Gemma或Mistral,或是更節省訓練運算資源。
Copyright © 2024 | National Yang Ming Chiao Tung University All rights reserved