來源
iThome新聞
內容
去年4月才於法國成立的AI業者Mistral AI周三(4/10)釋出了新的開源模型Mixtral 8x22B,它採用稀疏混合專家(Sparse Mixture of Experts,SMoE)架構,支援1,760億個參數,以及6.5萬個Token的脈絡長度,已藉由Mistral AI的官方X帳號、Together API及
來源
iThome新聞
內容
去年4月才於法國成立的AI業者Mistral AI周三(4/10)釋出了新的開源模型Mixtral 8x22B,它採用稀疏混合專家(Sparse Mixture of Experts,SMoE)架構,支援1,760億個參數,以及6.5萬個Token的脈絡長度,已藉由Mistral AI的官方X帳號、Together API及
Copyright © 2024 | National Yang Ming Chiao Tung University All rights reserved