來源
iThome新聞
內容
機器學習模型與資料集共享平臺Hugging Face上周公布第二屆的開源大型語言模型(LLM)排行榜,表現最佳的是由阿里巴巴所釋出的Qwen 2,且在前十名的LLM中,就有5個來自中國。
Hugging Face主要使用六大測試基準,包括大規模的多工語言理解MMLU-Pro,知識問答GPQA,多步驟的軟性推理MuSR,啟發式數學MATH,指令遵循能力IFEval,以及具挑戰性的任務BBH等。
來源
iThome新聞
內容
機器學習模型與資料集共享平臺Hugging Face上周公布第二屆的開源大型語言模型(LLM)排行榜,表現最佳的是由阿里巴巴所釋出的Qwen 2,且在前十名的LLM中,就有5個來自中國。
Hugging Face主要使用六大測試基準,包括大規模的多工語言理解MMLU-Pro,知識問答GPQA,多步驟的軟性推理MuSR,啟發式數學MATH,指令遵循能力IFEval,以及具挑戰性的任務BBH等。
Copyright © 2024 | National Yang Ming Chiao Tung University All rights reserved