MMBench
全方位的多模态大模型能力评测体系
CMMLU是综合性的中文评估基准,专门用在评估语言模型在中文语境下的知识和推理能力,涵盖从基础学科到高级专业水平的67个主题。包括需要计算和推理的自然科学,需要知识的人文科学和社会科学,及需要生活常识的中国驾驶规则等。CMMLU中的许多任务具有中国特定的答案,可能在其他地区或语言中并不普遍适用。CMMLU提供丰富的测试数据和排行榜,支持多种评估方式,如five-shot和zero-shot测试,是衡量中文语言模型性能的重要工具。

data目录中找到开发和测试数据集。transformers、datasets等。git clone https://github.com/haonan-li/CMMLU.git
cd CMMLU
src/mp_utils目录中,使用提供的脚本对数据进行预处理,生成适合模型输入的格式。python src/mp_utils/preprocess.py
script目录中,运行测试脚本,评估模型在不同任务上的表现。python script/evaluate.py --model <model_name> --data_path <data_path>
haonan.li@librai.tech),等待验证后更新到排行榜。