MagicArena 是字节跳动打造的视觉生成模型对战平台,通过对比测试客观评估 AI 图像生成能力。
AGI-Eval 是一个专注于 AI 大模型能力评估的专业社区,旨在通过系统化的评测为用户提供模型性能参考。
H2O EvalGPT 是一款基于 Elo 评级算法的 AI 大模型评估工具,通过量化对比提供客观的模型性能排名。
LLMEval3 是由复旦大学 NLP 实验室研发的大模型评测基准,专注于提供客观且标准化的 AI 模型能力评估。
MMBench 是一个针对多模态大模型设计的全面评测体系,旨在提供客观、标准的能力量化分析。
HELM 是斯坦福大学开发的一套标准化大模型评测框架,旨在通过多维度的量化分析,解决当前 AI 模型评估缺乏统一标准的问题。
OpenCompass 是由上海人工智能实验室打造的专业大模型评测体系,旨在通过标准化的评估流程量化 AI 模型的实际能力。
FlagEval(天秤)是智源研究院打造的专业大模型评测平台,为AI模型提供标准化的能力量化评估。
LMArena 是一个基于众包对比的 AI 模型评测平台,通过真实的对话盲测来衡量大语言模型的实际表现。
MMLU 是一个大规模多任务语言理解基准,用于评估 AI 模型在广泛知识领域内的综合理解与推理能力。