LLMEval3 是由复旦大学 NLP 实验室研发的大模型评测基准,专注于提供客观且标准化的 AI 模型能力评估。
OpenCompass 是由上海人工智能实验室打造的专业大模型评测体系,旨在通过标准化的评估流程量化 AI 模型的实际能力。
SuperCLUE 是一款专业的中文通用大模型综合性测评基准,致力于为大语言模型的中文能力提供客观、权威的量化评估。