#指标评估
deepeval - 简化LLM输出评估的开源框架
Github开源项目开源框架LLM评估DeepEvalAI测试指标评估
DeepEval是一款开源的大型语言模型(LLM)输出评估框架。它提供G-Eval、幻觉检测和答案相关性等多种评估指标,支持本地运行。该框架适用于RAG和微调应用,可与LangChain和LlamaIndex等工具集成。DeepEval具备批量评估、自定义指标创建功能,易于集成到CI/CD环境。此外,它还支持对主流LLM基准进行简易评估,并可与Confident AI平台对接,实现持续评估和结果分析。
Llama-3.1-SuperNova-Lite - 面向多任务的8B参数高效文本生成模型
Github开源项目文本生成性能优化模型Huggingface指标评估Llama-3.1-SuperNova-Lite蒸馏模型
Llama-3.1-SuperNova-Lite由Arcee.ai开发,采用Llama-3.1-8B-Instruct架构,是Llama-3.1-405B-Instruct的精简版本,具有高效的指令跟随能力。通过利用先进的蒸馏技术和EvolKit生成的数据集进行训练,该模型在多个基准测试中表现优异,适合需要在资源有限条件下实现高性能的组织。