TrustLLM
TrustLLM是一款专注于评估大型语言模型(LLMs)可信度的工具包。涵盖八个维度的可信度原则,并在真相、安全、公平、鲁棒性、隐私和机器伦理等方面建立基准。TrustLLM提供便捷的评估工具,可以快速评估16种主流LLMs,帮助开发者提升模型可信度。项目已被ICML 2024接受,并持续更新以包括最新的模型和功能。详情请访问项目网站。