can-ai-code
该项目通过人类撰写的面试题测试AI的编程能力,提供多种主流API提供商和CUDA支持的推理脚本,并在基于Docker的沙盒环境中验证Python和NodeJS代码的安全性。用户可以评估提示技巧和采样参数对大语言模型(LLM)编码性能的影响,以及量化对LLM编码性能的衰减影响。项目包括多语言测试套件和来自OpenAI的Python-only测试套件,支持对比分析,并提供了详尽的结果数据和评估脚本。