web-llm
WebLLM是一款借助WebGPU技术,实现硬件加速的浏览器内语言模型推理引擎,无需服务器即可直接在浏览器内运行。完全兼容OpenAI API,并具备流式输出和JSON模式生成功能,支持广泛的模型集成。通过NPM或CDN可以快速集成到各类AI交互应用中,同时确保用户隐私安全,并享受高效的GPU加速体验。