#WizardLM
AgentLLM
AgentLLM展示了使用开源大型语言模型(LLM)在浏览器上运行自主代理的潜力,可有效处理复杂的目标导向任务。通过利用WebGPU,项目显著提升了性能,并在无工具简化版的AgentGPT环境中实现。该平台适合于希望快速验证LLM能力的用户,界面友好且功能丰富。
WizardLM
WizardLM项目致力于增强大型预训练语言模型处理复杂指令的能力。通过创新训练方法,该项目使模型更好地理解和执行多步骤、高难度任务。WizardLM在编程、数学和通用对话等基准测试中表现卓越。项目开源多个不同规模的模型版本,为语言模型技术的研究与应用提供有力支持。
WizardLM-13B-V1.2-GGUF
WizardLM-13B-V1.2-GGUF采用llama.cpp团队发布的创新GGUF格式,替代传统的GGML。相比之下,GGUF在Token化和特殊Token支持方面更具优势,同时能够处理元数据,具有良好的扩展性。该模型兼容多种客户端和库,支持GPU加速,适合于多平台应用,提供高效推理。在量化参数选择上,该模型支持2至8位的CPU+GPU推理,以实现性能与质量的平衡。
WizardLM-Uncensored-SuperCOT-StoryTelling-30B-GGUF
WizardLM系列采用GGUF格式,支持多种平台和量化方法,适合自然语言生成应用,支持Python和LangChain集成及GPU加速。
WizardLM-1.0-Uncensored-Llama2-13B-GGUF
该项目推出了WizardLM 1.0 Uncensored Llama2 13B的GGUF格式模型。GGUF格式是GGML的替代,由llama.cpp团队于2023年8月开发,具备标记化提升和对特定标记的支持,并包含元数据和可扩展功能。用户可在llama.cpp、text-generation-webui和KoboldCpp等多种平台上使用,实现跨平台的GPU加速和优化。项目细分不同量化参数模型,用户可根据需要利用多种工具便捷下载,并依照指南进行部署。模型在兼容性上表现突出,支持LangChain等多种Python库,提供更多使用选择。