#多语言支持

JSON-Translator: 强大的多语言JSON和YAML翻译工具

2024年08月30日
Cover of JSON-Translator: 强大的多语言JSON和YAML翻译工具

ChatGPT-PPT: 利用人工智能自动生成演示文稿的革命性工具

2024年08月30日
Cover of ChatGPT-PPT: 利用人工智能自动生成演示文稿的革命性工具

Vosk-API: 开源离线语音识别工具包

2024年08月30日
Cover of Vosk-API: 开源离线语音识别工具包

TTS技术:让文字发声的魔法

2024年08月30日
Cover of TTS技术:让文字发声的魔法

ChatGPT-Shortcut: 提升效率的AI快捷指令工具

2024年08月30日
Cover of ChatGPT-Shortcut: 提升效率的AI快捷指令工具

ChatGPT-Shortcut:提升效率的AI快捷指令工具

2024年08月30日
Cover of ChatGPT-Shortcut:提升效率的AI快捷指令工具

myGPTReader: 一款基于ChatGPT的智能阅读助手

2024年08月30日
Cover of myGPTReader: 一款基于ChatGPT的智能阅读助手

Open WebUI:打造最佳开源AI用户界面

2024年08月29日
Cover of Open WebUI:打造最佳开源AI用户界面

最强开源模型Llama3.1只坚持了一天,就被Mistral新模型踢馆了

2024年08月03日
Cover of 最强开源模型Llama3.1只坚持了一天,就被Mistral新模型踢馆了

Tabby:最好用的开源的代码补全工具!!实现人人都会编程

2024年08月02日
Cover of Tabby:最好用的开源的代码补全工具!!实现人人都会编程
相关项目
Project Cover

glm-4-9b-chat-1m

GLM-4-9B-Chat-1M 是智谱 AI 开发的先进预训练模型,具备网页浏览、代码执行和长文本推理等功能,支持 26 种语言,适用于需要大规模上下文处理的应用场景。最新更新提升了处理能力,支持长达 1M 上下文长度。

Project Cover

Qwen2.5-32B-Instruct-GPTQ-Int4

Qwen2.5是最新的大型语言模型,拥有32.5B参数和支持29种语言。其特点包括增强的代码和数学处理能力,改进的指令遵循和长文本生成能力,及对结构化数据的理解。该版本支持长上下文达128K tokens且可生成超过8K tokens的文本,采用GPTQ 4-bit量化,适用于多种文本生成应用。

Project Cover

Qwen1.5-4B

Qwen1.5-4B是一款多语言Transformer模型,具有8种模型规模,支持32K上下文长度且无需信任远程代码。其设计基于SwiGLU激活和多重注意力机制,并通过改进型分词器实现高效多样的文本生成。

Project Cover

Qwen2.5-1.5B-Instruct-bnb-4bit

Qwen2.5系列包括多种尺寸和优化功能,提升编程与数学能力,支持29种语言,并具备长上下文处理能力。利用Google Colab上的免费notebook,可实现模型微调的速度提升和内存使用优化。Qwen2.5-1.5B-Instruct强化了指令响应、长文本生成、多语言处理及结构化数据处理能力。

Project Cover

Qwen1.5-32B-Chat-GGUF

Qwen1.5是基于Transformer的语言模型,在多个模型规模和多语言支持方面有显著提升。支持从0.5B到72B的不同模型规模,表现出色的人类偏好能力,所有模型都稳定支持32K上下文长度,无需额外信任远程代码。项目提供多种量化模型格式,并评估了Wiki数据集上的模型困惑度。改进的分词器增强了对多种自然语言和代码的支持。

Project Cover

Qwen2.5-32B-Instruct-GPTQ-Int8

Qwen2.5-32B-Instruct-GPTQ-Int8是Qwen2.5系列的量化版本,通过GPTQ 8位量化技术实现高效部署。模型支持29种语言交互,具备128K超长上下文理解和8K文本生成能力。在编程、数学计算、文本理解等任务中表现优异,同时对结构化数据处理能力显著提升。该模型采用325亿参数规模,适合在资源受限环境中运行

Project Cover

Qwen1.5-1.8B-Chat

Qwen1.5是Qwen2的测试版本,显著提高了聊天模型的人类偏好性能和多语言支持,并能处理32K上下文长度。其基于Transformer架构,采用了SwiGLU激活函数及多种注意力机制,并改进了分词器以增强多语言和代码适应性。通过数据预训练与后期优化,该模型在对话系统中的表现尤为突出。

Project Cover

Qwen2.5-14B-Instruct-bnb-4bit

Qwen2.5模型利用Unsloth方法优化指令微调过程,节省70%的内存,支持多种模型如Llama 3.1和Gemma 2。同时,提供易用的Google Colab工具,支持多语言和长文本处理,适用于生成长达8000字符的内容,并集成到Transformers库中,便于部署应用。

Project Cover

Qwen2.5-0.5B-bnb-4bit

Qwen2.5是一款先进的自然语言处理工具,支持29种语言,显著提高了指令执行、长文本生成和结构化数据理解能力。基础模型具有0.5亿参数,采用变压器架构,支持128K的上下文长度。用户可以通过Unsloth平台轻松微调模型,降低内存占用,提高处理速度,从而为开发者提供创新和优化的性能支持。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号