#多语言支持

WhisperSpeech入门学习资料汇总 - 基于Whisper反转的开源文本转语音系统

3 个月前
Cover of WhisperSpeech入门学习资料汇总 - 基于Whisper反转的开源文本转语音系统

TensorFlowTTS入门指南 - 实时多语言语音合成框架

3 个月前
Cover of TensorFlowTTS入门指南 - 实时多语言语音合成框架

Piper学习资料汇总 - 快速本地神经网络文本转语音系统

3 个月前
Cover of Piper学习资料汇总 - 快速本地神经网络文本转语音系统

openai-translator入门学习资料汇总 - 基于ChatGPT API的划词翻译神器

3 个月前
Cover of openai-translator入门学习资料汇总 - 基于ChatGPT API的划词翻译神器

json-translator入门学习资料 - AI驱动的JSON/YAML多语言翻译工具

3 个月前
Cover of json-translator入门学习资料 - AI驱动的JSON/YAML多语言翻译工具

ChatGPT-PPT入门指南:一键生成PPT的AI工具介绍

3 个月前
Cover of ChatGPT-PPT入门指南:一键生成PPT的AI工具介绍

vosk-api入门学习资料汇总 - 开源离线语音识别工具包

3 个月前
Cover of vosk-api入门学习资料汇总 - 开源离线语音识别工具包

TTS入门学习资料汇总 - 专业的语音合成库

3 个月前
Cover of TTS入门学习资料汇总 - 专业的语音合成库

ChatGPT-Shortcut入门指南 - 让AI生产力倍增的快捷指令工具

3 个月前
Cover of ChatGPT-Shortcut入门指南 - 让AI生产力倍增的快捷指令工具

myGPTReader学习资料汇总 - 基于chatGPT的AI阅读助手

3 个月前
Cover of myGPTReader学习资料汇总 - 基于chatGPT的AI阅读助手
相关项目
Project Cover

glm-4-9b-chat-1m

GLM-4-9B-Chat-1M 是智谱 AI 开发的先进预训练模型,具备网页浏览、代码执行和长文本推理等功能,支持 26 种语言,适用于需要大规模上下文处理的应用场景。最新更新提升了处理能力,支持长达 1M 上下文长度。

Project Cover

Qwen2.5-32B-Instruct-GPTQ-Int4

Qwen2.5是最新的大型语言模型,拥有32.5B参数和支持29种语言。其特点包括增强的代码和数学处理能力,改进的指令遵循和长文本生成能力,及对结构化数据的理解。该版本支持长上下文达128K tokens且可生成超过8K tokens的文本,采用GPTQ 4-bit量化,适用于多种文本生成应用。

Project Cover

Qwen1.5-4B

Qwen1.5-4B是一款多语言Transformer模型,具有8种模型规模,支持32K上下文长度且无需信任远程代码。其设计基于SwiGLU激活和多重注意力机制,并通过改进型分词器实现高效多样的文本生成。

Project Cover

Qwen2.5-1.5B-Instruct-bnb-4bit

Qwen2.5系列包括多种尺寸和优化功能,提升编程与数学能力,支持29种语言,并具备长上下文处理能力。利用Google Colab上的免费notebook,可实现模型微调的速度提升和内存使用优化。Qwen2.5-1.5B-Instruct强化了指令响应、长文本生成、多语言处理及结构化数据处理能力。

Project Cover

Qwen1.5-32B-Chat-GGUF

Qwen1.5是基于Transformer的语言模型,在多个模型规模和多语言支持方面有显著提升。支持从0.5B到72B的不同模型规模,表现出色的人类偏好能力,所有模型都稳定支持32K上下文长度,无需额外信任远程代码。项目提供多种量化模型格式,并评估了Wiki数据集上的模型困惑度。改进的分词器增强了对多种自然语言和代码的支持。

Project Cover

Qwen2.5-32B-Instruct-GPTQ-Int8

Qwen2.5-32B-Instruct-GPTQ-Int8是Qwen2.5系列的量化版本,通过GPTQ 8位量化技术实现高效部署。模型支持29种语言交互,具备128K超长上下文理解和8K文本生成能力。在编程、数学计算、文本理解等任务中表现优异,同时对结构化数据处理能力显著提升。该模型采用325亿参数规模,适合在资源受限环境中运行

Project Cover

Qwen1.5-1.8B-Chat

Qwen1.5是Qwen2的测试版本,显著提高了聊天模型的人类偏好性能和多语言支持,并能处理32K上下文长度。其基于Transformer架构,采用了SwiGLU激活函数及多种注意力机制,并改进了分词器以增强多语言和代码适应性。通过数据预训练与后期优化,该模型在对话系统中的表现尤为突出。

Project Cover

Qwen2.5-14B-Instruct-bnb-4bit

Qwen2.5模型利用Unsloth方法优化指令微调过程,节省70%的内存,支持多种模型如Llama 3.1和Gemma 2。同时,提供易用的Google Colab工具,支持多语言和长文本处理,适用于生成长达8000字符的内容,并集成到Transformers库中,便于部署应用。

Project Cover

Qwen2.5-0.5B-bnb-4bit

Qwen2.5是一款先进的自然语言处理工具,支持29种语言,显著提高了指令执行、长文本生成和结构化数据理解能力。基础模型具有0.5亿参数,采用变压器架构,支持128K的上下文长度。用户可以通过Unsloth平台轻松微调模型,降低内存占用,提高处理速度,从而为开发者提供创新和优化的性能支持。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号