#多语言支持

Talkify: 为您的网站添加语音功能的强大JavaScript库

3 个月前
Cover of Talkify: 为您的网站添加语音功能的强大JavaScript库

XTTS2-UI: 革命性的文本转语音克隆技术

3 个月前
Cover of XTTS2-UI: 革命性的文本转语音克隆技术

Expressive-FastSpeech2: 非自回归表达式语音合成的开源实现

3 个月前
Cover of Expressive-FastSpeech2: 非自回归表达式语音合成的开源实现

SoniTranslate: 革新视频翻译与配音技术

3 个月前
Cover of SoniTranslate: 革新视频翻译与配音技术

鹦鹉:多彩羽毛下的智慧精灵

3 个月前
Cover of 鹦鹉:多彩羽毛下的智慧精灵

RHVoice: 一款强大的开源多语言语音合成系统

3 个月前
Cover of RHVoice: 一款强大的开源多语言语音合成系统

WhisperSpeech: 开源文本转语音技术的新突破

3 个月前
Cover of WhisperSpeech: 开源文本转语音技术的新突破

CosyVoice: 多语言大规模语音生成模型的全栈解决方案

3 个月前
Cover of CosyVoice: 多语言大规模语音生成模型的全栈解决方案

Piper: 快速、本地化的神经网络文本转语音系统

3 个月前
Cover of Piper: 快速、本地化的神经网络文本转语音系统

AI声音克隆技术:打造个性化语音体验的新时代

3 个月前
Cover of AI声音克隆技术:打造个性化语音体验的新时代
相关项目
Project Cover

glm-4-9b-chat-1m

GLM-4-9B-Chat-1M 是智谱 AI 开发的先进预训练模型,具备网页浏览、代码执行和长文本推理等功能,支持 26 种语言,适用于需要大规模上下文处理的应用场景。最新更新提升了处理能力,支持长达 1M 上下文长度。

Project Cover

Qwen2.5-32B-Instruct-GPTQ-Int4

Qwen2.5是最新的大型语言模型,拥有32.5B参数和支持29种语言。其特点包括增强的代码和数学处理能力,改进的指令遵循和长文本生成能力,及对结构化数据的理解。该版本支持长上下文达128K tokens且可生成超过8K tokens的文本,采用GPTQ 4-bit量化,适用于多种文本生成应用。

Project Cover

Qwen1.5-4B

Qwen1.5-4B是一款多语言Transformer模型,具有8种模型规模,支持32K上下文长度且无需信任远程代码。其设计基于SwiGLU激活和多重注意力机制,并通过改进型分词器实现高效多样的文本生成。

Project Cover

Qwen2.5-1.5B-Instruct-bnb-4bit

Qwen2.5系列包括多种尺寸和优化功能,提升编程与数学能力,支持29种语言,并具备长上下文处理能力。利用Google Colab上的免费notebook,可实现模型微调的速度提升和内存使用优化。Qwen2.5-1.5B-Instruct强化了指令响应、长文本生成、多语言处理及结构化数据处理能力。

Project Cover

Qwen1.5-32B-Chat-GGUF

Qwen1.5是基于Transformer的语言模型,在多个模型规模和多语言支持方面有显著提升。支持从0.5B到72B的不同模型规模,表现出色的人类偏好能力,所有模型都稳定支持32K上下文长度,无需额外信任远程代码。项目提供多种量化模型格式,并评估了Wiki数据集上的模型困惑度。改进的分词器增强了对多种自然语言和代码的支持。

Project Cover

Qwen2.5-32B-Instruct-GPTQ-Int8

Qwen2.5-32B-Instruct-GPTQ-Int8是Qwen2.5系列的量化版本,通过GPTQ 8位量化技术实现高效部署。模型支持29种语言交互,具备128K超长上下文理解和8K文本生成能力。在编程、数学计算、文本理解等任务中表现优异,同时对结构化数据处理能力显著提升。该模型采用325亿参数规模,适合在资源受限环境中运行

Project Cover

Qwen1.5-1.8B-Chat

Qwen1.5是Qwen2的测试版本,显著提高了聊天模型的人类偏好性能和多语言支持,并能处理32K上下文长度。其基于Transformer架构,采用了SwiGLU激活函数及多种注意力机制,并改进了分词器以增强多语言和代码适应性。通过数据预训练与后期优化,该模型在对话系统中的表现尤为突出。

Project Cover

Qwen2.5-14B-Instruct-bnb-4bit

Qwen2.5模型利用Unsloth方法优化指令微调过程,节省70%的内存,支持多种模型如Llama 3.1和Gemma 2。同时,提供易用的Google Colab工具,支持多语言和长文本处理,适用于生成长达8000字符的内容,并集成到Transformers库中,便于部署应用。

Project Cover

Qwen2.5-0.5B-bnb-4bit

Qwen2.5是一款先进的自然语言处理工具,支持29种语言,显著提高了指令执行、长文本生成和结构化数据理解能力。基础模型具有0.5亿参数,采用变压器架构,支持128K的上下文长度。用户可以通过Unsloth平台轻松微调模型,降低内存占用,提高处理速度,从而为开发者提供创新和优化的性能支持。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号