#自然语言处理

Parler-TTS: 开源高质量文本转语音模型

3 个月前
Cover of Parler-TTS: 开源高质量文本转语音模型

DeepSeek-V2: 经济高效的专家混合语言模型

3 个月前
Cover of DeepSeek-V2: 经济高效的专家混合语言模型

Pynini: 强大的有限状态自动机编程库

3 个月前
Cover of Pynini: 强大的有限状态自动机编程库

强大、高效、可适应的多语言句子分割工具

3 个月前
Cover of 强大、高效、可适应的多语言句子分割工具

Recurrent Memory Transformer: 突破长上下文处理的创新架构

3 个月前
Cover of Recurrent Memory Transformer: 突破长上下文处理的创新架构

ReazonSpeech: 开创日语语音识别新纪元的开源项目

3 个月前
Cover of ReazonSpeech: 开创日语语音识别新纪元的开源项目

CosyVoice For Windows: 一键式语音克隆与文本转语音应用

3 个月前
Cover of CosyVoice For Windows: 一键式语音克隆与文本转语音应用

GLiNER: 一种通用轻量级的命名实体识别模型

3 个月前
Cover of GLiNER: 一种通用轻量级的命名实体识别模型

Transformers.js: 在浏览器中运行先进的机器学习模型

3 个月前
Cover of Transformers.js: 在浏览器中运行先进的机器学习模型

GPT-2:开启自然语言处理新纪元的里程碑模型

3 个月前
Cover of GPT-2:开启自然语言处理新纪元的里程碑模型
相关项目
Project Cover

Mistral-RAG

Mistral-RAG是以Mistral-Ita-7b为基础优化的模型,专注于问答任务。其生成模式可以整合多源信息,适用于教育和创意场合;提取模式则提供快速、精确的答案,适合科研和法律领域。可通过Python便捷调用,提升数据处理效果。

Project Cover

speechless-zephyr-code-functionary-7b

此项目通过结合多种LoRA模块,介绍了一种创建多功能模型的新方法。使用从Mistral-7B-v0.1衍生的LoRA模块,该项目能够静态或动态整合模块来支持多种功能,比如无审查内容和代码增强功能。利用无梯度路由器,可自动组装LoRA模块,仅需少量推理步骤即可解决未见过的任务,并在多个基准测试中表现出色。

Project Cover

bangla-bert-base

Bangla BERT Base是一款为孟加拉语开发的预训练语言模型,现已在Hugging Face平台上可用。该模型通过BERT的Masked Language Modeling进行训练,使用来自Bengali Commoncrawl和Wikipedia的语料库,并借助BNLP包进行词汇表构建。採用了bert-base-uncased架构,共有12层、768个隐藏单元、12个注意力头和110M参数。经过100万步训练,它在情感分析、仇恨言论检测和新闻分类等下游任务中表现突出,与多语言BERT和Bengali Electra相比,提高了精度。尤其是在Bengali NER任务中,评估结果相对优秀。该模型已经被应用于多项研究,是处理孟加拉语NLP任务的可靠工具。

Project Cover

LLaMAntino-3-ANITA-8B-Inst-DPO-ITA

基于Meta Llama 3技术的LLaMAntino-3模型特别为意大利NLP研究开发,通过AI2推理挑战、HellaSwag和TruthfulQA等任务的微调与评估,实现卓越的文本生成和准确性表现。支持多语言输入,尤其是在意大利语环境中高效处理文本生成任务。

Project Cover

Qwen2.5-32B-Instruct-GPTQ-Int4

Qwen2.5是最新的大型语言模型,拥有32.5B参数和支持29种语言。其特点包括增强的代码和数学处理能力,改进的指令遵循和长文本生成能力,及对结构化数据的理解。该版本支持长上下文达128K tokens且可生成超过8K tokens的文本,采用GPTQ 4-bit量化,适用于多种文本生成应用。

Project Cover

llava-v1.6-34b

模型在大规模多模态模型和聊天机器人领域的研究中有重要应用,采用多样化的数据集提升不同任务表现,适合计算机视觉、自然语言处理及人工智能的研究者使用。

Project Cover

calme-2.2-llama3-70b

模型通过DPO精调优化文本生成,基于Meta-Llama-3-70B-Instruct开发,性能在多个基准测试中表现杰出,如IFEval 82.08、HellaSwag 86.22及GSM8k 88.25分。其量化特性提升效能,适宜多种应用场景。

Project Cover

Llama3-OpenBioLLM-8B

OpenBioLLM-8B是一个由Saama AI Labs开发的开源生物医学语言模型。该模型通过先进技术和8亿参数的设计,实现了在生物医学任务中的高效表现,超过了同类模型的基准测试。其专注于满足医学和生命科学领域的语言需求,基于大量高质量的生物医学数据进行训练,能够高效生成和理解专业文本,为医疗创新提供支持。

Project Cover

LLaMAntino-2-chat-13b-hf-UltraChat-ITA

这是一个经过指令微调的意大利语大语言模型。使用QLora技术训练,并基于UltraChat数据集的意大利语版本。项目开发由Leonardo超级计算机支持,并适用于多种意大利语对话场景的云端推理。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号