#自然语言处理
Recurrent Memory Transformer: 突破长上下文处理的创新架构
Transformers.js: 在浏览器中运行先进的机器学习模型
Mistral-RAG
Mistral-RAG是以Mistral-Ita-7b为基础优化的模型,专注于问答任务。其生成模式可以整合多源信息,适用于教育和创意场合;提取模式则提供快速、精确的答案,适合科研和法律领域。可通过Python便捷调用,提升数据处理效果。
speechless-zephyr-code-functionary-7b
此项目通过结合多种LoRA模块,介绍了一种创建多功能模型的新方法。使用从Mistral-7B-v0.1衍生的LoRA模块,该项目能够静态或动态整合模块来支持多种功能,比如无审查内容和代码增强功能。利用无梯度路由器,可自动组装LoRA模块,仅需少量推理步骤即可解决未见过的任务,并在多个基准测试中表现出色。
bangla-bert-base
Bangla BERT Base是一款为孟加拉语开发的预训练语言模型,现已在Hugging Face平台上可用。该模型通过BERT的Masked Language Modeling进行训练,使用来自Bengali Commoncrawl和Wikipedia的语料库,并借助BNLP包进行词汇表构建。採用了bert-base-uncased架构,共有12层、768个隐藏单元、12个注意力头和110M参数。经过100万步训练,它在情感分析、仇恨言论检测和新闻分类等下游任务中表现突出,与多语言BERT和Bengali Electra相比,提高了精度。尤其是在Bengali NER任务中,评估结果相对优秀。该模型已经被应用于多项研究,是处理孟加拉语NLP任务的可靠工具。
LLaMAntino-3-ANITA-8B-Inst-DPO-ITA
基于Meta Llama 3技术的LLaMAntino-3模型特别为意大利NLP研究开发,通过AI2推理挑战、HellaSwag和TruthfulQA等任务的微调与评估,实现卓越的文本生成和准确性表现。支持多语言输入,尤其是在意大利语环境中高效处理文本生成任务。
Qwen2.5-32B-Instruct-GPTQ-Int4
Qwen2.5是最新的大型语言模型,拥有32.5B参数和支持29种语言。其特点包括增强的代码和数学处理能力,改进的指令遵循和长文本生成能力,及对结构化数据的理解。该版本支持长上下文达128K tokens且可生成超过8K tokens的文本,采用GPTQ 4-bit量化,适用于多种文本生成应用。
llava-v1.6-34b
模型在大规模多模态模型和聊天机器人领域的研究中有重要应用,采用多样化的数据集提升不同任务表现,适合计算机视觉、自然语言处理及人工智能的研究者使用。
calme-2.2-llama3-70b
模型通过DPO精调优化文本生成,基于Meta-Llama-3-70B-Instruct开发,性能在多个基准测试中表现杰出,如IFEval 82.08、HellaSwag 86.22及GSM8k 88.25分。其量化特性提升效能,适宜多种应用场景。
Llama3-OpenBioLLM-8B
OpenBioLLM-8B是一个由Saama AI Labs开发的开源生物医学语言模型。该模型通过先进技术和8亿参数的设计,实现了在生物医学任务中的高效表现,超过了同类模型的基准测试。其专注于满足医学和生命科学领域的语言需求,基于大量高质量的生物医学数据进行训练,能够高效生成和理解专业文本,为医疗创新提供支持。
LLaMAntino-2-chat-13b-hf-UltraChat-ITA
这是一个经过指令微调的意大利语大语言模型。使用QLora技术训练,并基于UltraChat数据集的意大利语版本。项目开发由Leonardo超级计算机支持,并适用于多种意大利语对话场景的云端推理。