#Huggingface
Qwen2.5-7B-Instruct-Uncensored-GGUF - 中英文无删减指令模型的最新静态量化版本,适合多语言支持
数据集Github量化模型Qwen2.5-7B-Instruct-Uncensored开源项目Hugging FaceHuggingface
该项目为Qwen2.5-7B-Instruct-Uncensored模型提供多种质量和大小的静态量化文件,支持中英文双语功能。用户可选择合适的量化类型,包括快速的Q4_K_S与Q4_K_M以及高质量的Q8_0和Q6_K。这些文件可提升模型性能,尤其在敏感内容处理及多语言支持方面。使用说明可参考TheBloke的文档。项目得益于nethype公司的资源支持。
Meta-Llama-3-8B-Instruct-abliterated-v3 - 使用正交化提升语言模型对请求的接受度
Github模型正交化开源项目模型权重不拒绝Huggingface特征消融Llama-3-8B-Instruct
Meta-Llama-3-8B-Instruct模型采用正交化技术减少拒绝行为,保留原始知识,适用于控制特定行为。
SauerkrautLM-Gemma-7b - 双语AI模型的新训练技术应用
Github模型双语技能开源项目SauerkrautLM-Gemma-7b训练技术激光RMTHuggingface模型微调
SauerkrautLM-Gemma-7b是VAGO solutions与Hyperspace.ai合作开发的AI语言模型。此模型运用激光QLoRA技术来强化语言与数学技能,并采用独特的数据选择周期提升其性能。在多个基准测试中的表现显著提升,显示出其潜在价值。尽管仍在早期阶段,偶尔会有不寻常表现,但在Open LLM榜单上仍有优良表现。
reader-lm-1.5b - 多语言支持的HTML到Markdown转换模型
HTMLGithub模型transformers开源项目Jina Reader-LMMarkdownHuggingface内容转换
reader-lm-1.5b是一款支持多语言的文本生成模型,可将HTML内容转化为Markdown格式。模型基于精选的数据集训练,适合多种内容转换任务。在Google Colab上,用户可以免费体验。而且,在本地可使用transformers库实现模型性能。此外,reader-lm-1.5b在AWS Sagemaker和Azure Marketplace上可用,满足多平台集成需求。
DeepSeek-Coder-V2-Lite-Base - 强大开源语言模型,支持代码与数学任务
Github数学推理模型开源开源项目语言模型代码智能DeepSeek-Coder-V2Huggingface
DeepSeek-Coder-V2-Lite-Base是一种先进的开源Mixture-of-Experts代码语言模型,专门用于代码和数学推理任务。它支持338种编程语言,拥有128K上下文长度,与DeepSeek-Coder-33B相比,在多领域性能显著提升。通过Huggingface平台,用户可轻松访问并进行推理,非常适合开发者和研究人员。
gemma-2-9b-it-abliterated-GGUF - 文本生成性能优化的多种量化方法
Github量化模型开源项目gemma-2-9b-it-abliteratedHuggingface嵌入/输出权重文本生成ARM芯片
该项目使用llama.cpp进行gemma-2-9b-it-abliterated模型的多种量化实现,能够适应不同的内存和硬件需求。用户可根据设备的RAM和GPU VRAM选择适合的模型文件大小。项目支持多种量化格式,如Q5_K_M和IQ3_M等,以满足不同的性能需求。通过huggingface-cli,用户可以轻松下载特定量化模型,并实现高效推理。建议在LM Studio中运行,并分享使用体验,以帮助优化模型质量和性能。
Platypus2-13B - LLaMA2架构下通过指令微调优化的模型及其表现
机器学习Github模型Platypus2-13B开源项目语言模型训练数据集Huggingface人工智能
该模型基于LLaMA2-13B架构进行指令微调,具备自动回归功能。使用STEM和逻辑数据集进行训练,在ARC和HellaSwag等任务中表现优异。开发者应在应用前进行安全测试,以验证适用性并减轻可能的偏见。
phi-2-GGUF - 以多平台兼容性著称的高效GGUF格式模型
Github模型开源项目Phi 2GPU加速下载和运行量化方法模型兼容性Huggingface
探讨2023年8月由llama.cpp团队引入的微软Phi 2项目GGUF格式。页面包含详细的使用指南和应用案例,适合文本生成和推理。Phi 2具备跨平台兼容性和多种量化选项,支持GPU加速,是自然语言处理的良好选择。
Mistral-7B-Instruct-v0.3 - Mistral-7B-Instruct-v0.3模型的指令微调与功能调用概述
Github模型功能调用开源项目Huggingface模型微调Mistral-7B-Instruct-v0.3文本生成Open LLM Leaderboard
Mistral-7B-Instruct-v0.3模型经过指令微调,支持32768词汇和v3 Tokenizer,并具备功能调用能力。在多个评测如AI2 Reasoning Challenge和HellaSwag中展示良好表现。该模型支持多种使用方式,包括简单安装、下载指南及在Hugging Face上的文本生成,利用CLI命令与模型对话,或调用自定义功能。尽管缺乏内容审查机制,Mistral团队正与社区合作,以确保输出适合多种环境。
CalmeRys-78B-Orpo-v0.1 - 高级文本生成模型,适用于多任务应用
机器学习Github模型开源项目精度Huggingface文本生成CalmeRys-78B-OrpoOpen LLM Leaderboard
CalmeRys-78B-Orpo-v0.1是一款微调自MaziyarPanahi/calme-2.4-rys-78b的模型,利用mlabonne/orpo-dpo-mix-40k数据集,支持角色扮演、推理等多种文本生成场景,具备较高准确率和长文本连贯性。
controlnet-seg-room - 室内设计图像生成与自定义元素控制
Github模型控制网Diffusers开源项目AI绘图室内设计Huggingface
controlnet-seg-room项目使用控制网络和细分图训练生成室内设计图像,用户可通过条件信息实现对房间对象的精细控制。项目结合来自BLIP和UperNet模型的元数据,以TPUv4和JAX框架优化,后转为PyTorch以配合Diffusers库,支持图像转换和修复,便于定制设计风格与房型,支持创意设计实现。
Mistral-Nemo-Instruct-2407-GGUF - Mistral-Nemo模型在多语言文本生成中的量化应用
性能优化Huggingface模型下载Mistral-Nemo-Instruct-2407量化开源项目模型Github内存需求
Mistral-Nemo-Instruct-2407项目通过llama.cpp进行了高效的量化处理,优化了模型性能和文件大小。该模型适用于多种RAM和VRAM配置,提供不同量化格式以满足各种需求,尤其推荐使用Q6_K_L和Q5_K_L格式。这些量化后的模型可在LM Studio中执行,适合高质量文本生成任务。
Xwin-LM-70B-V0.1-GGUF - 提升AI模型兼容性的最新GGUF格式
Huggingface模型文件人工智能量化开源项目模型GithubGPU加速Xwin-LM 70B V0.1
Xwin-LM 70B V0.1采用全新的GGUF格式,取代了GGML,支持多种量化方法如Q2_K、Q3_K、Q4_K等,提升GPU和CPU兼容性。该模型兼容多种平台,如llama.cpp、text-generation-webui、KoboldCpp等,应用场景多样。提供详细的量化文件下载和使用说明,适合开发者和研究人员进行AI模型优化。
Llama-2-7B-CAT - 改进大型语言模型的性能与应用策略
Huggingface模型开源项目meta-llama环境影响技术规格Github训练数据
此项目专注于提升大型语言模型的性能,研究如何通过有效的训练方法进行改进。用户可以通过示例代码快速了解使用方法及模型的应用场景与局限性。
Swallow-MX-8x7b-NVE-v0.1 - 跨语言文本生成模型,强化日语能力
模型性能HuggingfaceSwallow-MX-8x7b-NVE-v0.1开源项目模型训练数据集Github语言模型日语数据
Swallow-MX-8x7b-NVE-v0.1基于Mixtral-8x7B-Instruct持续预训练,增加了日语数据模块,提升了多语言文本生成性能。该模型在日文常识问答和翻译任务中表现突出,发布于Apache-2.0开源许可证下。该版本仍在开发中,提醒注意输出的安全性。项目由ABCI计划支持,适用于多语言自然语言处理任务。
resnet50.tv_in1k - ResNet-B模型实现高效图像识别与分析
图像分类Huggingface特征提取开源项目模型ResNet-BGithubImageNetTimm
ResNet-B模型是一款专为图像分类和特征提取而设计的工具,其特点包括ReLU激活和7x7卷积,适合224x224像素图像。在ImageNet-1k数据集上训练,具备优异的参数和计算性能。通过timm库,用户可以轻松将其应用于图像分类、特征提取和图像嵌入等多种场景。
Qwen1.5-110B-Chat - 多语言模型与人类偏好优化的显著提升
HuggingfaceQwen1.5开源项目模型多语言支持Hugging FaceGithub语言模型Transformer架构
Qwen1.5是Qwen2的测试版,提供多语言支持和32K上下文长度的稳定性,并通过大规模数据预训练和偏好优化,大幅提高了对话模型的人类偏好表现。项目涵盖多种模型尺寸,包括最大110B和MoE架构的14B模型,基于Transformer技术,使用SwiGLU激活和组查询注意,提供强大的文本生成与灵活定制功能。
Daredevil-8B-abliterated - 开源8B模型,适用于无对齐需求的应用和角色扮演
应用Daredevil-8B-abliterated量化评估模型Github开源项目Huggingface
Daredevil-8B-abliterated是一个无审查的开源模型,衍生自mlabonne项目,通过failspy笔记本实现。适用于不需要对齐的应用场景,如角色扮演。该模型在Open LLM排行榜上表现出色,MMLU评分名列前茅,并通过LLM AutoEval进行了全面评估,还在LM Studio中使用了Llama 3预设进行测试。研究者可通过该模型探索大型语言模型中不依赖单一方向的拒绝机制。
clip-vit-base-patch32 - 使用Xenova/clip-vit-base-patch32实现Transformers.js的零样本图像分类
openai/clip-vit-base-patch32Transformers.jsJavaScript库模型GithubONNX开源项目图像分类Huggingface
在Transformers.js中实现ONNX权重兼容性,支持进行零样本图像分类,使用模型Xenova/clip-vit-base-patch32。通过简单的npm安装Transformers.js库,利用pipeline API实现图像和标签的高效匹配。此项目旨在为WebML的未来发展提供一个过渡方案,建议将模型转换为ONNX格式以便于网络使用。
Sheared-LLaMA-1.3B-ShareGPT - 优化Sheared-LLaMA模型训练,提高语言模型响应能力
模型训练ShareGPT开源项目模型Sheared-LLaMAGithub结构剪枝自然语言处理Huggingface
该项目通过10,000个指令响应对优化Sheared-LLaMA-1.3B模型,提升语言模型效率和性能。该模型可通过transformers.LlamaModelForCausalLM加载,适用于多种应用场景。
roberta-base - 适用于HPU的模型优化与推理配置指南
模型训练Habana处理器Hugging Face Transformers模型Github开源项目问答系统Optimum HabanaHuggingface
基于Habana Gaudi处理器的优化指南,旨在简化和加速Transformer与Diffusers模型的HPU加载、训练和推理过程。适合寻求利用HPU提升模型性能的研究人员和开发者。
INVOICE-DISPUTE - SetFit模型高效应用于文本分类的少样本学习方法
对比学习开源项目文本分类SetFitGithubHuggingface模型LogisticRegression句子变换器
本项目介绍了SetFit模型在文本分类任务中的应用,利用高效的少样本学习技术,通过对Sentence Transformer进行对比学习微调,并使用微调后的特征训练Logistic Regression分类头,实现文本分类。SetFit模型支持最大512个令牌的序列长度,适用于二分类任务。通过SetFit库,用户可以便捷地安装并使用该模型进行推理,更多信息可在GitHub和相关论文中查阅。
bit-50 - 大规模增强视觉学习的预训练模型
开源项目模型GithubImageNetBig TransferHuggingface迁移学习ResNet图像分类
Big Transfer (BiT) 是一种通过扩展预训练提升视觉任务中深度神经网络表现的方法,优化样本效率和超参数调整。该方法在超过20个数据集上具备优异的迁移能力,并可适应不同数据规模的需求。在ILSVRC-2012数据集上,BiT达到了87.5%的top-1准确率,在CIFAR-10数据集上取得99.4%的准确率,并在19项视觉任务基准测试中获得76.3%的成绩。这使得BiT在图像分类任务中得到广泛应用。
bigaspv2lustify-v10-sdxl - 高精度的文本生成图像模型,提升视觉真实性
开源项目模型Githubstable-diffusionHuggingfacetext-to-image图像生成现实主义
该项目展示了一个结合Stable Diffusion技术的先进文本生成图像模型,能够生成非常逼真的图像效果。由用户ffjggrtbjibv创建,其模型适用于复杂图像创建与需要真实效果的场景。凭借现代化的图像生成算法,这个模型在图像质量和细节表现上得到显著提升,为创作提供更大的灵活性与创意空间。
opus-mt-de-it - 德语到意大利语的开源翻译模型
数据集开源项目翻译SentencePieceGithub模型HuggingfaceBLEUopus-mt-de-it
该开源项目使用transformer-align模型,提供德语到意大利语的高效翻译。通过Normalization和SentencePiece进行预处理,确保翻译的精准性和流畅性。用户可下载模型原始权重和测试集进行评估。模型在Tatoeba数据集上的评估显示,BLEU得分为45.3,chr-F得分为0.671,表现出良好的翻译性能。
LongCite-llama3.1-8b - LongCite-llama3.1-8b在长上下文问答中实现高效引用生成
长上下文开源项目模型GithubHuggingface细粒度引用Meta-Llama-3.1-8BLongCite-llama3.1-8b文本生成
LongCite-llama3.1-8b是基于Meta-Llama-3.1-8B训练的开源模型,专为长上下文问答中的引用生成而设计,支持128K标记的上下文窗口。项目采用transformers库,提供了Python示例代码用于展示模型部署与应用,并建议使用torch的bfloat16数据类型及自动设备映射功能。vllm项目的示例代码可供进一步探索高效部署模型。
mHuBERT-147 - 支持147种语言的紧凑型多语言HuBERT模型
数据集开源项目模型GithubHuggingface声学模型mHuBERT-147多语言训练数据
mHuBERT-147是一个支持147种语言的多语言HuBERT模型,使用95M参数的基础架构,并通过faiss IVF离散语音单元训练。该模型在多项测试中表现优异,特别是在语种识别任务中取得最新的领先成绩,具备良好的应用前景。
marian-finetuned-kde4-en-to-fr - 优化后的KDE4数据集英法翻译模型
开源项目翻译模型Github机器学习HuggingfaceBleukde4test-marian-finetuned-kde4-en-to-fr
该模型对Helsinki-NLP/opus-mt-en-fr进行微调,专注于KDE4数据集的英法翻译,评估中获得52.94的Bleu分数。其使用Adam优化器,线性学习率调度,并在三轮训练中采用混合精度,以提升效率。
face-projection - 人脸投影技术带来新的视觉可能
LoRA开源项目模型GithubHuggingface图像生成人脸f4c3_p40j3ct10n投影
Face Projection项目通过Flux.1 D LoRA模型,让文字或概念在面部图像上投射,创造独特的视觉场景。借助触发词f4c3_p40j3ct10n,用户能将文本转化为投影图像。项目适配Diffusers库,同时提供Safetensors格式模型权重下载,是一个灵活的视觉生成工具。请参阅官方文档获取更多详情和实例,探索技术与创意的全新结合。
chinese-clip-vit-large-patch14 - 结合ViT-L/14和RoBERTa-wwm-base的中文图文对比模型
Chinese-CLIP图文相似度开源项目模型GithubHuggingface图像编码器零样本分类文本编码器
这一模型采用ViT-L/14和RoBERTa-wwm-base进行编码,在大规模中文图文数据集上训练,支持高效的图文嵌入和相似度计算。项目提供直观的API和多项任务评估,展现了在零样本图像分类和图文检索上的杰出表现。
bigvgan_v2_24khz_100band_256x - 大规模训练的通用神经声码器
GradioPyTorch开源项目模型Github神经声码器HuggingfaceBigVGAN音频合成
该项目通过大规模训练为神经声码器领域带来了新的发展。其自定义的CUDA内核实现了1.5至3倍的推理速度提升,满足高效应用需求。利用多尺度的子频段判别器和梅尔谱损失进行训练,适应多种音频环境,涵盖多语言语音和环境音等。项目还集成至Hugging Face Hub,提供预训练模型和交互式演示,支持最高24 kHz的采样率和多种频段配置,为语音合成领域的研究者和开发者提供便利。
t5-base-qg-hl - 基于T5架构的问答生成模型
模型训练问题生成开源项目模型Github高亮标记HuggingfaceT5Python
该模型采用T5-base架构,专注于生成基于答案的问句。通过在文本中使用<hl>标记来突出答案范围,并以</s>结束文本,即可生成相关问题。这一工具提供了直观的使用体验,适合需要自动生成理解型问题的场景,有助于提高文本处理效率。
bert-base-cased-Korean-sentiment - bert-base-cased韩语情感分析模型
Huggingface客户评论情感分析开源项目bert-base-multilingual-cased模型WhitePeakGithub韩语
此情感分析模型基于bert-base-multilingual-cased进行优化,专为韩语购物评论设计,准确率超过92%,用于情感分类。
Codestral-22B-v0.1-GGUF - Codestral-22B量化实现代码生成的多样化选择
Huggingface文本生成量化RAM管理开源项目模型GithubCodestral-22B-v0.1huggingface-cli
Codestral-22B-v0.1模型通过llama.cpp量化,为代码生成提供多种文件选择,适应不同的硬件配置和性能需求。推荐使用高质量的Q6_K和Q5_K量化文件,以获取最佳效果。同时,文中介绍了I-quant与K-quant选择依据,帮助使用者在速度与效果之间找到平衡。文章还详细说明了如何使用huggingface-cli下载文件,以简化获取资源的流程。
Qwen2-1.5B-Instruct-IMat-GGUF - 运用量化技术优化Qwen2-1.5B-Instruct模型的文本生成能力
IMatrixHuggingface文本生成量化开源项目模型Qwen2-1.5B-InstructGithub
项目利用llama.cpp对Qwen2-1.5B-Instruct模型进行量化,支持从8bit到1bit的多种位数及IMatrix数据集。这种方法能减少模型体积且保持性能多样,适用于不同文本生成任务。用户可使用huggingface-cli简便下载及合并文件,以满足不同应用需求。项目因其灵活性及高效性,适宜不同计算资源的使用者,为其提供多样选择。
litellm - 简化管理多个LLM API,兼容多种部署平台
LiteLLMOpenAILLM APIsAzureHuggingfaceGithub开源项目
使用OpenAI格式调用各大LLM API,如Bedrock、Huggingface、VertexAI等,支持统一输出、重试机制和预算管理。LiteLLM提供易用的代理服务器、企业级服务和丰富的日志功能,确保性能稳定可靠。支持异步和流式响应,适配众多LLM平台,为开发者提供高效便捷的集成方案。
相关文章
LiteLLM: 统一调用多种LLM API的强大工具
3 个月前
大型语言模型微调技术全解析:从理论到实践
3 个月前
Firefly-LLaMA2-Chinese: 低资源高效的开源中文大语言模型
3 个月前
Online-RLHF: 从奖励建模到在线人类反馈强化学习的工作流程
3 个月前
Magpie: 一种创新的大语言模型对齐数据生成方法
3 个月前
Gazelle:突破性的联合语音-语言模型
3 个月前
GIGAX: 革命性的本地AI驱动NPC系统
3 个月前
BitNet-Transformers: 1比特量化技术在大型语言模型中的应用与实现
3 个月前
LoRA: 大型语言模型的低秩适应方法
3 个月前