#机器学习

deepseek-coder-6.7b-base - 多语言支持的大规模代码模型,提供项目级智能补全功能
Huggingface机器学习人工智能开源项目代码生成模型Github自然语言处理DeepSeek Coder
deepseek-coder-6.7b-base是一个经过2万亿token训练的大规模代码模型。它支持多种编程语言,能够进行项目级代码补全和填充。该模型在多个编程基准测试中表现优异,16K的上下文窗口使其能够处理大型代码项目。这个开源模型允许商业使用,为开发者提供了强大的编码辅助功能。
filipino-wav2vec2-l-xls-r-300m-official - 基于XLS-R的菲律宾语语音识别模型
模型训练开源项目模型Github机器学习Huggingfacewav2vec2语音识别语音数据集
这是一个针对菲律宾语的语音识别模型,通过在filipino_voice数据集上微调wav2vec2-xls-r-300m实现。经过30轮训练后,模型在测试集上达到了0.2922的词错误率,可用于菲律宾语音频识别任务。
xlm-roberta-xxl - 基于2.5TB数据训练的100语言自然语言处理模型
XLM-RoBERTa-XLGithub开源项目自然语言处理Huggingface机器学习预训练模型多语言模型模型
XLM-RoBERTa-XXL是一个基于2.5TB CommonCrawl数据预训练的多语言Transformer模型,支持100种语言的自然语言处理任务。通过掩码语言建模技术实现句子的双向表示学习,适用于序列分类、标记分类、问答等下游任务的微调,可应用于多语言文本分析和跨语言任务场景。
ko-gpt-trinity-1.2B-v0.5 - SK电信开发的1.2B参数韩语语言模型Ko-GPT-Trinity
自然语言处理GPT-3开源项目人工智能模型Github机器学习Huggingface韩语模型
Ko-GPT-Trinity 1.2B是SK电信基于GPT-3架构开发的12亿参数韩语语言模型。该模型在Ko-DAT数据集上训练了350亿个标记,主要用于韩语文本的生成、分类、搜索和摘要。在推理和语言理解方面表现优异,但对非韩语输入效果较差。模型存在一定偏见和局限性,包括高方差性和可解释性有限,使用时需注意这些特点。
dolly-v2-7b - 基于Pythia的开源指令微调语言模型
transformer开源项目模型Github机器学习Huggingfacedolly-v2-7b指令微调语言模型
dolly-v2-7b是基于Pythia-6.9b架构的指令微调语言模型,通过15000条高质量指令数据训练而成。模型支持问答、分类、生成等核心功能,并采用MIT许可证开放商用。作为开源项目,其突出特点是具备可靠的指令理解能力,为AI应用开发提供了实用的基础模型选择。
bert-large-finetuned-squad2 - BERT大规模问答模型的SQuAD2.0优化实现
SQuAD2.0问答系统BERT机器学习自然语言处理HuggingfaceGithub开源项目模型
bert-large-finetuned-squad2基于BERT大规模模型架构,通过SQuAD2.0数据集微调优化,实现了79.7%的F1评分。该模型支持transformers库快速部署,可识别问题是否有答案并提供准确回答。模型采用384序列长度和优化学习参数,在问答任务中展现稳定性能。
gemma-2-27b-it-GGUF - 中等VRAM用户的多语言与代码生成模型
Huggingface机器学习Gemma开源项目代码生成多语言模型Github谷歌
Gemma 2是由Google开发的27B参数模型,基于Gemini技术,适合中等VRAM用户。该模型能够处理多语言、代码和数学文本,尤其擅长生成代码和解决数学问题,弥补了8B和70B模型之间的空缺。其13万亿词元的训练量使其在多语言和编程语言上尤为出色,具有广泛的应用价值。
Jamba-tiny-dev - 轻量级机器学习模型助力Jamba架构开发调试
机器学习模型调试实验开发HuggingfaceJambaGithub开源项目模型语言模型
Jamba-tiny-dev作为一款小型机器学习模型,专注于Jamba架构的开发测试场景。模型仅包含319M参数并完成40B tokens训练,具备快速部署和可靠输出的特点,主要应用于单元测试等开发环境。需要注意的是,该模型并未经过充分训练,不适合用于生成高质量文本内容。
subnet9_track2_3 - Transformers模型卡片 AI模型信息概览
TransformersHugging Face机器学习自然语言处理Huggingface模型卡Github开源项目模型
Transformers模型卡片是一种标准化文档,汇总了AI模型的关键信息。它涵盖了模型的基本属性、应用场景、潜在风险、训练过程和评估结果等方面。通过提供模型架构、数据来源和环境影响等详细信息,模型卡片增强了AI系统的透明度和可解释性,有助于用户更好地理解和应用这些模型。
xlm-roberta-large-squad2 - XLM-RoBERTa大型模型在多语言环境中的高效问答表现
机器学习多语种Huggingface问答HaystackGithub开源项目模型xlm-roberta-large
XLM-RoBERTa大型模型经过SQuAD 2.0训练,支持多语言提取式问答。结合Haystack和Transformers框架,适用于大规模文档问答。模型评估显示其精准度和F1分数较高,尤其在无答案场景中表现突出,且支持FARM和Transformers间灵活切换。
LLM2Vec-Meta-Llama-3-8B-Instruct-mntp - 基于大语言模型的文本编码器实现语义检索与文本嵌入
语义相似度机器学习Huggingface开源项目LLM2Vec模型Github语言模型文本编码
LLM2Vec项目将解码器型大语言模型转换为文本编码器。项目采用双向注意力机制、掩码token预测和无监督对比学习方法,用于文本嵌入和语义相似度计算。通过Python接口实现文本理解和检索功能,支持自定义指令查询,可进行模型微调以提升性能。
subnet9_best - 深度学习模型评估与文档标准化模板
模型文档模型训练Github开源项目transformersHuggingface机器学习模型评估模型
该项目提供了一个标准化的深度学习模型文档模板,涵盖模型描述、应用场景、潜在风险、训练过程和评估方法等关键信息。模板旨在提高模型文档的完整性和透明度,便于开发者记录和用户理解。此外,模板还包含了环境影响评估和技术规格等特色内容,有助于全面了解模型特性。
ko-reranker - 基于Amazon SageMaker的韩语文本重排序模型优化指南
机器学习自然语言处理HuggingfaceGithub文本分类开源项目RerankerAmazon SageMaker模型
ko-reranker是一个基于BAAI/bge-reranker-large的韩语文本重排序模型,通过直接输出相似度分数优化搜索和问答系统性能。该模型在Amazon SageMaker上使用翻译后的MS MARCO数据集进行微调,在评估指标上优于未经重排序的基线。项目提供了使用Transformers和SageMaker部署模型的指南,适用于需要提高韩语文本检索准确性的应用场景。
Hermes-2-Theta-Llama-3-8B - 融合LLaMA架构的多功能对话语言模型
Llama-3深度学习机器学习HuggingfaceGithub模型融合开源项目人工智能模型
Hermes-2-Theta-Llama-3-8B通过合并Hermes 2 Pro和Llama-3 Instruct两个基础模型,创建了一个功能全面的开源语言模型。经过RLHF强化学习优化后,模型在对话流畅度和任务完成能力上都有显著提升。它不仅支持标准的多轮对话交互,还具备函数调用和结构化数据输出等高级特性,并在AGIEval、GPT4All等多个权威评测中展现出稳定表现。
llavanext-qwen-tokenizer - 自动生成Transformers模型卡片的标准化工具
模型卡片机器学习自然语言处理HuggingfaceGithub开源项目模型人工智能transformers
一个开源的模型文档标准化工具,基于Hugging Face Transformers框架开发。工具提供了包含模型详情、使用场景、训练参数等完整的文档模板,帮助开发者快速生成规范的模型卡片文档,实现AI模型信息的统一管理和共享。
llava-next-interleave-qwen-7b-dpo - 多模态数据研究的开源聊天机器人
Huggingface机器学习多模态研究开源项目模型GithubLLaVA-Next开源
LLaVA-Next Interleave是一款开源的聊天机器人,基于Transformer架构,专为多模态指令数据的研究而优化。主要用于计算机视觉、自然语言处理和人工智能的非商业研究,适合研究人员和爱好者使用。用户需要遵循OpenAI条款和语言模型的许可协议,如Llama社区许可。
CLIP-ViT-B-32-DataComp.XL-s13B-b90K - 基于DataComp-1B训练的CLIP图像分类模型
图像分类Huggingface机器学习CLIP人工智能开源项目模型GithubDataComp
CLIP ViT-B/32是一个使用DataComp-1B数据集训练的图像分类模型,在ImageNet-1k测试中达到72.7%零样本分类准确率。模型支持图像分类、图像文本检索等功能,主要面向多模态机器学习研究使用。
bloom-3b - 开源多语言文本生成模型Bloom支持46种语言处理与生成
Huggingface文本生成机器学习开源项目模型BLOOMGithub多语言模型自然语言处理
Bloom-3b作为开源多语言文本生成模型,实现了英语、法语、中文等46种语言的自然语言处理功能。经arc_challenge、boolq等基准测试验证,在文本生成和代码生成任务中具备稳定表现。这一多语言模型的开发扩展了自然语言处理技术的应用范围。
english-filipino-wav2vec2-l-xls-r-test-09 - XLSR-53架构英语和菲律宾语双语语音识别模型
Huggingfacewav2vec2人工智能语音识别模型Github开源项目语音模型机器学习
这是一个基于wav2vec2-large-xlsr-53-english模型在filipino_voice数据集上微调的英语-菲律宾语语音识别模型。通过20轮训练,模型在评估集上达到1.0054的损失值和57.50%的词错误率。采用Adam优化器、线性学习率调度和混合精度训练等技术,模型性能逐步提升,最终实现了较好的双语语音识别效果。
CLIP-ViT-B-32-256x256-DataComp-s34B-b86K - 基于DataComp训练的CLIP多模态视觉语言模型
开源项目模型GithubViT-B-32机器学习HuggingfaceCLIPDataComp-1B图像分类
CLIP ViT-B/32是一个在DataComp-1B数据集上训练的视觉语言模型,通过OpenCLIP框架实现。模型在ImageNet-1k分类任务中实现72.7%零样本准确率,支持图像分类、跨模态检索等研究任务。该开源项目为计算机视觉研究提供了重要的实验基础
aya-23-8B - 支持23种语言的开源多语言大模型
机器学习Aya-23-8B自然语言处理HuggingfaceGithub开源项目模型人工智能多语言模型
Aya-23-8B是由Cohere For AI开发的开源多语言大模型,基于Command系列模型架构,通过Aya Collection数据集进行指令微调。该模型包含80亿参数,支持阿拉伯语、中文、英语在内的23种语言,具有8192的上下文长度。模型采用优化的Transformer架构,主要面向学术研究和非商业应用场景。
tinyroberta-squad2 - 经过蒸馏优化的快速问答模型,运行速度提升一倍
tinyroberta-squad2开源项目模型Github机器学习Huggingface问答系统语言模型数据提取
tinyroberta-squad2是一个基于SQuAD 2.0数据集训练的轻量级问答模型。通过知识蒸馏技术,模型在保持原有精确匹配率78.86%和F1分数82.04%的同时,将运行速度提升一倍。模型支持Haystack和Transformers框架,可用于构建文本问答系统。
task-13-Qwen-Qwen1.5-0.5B - Qwen1.5-0.5B模型的参数高效微调项目
PEFT人工智能QwenGithub机器学习开源项目Huggingface模型模型卡片
该项目利用PEFT库对Qwen1.5-0.5B模型进行参数高效微调。通过这种技术,开发者可以在保留模型核心能力的同时,针对特定任务优化性能。尽管项目细节尚待完善,但它为AI研究人员和开发者提供了一个灵活的框架,用于进行模型定制和应用开发。这种方法有望在降低计算资源需求的同时,实现模型在特定领域的性能提升。
MiniCPM3-4B - 轻量高效的开源模型支持长文本处理和函数调用
开源模型MiniCPM3Huggingface人工智能模型Github开源项目大语言模型机器学习
MiniCPM3-4B是一款开源语言模型,仅用4B参数就达到了接近GPT-3.5-Turbo的性能。它具备32k上下文窗口、函数调用和代码解释器等功能,在中英双语、数学和编程等多个基准测试中表现出色。通过创新的训练策略,MiniCPM3-4B实现了与7B-9B模型相当的能力,为资源受限的AI应用场景提供了高效选择。
pebblo-classifier - 基于BERT的文本分类工具,优化协议文件整理
文本分类文档分类BERTGithub开源项目Pebblo ClassifierHuggingface机器学习模型
Pebblo Classifier是由DAXA.AI开发的文本分类模型,能够高效地对组织中的协议文档进行分类。该模型基于BERT技术,并从distilbert-base-uncased进行细调,支持21种文档标签分类,如董事会协议和咨询协议,简化文档整理过程。无需重新微调,用户可以通过简单代码实现快速集成。测试结果显示了模型的高精度和可靠性。
gemma-2-9b-it - 优化模型微调,降低内存使用,提升处理性能
内存优化量化模型机器学习HuggingfaceGithub开源项目模型transformers免费调优
采用Unsloth技术,通过4bit量化实现Gemma 2 (9B)模型在低内存环境下的高效微调。Google Colab笔记本适合初学者,便于用户添加数据集和运行,获得性能提升至2倍的微调模型,支持导出为GGUF、vLLM或上传至Hugging Face,并减少内存使用达63%。
Hiring Studio by Metaview - 招聘面试题智能生成工具
AI工具Metaview招聘工具AI生成问题面试问题生成机器学习
Hiring Studio by Metaview 是一款为招聘团队设计的面试题生成工具,它基于特定领域微调的大型语言模型(LLM),能够快速生成岗位面试题。通过输入工作描述,工具可以提供定制化的面试题建议,提升招聘效率和面试质量。适合不同行业用来扩充面试题库,简化招聘流程。
Bio_Discharge_Summary_BERT - 改进电子健康记录分析的Bio_Discharge_Summary_BERT模型
ClinicalBERTHuggingfaceMIMIC III电子健康记录模型Github开源项目自然语言处理机器学习
Bio_Discharge_Summary_BERT模型基于BioBERT进行初始化,专注于分析MIMIC III数据库的出院小结文本。经过专业的数据预处理和基于Google BERT的训练,该模型在医疗文本处理任务中展现出优异表现,可以通过transformers库加载,用于医疗研究和实际应用。
openchat-3.6-8b-20240522 - 基于Llama 3架构的混合数据训练语言模型
机器学习HuggingfaceGithub开源项目模型人工智能开源技术OpenChat 3.6语言模型
OpenChat-3.6-8b-20240522是基于Llama 3架构开发的8B参数规模语言模型。模型采用混合质量数据训练方法,支持8192个上下文长度,可通过OpenChat包或OpenAI兼容API部署。适用场景包括代码开发、对话交互等通用任务,在基准测试中显示出相对同规模模型的性能优势。模型在复杂推理、数学运算等方面存在一定局限,且可能出现信息幻觉现象。
gpt2-lora-random - GPT2模型LoRA微调框架 提升语言模型性能的开源项目
peft机器学习Github开源项目Huggingface深度学习框架模型训练gpt2模型
gpt2-lora-random项目利用PEFT框架实现GPT2模型的LoRA微调。通过Low-Rank Adaptation技术,该项目降低了模型训练的资源需求和参数量。它为开发者提供了一个用于自然语言处理任务优化的灵活框架。项目文档涵盖了模型训练流程和环境影响评估指南,适合研究人员和工程师使用。
kcbert-base - 基于韩语评论数据构建的KcBERT模型实现性能优化
数据清洗Github开源项目한국语情绪分析HuggingfaceKcBERT机器学习模型
KcBERT项目通过解析与处理韩语口语化评论数据,构建了专注于口语文本的预训练BERT模型。该模型在情感分析与实体识别等多项任务中表现优异,具备良好的适应性。通过Huggingface Transformers,用户无需额外下载文档即可使用并微调模型,同时KcBERT提供多种优化策略和数据集下载方式,以适应不同需求。
nerkor-cars-onpp-hubert - 匈牙利语命名实体识别模型实现30余类实体智能检测
语料库标注OntoNotesHuggingface机器学习NerKor开源项目模型命名实体识别Github
这款匈牙利语命名实体识别模型基于SZTAKI-HLT/hubert-base-cc架构开发,具备多样化的实体识别能力。模型可识别人名、地点、组织机构等基础实体,同时支持日期、时间、货币等数值型实体,总计超过30种实体类型。通过NerKor+CARS-ONPP语料库训练,最大处理序列长度为448,能够有效完成匈牙利语文本中的实体分析工作。
SWE-Llama-7b - GitHub软件工程问题解决模型变体优化
SWE-LlamaHuggingface机器学习软件工程SWE-bench开源项目模型GitHubGithub
项目基于CodeLlama模型变体,优化针对GitHub问题和请求的处理。在SWE-bench基准测试中,SWE-Llama模型通过微调19,000个来自37个热门Python代码库的案例,专注生成问题解决补丁。训练过程中使用LoRA方法微调注意力矩阵,7b和13b版本在oracle情境检索下分别实现了3.0%和4.0%的解决率。这一模型可有效提升软件工程任务的解决效率。
Tarsier-7b - 开源大规模视频语言模型,提升视频描述和理解能力
视频描述开源项目人工智能模型Github机器学习Huggingface计算机视觉Tarsier
Tarsier-7b是一个开放源代码的视频语言模型,专注于视频描述和理解。该模型使用两阶段的训练策略以增强性能,能够生成高质量的视频描述。训练过程包括多任务预训练和多粒度微调,并通过多种数据集进行评估,从而保证出色性能。适合从事计算机视觉与自然语言处理研究的研究人员和爱好者使用,可在相关平台获取更多信息。
occiglot-7b-it-en-instruct - 支持英语和意大利语的多语言生成语言模型
Huggingface机器学习文本生成开源项目模型Occiglot-7B-it-en-InstructGithubApache许可证多语言模型
Occiglot-7B-it-en-Instruct是一款多语言生成模型,具备70亿参数,覆盖欧盟五大语言,如英语和意大利语。其通过160M多语言和代码指令进行训练,由Occiglot Research Collective开发。项目未进行安全对齐,可能生成有问题的内容,欢迎多语言模型研究者参与合作。
Llama-3-8B-Instruct-v0.8 - 高效文本生成的先进开源模型
Llama-3-8B-InstructGithub开源项目文本生成Open LLM Leaderboard量化Huggingface机器学习模型
本页面介绍了Llama-3-8B-Instruct-v0.8模型,该模型是在MaziyarPanahi的Llama-3-8B-Instruct-v0.4基础上开发的,专注于高效的文本生成。它在AI2推理挑战、HellaSwag等多个基准测试中表现出色,是前五名8B模型之一。量化的GGUF变体使其在多种应用场景下性能更高效,详细的评价结果请参考开放LLM排行榜。