#机器学习
llava-next-interleave-qwen-7b-dpo - 多模态数据研究的开源聊天机器人
Github开源项目开源机器学习模型多模态Huggingface研究LLaVA-Next
LLaVA-Next Interleave是一款开源的聊天机器人,基于Transformer架构,专为多模态指令数据的研究而优化。主要用于计算机视觉、自然语言处理和人工智能的非商业研究,适合研究人员和爱好者使用。用户需要遵循OpenAI条款和语言模型的许可协议,如Llama社区许可。
llavanext-qwen-tokenizer - 自动生成Transformers模型卡片的标准化工具
人工智能Github开源项目自然语言处理机器学习模型transformersHuggingface模型卡片
一个开源的模型文档标准化工具,基于Hugging Face Transformers框架开发。工具提供了包含模型详情、使用场景、训练参数等完整的文档模板,帮助开发者快速生成规范的模型卡片文档,实现AI模型信息的统一管理和共享。
Hermes-2-Theta-Llama-3-8B - 融合LLaMA架构的多功能对话语言模型
人工智能Github开源项目深度学习机器学习模型Huggingface模型融合Llama-3
Hermes-2-Theta-Llama-3-8B通过合并Hermes 2 Pro和Llama-3 Instruct两个基础模型,创建了一个功能全面的开源语言模型。经过RLHF强化学习优化后,模型在对话流畅度和任务完成能力上都有显著提升。它不仅支持标准的多轮对话交互,还具备函数调用和结构化数据输出等高级特性,并在AGIEval、GPT4All等多个权威评测中展现出稳定表现。
ko-reranker - 基于Amazon SageMaker的韩语文本重排序模型优化指南
Github开源项目自然语言处理机器学习模型HuggingfaceAmazon SageMaker文本分类Reranker
ko-reranker是一个基于BAAI/bge-reranker-large的韩语文本重排序模型,通过直接输出相似度分数优化搜索和问答系统性能。该模型在Amazon SageMaker上使用翻译后的MS MARCO数据集进行微调,在评估指标上优于未经重排序的基线。项目提供了使用Transformers和SageMaker部署模型的指南,适用于需要提高韩语文本检索准确性的应用场景。
subnet9_best - 深度学习模型评估与文档标准化模板
Github开源项目模型训练机器学习模型transformers模型评估Huggingface模型文档
该项目提供了一个标准化的深度学习模型文档模板,涵盖模型描述、应用场景、潜在风险、训练过程和评估方法等关键信息。模板旨在提高模型文档的完整性和透明度,便于开发者记录和用户理解。此外,模板还包含了环境影响评估和技术规格等特色内容,有助于全面了解模型特性。
LLM2Vec-Meta-Llama-3-8B-Instruct-mntp - 基于大语言模型的文本编码器实现语义检索与文本嵌入
Github开源项目机器学习语言模型模型Huggingface文本编码语义相似度LLM2Vec
LLM2Vec项目将解码器型大语言模型转换为文本编码器。项目采用双向注意力机制、掩码token预测和无监督对比学习方法,用于文本嵌入和语义相似度计算。通过Python接口实现文本理解和检索功能,支持自定义指令查询,可进行模型微调以提升性能。
xlm-roberta-large-squad2 - XLM-RoBERTa大型模型在多语言环境中的高效问答表现
Github开源项目机器学习Haystack问答模型Huggingface多语种xlm-roberta-large
XLM-RoBERTa大型模型经过SQuAD 2.0训练,支持多语言提取式问答。结合Haystack和Transformers框架,适用于大规模文档问答。模型评估显示其精准度和F1分数较高,尤其在无答案场景中表现突出,且支持FARM和Transformers间灵活切换。
subnet9_track2_3 - Transformers模型卡片 AI模型信息概览
Github开源项目自然语言处理机器学习Hugging Face模型TransformersHuggingface模型卡
Transformers模型卡片是一种标准化文档,汇总了AI模型的关键信息。它涵盖了模型的基本属性、应用场景、潜在风险、训练过程和评估结果等方面。通过提供模型架构、数据来源和环境影响等详细信息,模型卡片增强了AI系统的透明度和可解释性,有助于用户更好地理解和应用这些模型。
Jamba-tiny-dev - 轻量级机器学习模型助力Jamba架构开发调试
Github开源项目机器学习语言模型模型HuggingfaceJamba模型调试实验开发
Jamba-tiny-dev作为一款小型机器学习模型,专注于Jamba架构的开发测试场景。模型仅包含319M参数并完成40B tokens训练,具备快速部署和可靠输出的特点,主要应用于单元测试等开发环境。需要注意的是,该模型并未经过充分训练,不适合用于生成高质量文本内容。
gemma-2-27b-it-GGUF - 中等VRAM用户的多语言与代码生成模型
Github开源项目代码生成多语言机器学习模型谷歌GemmaHuggingface
Gemma 2是由Google开发的27B参数模型,基于Gemini技术,适合中等VRAM用户。该模型能够处理多语言、代码和数学文本,尤其擅长生成代码和解决数学问题,弥补了8B和70B模型之间的空缺。其13万亿词元的训练量使其在多语言和编程语言上尤为出色,具有广泛的应用价值。
bert-large-finetuned-squad2 - BERT大规模问答模型的SQuAD2.0优化实现
Github开源项目自然语言处理机器学习BERT模型问答系统HuggingfaceSQuAD2.0
bert-large-finetuned-squad2基于BERT大规模模型架构,通过SQuAD2.0数据集微调优化,实现了79.7%的F1评分。该模型支持transformers库快速部署,可识别问题是否有答案并提供准确回答。模型采用384序列长度和优化学习参数,在问答任务中展现稳定性能。
dolly-v2-7b - 基于Pythia的开源指令微调语言模型
Github开源项目机器学习语言模型模型Huggingface指令微调transformerdolly-v2-7b
dolly-v2-7b是基于Pythia-6.9b架构的指令微调语言模型,通过15000条高质量指令数据训练而成。模型支持问答、分类、生成等核心功能,并采用MIT许可证开放商用。作为开源项目,其突出特点是具备可靠的指令理解能力,为AI应用开发提供了实用的基础模型选择。
ko-gpt-trinity-1.2B-v0.5 - SK电信开发的1.2B参数韩语语言模型Ko-GPT-Trinity
人工智能Github开源项目自然语言处理机器学习模型HuggingfaceGPT-3韩语模型
Ko-GPT-Trinity 1.2B是SK电信基于GPT-3架构开发的12亿参数韩语语言模型。该模型在Ko-DAT数据集上训练了350亿个标记,主要用于韩语文本的生成、分类、搜索和摘要。在推理和语言理解方面表现优异,但对非韩语输入效果较差。模型存在一定偏见和局限性,包括高方差性和可解释性有限,使用时需注意这些特点。
xlm-roberta-xxl - 基于2.5TB数据训练的100语言自然语言处理模型
Github开源项目预训练模型自然语言处理机器学习模型Huggingface多语言模型XLM-RoBERTa-XL
XLM-RoBERTa-XXL是一个基于2.5TB CommonCrawl数据预训练的多语言Transformer模型,支持100种语言的自然语言处理任务。通过掩码语言建模技术实现句子的双向表示学习,适用于序列分类、标记分类、问答等下游任务的微调,可应用于多语言文本分析和跨语言任务场景。
filipino-wav2vec2-l-xls-r-300m-official - 基于XLS-R的菲律宾语语音识别模型
Github开源项目模型训练语音识别机器学习模型Huggingface语音数据集wav2vec2
这是一个针对菲律宾语的语音识别模型,通过在filipino_voice数据集上微调wav2vec2-xls-r-300m实现。经过30轮训练后,模型在测试集上达到了0.2922的词错误率,可用于菲律宾语音频识别任务。
deepseek-coder-6.7b-base - 多语言支持的大规模代码模型,提供项目级智能补全功能
人工智能Github开源项目自然语言处理代码生成机器学习模型HuggingfaceDeepSeek Coder
deepseek-coder-6.7b-base是一个经过2万亿token训练的大规模代码模型。它支持多种编程语言,能够进行项目级代码补全和填充。该模型在多个编程基准测试中表现优异,16K的上下文窗口使其能够处理大型代码项目。这个开源模型允许商业使用,为开发者提供了强大的编码辅助功能。
opt-30b - Meta AI开发的开源预训练语言模型GPT-3替代方案
人工智能Github开源项目自然语言处理机器学习语言模型模型HuggingfaceOPT
OPT是Meta AI推出的Transformer语言模型系列,最大规模达175B参数。模型基于800GB数据训练,包含BookCorpus、CC-Stories等多个数据集,支持文本生成和下游任务微调。其开源性质使研究人员能够深入研究大规模语言模型的性能表现、伦理影响及安全性问题。
llava-onevision-qwen2-7b-si - 多模态AI模型实现图像和视频的深度理解
Github开源项目机器学习模型图像识别多模态Qwen2HuggingfaceLLaVA-OneVision
LLaVA-OneVision是一个基于Qwen2语言模型的多模态AI系统,拥有32K tokens的上下文窗口。该模型能够处理单图像、多图像和视频输入,在多个基准测试中表现出色。支持英语和中文,适用于广泛的视觉理解任务。开发者可通过提供的Python代码快速集成该模型,实现图像分析和问答功能。
CodeLlama-7b-Instruct-hf - Meta推出的7B参数代码生成模型 支持多语言编程
Github开源项目代码生成机器学习人工智能模型开发工具模型HuggingfaceCode Llama
CodeLlama-7b-Instruct-hf是Meta开发的7B参数代码生成模型,基于优化的Transformer架构。它支持代码补全、插入和指令跟随,适用于多种编程语言,尤其擅长Python。作为Code Llama系列的一员,该模型提供安全的代码助手功能,可用于商业和研究领域。
roberta-base - 基于大规模韩语数据集的RoBERTa预训练语言模型
Github开源项目自然语言处理机器学习模型RoBERTaHuggingface韩语模型KLUE
RoBERTa-base是KLUE(Korean Language Understanding Evaluation)项目开发的韩语预训练模型,基于BertTokenizer分词器构建,支持transformers库直接调用。作为韩语语言理解评估框架的基础模型,主要应用于韩语自然语言处理任务和相关研究工作。
Llama-3-8b-sft-mixture - 基于多样化高质量数据集训练的大语言模型微调检查点
人工智能Github开源项目机器学习语言模型模型RLHFHuggingfaceLLaMA3-SFT
Llama-3-8b-sft-mixture是基于Meta-Llama-3-8B模型训练的SFT检查点,通过对ShareGPT、Evol-Instruct等九个高质量数据集进行混合训练而成。该模型经过1个epoch的训练,尚未经过RLHF,可作为RLHF研究的理想起点。模型适用于强化学习研究,详细参数可参考相关技术报告。
timesformer-base-finetuned-k400 - TimeSformer视频分类模型的Kinetics-400数据集实现
Github开源项目机器学习模型Huggingface视频理解视频分类TimeSformerKinetics-400
TimeSformer是一个基于空间-时间注意力机制的视频分类模型,在Kinetics-400数据集上完成微调。该模型支持400类视频标签分类,由Facebook Research开发并在Hugging Face平台开源。模型采用transformer架构处理视频序列,可通过Python接口实现快速部署和预测。
Phi-3-mini-4k-instruct - 高效节省内存的模型微调策略,快速实现量化优化
Github开源项目机器学习量化模型模型HuggingfacePhi-3内存优化免费微调
此项目通过Unsloth量化技术,提供高效的Mistral平台大模型微调方案,速度提升至2-5倍,内存占用降低至50-70%。提供的Colab笔记本支持Phi-3、Llama 3、Gemma 2等多种模型,简单易用,适合初学者。用户可以节省计算资源,并将微调后的模型导出至GGUF或上传至Hugging Face,方便成果共享。
ner-bert-german - 基于BERT的德语命名实体识别模型实现精准NER分析
Github开源项目自然语言处理机器学习BERT模型命名实体识别Huggingface德语
该模型通过对bert-base-multilingual-cased进行微调,实现德语文本中位置、组织和人名的识别。模型在wikiann数据集训练后,总体F1分数达0.8829,在人名实体识别方面表现尤为出色。模型使用Adam优化器和线性学习率调度器,经7轮训练完成。
Anole-7b-v0.1-hf - 基于深度学习的多模态文本图像交互生成模型
Github开源项目深度学习机器学习模型多模态HuggingfaceAnole图文生成
Anole-7b-v0.1-hf是一个基于深度学习的多模态模型,专注于文本和图像的联合生成。该模型在Chameleon基础上,通过6000张图像数据集的微调训练,实现了文本图像交互生成、图像理解等核心功能。模型支持结构化生成、文本到图像转换、文本图像混合输出等应用场景,可用于多模态AI研究与开发。测试显示该模型能准确理解指令并生成符合要求的图文内容。
ke-t5-base - 多语言能力的文本生成与统一NLP框架
Github开源项目文本生成自然语言处理机器学习模型Huggingface跨语言T5
KE-T5模型实现了NLP任务的文本到文本一致性处理,适用于翻译、摘要和问答等领域。通过英韩预训练,增强非英语对话模型表现。其220百万参数支持同一损失函数和超参数设定,可用于生成、分类及回归任务。建议用户在使用时留意潜在偏见和局限。
bert-finetuned-japanese-sentiment - 日语电商评论情感分析BERT微调模型
Github开源项目自然语言处理机器学习BERT模型情感分析Huggingface日语处理
该模型基于cl-tohoku/bert-base-japanese-v2微调,使用20,000条亚马逊日语评论进行训练。经过6轮训练后,模型能够将文本准确分类为正面、中性或负面情感,验证集准确率达81.32%。此模型主要适用于日语电商评论等领域的情感分析任务。
SecureBERT_Plus - 网络安全领域的增强版语言模型
Github开源项目机器学习语言模型模型数据集网络安全HuggingfaceSecureBERT+
该模型在网络安全数据上进行训练,提升了9%的MLM性能,使用8xA100 GPU进行大规模训练,目前已上传至Huggingface平台,供用户访问和使用。
bert-base-arabert - AraBERT阿拉伯语言理解预训练模型
Github开源项目自然语言处理机器学习模型Huggingface语料库阿拉伯语言模型AraBERT
AraBERT是一个阿拉伯语言理解预训练模型系列,提供从基础到大型等多个版本。模型基于超过77GB的阿拉伯语语料库训练,适用于情感分析、命名实体识别和问答等任务,支持主流深度学习框架。
vicuna-13b-v1.3 - 基于LLaMA微调的Vicuna聊天助手优化交互
Github开源项目自然语言处理机器学习Vicuna模型LLaMAHuggingface聊天助手
Vicuna v1.3是由LMSYS开发的聊天助手,通过对LLaMA进行125K对话的指令微调,专用于大语言模型和聊天机器人研究,主要用户为自然语言处理、机器学习和人工智能领域的研究者和爱好者。模型经过标准基准、人类偏好及语言模型评测。查看项目主页以获取版本差异的更多信息。
tamil-llama-7b-instruct-v0.1 - 改进泰米尔文本生成的高性能语言模型
Github开源项目文本生成机器学习语言模型模型NLPHuggingfaceTamil LLaMA
Tamil LLaMA 7B Instruct v0.1在泰米尔语处理方面取得关键进展。作为优化后的GPT模型,它在文本生成中表现出色,并可通过微调适应特定的NLP任务。模型基于16,000个泰米尔词汇,并集成顶尖数据集,如AI2 Reasoning Challenge和HellaSwag,提供高精度的多领域能力。
german-gpt2 - 开源的德语预训练语言模型
Github开源项目文本生成自然语言处理机器学习模型GPT-2Huggingface德语
German-GPT2是DBMDZ开发的德语预训练语言模型,基于GPT-2架构构建。模型通过大规模德语语料库训练,采用5万词汇量的字节级BPE编码。项目开源发布,提供便捷的API接口,支持文本生成等自然语言处理任务。作为基础模型,German-GPT2主要用于进一步针对特定任务的微调训练。
decapoda-research-llama-7B-hf - Meta AI开发的7B参数开源语言模型
人工智能Github开源项目大语言模型机器学习模型LLaMAHuggingface语言训练
LLaMA-7B是Meta AI开发的开源语言模型,基于Transformer架构,拥有70亿参数。该模型在多语言数据集上训练,主要针对英语优化,可用于自然语言处理研究,如问答和语言理解。LLaMA-7B适合研究人员探索大型语言模型的能力和局限性,但在实际应用中需要进行风险评估。本模型为基础模型,不建议直接用于下游任务。
phobert-base-vietnamese-sentiment - PhoBERT微调的越南语情感分析模型
Github开源项目机器学习模型情感分析Huggingface文本分类越南语phobert
该项目基于vinai/phobert-base模型微调,专门用于越南语情感分析。模型可将文本分为负面、正面或中性三类情感。使用30K电子商务评论数据集训练,适用于分析越南语句子的情感倾向。项目提供了简单的集成方法,方便在NLP应用中实现越南语情感分析功能。
Big-Tiger-Gemma-27B-v1-GGUF - 优化27B参数的高效解码模型 拒绝率低
Github开源项目神经网络机器学习Hugging Face模型HuggingfaceBig Tiger Gemma 27B v1
探索27B参数的无审查优化模型 大幅减少信息拒绝 提高复杂计算任务性能 支持多版本改进 包括GGUF和iMatrix 提供优质计算表现和精确度 提升模型应用体验
xlnet-large-cased - 基于排列语言建模的先进NLP工具
Github开源项目预训练模型自然语言处理机器学习模型XLNetTransformer-XLHuggingface
XLNet大型模型是一种基于英语数据预训练的先进自然语言处理工具。该模型采用新颖的广义排列语言建模方法,结合Transformer-XL架构,在处理长文本上下文时展现出卓越性能。XLNet在问答、自然语言推理、情感分析及文档排序等多项任务中均取得了领先成果。这一模型主要用于下游任务的微调,尤其适合需要分析完整句子的序列分类、标记分类或问答等应用场景。
相关文章
Ray: 统一框架助力AI和Python应用扩展
3 个月前
SQLFlow: 融合SQL与AI的创新技术
3 个月前
Efficient-AI-Backbones: 华为诺亚方舟实验室开发的高效AI骨干网络
3 个月前
Netron: 强大的神经网络和机器学习模型可视化工具
3 个月前
DVC: 开源数据版本控制系统助力数据科学和机器学习项目
3 个月前
SynapseML:简单而强大的分布式机器学习库
3 个月前
TensorWatch: 微软开源的机器学习调试与可视化工具
3 个月前
AI专家路线图2024:成为人工智能专家的学习指南
3 个月前
Ray :用于扩展 AI 和 Python 应用程序的统一框架
2024年08月03日