Project Icon

rugpt3small_based_on_gpt2

俄语预训练语言模型基于GPT-2架构

rugpt3small_based_on_gpt2是SberDevices团队开发的俄语预训练语言模型。基于GPT-2架构,该模型在80B个token上训练约3轮,序列长度为1024,并进行了2048上下文长度的微调。训练过程耗时一周,使用32个GPU。该模型为俄语自然语言处理提供了坚实基础,其详细设计和评估已在相关论文中记录。

GPT2-Chinese - GPT2-Chinese:支持多种中文Token化和大规模语料训练
BERT分词器GPT2-ChineseGithubHuggingface中文语言模型开源项目预训练模型
GPT2-Chinese项目提供了适用于中文的GPT2训练代码,支持BERT和BPE Tokenizer,能够生成诗词、新闻、小说等内容,适用于大规模语料训练。该项目基于Pytorch实现,支持最新的预训练模型,如通用中文模型和古诗词模型。详细的模型信息可以在Huggingface Model Hub中找到。用户可以自行训练和生成文本,同时支持FP16和梯度累积。
ruadapt_llama3_instruct_lep_saiga_kto_ablitirated - 基于LEP和KTO技术的俄语适配大语言模型
GithubHuggingfaceLLaMa俄语适配开源项目机器学习模型自然语言处理语言模型
ruadapt_llama3_instruct_lep_saiga_kto_ablitirated是一个基于LLaMA 3和Learned Embedding Propagation (LEP)技术的大语言模型。它通过KTO和abliteration技术,在saiga_preferences数据集上训练,支持俄语和英语。模型运用先进的分词技术优化俄语适配,为自然语言处理提供新方案。这一创新模型特别适用于需要高质量俄语理解和生成的NLP任务,如机器翻译、文本分类和问答系统等。
gpt2-small-portuguese - 葡萄牙语NLP高效精调模型的详细解析
GPorTuguese-2GithubHuggingfaceNLP任务开源项目微调模型葡萄牙语语言模型
研究展示了如何在有限资源下使用Hugging Face和fastai v2对英语GPT-2进行精调,构建出葡萄牙语语言模型。该模型基于GPT-2 small,经过一天训练获得37.99%的准确率和23.76的困惑度,显示了其在葡萄牙语文本生成及其他NLP任务中的表现。研究指出,迁移学习可在任何语言的前沿语言模型开发中发挥作用。
rut5_base_headline_gen_telegram - 俄罗斯T5模型的电报头条生成工具
GithubHuggingfaceIT公司Совет Федерацииналогообложение俄罗斯全球互联网公司开源项目模型
通过对RuAll数据集的训练,这个项目基于RuT5基础模型,专注于生成电报讯息的标题。项目使用Python与Transformers库,提供文本摘要自动生成方案,适用于新闻短讯等文本。该模型能够生成符合俄罗斯语言习惯的新闻标题,被设计用于社交媒体和新闻聚合平台等场景,并指出模型的适用范围和局限性。
Vikhr-Nemo-12B-Instruct-R-21-09-24 - 全新升级的俄英双语大语言模型 内置RAG检索增强功能
GithubHuggingfaceRAG技术Vikhr-Nemo人工智能开源项目机器学习模型语言模型
Vikhr-Nemo-12B-Instruct-R是一个基于Mistral-Nemo的开源语言模型,针对俄语和英语进行了深度优化。模型通过SFT和SMPO方法训练,具备推理分析、文本生成、代码编写等多项能力。其特色在于支持RAG检索增强和128K长文本处理,在俄语基准测试中接近gpt-4o-mini水平。该项目完全开源,包含训练代码和数据集。
mgpt - 支持61种语言的多语言生成式预训练模型
GithubmGPT多语言模型开源项目深度学习自然语言处理预训练
mGPT是一个基于GPT-3的多语言模型,覆盖25个语系的61种语言。该模型使用维基百科和C4语料库进行预训练,包含低资源语言。mGPT在语言建模、跨语言自然语言理解和世界知识探测等方面表现出色,上下文学习能力与同期模型相当。项目代码和模型以MIT许可证开源。
rut5-base-absum - 结合多任务训练的俄语文本抽象摘要模型
GithubHuggingfacePyTorchRussian summarization开源项目数据集模型模型微调语言模型
该模型基于cointegrated/rut5-base-multitask,为俄语文本的抽象摘要进行了优化,微调时使用了四个数据集。通过指定文本和参数,如词数、压缩率及最大长度,生成简明准确的摘要,适用于多种长度和复杂程度的文本。模型在提高摘要效率和内容相关性方面表现优异,特别适合需要简化信息的场合。
opt-2.7b - Meta AI开发的开放预训练Transformer语言模型
GithubHuggingfaceOPT人工智能开源项目文本生成模型自然语言处理预训练语言模型
OPT是Meta AI开发的开放预训练Transformer语言模型系列,参数规模125M至175B。采用先进数据收集和训练方法,性能与GPT-3相当。旨在促进大规模语言模型的可重复研究,扩大研究群体。主要基于英语语料预训练,使用因果语言建模,适用于文本生成和下游任务微调。OPT开放了完整模型访问权限,有助于研究大语言模型的工作原理、影响及相关挑战。
kogpt2-base-v2 - 推动韩语自然语言处理的开源模型
GithubHuggingfaceKoGPT2人工智能开源项目模型自然语言处理韩语模型
KoGPT2(kogpt2-base-v2)是SKT-AI团队开发的韩语GPT-2模型,采用开源方式发布,使用cc-by-nc-sa-4.0许可证。该模型在文本生成、对话系统等多个韩语自然语言处理任务中表现优异。KoGPT2为韩语AI研究和应用提供了重要工具,推动了韩语NLP技术的发展。研究者和开发者可通过GitHub了解更多详情,探索KoGPT2在韩语处理领域的应用潜力。
T0_3B - 小规模T0模型超越GPT-3,进行零样本自然语言任务处理
GithubHuggingfaceT0偏见与公平性开源项目模型模型训练自然语言处理评估数据
T0*模型通过自然语言提示实现零样本任务泛化,性能超越GPT-3,且模型体积缩小至16分之一。该模型在多任务提示数据集中微调,能够针对未见任务做出高效预测。适用于多种推理场景,包括情感分析、句子重排列和词义判断等。其训练数据源自多个数据集并经过严谨评估,保障模型性能可靠性。虽然T0*模型参数较大,但通过优化和并行化方案能够有效应用于多GPU环境。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号