Project Icon

roberta-base-finetuned-abbr

RoBERTa微调模型实现高精度缩写检测

这是一个基于roberta-base在PLOD-filtered数据集上微调的模型,专门用于缩写检测。模型在评估中表现优异,精确率0.9645,召回率0.9583,F1值0.9614。采用掩码语言建模预训练,学习双向语言表示,适用于序列标注特别是缩写检测任务,为NLP应用提供有力支持。

vocab-coverage - 中文语言模型识字率与词向量分布分析
BERTERNIEGithub中文认知开源项目词向量语言模型
该项目分析了多种语言模型的中文识字率与词向量分布情况,通过字符集分类和词向量空间分布的研究,了解模型在处理中文字符时的认知能力。涵盖了BERT、ERNIE、roBERTa等模型的对比,以及不同字符集的识字判定,为后续的模型评估和改进提供了参考。
AliceMind - 阿里巴巴预训练编码器和解码器模型集合
AliceMindGithub优化技术多模态语言模型大规模预训练模型开源项目模型压缩
此项目涵盖了阿里巴巴机器智能实验室(MinD Lab)开发的多种预训练模型和优化技术。包括首个提升多模态大语言模型mPLUG-Owl2和多模态文档理解模型mPLUG-DocOwl。另有中文视频语言预训练数据集Youku-mPLUG和多模态语言模型mPLUG-Owl的新型训练范式。此外,还包含开放域对话系统ChatPLUG、跨文本、图像和视频的多模态基础模型mPLUG-2等,适用于语言理解、生成、表格理解和跨语言等应用场景。
LLM-Adapters - LLM模型参数微调适配器集成框架
GPT-JGithubHuggingFaceLLM-AdaptersLoRAPEFT开源项目
LLM-Adapters 是一个集成了多种适配器的框架,用于实现大语言模型的参数高效微调。支持 LLaMa、OPT、BLOOM 和 GPT-J 等开源大语言模型,以及 Bottleneck、Parallel 和 LoRA 等适配器。这个框架为研究人员和开发者提供了强大的工具,可应用于各种任务的适配器方法。最新更新包括 commonsense170k 数据集,LLaMA-13B-Parallel 模型在多个常识基准测试中表现优异,超越了 ChatGPT。
Finetune_LLMs - 引用数据集微调大型语言模型 (LLM) 的代码
DeepSpeedFinetune LLMsGPTJGithubHuggingfaceNvidia-docker开源项目
Finetune_LLMs 项目提供代码支持DeepSpeed、Lora或QLora方法微调大型语言模型,涵盖从名言数据集学习及利用 Nvidia-docker 简化环境配置,适于需GPU支持的用户。
LLM-Shearing - 使用结构化剪枝加速大语言模型的预训练
GithubLLaMA开源项目教程模型转化结构化剪枝语言模型
本项目通过结构化剪枝显著提升大语言模型的预训练效率。通过剪枝优化LLaMA等大型基础模型,得到更小但同样强大的语言模型。实验结果显示,与从头开始预训练相比,剪枝显著降低了计算成本。项目提供详尽的代码库、评估脚本和剪枝日志,及多种经过指令微调的模型。
chatglm_finetuning - ChatGLM模型微调教程
Githubchatglm-6bdeep_training开源项目微调推理训练
本项目提供详细的ChatGLM系列模型微调教程,支持全参数训练、Lora、AdaLora、IA3及P-Tuning-V2等方法。涵盖最新更新,如支持accelerator和colossalai训练,解除chatglm-6b-int4全参训练限制等。项目包含数据处理、推理脚本及多种训练参数设置,适合深度学习研究与应用。
bocoel - 贝叶斯优化用于评估大型语言模型的开源工具
BoCoELGithub大语言模型开源项目数据集评估贝叶斯优化
BoCoEL通过贝叶斯优化来选择高效小样本子集,从而减少评估大型语言模型所需的时间和资源。它支持GPT2、Pythia、LLAMA等模型,兼容huggingface的transformers和datasets,并采用模块化设计和高效数据表示方式。适合需要在预算限制下进行高效语言模型评估的用户。
PL-BERT - 通过PL-BERT实现更自然的语音合成
GithubPL-BERT图标预测开源项目文本转语音自然语言模型语音合成
PL-BERT,一种创新的音素级预训练语言模型,通过预测掩码音素对应的字形,有效提升了多语种文本到语音转换的自然度和准确性。经科学评估,其合成语音质量在面对非模型文本时,较传统方法有明显提高,推动了语音合成技术的进步。
spark-nlp - 高效自然语言处理与大规模语言模型开源库
Apache SparkGithubSpark NLP开源项目机器学习自然语言处理预训练模型
Spark NLP 是一个基于 Apache Spark 的开源库,提供高效且准确的自然语言处理注释,支持机器学习管道的分布式扩展。该库包含超过 36000 个预训练管道和模型,支持 200 多种语言,涵盖分词、词性标注、嵌入、命名实体识别、文本分类、情感分析、机器翻译等任务。兼容 BERT、RoBERTa 等主流变压器模型,支持 Python、R、Java、Scala 和 Kotlin。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号