Project Icon

gpt2-imdb

利用IMDB电影评论数据集微调的GPT-2模型

该项目基于IMDB数据集对GPT-2模型进行微调,以增强情感分析的准确性。训练中采用Adam优化器和线性学习率调度器,学习率设置为5e-05。框架使用了Transformers 4.26.1、Pytorch 1.13.1和Datasets 2.9.0等技术,以有效提高深度学习训练。这款模型通过微调,提升了对电影评论数据集的处理能力,从而在情感分类任务中表现更加出色。

dl-for-emo-tts - 通过深度学习实现情感语音合成
GithubTacotron优化器开源项目情感语音合成数据集深度学习
项目通过深度学习实现情感语音合成,包括Tacotron和DCTTS模型的应用。详细介绍了使用的数据集、相关文献和多种模型微调策略,如调整学习率和冻结网络层。尽管面临情感数据集有限的问题,但实验验证了改进方案对低资源情感TTS传递学习的有效性。
recipe-nlg-gpt2-train11_15 - 使用优化的GPT-2模型在Recipe-NLG数据集上进行食谱生成实验
GPT-2GithubHuggingfaceRTX 3090RecipeNLGrecipe-nlg-gpt2-train11_15开源项目模型食谱生成
该项目通过对GPT-2模型进行针对Recipe-NLG数据集的优化,探索食谱生成的新可能性。使用RTX 3090显卡在Vast.AI上进行约14小时的训练,并启用混合精度以提高效率。训练设定为0.45 epoch,保留5%数据用于评估,采用学习率5e-05和Adam优化器,结合线性学习率策略。支持Pytorch 1.13.0和Transformers 4.24.0等框架,适合专业人士关注的技术性能。
modded-nanogpt - 基于PyTorch的高效GPT-2训练器变体
GPT-2GithubNanoGPTPyTorch开源项目模型优化训练效率
Modded-NanoGPT是一个基于Andrej Karpathy的llm.c项目的GPT-2训练器变体。该项目通过引入旋转嵌入等现代技术,将训练效率提高一倍,仅需5B tokens即可达到与原版相同的验证损失。代码简化至446行,实现了124M参数的transformer模型。在Fineweb验证集上,模型达到3.2818的验证损失。通过架构调整和超参数优化,该项目在保持性能的同时显著提升了训练速度。
roberta-base-go_emotions - RoBERTa模型实现28种情感多标签分类
GithubHuggingfaceRoBERTago_emotions数据集text-classification多标签分类开源项目情感分析模型
该模型基于roberta-base,利用go_emotions数据集训练而成,可对文本进行28种情感的多标签分类。模型在测试集上实现0.474的准确率和0.450的F1分数。为提升性能,还提供ONNX版本。研究者可通过Hugging Face Transformers框架便捷应用此模型。值得注意的是,某些情感标签如'gratitude'表现优异,F1值超过0.9,而'relief'等标签表现欠佳,可能与训练数据分布不均有关。通过优化每个标签的阈值,模型的整体F1分数可提升至0.541,显示出进一步改进的潜力。
Transformers-for-NLP-2nd-Edition - BERT到GPT-4的Transformer模型详解
BERTGPT-4GithubOpenAI APITransformers-for-NLP-2nd-Edition开源项目机器学习
本项目涵盖了从BERT到GPT-4的Transformer模型,提供了在Hugging Face和OpenAI环境下的微调、训练及提示工程示例。还包括ChatGPT、GPT-3.5-turbo、GPT-4和DALL-E的使用示例,包括语音到文本、文本到语音、文本到图像生成等内容。详述了GPT-4 API提示工程和最新平台更新,提供实用的指导与教程。
llm-toys - 微调小型语言模型实现多任务处理
Githubllm-toys任务微调低资源模型对话摘要开源项目语气变化
llm-toys 项目提供适用于释义、语气转换、对话总结和主题生成等任务的小型量化3B和7B语言模型。这些经过微调的模型能在普通消费级硬件上高效运行,并通过简单的安装步骤提升文本处理和生成能力。
DeepMoji - 情感分析模型,基于12亿推文训练,支持迁移学习与多情感预测
DeepMojiGithubKerastorchMoji开源项目情感分析机器学习
DeepMoji是一个情感分析模型,基于12亿推文数据训练,可通过迁移学习在多种情感任务中表现出色。项目包含代码示例和预训练模型,兼容Python 2.7和Keras框架,适用于情感预测和文本编码。还提供了PyTorch实现,用户可使用不同模块进行数据处理、模型微调和测试。
chatglm_finetuning - ChatGLM模型微调教程
Githubchatglm-6bdeep_training开源项目微调推理训练
本项目提供详细的ChatGLM系列模型微调教程,支持全参数训练、Lora、AdaLora、IA3及P-Tuning-V2等方法。涵盖最新更新,如支持accelerator和colossalai训练,解除chatglm-6b-int4全参训练限制等。项目包含数据处理、推理脚本及多种训练参数设置,适合深度学习研究与应用。
LLM-FineTuning-Large-Language-Models - LLM微调实践与技术应用指南
Fine-tuningGithubLLMPEFTQLoRA开源项目量化
本项目介绍了如何使用ORPO、QLoRA、GPTQ等技术对大型语言模型(LLM)进行微调,包含具体实例和代码片段。项目还提供与这些技术相关的YouTube视频链接,提供全面的学习资料。此外,项目还包含各类实用工具和技术说明,帮助用户更好地理解和应用这些前沿技术。适合有一定编程基础的研究人员和开发者参考。
ChatGLM-Finetuning - ChatGLM系列模型的多方法微调工具
ChatGLMGithub大语言模型开源项目微调深度学习自然语言处理
ChatGLM-Finetuning为ChatGLM系列模型提供多种微调方法,包括Freeze、Lora、P-Tuning和全量参数训练。该项目支持信息抽取、文本生成和分类等任务,可进行单卡或多卡训练。通过DeepSpeed等优化技术,实现高效大模型微调,并有效缓解灾难性遗忘问题。项目支持最新的ChatGLM3模型,并提供详细的使用说明。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号