#Adam优化器
cartpole - 强化学习算法DQN在OpenAI Cartpole环境中的应用
Github开源项目OpenAI深度强化学习DQNCartpoleAdam优化器
该项目展示了如何在OpenAI的Cartpole任务中应用DQN(深度Q学习)算法解决问题。通过调整超参数如GAMMA、学习率和记忆大小,目标是防止附有未驱动关节的杆子在无摩擦轨道上的小车倒下,以保持杆子直立并获得高奖励。解决标准是连续100次试验中平均奖励达到195。
gpt2-imdb - 利用IMDB电影评论数据集微调的GPT-2模型
Github开源项目模型数据集HuggingfaceAdam优化器学习率训练超参数gpt2-imdb
该项目基于IMDB数据集对GPT-2模型进行微调,以增强情感分析的准确性。训练中采用Adam优化器和线性学习率调度器,学习率设置为5e-05。框架使用了Transformers 4.26.1、Pytorch 1.13.1和Datasets 2.9.0等技术,以有效提高深度学习训练。这款模型通过微调,提升了对电影评论数据集的处理能力,从而在情感分类任务中表现更加出色。
hierarchical-bert-model - 层级BERT模型的实现及优化方案
Github开源项目模型KerasHuggingfaceAdam优化器学习率训练超参数模型图
一个基于Keras框架的层级BERT模型实现,通过优化训练参数提升模型性能。模型采用float32精度训练,集成JIT编译技术,并针对性配置了学习率和优化参数。该模型主要应用于层级文本分类任务。
phibert-finetuned-ner - 微调生物文本识别的新模型提升精度与准确性
Github开源项目模型HuggingfaceAdam优化器精确度训练损失phibert-finetuned-ner召回率
phibert-finetuned-ner模型是通过微调dmis-lab的biobert-v1.1而实现的,旨在提高生物文本识别领域的精度和准确性。其在评估数据集上取得了精度0.9238和准确性0.9950。此模型适用于生物医学领域的命名实体识别,优化过程中采用了Adam优化器和线性学习率调度策略,在3个训练纪元中实现了低损失与高精确度。
rubert-tiny2-cedr-emotion-detection - 俄语情感识别的多标签分类模型
Github开源项目模型HuggingfaceAdam优化器多标签分类情感分类RuBERTCEDR数据集
该模型基于cointegrated/rubert-tiny2进行微调,适用于俄语文本的多标签情感分类任务。模型在CEDR数据集上经过40个周期的训练,学习率为1e-5,批次大小为64。测试结果显示,模型在愉悦、悲伤、惊讶等情感识别上的表现优异,AUC平均值为0.8956,F1微平均值为0.9280,可用于多种俄语文本情感分析场景。