#GPT2

rellm - 使用正则表达式提高语言模型输出的准确性
ReLLM正则表达式语言模型GPT2结构化数据Github开源项目
ReLLM项目利用正则表达式控制语言模型的输出,可生成特定的语法或语义结构,如日期、数字或完整模板。ReLLM在生成前过滤不匹配的词元,提升生成质量。即使是小型模型,也能在ReLLM的帮助下提高输出质量。该项目适用于需要解析JSON、XML等上下文无关文法的场景。
bigscience - 大规模语言模型研究与进展更新
bigscienceMegatron-DeepSpeedlarge language modelsGPT2训练Github开源项目
BigScience项目专注于大规模语言模型的研究与训练,包含丰富的实验、数据集信息和训练进展。用户可以访问详细文档和实时日志,了解当前模型表现及关键发现。项目涵盖从基础GPT-2模型到不同规模与架构的大型模型,并提供详尽的操作流程及讨论记录。
gpt2-horoscopes - 基于GPT-2的星座预测,探索五大类星座运势
开源项目星座模型HuggingfaceGPT2训练数据集Github生成
GPT2-Horoscopes项目利用AI技术生成星座运势,通过微调来自Horoscopes.com的数据集实现。用户能够通过HuggingFace的`pipeline` API根据星座类别生成不同的运势。此项目支持五类星座:综合、事业、爱情、健康及生日,数据集源自Kaggle,共包含约12000条运势信息。本工具专注于教育与学习目的,非真实星座预测的替代品。
gpt-czech-poet - 捷克语AI诗歌生成模型
押韵模式诗歌语料库开源项目模型捷克诗歌自然语言生成HuggingfaceGPT2Github
gpt-czech-poet基于GPT-2架构开发,通过捷克科学院文学研究所语料库训练而成的捷克语诗歌生成模型。支持ABBA、ABAB、AABB等多种韵律模式,可按指定格式和年代创作捷克语诗歌。该模型提供Python接口,方便开发者调用和集成。
ov-gpt2-fp32-no-cache - 改进GPT-2文本生成性能的开源项目,结合Optimum-Intel
Openvino开源项目模型GPT2HuggingfaceOptimum-Intel文本生成Github
此项目结合Optimum-Intel而优化GPT-2的文本生成,继承于HF模型库的GPT-2,并采用OMZ的Openvino IR,实现了无缓存的高效预测。该模型允许在Optimum-Intel环境中使用OVModelForCausalLM进行文本生成,具有长文本输出和多序列结果的功能,帮助提升生成效率。
gpt2-chinese-cluecorpussmall - 中文GPT2预训练模型与多模态扩展简介
UER-pyTencentPretrainHuggingfaceGithub开源项目模型预训练GPT2文本生成
项目涵盖了使用UER-py和TencentPretrain的中文GPT2模型的预训练过程,从GPT2-distil到GPT2-xlarge的多个版本。借助CLUECorpusSmall数据集,这些模型有效支持中文文本生成,并扩展至多模态预训练。模型可通过UER-py Modelzoo或HuggingFace下载,用于实际文本生成应用。
gpt2-alpaca - 介绍GPT2在Alpaca数据集上的指令微调实例
模型微调机器学习HuggingfaceGithub开源项目模型AlpacaGPT2语言生成
gpt2-alpaca 是在 Alpaca 数据集上进行指令微调的 GPT2 模型,展示了如健康饮食建议、诗歌创作及外星人视角评论等不同生成示例。在 TruthfulQA 和 Winogrande 等多项评测中取得优异成绩,并提供在 Hugging Face 开放 LLM 排行榜上的详细分析,适合研究生成模型表现的人员参考。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号