#GPT2

ReLLM学习资料汇总 - 使用正则表达式提取LLM结构化输出的Python库

2 个月前
Cover of ReLLM学习资料汇总 - 使用正则表达式提取LLM结构化输出的Python库
相关项目
Project Cover

rellm

ReLLM项目利用正则表达式控制语言模型的输出,可生成特定的语法或语义结构,如日期、数字或完整模板。ReLLM在生成前过滤不匹配的词元,提升生成质量。即使是小型模型,也能在ReLLM的帮助下提高输出质量。该项目适用于需要解析JSON、XML等上下文无关文法的场景。

Project Cover

bigscience

BigScience项目专注于大规模语言模型的研究与训练,包含丰富的实验、数据集信息和训练进展。用户可以访问详细文档和实时日志,了解当前模型表现及关键发现。项目涵盖从基础GPT-2模型到不同规模与架构的大型模型,并提供详尽的操作流程及讨论记录。

Project Cover

gpt2-horoscopes

GPT2-Horoscopes项目利用AI技术生成星座运势,通过微调来自Horoscopes.com的数据集实现。用户能够通过HuggingFace的`pipeline` API根据星座类别生成不同的运势。此项目支持五类星座:综合、事业、爱情、健康及生日,数据集源自Kaggle,共包含约12000条运势信息。本工具专注于教育与学习目的,非真实星座预测的替代品。

Project Cover

gpt-czech-poet

gpt-czech-poet基于GPT-2架构开发,通过捷克科学院文学研究所语料库训练而成的捷克语诗歌生成模型。支持ABBA、ABAB、AABB等多种韵律模式,可按指定格式和年代创作捷克语诗歌。该模型提供Python接口,方便开发者调用和集成。

Project Cover

ov-gpt2-fp32-no-cache

此项目结合Optimum-Intel而优化GPT-2的文本生成,继承于HF模型库的GPT-2,并采用OMZ的Openvino IR,实现了无缓存的高效预测。该模型允许在Optimum-Intel环境中使用OVModelForCausalLM进行文本生成,具有长文本输出和多序列结果的功能,帮助提升生成效率。

Project Cover

gpt2-chinese-cluecorpussmall

项目涵盖了使用UER-py和TencentPretrain的中文GPT2模型的预训练过程,从GPT2-distil到GPT2-xlarge的多个版本。借助CLUECorpusSmall数据集,这些模型有效支持中文文本生成,并扩展至多模态预训练。模型可通过UER-py Modelzoo或HuggingFace下载,用于实际文本生成应用。

Project Cover

gpt2-alpaca

gpt2-alpaca 是在 Alpaca 数据集上进行指令微调的 GPT2 模型,展示了如健康饮食建议、诗歌创作及外星人视角评论等不同生成示例。在 TruthfulQA 和 Winogrande 等多项评测中取得优异成绩,并提供在 Hugging Face 开放 LLM 排行榜上的详细分析,适合研究生成模型表现的人员参考。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号