#GPT

arc_draw_more_samples_pub - ARC问题解决能力突破
ARCAIGPT数据可视化开源项目Github
该项目聚焦于提升ARC(抽象和推理语料库)问题的解决能力。它利用GPT模型和优化策略,在ARC基准测试中实现了50%的先进水平。核心脚本arc_solve/solve.py需要Redis服务器和OpenAI API密钥等资源。项目数据可通过Google Drive下载,并使用arc_solve/load_and_viz.py进行可视化。这一方法为AI在抽象推理任务中的应用提供了新的研究方向,展示了人工智能在复杂问题解决中的巨大潜力。
Awesome-Machine-Generated-Text - 机器生成文本研究资源汇总与综述
大规模语言模型预训练自然语言处理人工智能GPTGithub开源项目
这是一个全面的机器生成文本研究资源库,汇集了大规模预训练语言模型、分析方法和检测技术等关键内容。项目收录了OpenAI、DeepMind和Google等顶级机构的重要成果,包括GPT系列、Chinchilla和T5等著名模型。此外还整理了相关论文、演示、数据集和共享任务,为该领域的研究与开发提供了丰富参考。
gpt_jailbreak_status - GPT语言模型解锁状态追踪与分析
GPTjailbreakOpenAI人工智能捐赠Github开源项目
本项目专注追踪OpenAI GPT语言模型的解锁状态,提供在线HTML版和提示工程资源。通过社区参与和Twitter更新,持续分享GPT模型的最新进展。项目旨在推动AI交互创新,探索GPT技术的应用潜力。
Advanced-GPTs - AI代理工作流与工具链的高级应用展示
GPT人工智能提示工程工具链自动化Github开源项目
项目展示了33个高级GPT模型,通过单一系统提示实现复杂功能。这些模型覆盖商业分析、教育和内容创作等领域,展现了AI工具链和多代理交互的潜力。Advanced-GPTs推动了提示工程和大型语言模型控制的技术边界,为AI在不同领域的应用提供了创新思路。
h2o-danube3-500m-base - 500M参数的大规模语言模型,支持离线文本生成
大语言模型Huggingface转化器Github开源项目模型GPT模型架构H2O.ai
由H2O.ai推出的h2o-danube3-500m模型,是一个大规模语言模型,采用Llama 2架构调整及500M参数设计。模型支持原生离线运行,尤其适用于手机设备,并集成Mistral分词器,拥有32,000词汇量及8,192长度的上下文生成能力。在支持transformers库的环境中,模型可在GPU设备上有效运行,并且支持量化和多GPU分片处理。重要提醒用户在使用模型生成的内容时保持审慎态度并自行承担责任。
mGPT - 基于GPT架构的大规模多语种自然语言处理模型
GPTMegatron开源项目自然语言处理模型Huggingface多语言模型深度学习Github
作为一个基于GPT-3架构的多语言处理模型,mGPT具备13亿参数量,覆盖25个语系的61种语言。模型采用Wikipedia和Colossal Clean Crawled Corpus作为训练数据,结合Deepspeed与Megatron框架实现并行计算,在低资源语言处理领域达到与XGLM相当的性能水平。模型训练过程中处理了488亿UTF字符,借助256个NVIDIA V100 GPU完成了为期14天的训练。
rugpt3small_based_on_gpt2 - 俄语预训练语言模型基于GPT-2架构
Huggingface俄语TransformersGPT开源项目预训练模型模型Github自然语言处理
rugpt3small_based_on_gpt2是SberDevices团队开发的俄语预训练语言模型。基于GPT-2架构,该模型在80B个token上训练约3轮,序列长度为1024,并进行了2048上下文长度的微调。训练过程耗时一周,使用32个GPU。该模型为俄语自然语言处理提供了坚实基础,其详细设计和评估已在相关论文中记录。