#生成式模型

generate - 多平台生成模型访问的统一Python工具
GeneratePython包生成式模型文本生成多模态Github开源项目
Generate 是一个Python包,通过统一的API访问多个生成模型平台,支持文本、多模态、结构体、图像和语音生成。支持OpenAI、Azure等国内外平台,适用于异步、流式和并发调用,满足不同应用场景。用户无需关心平台差异即可享受高效统一的接口封装。
esm - ESM3生成模型实现蛋白质序列结构功能联合推理
ESM3蛋白质模型生成式模型生物学人工智能Github开源项目
ESM3是一个创新的生物学生成模型,能够同时处理蛋白质的序列、结构和功能。通过离散令牌表示这三种数据模态,ESM3可根据部分输入预测完整的蛋白质信息。作为一个生成式掩码语言模型,它采用迭代采样方法。ESM3架构具有高度可扩展性,其最大版本拥有980亿参数,曾对2.78亿个蛋白质进行训练。
4th-tail-merges-050tponynai-sdxl - SDXL动漫小马生成模型
Github生成式模型动漫Stable DiffusionHuggingface人工智能绘画开源项目模型Diffusers
一个基于Stable Diffusion XL的文生图模型,专门用于生成动漫风格的小马图像。模型由Minthybasis开发,通过Diffusers库实现文本到图像的生成。采用FAIPL-1.0-SD开源协议发布,支持二次开发与部署。
Llama-3-8B-Instruct-262k - 增强长距离上下文处理,支持自主助手功能
生成式模型Github定量模型开源项目长上下文自监督学习HuggingfaceLlama-3模型
Llama-3 8B-Instruct-262k通过优化RoPE theta,将上下文处理长度从8k扩展至超160k。由Gradient开发并借助Crusoe Energy的算力资源,展示了该模型在低训练条件下的长上下文处理能力,同时通过微调增强了其聊天功能。采用NTK-aware插值及数据驱动的RoPE theta优化,结合渐进式训练策略,在高性能集群中实现了多达262144 tokens的上下文扩展训练,并提供了多种量化版本以适应不同应用场景。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号