#AI生成
Emu3-Gen
Emu3采用单一变换器架构,将图像、文本和视频转化为统一序列空间进行处理。通过纯粹的下一标记预测训练方式,该系统在图像生成、视觉语言理解和视频生成等多个任务中展现出优异性能。与SDXL、LLaVA-1.6等专门模型相比,Emu3以更简洁的架构实现了更强的多模态处理能力。
openvision
OpenVision项目融合了Midjourney的独特美学,生成的图像无需后期调整仍具风格和细节表现,尤其在人像图像的处理上更加出色。该项目通过Bittensor网络生成,支持构建去中心化的开源AI模型,可使用diffusers和StableDiffusionXLPipeline轻松实现图像创建。
FLUX.1-schnell-gguf
FLUX.1-schnell-gguf是一个基于black-forest-labs/FLUX.1-schnell模型的GGUF格式转换项目,通过与ComfyUI-GGUF自定义节点集成实现文本到图像的生成。模型支持多种量化类型,安装时需将文件放置于ComfyUI/models/unet目录。该项目采用Apache-2.0开源协议发布,可用于图像生成相关的开发和研究工作。
Nous-Hermes-2-Mixtral-8x7B-SFT-AWQ
Nous Hermes 2 Mixtral 8x7B SFT - AWQ由NousResearch开发,采用AWQ低比特量化技术,提供快速且精确的推理能力。支持4位量化的AWQ大幅提升了Transfomers推理速度,与GPTQ设定相比,保证了等同或更佳的质量表现。在Linux和Windows系统的NVIDIA GPU上运行良好,macOS用户建议使用GGUF模型。该模型结合来自多种开放数据集的百万条目数据,通过GPT-4生成数据进行训练,实现多项任务的业界领先性能,兼容Text Generation Webui、vLLM和Hugging Face TGI等多个平台,适用于不同环境下的高性能推理。
anything-v4.0
Anything V4是一个面向动漫风格图像生成的潜在扩散模型,通过简单提示即可生成细节丰富的图像。支持danbooru标签以及Gradio Web UI操作,并提供Fantasy.ai商业使用许可。该模型兼容多平台,可导出ONNX、MPS及FLAX/JAX格式,支持简化的Python代码进行图像生成,适合生成动漫人物和风景等多样化内容。
MimicTalk
MimicTalk提供了一种基于Pytorch的系统,通过短时间内训练生成具个性化和表现力的3D动态面孔。项目基于Real3D-Portrait的研究,利用NeRF框架实现高效头像动画。用户可通过演示页面观看视频示例,并通过项目提供的方法指南进行特定任务操作。该项目提供CLI和Gradio WebUI支持,能够进行针对特定用户的音频驱动动态头像生成,同时确保合法使用和版权保护。
UltraHighDefinition
UltraHighDefinition项目结合了FilmGirlUltra和LiberteRedmond的图像特性,旨在生成细节丰富且多功能的高分辨率图像。该模型能为多种场景提供细致的视觉效果,包括电影风、幻想艺术和高对比度肖像等。通过生成大量样本,它展示了丰富的视觉组合和创意可能性,适用于摄影和艺术创作。
Pallaidium
Pallaidium是一个集成于Blender视频编辑器的AI生成工具。它可将文本、图像或视频转换为新的视频、图像和音频内容。主要功能包括文本生成视频、语音合成、图像处理等,并支持批量操作。该工具为视频创作者提供了AI辅助制作能力,有助于提高内容创作效率。
Autoxhs
Autoxhs是一个开源工具,专注于简化小红书内容的生成和发布流程。通过集成OpenAI的API,该工具能够自动创建包括图片、标题、正文和标签在内的完整帖子内容。Autoxhs支持基于主题或图片的帖子生成,用户仅需提供主题或上传照片即可。工具采用Streamlit构建界面,提供提示词自定义和模型选择功能,便于用户操作。此外,Autoxhs还整合了LangGPT项目方法和Langchain框架,用于生成结构化、高质量的提示词和开发基于语言模型的应用。