#深度学习

From-0-to-Research-Scientist-resources-guide学习资料汇总 - 从零开始成为AI研究科学家的全面指南

2 个月前
Cover of From-0-to-Research-Scientist-resources-guide学习资料汇总 - 从零开始成为AI研究科学家的全面指南

awesome-self-supervised-learning入门学习资料汇总 - 自监督学习资源大全

2 个月前
Cover of awesome-self-supervised-learning入门学习资料汇总 - 自监督学习资源大全

jetson-inference学习资料汇总 - 部署深度学习推理网络和视觉原语的指南

2 个月前
Cover of jetson-inference学习资料汇总 - 部署深度学习推理网络和视觉原语的指南

darts入门学习资料 - 简化Python时间序列预测和异常检测的库

2 个月前
Cover of darts入门学习资料 - 简化Python时间序列预测和异常检测的库

ESPnet学习资料汇总 - 端到端语音处理工具包

2 个月前
Cover of ESPnet学习资料汇总 - 端到端语音处理工具包

Burn - 深度学习框架学习资料汇总 - 用Rust构建的灵活高效深度学习框架

2 个月前
Cover of Burn - 深度学习框架学习资料汇总 - 用Rust构建的灵活高效深度学习框架

Techniques for Deep Learning with Satellite Imagery - 全面学习资料汇总

2 个月前
Cover of Techniques for Deep Learning with Satellite Imagery - 全面学习资料汇总

TensorFlow-Course学习资料汇总 - 简单易用的TensorFlow教程

2 个月前
Cover of TensorFlow-Course学习资料汇总 - 简单易用的TensorFlow教程

Ai-Learn学习资料汇总 - 人工智能实战就业学习路线图

2 个月前
Cover of Ai-Learn学习资料汇总 - 人工智能实战就业学习路线图

deep-learning-drizzle学习资料汇总 - 深度学习课程资源导航

2 个月前
Cover of deep-learning-drizzle学习资料汇总 - 深度学习课程资源导航
相关项目
Project Cover

vit-base-patch32-384

Vision Transformer(ViT)是一款图像分类模型,采用Transformer编码器架构,通过将图像分割为固定大小patch进行处理。模型在包含1400万张图像的ImageNet-21k数据集完成预训练,并在ImageNet-1k数据集上进行384x384分辨率的微调。提供预训练权重,可直接应用于图像分类或迁移学习任务。

Project Cover

tf_efficientnetv2_m.in21k_ft_in1k

EfficientNetV2模型在ImageNet-21k数据集上预训练,并在ImageNet-1k上微调,最初使用TensorFlow构建,由Ross Wightman移植至PyTorch。其参数量为54.1M,能够在不同分辨率下实现精确的图像识别,并支持通过timm库执行图像分类、特征提取和嵌入生成等多任务。

Project Cover

ddpm-ema-church-256

ddpm-ema-church-256项目采用DDPM模型进行图像合成,结合扩散概率模型与Langevin动态,取得CIFAR10数据集Inception分数9.46和FID分数3.17。支持DDPM、DDIM、PNDM调度器推理,实现质量与速度平衡,并提供预训练管道以生成高质量图像。项目为图像生成与压缩提供了创新思路。

Project Cover

STRANGER-ANIME

项目使用Huggingface API生成逼真的数字艺术图像,通过关键词组合生成细致且富有情感的视觉效果。用户可以根据需要调整诸如头发颜色、眼睛颜色和雨天等图像细节,实现个性化艺术创作,适用于艺术设计和视觉表达等领域,展示出现代AI在视觉艺术中的应用能力。

Project Cover

SwallowMaid-8B-L3-SPPO-abliterated

SwallowMaid-8B-L3-SPPO-abliterated项目通过mergekit工具多步骤合并多种预训练语言模型,提升模型整体性能及角色扮演功能。该项目结合Llama-3-Instruct-abliteration-LoRA-8B等模型,采用线性和任务算术方法,并注入35% RP-Mix向量方向,增强角色扮演与叙事能力,同时保留Meta's Llama-3-Instruct微调特质,提升人机交互体验。

Project Cover

zephyr-7B-alpha-AWQ

Zephyr 7B Alpha是一个基于Mistral-7B训练的对话助手模型。本版本采用AWQ量化技术将模型压缩至4位精度,使用wikitext数据集和128g量化参数进行优化。相比GPTQ,AWQ量化能提供更快的推理速度,同时显著降低显存占用,使模型可以在配置较低的GPU上高效部署运行。

Project Cover

DanTagGen-beta

DanTagGen-beta是一款基于LLaMA架构的AI标签生成器,专为Danbooru风格的AI艺术创作设计。通过5.3M数据集训练,该工具能够根据基础标签智能推荐相关标签,有效提升生成图像的质量和细节。DanTagGen-beta支持多种部署方式,包括llama.cpp和量化模型,为AI艺术创作者提供了高效的标签辅助工具。

Project Cover

eva02_large_patch14_448.mim_m38m_ft_in22k_in1k

EVA02_large_patch14_448是一个基于视觉Transformer架构的图像处理模型,通过在Merged-38M数据集预训练和ImageNet数据集微调,在图像分类任务中达到90.054%的准确率。模型整合了均值池化、位置编码等技术,支持图像分类和特征提取应用。

Project Cover

convnextv2_large.fcmae_ft_in22k_in1k

ConvNeXt-V2是一个大型图像分类模型,通过FCMAE框架预训练并在ImageNet数据集上微调。模型包含1.98亿参数,Top1准确率达87.26%,可用于图像分类、特征提取和嵌入等计算机视觉任务。其224x224的标准训练分辨率和多功能性使其成为视觉处理的实用选择。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号