#ModelScope

modelscope - 整合与应用前沿AI模型的开放平台
Github开源项目API接口ModelScope机器学习模型开源库模型服务
ModelScope简化了AI模型在推理、训练和评估方面的流程,支持CV、NLP、语音、多模态和科学计算等领域的应用。该平台提供统一接口和丰富的API层级,便于开发者轻松集成和使用700多种最新开源模型。适合初学者和专业人士快速上手,体验强大功能。
魔搭社区 - 机器学习模型探索与实践平台
AI助手热门AI工具AI对话ModelScope模型数据集文档AI平台
魔搭社区是一个专业平台,旨在汇聚各领域机器学习模型,提供模型探索、推理、训练、部署和应用等一站式服务。设计简约,操作便捷,确保用户可以快速找到所需功能。直观的导航和详尽的文档支持帮助用户快速上手,推动机器学习技术的广泛应用。
LangChain-ChatGLM-Webui - 本地知识驱动的大模型Webui,支持多文本格式上传与处理
Github开源项目ModelScopeHuggingFaceLangChainChatGLMWebui
LangChain-ChatGLM-Webui 是一个利用LangChain和ChatGLM-6B系列模型的Web界面,支持txt、docx、md、pdf等格式文件上传,适用于本地知识驱动的大模型应用。项目支持HuggingFace、OpenXLab等多个平台的在线体验,适合开发者快速部署多种大语言模型和嵌入模型。
KAN-TTS - TTS语音合成训练框架
Github开源项目文本转语音ModelScope模型KAN-TTS语言支持
KAN-TTS能够提供从零开始训练个性化文本到语音模型的能力。支持包括sam-bert和hifi-GAN在内的多种模型,并持续进行模型更新。支持多种语言,包括普通话、英语等。详尽的培训教程和在线演示可在官方网站查阅。如有疑问,欢迎联系我们。
EmoLLM - 心理健康大模型
Github开源项目ModelScopeEmoLLM心理健康InternLM2_5_7B_chatOpenXLab
EmoLLM是一个心理健康大模型,旨在提升个体和群体的心理健康。通过微调InternLM、Qwen、Baichuan等多种LLM模型,实现认知、情感和行为分析。EmoLLM具备情感调节和评估功能,结合预防和干预措施,促进心理韧性。项目提供丰富的模型配置和开源资源,适用于日常使用及学术研究,提供全面的心理健康支持。
ms-swift - 支持300+模型训练和轻量级微调的高效框架
Github开源项目LLM多模态模型ModelScopeSWIFT轻量级训练
SWIFT是一款高效框架,支持超过300个大语言模型和50多个多模态大模型的训练、推理、评估和部署。它集成了NEFTune、LoRA+和LLaMA-PRO等先进技术,适用于研究和生产环境。框架还提供了易用的Gradio web-ui界面和详细文档,非常适合初学者和资深开发者使用。最新版本增加了对多种前沿模型和加速算法的支持,适用于广泛的应用场景。
phi3-Chinese - 小体积高性能的phi3模型集合
Github开源项目Hugging FaceModelScopephi3phi3-mini训练变体
phi3-Chinese收录多种phi3训练变体,小体积高性能,适用于手机部署。提供Phi-3-mini-128k-instruct-Chinese中文版和其他英文原版模型的下载链接,并包含训练、推理和部署的详细教程。尽管目前版本存在词表过小和实际效果与预期不符的问题,但仍适用于轻量级垂直任务。
AdaSeq - 完善的序列理解模型开发库,涵盖多种高级任务
Github开源项目PyTorchModelScope命名实体识别AdaSeq序列理解
AdaSeq是由阿里巴巴达摩院开发的一体化序列理解工具库,构建在ModelScope之上。支持词性标注、分块、命名实体识别、实体类型化、关系抽取等多种任务。提供丰富的前沿模型和训练方法,优于许多现有框架。该库使用简便,只需一行命令即可生成模型,支持自定义模型和数据集。适用于研究人员和开发者,项目处于快速开发阶段,并提供多语言、多领域的数据集和在线演示。
sd-webui-text2video - 基于Auto1111的多样化text2video模型实现
Github开源项目ModelScopeLoRAStableDiffusion WebUIVideoCrafterText2video
基于Auto1111的webui依赖,该扩展实现了ModelScope和VideoCrafter等text2video模型,无需登录即可使用。要求至少6GB的VRAM,支持不同帧数和分辨率的视频生成。项目包含多次更新,新增功能如VAE设置、提示权重和WebAPI,并支持LoRA训练。提供详细的模型下载指南,并欢迎社区的贡献与支持。
Text-To-Video-Finetuning - 使用Diffusers微调ModelScope的文本生成视频模型,提供安装、配置和训练指南
Github开源项目ModelScopeLoRADiffusion ModelsText-To-VideoExponentialML
Text-To-Video-Finetuning项目使用Diffusers微调ModelScope的文本生成视频模型,提供详尽的安装、配置和训练指南。主要更新包括LoRA训练、模型格式转换和Torch 2.0支持。项目现已归档,相关资源及支持文件仍可用。建议关注@damo-vilab的新实现,以体验全面的视频扩散微调功能。支持多种模型训练与推断,适用于VRAM限制设备,模块化设计方便定制与扩展。
3D-Speaker - 开源多模态说话人识别与验证工具包
Github开源项目预训练模型ModelScope开源工具包说话人验证3D-Speaker
3D-Speaker是一个开源的单模态和多模态说话人验证、识别和分离工具包。它提供ERes2Net、CAM++等预训练模型,适用于多种说话人相关任务。该项目发布的大规模语音数据集3D-Speaker有助于语音表示解耦研究。3D-Speaker支持有监督和自监督训练,以及语言识别等多种实验设置,为研究人员提供全面的说话人技术解决方案。
modelscope-classroom - AI技术全流程学习平台
Github开源项目AIGCAI开发ModelScope深度学习教程LLM大模型
ModelScope教室集合了魔搭社区的深度学习教程,提供从基础到高级的AI技术学习资源。涵盖LLM大模型、AIGC、量化技术等热门主题,以及训练、推理、部署和应用搭建的实践指导。平台每月更新多个教程,目前已涵盖30+个AI技术主题,包括人类偏好对齐训练、LISA微调等前沿技术解析,为开发者提供全面的AI学习环境。
text-to-video-ms-1.7b - 多阶段扩散模型实现文本到视频的智能转换
人工智能Github开源项目视频生成ModelScope模型Huggingfacediffusion modeltext-to-video
text-to-video-ms-1.7b是一个基于多阶段扩散模型的文本到视频生成系统。该模型可将英文文本描述转化为匹配的视频内容,由三个子网络组成,总参数约17亿。支持长视频生成,适用于多种创意应用场景。目前仅支持英语输入,且存在无法生成清晰文本等局限性。该模型仅供研究用途,使用时应注意避免生成不当或有害内容。
zeroscope_v2_576w - 基于Modelscope的16:9视频生成模型
Github开源项目视频合成AI模型ModelScope模型Huggingface文本生成视频视频分辨率
zeroscope_v2_576w是基于Modelscope开发的视频生成模型,支持生成576x320分辨率、24帧的16:9视频。模型通过9,923个视频片段和29,769个标记帧训练而成,可与zeroscope_v2_XL模型配合使用vid2vid技术进行视频放大。在渲染30帧576x320视频时占用显存7.9GB。