#模型
beto - 西班牙语BERT模型:BETO
BETO西班牙语BERT语料库模型Github开源项目
此页面介绍了一个基于大型西班牙语语料库训练的BERT模型BETO,提供无区分大小写和区分大小写的Tensorflow和Pytorch版本。BETO应用全词掩蔽技术,在多项西班牙语基准测试中表现优异,并与多语言BERT及其他模型进行了对比。用户可以在HuggingFace Model Repository下载BETO模型,并通过HuggingFace Transformers库轻松使用。此外,页面还包含示例代码和引用信息。
MapTR - 在线向量化高精度地图快速构建框架
MapTR人工智能高精地图自动驾驶模型Github开源项目
MapTR是一款高效准确的在线向量化高精度地图构建框架,可应用于自动驾驶系统的复杂场景中。该框架采用统一的置换等效建模方法,结合分层查询嵌入和双向匹配策略,提高了学习过程的稳定性,具备实时推理能力,并在nuScenes和Argoverse2数据集中表现出色。MapTR支持多种地图元素,具备良好的扩展性和灵活性。最新版本MapTRv2提升了性能和收敛速度,并引入了额外的语义中心线,进一步优化下游规划需求。
DialogStudio - 提供丰富多样的对话数据集和任务意识模型
DialogStudio数据集对话模型HuggingfaceGithub开源项目
DialogStudio 是一个全面的对话数据集项目,包含大量统一的对话数据集和任务意识模型,支持对单个数据集和大型语言模型的训练。用户可以通过 HuggingFace 轻松下载和使用这些数据集,涵盖从知识驱动到任务导向多个领域。同时,项目进行了高质量的数据集评估,提供了详细的评价标准和评分。DialogStudio 既促进会话 AI 研究,也为模型开发者和数据科学家提供了重要资源,推动该领域的创新与进步。
generative-ai-python - 为Python开发者提供的Gemini API集成指南
Google AIPython SDKGemini APIDeepMind模型Github开源项目
Google AI Python SDK为Python开发者提供了构建基于Google DeepMind Gemini模型的多模态应用的便捷途径。通过该SDK,可以轻松操作文本、图像和代码。使用者需在Google AI Studio创建API密钥,并参考Python SDK教程和快速入门指南。详细使用示例与全面文档详见Gemini API Cookbook和ai.google.dev,全面支持各版本Python。
instructor-embedding - 指令微调的文本嵌入模型
INSTRUCTOR文本嵌入模型定制化任务高性能Github开源项目
INSTRUCTOR是一种指令微调的文本嵌入模型,无需额外训练即可生成定制化的文本嵌入,支持多种任务和领域,覆盖70项不同的嵌入任务,表现卓越。最新更新包括优化的代码结构和硬负样本检查点。用户可以通过本地或Colab轻松安装和使用INSTRUCTOR进行文本分类、信息检索和聚类等任务,并提供详细的安装及使用指南。
stable-diffusion-docker - 多功能 GPU 加速的 Stable Diffusion Docker 容器
Stable DiffusionDockerHuggingfaceGPU模型Github开源项目
Stable Diffusion Docker 容器在支持 CUDA 的 GPU 上运行,通过官方模型实现高质量图像生成。支持从文本生成图像、图像修改、深度引导和图像修复等功能,适用多种应用场景。最低要求 8GB VRAM 的 GPU,并提供设备选择和内存优化选项。详细使用指南和示例帮助用户快速入门。
keras_cv_attention_models - 深度学习模型和使用指南
Keras_cv_attention_modelsTensorFlowPyTorch模型训练Github开源项目
该项目提供全面的深度学习模型和使用指南,支持Keras和PyTorch后端。涵盖基础操作、模型训练、推理优化等功能,并详细介绍识别、检测、分割和语言模型的使用。还支持ONNX导出和推理性能评估。
comfyui_segment_anything - 基于 GroundingDino 和 SAM,使用语义字符串来分割图像中的任何元素
ComfyUIsegment模型Python依赖下载Github开源项目
ComfyUI Segment Anything项目在ComfyUI框架下实现了核心功能,并提供详细的Python依赖安装指南和模型下载方式,确保与sd-webui-segment-anything一致。用户可以通过pip命令快速安装所需依赖,并自动或手动下载BERT、GroundingDino和SAM模型。如下载速度较慢,可设置代理加速。项目欢迎社区贡献,用户可以通过fork和pull request参与代码改进。
fromage - 支持多模态输入输出的语言模型
FROMAGe模型预训练图像检索多模态Github开源项目
该页面介绍了FROMAGe项目,为其多模态输入输出任务提供代码和模型权重。包含详细的设置指南、预训练检查点、图像检索预计算嵌入、推理和训练示例以及评估脚本。研究人员可使用这些资源在视觉故事讲述和对话生成等任务中实现突破。欢迎访问项目主页和在线演示参与讨论。
Holocron - 深度学习计算机视觉技巧的高效实现与应用
HolocronPyTorch深度学习计算机视觉模型Github开源项目
Holocron项目提供深度学习计算机视觉最新技术的高效实现,增强开发者灵活性并与PyTorch生态系统兼容。支持多种图像分类、目标检测和语义分割模型,包括Res2Net、Darknet和YOLO等。项目附带详细文档、示例代码和实时演示,助力开发者快速上手并部署高性能视觉解决方案,并提供多种优化算法和工具提升训练效率与准确性。适用于追求前沿性能和灵活开发环境的研究人员和工程师。
uncertainty-baselines - 提供高质量的不确定性和鲁棒性标准模板
Uncertainty BaselinesTensorFlowTPU模型数据集Github开源项目
Uncertainty Baselines提供高质量的不确定性和鲁棒性标准模板,作为研究人员新想法和应用的起点,促进技术交流。项目高效实施关键任务,减少对代码库其他文件的依赖,便于独立使用。建议不确定性和鲁棒性评估的最佳实践,帮助研究人员快速原型化和基准比较。支持TensorFlow开发,可在TPUs和GPUs上运行,提升实验灵活性和重复性。
gen-efficientnet-pytorch - 泛型EfficientNet和其它高效PyTorch模型的实现
EfficientNetPyTorch模型MobileNetMixNetGithub开源项目
本项目实现了EfficientNet、MixNet、MobileNetV3等多种高效模型,利用通用架构定义支持多种计算高效的神经网络。所有模型均基于MobileNet V1/V2块序列设计,并支持字符串化架构配置。请注意,该项目现已停止维护,推荐使用`timm`库获取更多功能和权重兼容的模型。
compression - 帮助构建端到端优化的数据压缩机器学习模型的一套数据压缩工具
TensorFlow Compression数据压缩机器学习库模型Github开源项目
TensorFlow Compression 提供一套数据压缩工具,帮助构建端到端优化的数据压缩机器学习模型。该库支持高效存储数据表示,减少性能损失。主要功能包括范围编码、熵模型类以及用于数据压缩的额外TensorFlow功能和Keras层。2024年2月1日起,该库进入维护模式,适用于TensorFlow 2.14及以上版本。用户可以通过教程和论文链接深入了解有损数据压缩及模型优化方法。
UltraChat - 大规模、多样化的多轮对话数据和模型
UltraLMUltraFeedbackUltraChat模型数据集Github开源项目
UltraChat项目专注于构建开源、大规模、多轮对话数据,目标是打造具有广泛会话能力的强大语言模型。最新发布的模型和数据集包括UltraLM-13B-v2.0、UltraRM和UltraCM,在AlpacaEval基准测试上表现优异。UltraChat数据集分为三大部分:世界问题、写作与创作、现有材料辅助,对话涵盖了技术、艺术和创业等领域。项目数据仅供研究和教育用途,基于MIT许可证发布。
awesome-deepseek-coder - DeepSeek Coder开源资源汇总助力智能代码开发
DeepSeek Coder人工智能开源项目模型代码生成Github
本项目收集整理了DeepSeek Coder相关的开源资源,涵盖官方和社区开发的各种规模模型、量化版本及配套工具。DeepSeek Coder作为高效的代码生成和理解模型,广泛应用于智能编程辅助和代码补全等场景。开发者可通过此资源列表深入了解和使用DeepSeek Coder,促进AI辅助编程技术的应用与创新。
estimator - TensorFlow 简化机器学习编程的高级API
TensorFlowEstimator机器学习API模型Github开源项目
TensorFlow Estimator是TensorFlow生态系统中的高级API,旨在简化机器学习编程过程。它集成了模型训练、评估、预测和导出功能,提供直观的接口,使开发者能高效构建和部署机器学习模型。作为TensorFlow主包的重要组件,Estimator为用户提供了加速机器学习工作流程的有力工具。
benchmark - 开源基准测试集评估PyTorch性能
PyTorch基准测试性能评估模型安装Github开源项目
PyTorch Benchmarks是评估PyTorch性能的开源基准测试集。它提供修改过的流行工作负载、标准化API和多后端支持。项目包含安装指南、多种基准测试方法和低噪声环境配置工具。支持自定义基准测试和库集成。通过夜间CI运行,持续评估PyTorch最新版本性能。
Awan LLM - AI语言模型API服务提供无限制token生成
AI工具Awan LLMAPI无限令牌生成模型支持
Awan LLM作为AI语言模型API服务提供商,特色在于无限制token生成。该服务拥有独立数据中心和GPU,保证性能和成本效益。其API接口简单易用,并承诺不记录任何提示或生成内容,注重用户隐私保护。Awan LLM采用透明定价模式,仅设置明确的请求速率限制。对比自主托管LLM解决方案,Awan LLM提供了更具经济性和效率的选择。
Sink In - 高效多样的Stable Diffusion模型聚合平台
AI工具Stable DiffusionAI绘图模型图像生成GPU
Sink In平台聚合多种Stable Diffusion模型,包括MeinaHentai和majicMIX realistic等热门选项。利用高性能GPU,以低成本快速生成各类AI图像。服务可靠性达99.9%,适用于个人创作和商业应用等多种场景,能够满足多样化的AI图像生成需求。
Chatty - 浏览器中体验Web LLM模型的实时对话
AI工具AI模型VRAM下载处理
Chatty是一个在线平台,支持用户在浏览器中与Web LLM模型进行对话。平台提供多种模型选择,包括低VRAM需求版本,便于用户体验AI对话。界面简洁,首次使用需要一定时间加载模型,之后可快速响应查询。Chatty为用户提供便捷的AI对话环境,无需复杂设置即可使用。
ASTRAL LABS - 智能对话式问答平台
AI工具Prompt模型回复语言发布趋势问题
ASTRAL LABS是一个专注于智能对话的创新平台,提供直观的界面供用户提问并获取AI驱动的回答。该平台正在持续完善中,旨在打造一个探索和学习的互动环境。ASTRAL LABS运用前沿AI技术,致力于创造智能高效的问答体验,助力用户获取知识和洞察。支持多种语言交互,覆盖广泛的知识领域,为用户提供个性化的学习体验。
comfyui-colab - 集成多种AI模型的图像生成工作流平台
ComfyUIColabStable DiffusionAI绘图模型Github开源项目
ComfyUI-Colab是一个在Google Colab上运行的AI图像生成工作流平台。它集成了Stable Diffusion、Waifu Diffusion等多种预训练模型,支持ControlNet等扩展插件,能生成各种风格的图像。该项目提供稳定版和每日更新的Nightly版本,为AI图像创作提供了灵活高效的环境。
tweetnlp - 社交媒体文本分析的全能NLP工具集
TweetNLP自然语言处理社交媒体模型数据集Github开源项目
TweetNLP是一个专注于社交媒体分析的Python库,为Twitter等平台提供全面的文本分析功能。该库集成了多项先进的自然语言处理技术,包括情感分析、表情预测、命名实体识别等。TweetNLP还支持主题分类、讽刺检测、仇恨言论识别和情感识别等多种任务,为社交媒体研究和应用开发提供了强大而灵活的工具集。
awesome-persian-nlp-ir - 波斯语NLP和IR资源汇总
波斯语NLP数据集模型工具资源Github开源项目
这是一个awesome系列的波斯语NLP和IR资源汇总项目。该项目汇集了波斯语自然语言处理和信息检索领域的工具、数据集、模型、代码库以及相关论文和书籍。这些资源为研究人员和开发者提供了丰富的参考,推动了波斯语NLP和IR技术的发展。项目采用CC0许可证,欢迎社区贡献。
MachineLearningWithMe - 全面深入的机器学习算法实践教程
机器学习算法模型数据分析人工智能Github开源项目
MachineLearningWithMe是一个系统化的机器学习教程项目,内容涵盖从环境配置到高级算法的多个方面。项目详细讲解并实现了线性回归、逻辑回归、K近邻、朴素贝叶斯、决策树、支持向量机、聚类和降维等核心算法。特别强调动手实践,指导读者从零开始实现各类算法,并提供泰坦尼克号生还预测等实际案例。此外还包括模型评估、特征工程和集成学习等进阶内容,适合初学到中级水平的学习者深入探索机器学习领域。
CnSTD - 多语言场景文字与数学公式检测工具包
场景文字检测数学公式检测CnSTDPyTorch模型Github开源项目
CnSTD是一个Python 3场景文字检测和数学公式检测工具包,支持多语言文字检测,提供多个预训练模型。最新版本新增数学公式检测功能,可识别行内和独立行公式。CnSTD基于PyTorch实现,采用DBNet等算法,检测速度和精度显著提升。可与CnOCR工具包结合,实现端到端文字识别。
Leaderboard - 多语言语音识别基准测试平台 促进ASR系统评估
语音识别基准测试数据集模型评估Github开源项目
SpeechColab ASR leaderboard是一个开源的语音识别基准平台,集成测试集、模型集和标准化评估流程。平台提供多样化测试数据,涵盖广泛ASR场景,支持商业API和开源模型评估。它简化了ASR系统的基准测试、复现和验证过程,方便研究人员和开发者比较不同系统性能。通过统一的评估标准,该平台有助于推动语音识别技术的持续进步。
covid19-severity-prediction - 美国COVID-19严重程度预测数据库与模型
Covid预测数据集模型县级数据医院数据Github开源项目
项目整合了多源数据,包括确诊病例、死亡数据、人口统计、风险因素和社交距离信息,构建了预测美国各县和医院COVID-19严重程度的模型。其中包括3-5天短期死亡率预测模型和大流行严重程度指数(CPSI),有助于优化医疗资源分配。数据库和模型支持Python访问,为疫情研究和决策提供科学依据。
rust-llama.cpp - Rust语言下的LLaMA模型绑定库
RustLLama.cpp绑定模型GPUGithub开源项目
rust-llama.cpp是一个开源项目,为LLaMA.cpp提供Rust语言绑定。这个库使开发者能在Rust环境中集成和使用LLaMA大语言模型。项目支持cuBLAS、OpenBLAS和OpenCL等硬件加速选项,并已实现GPU(Metal)支持。通过简洁的API接口,开发者可以方便地加载模型和生成文本。rust-llama.cpp还支持GGUF格式,为Rust开发者提供了一个功能全面的LLaMA模型集成工具。
codet5p-220m - CodeT5+:多语言代码理解与生成的开放源代码模型
CodeT5+代码理解性能评估预训练代码生成Github模型开源项目Huggingface
CodeT5+是一种开源的多语言模型,支持多种编码器-解码器模式操作,适用于多种代码理解和生成任务。相比原始CodeT5系列,CodeT5+通过多样化的预训练任务和高效的计算方法显著提升性能,支持九种编程语言,并在多个任务中优于现有基线,特别是在HumanEval基准的零样本任务中表现突出。
dart-v1-sft - 优化Danbooru标注生成的Transformer模型
transformers标签生成深度学习Github模型开源项目自然语言处理模型微调Huggingface
Dart是一款经过微调的Transformer模型,专注于Danbooru标注生成,具备良好的效率和准确性。借助Hugging Face的Transformers和Optimum库,该模型支持ONNX等多种高性能推理工具。Dart旨在为开发者提供便捷的标注生成功能,基于2020年以后的最新数据集进行训练,确保生成结果的时效性和相关性。
stable-diffusion-3.5-large-turbo-gguf - 直接量化的图像生成模型
StabilityAIAI社区量化开源项目模型stable-diffusion图像生成GithubHuggingface
stable-diffusion-3.5-large-turbo-gguf项目提供了对stabilityai的3.5稳定扩散模型的直接量化处理。模型文件可以在ComfyUI-GGUF自定义节点中运用,通过简单的文件部署即可实现。量化处理保持了原模型的许可证要求,提升了图像生成的运算效率,适用于文本到图像的生成任务。更多技术细节可以参考GitHub上的安装说明和量化类型概览。
Qwen2.5-Coder-1.5B-Instruct-GGUF - Qwen2.5-Coder致力于提升代码生成及修复
Qwen2.5-Coder长上下文支持transformers性能评估代码生成Github模型开源项目Huggingface
Qwen2.5-Coder通过5.5万亿训练标记和128K长上下文支持,提升代码生成、推理和修复的能力,适用于代码代理等实际应用。模型采用先进的transformers架构,实现对数学及一般能力的增强,满足广泛应用需求。
Yi-6B-Chat - Yi-6B-Chat 打造开源双语语言模型的新篇章
Yi开源Transformer人工智能模型Github开源项目大语言模型Huggingface
Yi系列模型由01.AI研发,是强大的开源双语大型语言模型,其在多语言理解、常识推理及阅读理解方面表现突出。Yi-34B-Chat在AlpacaEval评估中表现优异,仅次于GPT-4 Turbo。Yi-34B在多个基准表现出色,如Hugging Face开放LLM排行榜和C-Eval评估。该系列采用Transformer架构,并与开源社区合作,独立开发高质量数据集和训练管道,确保优异性能。
internlm2-20b - 提供深度适应性和超长文本理解能力的20B语言模型
评测工具性能评测模型开源Huggingface对话模型模型InternLMGithub开源项目
InternLM2-20B是一款支持20万字符上下文的语言模型,其在推理、数学和编程领域的表现突出。模型分为基础和对话优化版本,可以满足多样的语言处理需求。通过OpenCompass评测,其展示了卓越的综合性能,适合复杂的研究和商业应用。
llm - 大型语言模型CLI工具,支持本地和远程模型
LLMPython库插件模型命令行工具Github开源项目
一款CLI工具和Python库,用于与大型语言模型交互,支持远程API和本地安装模型。可从命令行运行提示、将结果存储在SQLite中、生成嵌入等。通过插件目录,可访问更多模型。
相关文章