#神经网络
shorelark - 神经网络与遗传算法驱动的生物进化模拟器
Shorelark神经网络遗传算法进化模拟WebAssemblyGithub开源项目
Shorelark是一个结合神经网络、遗传算法和高中数学知识的进化模拟项目。通过可视化界面,它展示了生物进化的过程,使观察者能直观理解进化机制。项目提供了实现教程,适合对人工智能和进化理论感兴趣的开发者与学习者。Shorelark支持多种构建方式,如Cargo和npm,以及Nix,便于不同背景的用户使用。
tutorial - 机器学习和深度神经网络算法综合教程
机器学习深度学习算法人工智能神经网络Github开源项目
该教程全面介绍机器学习和深度学习算法,涵盖从基础到高级的内容。包括环境搭建、入门指南、框架介绍和核心概念。详细讲解BP神经网络、SVM、决策树等多种算法,以及回归、聚类和贝叶斯等模型。提供丰富的理论知识和实践指导,适合系统学习AI和算法的开发者参考。
Neuromorphic-Computing-Guide - 神经形态计算指南 从原理到前沿应用
神经形态计算人工智能神经网络机器学习深度学习Github开源项目
本指南系统介绍神经形态计算的基础理论、开发工具和应用领域。内容涵盖机器学习、深度学习、强化学习等核心技术,以及计算机视觉、自然语言处理等实际应用。同时阐述相关电路和电磁学知识,并提供CUDA、MATLAB、Python等编程资源。适合神经形态计算领域的开发者和研究人员参考学习,全面展现了这一前沿技术的发展现状。
torchani - 基于PyTorch的神经网络势能模型库 实现高精度分子动力学模拟
TorchANIPyTorch神经网络分子动力学机器学习Github开源项目
TorchANI是一个开源的PyTorch实现的ANI神经网络势能模型库。该项目提供高精度分子动力学模拟功能,支持ANI2x、ANI1x和ANI1ccx等多种模型参数。TorchANI具备易用API和GPU加速能力,可通过pip或conda安装。作为活跃维护的开源项目,TorchANI欢迎社区贡献。
TIM-VX - 神经网络加速部署框架 支持多种AI硬件
TIM-VX神经网络深度学习框架NPU加速张量运算Github开源项目
TIM-VX是一个开源的神经网络部署框架,支持150多种算子和多种硬件平台。它具有简化的C++ API、动态图构建和形状推断功能,可作为多种深度学习框架的后端。TIM-VX简化了AI应用的开发和部署流程,适用于Android NN、TensorFlow Lite等多种环境。
Laplace - 神经网络拉普拉斯近似的开源库
Laplace神经网络贝叶斯深度学习后验近似边缘似然Github开源项目
Laplace是一个用于神经网络拉普拉斯近似的Python库。它支持对整个网络、子网络或最后一层进行后验近似、边际似然估计和后验预测计算。该库提供API接口,支持多种Hessian结构和权重子集,可用于模型选择、不确定性量化和持续学习。Laplace兼容Hugging Face模型和参数高效微调方法,为贝叶斯深度学习提供了灵活的实现工具。
dmarman.github.io - TailwindCSS驱动的AI智能调色板生成工具
Tailwind InkAI调色板生成器神经网络颜色预测模型训练Github开源项目
TailwindInk是一个基于TailwindCSS颜色体系训练的AI调色板生成工具。该项目利用两个神经网络模型预测完整调色板,一个负责垂直预测50-900的色调,另一个水平预测给定色调的颜色。TailwindInk提供简洁的API,方便开发者集成使用。此外,项目开源了模型训练和调优功能,支持用户根据需求自定义调色过程。
Stock-Prediction-Neural-Network-and-Machine-Learning-Examples - Python实现的股票预测神经网络和机器学习模型集
股票预测机器学习神经网络Python超参数优化Github开源项目
这个开源项目集成了多种用于股票预测的机器学习和神经网络方法,包括遗传算法、梯度提升和K均值聚类等。项目展示了如何使用Keras、PyTorch等主流深度学习框架实现这些模型。其特色在于提供了超参数优化功能,支持多线程处理以提升效率。开发者可以方便地配置和测试不同的超参数,如学习率、批量大小和网络结构。项目还包含了使用实时市场数据进行股票预测的实例代码和详细文档,适合学习和研究股票预测技术。
TTS-Cube - 基于神经网络的端到端语音合成系统
TTS-Cube语音合成神经网络端到端系统音频生成Github开源项目
TTS-Cube是一个基于神经网络的端到端语音合成系统,提供训练和部署TTS模型的完整流程。系统无需预对齐数据,仅通过字符或音素序列即可训练生成音频。它包含一个编码器模块,将输入序列转换为梅尔对数谱图,以及一个基于RNN的声码器模块。TTS-Cube采用轻量级架构和引导注意力技术,实现快速收敛。项目提供交互式演示、安装指南和训练实例。
awesome-uncertainty-deeplearning - 深度学习不确定性估计资源汇总
深度学习不确定性贝叶斯方法集成学习神经网络Github开源项目
该项目汇集深度学习不确定性估计领域的论文、代码、书籍和博客。内容涵盖贝叶斯方法、集成方法、采样/dropout方法等技术,以及在分类、回归、异常检测等方面的应用。项目为研究人员和实践者提供全面参考,助力深入理解和应用深度学习中的不确定性估计。
2018-MachineLearning-Lectures-ESA - 欧洲航天局2018年机器学习系列讲座综述
机器学习欧洲航天局深度学习神经网络无监督学习Github开源项目
该项目汇集了欧洲航天局2018年举办的6场机器学习讲座资源。讲座内容涵盖机器学习导论、线性回归、支持向量机、决策树、随机森林、神经网络、深度学习、无监督学习和文本挖掘。每场讲座提供视频、幻灯片和实践笔记本,展示了机器学习在航天领域的应用。
Renate - 自动神经网络再训练的持续学习解决方案
Renate神经网络持续学习模型重训练PyTorchGithub开源项目
Renate是一个用于神经网络模型自动再训练的Python库,采用持续学习和终身学习算法。基于PyTorch和Lightning构建,通过Syne Tune实现超参数优化。该工具专门解决数据分布变化引起的灾难性遗忘问题,提升模型对新数据的适应能力。Renate支持云端部署,适合实际再训练场景,并提供便捷的高级超参数优化功能。
deep-diamond - 基于Clojure的高性能深度学习库 支持CPU和GPU加速
Deep DiamondClojure库张量计算神经网络优化计算Github开源项目
Deep Diamond是基于Clojure的深度学习库,专注于快速张量运算和神经网络计算。项目利用优化的本地库,支持CPU和GPU加速,目前处于Alpha阶段。它为开发者提供高效的深度学习工具,与作者的AI编程书籍系列同步更新。Deep Diamond是一个开源项目,遵循Eclipse Public License。
intro-to-deep-learning - 全面实用的深度学习入门课程
深度学习神经网络Jupyter Notebook机器学习PythonGithub开源项目
这是一个面向深度学习初学者的开源项目,提供全面的入门课程。课程内容包括神经网络基础知识的介绍材料、实践演练和扩展资源。采用Jupyter Notebook形式,鼓励学生动手实践以加深理解。课程涵盖深度学习核心概念,为学习者打下扎实基础,为进一步探索高级主题如GAN和NLP做好准备。项目注重理论与实践结合,并提供深入学习资源。项目内容结构清晰,按主题分类组织,每个主题包含概述、预习建议、实践演示和深入学习资源。课程支持本地运行和Google Colab使用两种方式,增加了学习的灵活性。
modern-srwm - 现代自引用权重矩阵的神经网络学习方法
Self-Referential Weight Matrix深度学习神经网络机器学习人工智能Github开源项目
modern-srwm项目开发了一种新型自引用权重矩阵,使神经网络能自主修改自身结构。该项目提供多篇相关研究论文的代码实现,包括强化学习和监督学习应用。通过优化CUDA内核,项目提升了算法性能,并探索了神经网络自我改进的创新方法。这一技术为机器学习领域的自主学习和持续优化提供了新的研究方向。
soft-moe-pytorch - PyTorch 实现的软专家混合模型框架
Soft MoEPytorch专家混合深度学习神经网络Github开源项目
soft-moe-pytorch 项目实现了基于 PyTorch 的软专家混合 (Soft MoE) 模型。该模型支持非自回归编码器,可用于文本到图像等任务。项目特点包括灵活设置专家数量、动态分配插槽,以及与 Transformer 架构兼容。这一工具为深度学习研究和开发提供了高效、可扩展的 MoE 模型实现,有助于提升模型性能。
q-transformer - 自回归Q函数实现离线强化学习
Q-Transformer强化学习AI模型神经网络机器人控制Github开源项目
Q-transformer项目是Google Deepmind提出的可扩展离线强化学习方法的开源实现。该项目通过自回归Q函数优化多动作选择,支持单一和多动作学习,并提供深度对偶架构和n步Q学习。它包含环境交互、数据集创建和学习流程,适用于复杂机器人控制任务。Q-transformer的创新性和灵活性为强化学习研究和应用提供了重要工具。
CALM-pytorch - 组合式增强大型语言模型框架
CALMLLM人工智能深度学习神经网络Github开源项目
CALM-pytorch是基于Google Deepmind研究的开源PyTorch实现,旨在通过组合多个专业LLM来增强大型语言模型的能力。该框架支持集成任意数量的增强型模型,提供灵活的连接配置和便捷的训练工具。CALM-pytorch可与多种Transformer架构兼容,包括视觉Transformer,为研究人员和开发者提供了一个强大的平台来探索和扩展LLM的潜力。不仅支持文本处理,还能整合视觉和音频模型,为多模态AI应用开发提供了强大支持。
Awesome-Quantization-Papers - 深度学习模型量化研究论文综合列表
模型量化深度学习神经网络Transformer低比特量化Github开源项目
Awesome-Quantization-Papers是一个全面的深度学习模型量化研究论文列表,涵盖AI会议、期刊和arXiv上的最新成果。项目根据模型结构和应用场景进行分类,重点关注Transformer和CNN在视觉、语言处理等领域的量化方法。通过定期更新,为研究人员提供模型量化领域的最新进展。
simple-hierarchical-transformer - 分层Transformer模型探索多层次预测编码
Transformer深度学习神经网络自然语言处理注意力机制Github开源项目
这个项目提出了一种在GPT模型中实现多层次预测编码的方法。它通过在Transformer中引入多层结构,结合局部注意力和全局信息传递。实验结果显示,该方法在维持性能的同时提升了效率。项目允许自定义层次结构、维度和注意力窗口大小,为研究人员提供了探索分层Transformer的实验工具。项目代码支持灵活配置,包括调整层次数量、模型维度和注意力窗口大小。这种设计使研究人员能够方便地进行不同参数的对比实验,有助于深入理解分层Transformer的性能特点。
awesome-ml-model-compression - 机器学习模型压缩与加速技术资源汇总
模型压缩机器学习深度学习神经网络AI加速Github开源项目
本项目汇总了机器学习模型压缩和加速领域的优质资源,包括研究论文、技术文章、教程和工具库等。涵盖量化、剪枝、知识蒸馏和轻量级网络设计等多种技术方法。为研究人员和工程师提供了优化深度学习模型性能和效率的重要参考。项目内容持续更新,欢迎提交新的相关资源。
awesome-pretrained-models-for-information-retrieval - 信息检索领域预训练模型研究综述与最新进展
信息检索预训练模型神经网络深度学习搜索引擎Github开源项目
该项目汇集了信息检索领域预训练模型相关的重要论文资源。内容涵盖第一阶段检索、重排序、联合学习等核心技术,以及大语言模型应用和多模态检索等前沿主题。项目提供了全面的文献综述,有助于研究人员和从业者了解该领域的最新进展和发展方向。资源列表系统梳理了稀疏检索、密集检索等关键技术,为相关研究提供了宝贵的参考。
mixture-of-experts - PyTorch实现的稀疏门控专家混合层
PyTorch神经网络机器学习专家混合深度学习Github开源项目
mixture-of-experts项目提供PyTorch版本的稀疏门控专家混合层实现,基于'Outrageously Large Neural Networks'论文。该实现支持自定义专家数量和输入输出维度,并提供训练和评估示例。项目包含CIFAR-10数据集应用实例,展示实际性能。作为深度学习工具,它有助于构建大规模高效的神经网络模型。
Papers-in-100-Lines-of-Code - 45篇深度学习论文的100行代码实现集锦
深度学习神经网络机器学习计算机视觉NeRFGithub开源项目
Papers-in-100-Lines-of-Code项目汇集了45篇深度学习领域重要论文的精简实现。覆盖范围广泛,从经典网络架构到前沿神经渲染技术,每个算法都浓缩为100行以内的代码。这种简洁实现有助于理解算法核心思想,为研究者和开发者提供了快速上手的机会。项目既展示了复杂算法的精髓,又为深度学习实践提供了便捷途径。
EchoTorch - 高效回声状态网络研究工具库
EchoTorch神经网络PyTorch回声状态网络研究工具Github开源项目
EchoTorch是基于PyTorch的回声状态网络研究工具库,专注于实现和测试多种ESN模型。该库提供丰富的ESN组件、数据集和评估工具,支持概念器和内存管理等高级功能。EchoTorch的模块化设计便于集成到深度学习架构中,为ESN研究提供灵活性。它还包含数据转换、优化算法和可视化工具,是进行ESN相关实验和研究的理想选择。
torch-scan - PyTorch模型分析和性能评估工具
PyTorch模型分析神经网络性能评估深度学习Github开源项目
torch-scan是一个专门用于PyTorch模型分析的开源工具。它提供详细的模型结构信息,包括参数数量、FLOPs、MACs和内存使用等指标。支持分析嵌套复杂架构,可估算卷积网络感受野。该工具帮助开发者深入了解和优化PyTorch模型,适用于模型分析和性能评估。
pytorch-onn - 基于PyTorch的光子神经网络仿真与优化框架
PyTorch光子集成电路神经网络AI计算GPU加速Github开源项目
pytorch-onn是一个基于PyTorch的光子神经网络仿真框架。该框架支持GPU加速的相干和非相干光学神经网络训练与推理,可扩展至百万参数规模。它提供了高度优化的并行处理和多功能API,支持从器件到系统级的协同设计与优化。这一工具主要面向神经形态光子学、光学AI系统和光子集成电路优化等领域的研究人员。
ABAGAIL - 功能丰富的Java机器学习算法库
ABAGAIL机器学习人工智能算法神经网络优化算法Github开源项目
ABAGAIL是一个开源Java库,实现了多种机器学习和人工智能算法。它包含隐马尔可夫模型、神经网络、支持向量机、决策树等算法,并提供线性代数、优化和图算法支持。该项目适合喜欢自主实现算法的开发者,提供灵活的定制选项和示例代码,可用于解决离散优化问题和机器学习任务。
owmeta - Python数据访问层整合线虫C. elegans解剖和生理学数据
owmetaOpenWorm数据访问层C. elegans神经网络Github开源项目
owmeta是为OpenWorm项目开发的Python数据访问层,整合线虫C. elegans的解剖和生理学数据。它提供简单的Python API用于查询线虫细胞信息,支持数据共享以构建数据到模型的管道。owmeta通过统一的数据访问层封装不同的数据表示,让用户可以直接操作线虫生物学相关对象,无需关注底层实现细节。
batchflow - 高效灵活的大规模数据处理和机器学习框架
BatchFlow数据处理机器学习神经网络数据流水线Github开源项目
BatchFlow是一个专为大规模数据处理和复杂机器学习流程设计的Python库。它提供灵活的批处理生成、确定性和随机管道、数据集合并等功能。支持多种深度学习模型,并具有丰富的层和辅助函数,方便自定义模型。其懒加载机制和高效批处理策略适用于处理超出内存容量的大型数据集,是数据科学和机器学习项目的理想工具。
Lexora-Lite-3B - 意大利语指令生成与自动化对话模型
语言模型神经网络transformers预训练模型Github开源项目自然语言处理Huggingface
Lexora-Lite-3B通过深度学习与自然语言处理技术提供意大利语的文本生成与对话自动化,依托transformers库及Sonnet-3.5-ITA-INSTRUCTION与Sonnet-3.5-ITA-DPO数据集,以高效处理语料指令与自动生成对话为核心,适用于多场景文本交互需求,简化任务管理。
flashtorch - 基于PyTorch的神经网络可视化工具
FlashTorchPyTorch神经网络可视化特征可视化Github开源项目
FlashTorch是基于PyTorch的神经网络可视化工具,通过简单的接口实现特征可视化技术,如显著性图和激活最大化。该工具兼容torchvision预训练模型和自定义PyTorch模型,有助于研究人员和开发者理解、解释及优化神经网络的内部工作机制。FlashTorch仅需几行代码即可应用,为深入分析神经网络提供了便捷途径。
torch-dreams - 神经网络可视化与解释性增强工具
Torch-Dreams神经网络可解释性特征可视化图像生成Github开源项目
Torch-Dreams是一个Python库,专注于神经网络可视化和增强模型可解释性。它提供特征可视化、通道激活和多模型同步可视化等功能,支持批量处理和自定义变换。这个工具适合研究人员分析深度学习模型内部机制,也可用于生成艺术创作。
bert-base-portuguese-cased - 为巴西葡萄牙语优化的高性能预训练模型
模型BERT葡萄牙语Github神经网络预训练模型Huggingface开源项目自然语言处理
BERTimbau是一个专为巴西葡萄牙语开发的预训练BERT模型,在多项自然语言处理任务中表现出色。该模型提供Base和Large两种版本,适用于掩码语言建模和文本嵌入等应用。作为neuralmind团队的开源项目,BERTimbau为葡萄牙语NLP研究和实践提供了有力支持。
resnet18.a1_in1k - ResNet18图像分类模型 适用于多种计算机视觉任务
模型神经网络开源项目ResNetHuggingface图像分类深度学习Githubtimm
resnet18.a1_in1k是基于ResNet-B架构的图像分类模型,在ImageNet-1k数据集上训练。它采用ReLU激活函数、单层7x7卷积等特性,支持图像分类、特征提取和嵌入等任务。该模型有1170万参数,在224x224分辨率下计算量为1.8 GMACs,可用于多种计算机视觉应用。
vit-base-patch16-224 - Vision Transformer图像分类模型在ImageNet数据集上的应用
模型神经网络开源项目Huggingface图像分类机器学习Vision TransformerImageNetGithub
vit-base-patch16-224是一个基于Vision Transformer架构的图像分类模型,在ImageNet-21k数据集上预训练并在ImageNet 2012上微调。该模型采用16x16像素的图像分块和序列化处理方法,可高效处理224x224分辨率的图像。在多个图像分类基准测试中,vit-base-patch16-224展现出较好的性能,为计算机视觉任务提供了一种基于Transformer的新方案。
相关文章
Netron: 强大的神经网络和机器学习模型可视化工具
2024年08月30日
PyTorch Forecasting: 简化神经网络时间序列预测
2024年08月30日
Netron: 强大的神经网络和机器学习模型可视化工具
2024年08月30日
Talking Head Anime: 从单张图像生成动画角色的革命性技术
2024年08月30日
PyTorch中文手册:深度学习开发者的必备指南
2024年08月30日
CycleGAN和pix2pix:PyTorch中的图像到图像转换
2024年08月30日
深入浅出PyTorch:从入门到实战的完整指南
2024年08月30日
Sonnet: 深度学习研究的简洁而强大的神经网络库
2024年08月30日
Netron: 强大的神经网络和机器学习模型可视化工具
2024年08月30日