#神经网络

awesome-llm-interpretability - 深入理解大语言模型内部机制与可解释性
LLM可解释性神经网络人工智能机器学习Github开源项目
该项目汇集了大语言模型(LLM)可解释性领域的核心资源,包括解释性工具、学术论文、行业报告和深度分析文章。内容涵盖神经元分析、注意力机制、模型行为等多个维度,旨在帮助研究人员和开发者深入理解LLM内部原理,提升模型透明度。项目为LLM可解释性研究提供了全面的知识库和工具集。
hlb-CIFAR10 - 单GPU上CIFAR-10数据集训练的世界纪录级深度学习模型
CIFAR10神经网络深度学习GPU训练超快速训练Github开源项目
hlb-CIFAR10是一个专注于快速训练CIFAR-10数据集的开源项目。该项目在单GPU上实现了世界纪录级的训练速度,目前可在A100 GPU上在约6.3秒内完成训练。项目基于David Page的实现进行了优化,包括自定义架构、超参数调优和内存格式改进。代码设计简洁,易于理解和修改,适合研究人员进行快速实验和创新。项目目标是在未来1-2年内将训练时间进一步缩短到2秒以内。
HashNeRF-pytorch - 纯PyTorch实现的高速NeRF训练框架
NeRFPyTorchAI绘图神经网络多分辨率哈希编码Github开源项目
HashNeRF-pytorch是一个基于PyTorch的Instant-NGP实现,专注于加速NeRF(神经辐射场)训练。该项目采用多分辨率哈希编码,将训练速度提升至传统NeRF方法的100倍。它支持多种数据集,提供简洁的使用指南和额外优化功能。这个开源项目为AI研究人员提供了一个探索和创新NeRF技术的平台,尤其适合需要在PyTorch环境中快速实现高质量3D渲染的开发者。
rtdl-num-embeddings - 数值特征嵌入技术助力表格深度学习性能提升
数值特征嵌入表格深度学习神经网络MLPNeurIPSGithub开源项目
rtdl-num-embeddings项目提出了一种处理表格深度学习数值特征的嵌入技术。该方法将连续标量特征转换为向量表示,并在主干网络中混合使用,有效提升了模型性能。这种技术适用于多种模型架构,尤其是在使用嵌入的简单MLP模型中表现突出。通过解决真实世界表格数据中连续特征分布不规则的问题,该方法改善了模型整体优化效果,为表格深度学习领域提供了新的研究方向。
SemantiCodec-inference - 超低比特率音频编解码器优化潜在空间语义
SemantiCodec音频编解码低比特率语义空间神经网络Github开源项目
SemantiCodec是一个开源的神经音频编解码器项目,提供0.31-1.40 kbps的超低比特率音频压缩。通过优化潜在空间的语义表示,实现高效的音频编码和解码。支持25-100每秒的灵活令牌率,兼容CPU、CUDA和MPS平台。项目提供简单的API接口,适用于需要高压缩率同时保持音质的应用场景。
SAELens - 训练和分析稀疏自编码器的开源工具
SAE Lens稀疏自编码器机械可解释性神经网络人工智能安全Github开源项目
SAELens是一个开源工具库,专注于稀疏自编码器的训练和分析。它为研究人员提供预训练模型加载、自定义训练和可视化分析功能,支持深入探索神经网络内部机制。该项目由多位贡献者维护,旨在促进机械解释性研究和人工智能安全发展。
corenet - 用于训练多任务深度神经网络的工具库
CoreNet神经网络深度学习模型训练计算机视觉Github开源项目
CoreNet是一款多功能深度神经网络工具库,支持训练各种规模的标准和创新模型。它适用于基础模型、计算机视觉和自然语言处理等多个领域。该项目提供可复现的训练方案、预训练模型权重和针对Apple Silicon优化的MLX示例,有助于推动AI研究和应用的发展。
LeYOLO - 可扩展高效的目标检测CNN架构
LeYOLO目标检测神经网络计算效率COCO数据集Github开源项目
LeYOLO是一种新型目标检测模型系列,通过创新的CNN架构设计实现了计算效率与准确性的优化平衡。该模型引入高效主干网络缩放、快速金字塔架构网络和解耦网络中的网络检测头,大幅降低计算负载。在COCO验证集上,LeYOLO-Small仅使用4.5 GFLOP就达到38.2%的mAP,比YOLOv9-Tiny减少42%计算量。LeYOLO系列具有强大可扩展性,适用于从超低计算需求(<1 GFLOP)到高效高性能(>4 GFLOPs)的多种场景。
tinygrad - 简化深度学习和加速器开发的轻量级框架
tinygrad深度学习框架加速器支持神经网络lazinessGithub开源项目
tinygrad是一个轻量级深度学习框架,定位于PyTorch和micrograd之间。其极简设计使其成为最易添加新加速器的框架之一,支持推理和训练功能。该框架能够运行LLaMA和Stable Diffusion等复杂模型,并具有延迟计算等特性。tinygrad支持GPU、CUDA、METAL等多种加速器,且易于扩展。目前处于alpha阶段,但发展迅速,有望在未来推出专用芯片。
gotch - Go语言深度学习框架 基于PyTorch C++ API的高性能实现
深度学习张量操作神经网络GPU支持PytorchGithub开源项目
Gotch是基于PyTorch C++ API (Libtorch)开发的Go语言深度学习框架。它实现了全面的张量操作、动态计算图、JIT接口和预训练模型加载等功能,同时支持CPU和GPU。Gotch采用纯Go API设计,便于构建和训练神经网络模型,适合深度学习研究和应用开发。
poutyne - 简化PyTorch开发 加速神经网络训练
PoutynePyTorch深度学习神经网络模型训练Github开源项目
Poutyne是一个简化的PyTorch深度学习框架,能够处理神经网络训练中的大量样板代码。该框架提供简洁的模型训练接口、丰富的回调函数及自动检查点保存功能,显著提升开发效率。Poutyne兼容最新版PyTorch和Python 3.8+,适合需要快速构建和训练神经网络的研究人员及开发者。
keras3 - R语言高级神经网络接口 快速构建深度学习模型
Keras神经网络深度学习APIR语言Github开源项目
keras3是R语言的高级神经网络接口,专注于快速实验和构建深度学习模型。它支持CPU和GPU无缝运行,提供用户友好的API。项目内置支持卷积网络和循环网络,支持多种网络架构。keras3适用于构建各类深度学习模型,帮助研究人员快速将想法转化为结果。
rust-snake-ai-ratatui - Rust和Ratatui打造的终端贪吃蛇AI学习系统
AI神经网络贪吃蛇游戏Rust遗传算法Github开源项目
该项目展示了一个基于神经网络和遗传算法的贪吃蛇AI系统。完全使用Rust语言和Ratatui库构建,在终端运行。AI通过迭代优化策略,逐步提高游戏表现。项目提供灵活配置选项,支持自定义训练过程和可视化效果。同时包含丰富学习资源,便于理解遗传算法原理。
yolov9 - 高效准确的目标检测算法
YOLOv9目标检测深度学习计算机视觉神经网络Github开源项目
YOLOv9是一种新型目标检测算法,采用可编程梯度信息技术提高学习能力。该开源项目提供YOLOv9的官方实现,包含预训练模型、训练评估脚本和使用文档。在COCO数据集上,YOLOv9展现出优异的检测性能,同时保持较低的模型复杂度。研究人员和开发者可利用这一工具进行高效准确的目标检测任务。
DCNv4 - 为视觉应用设计的高效算子,通过优化空间聚合和内存访问
DCNv4可变形卷积计算机视觉深度学习神经网络Github开源项目
DCNv4是一种为视觉应用设计的高效算子。通过优化空间聚合和内存访问,它解决了DCNv3的局限性。DCNv4在图像分类、分割和生成等任务中表现优异,收敛和处理速度显著提升,前向速度提高3倍以上。其卓越的性能和效率使DCNv4成为未来视觉模型的潜力基础构建块。
ezkl - 零知识深度学习推理与验证框架
EZKL零知识证明深度学习神经网络区块链Github开源项目
EZKL是一个开源库和命令行工具,用于在零知识证明系统中执行深度学习模型和计算图推理。该工具支持将PyTorch或TensorFlow模型转换为ONNX格式,并生成ZK-SNARK电路以验证模型推理的正确性。EZKL采用Halo2作为后端证明系统,能够在区块链、浏览器或设备上实现高效验证。这一项目为零知识机器学习应用提供了灵活且功能强大的解决方案。
LPCNet - 低复杂度神经语音合成与压缩算法
LPCNet语音合成神经网络线性预测低复杂度算法Github开源项目
LPCNet是一种基于WaveRNN的低复杂度语音合成算法实现。通过结合线性预测技术,该项目在普通CPU上实现高质量语音合成,并支持1.6 kb/s的超低比特率压缩。LPCNet提供开源代码用于语音合成和编码研究,包括模型训练、优化以及实时包损失隐藏等功能,为语音技术研究和应用奠定基础。
The Asimov Institute - 非营利AI研究机构致力于深度学习与人工创造力的探索
AI工具人工智能深度学习创造力神经网络Asimov Institute
Asimov Institute专注研究深度学习与创造力的关系,发布神经网络研究突破,提供AI影响咨询,开发创意产业工具。其神经网络可生成创新产品、内容和创意,服务于多个创意领域。研究项目包括神经网络动物园和反向监控AI,推动AI在创新领域的应用。
Shumai - 高性能JavaScript和TypeScript张量计算库
AI工具Shumai张量库TypeScript机器学习神经网络
Shumai是基于Bun和Flashlight构建的高性能张量计算库,为JavaScript和TypeScript提供GPU加速和自动微分功能。它具有简洁的API,支持快速网络连接,适用于构建和训练机器学习模型。Shumai的性能优于同类库,为JavaScript生态系统带来了强大的科学计算能力,可满足软件工程师和研究人员的需求。
Captum - 开源PyTorch模型可解释性分析工具库Captum
AI工具Captum可解释性PyTorch神经网络多模态
Captum是PyTorch生态系统中的模型可解释性工具库,支持视觉、文本等多模态模型解释。它与PyTorch模型高度兼容,仅需少量修改即可集成。作为开源通用库,Captum为研究人员提供了实现和评估新算法的平台。通过集成梯度等多种技术,Captum帮助用户洞察模型决策过程,提高AI系统的透明度和可信度。适用于需要深入理解和优化机器学习模型的开发者和研究者。
Interactive Tutorials on Neural Networks and Deep Learning - 交互式神经网络与深度学习可视化教程平台
AI工具深度学习模型可视化神经网络模型编辑器直观学习
该网站提供神经网络和深度学习的交互式教程,通过直观的可视化模型展示经典算法。用户可借助模块化图表理解数据处理流程,并使用可视化编辑器快速构建模型。实时反馈和错误提示功能提高了学习效率,使复杂的深度学习概念变得更易理解和掌握。
NeuroCraft - 简化神经网络开发流程的直观平台
AI工具神经网络模型设计模型训练模型部署人工智能
NeuroCraft是一个创新的神经网络开发平台,提供设计、训练和部署神经网络的综合解决方案。该平台采用简洁的拖放界面,简化模型设计过程,支持实时观察模型学习并灵活配置训练参数。NeuroCraft还提供多样化的部署选项,方便将模型集成到现有系统或用于应用内预测。这个平台适合各级人工智能从业者使用,有助于高效管理神经网络的全生命周期。
Neuralhub - 一体化神经网络开发与协作环境
AI工具Neuralhub神经网络AI研究深度学习协作平台
Neuralhub是面向AI爱好者、研究人员和工程师的一站式深度学习平台。它提供简化的神经网络开发环境,集成了从头构建网络的工具、丰富的预设组件库和高质量预训练模型。作为人工智能创新中心,Neuralhub不仅支持实验和技术突破,还培育了活跃的知识共享与协作社区。通过整合先进工具、前沿研究成果和海量模型资源,Neuralhub致力于让AI研究、学习和开发更加便捷高效,推动深度学习技术的普及与进步。
Comprehensive_DL_Tutor - 全面深度学习教程引领零基础进阶专家
深度学习教程机器学习神经网络AIGithub开源项目
该项目提供全面的深度学习教程,涵盖Python科学计算库、机器学习基础和前沿深度学习算法。教程采用循序渐进的方法,融合理论与实践,适合零基础学习者和专业人士。内容持续更新,反映最新技术发展,为深度学习爱好者提供系统学习路径。项目内容包括Python科学计算库、机器学习基础和深度学习算法,适合不同水平的学习者。教程结构清晰,结合理论和实践,提供系统化学习体验。持续更新确保内容紧跟技术前沿,为深度学习领域提供全面且实用的学习资源。
PyContinual - 多任务持续学习的开源Python框架
PyContinual持续学习自然语言处理神经网络迁移学习Github开源项目
PyContinual是一个开源的持续学习框架,支持语言和图像多种任务类型。框架包含40多种基线方法,可进行任务增量和领域增量学习。它具有易用性和可扩展性,允许研究者快速更改实验设置和添加自定义组件。PyContinual持续集成最新研究成果,提供最新基准测试结果,为持续学习研究提供了全面的实验平台。
Time-series-classification-and-clustering-with-Reservoir-Computing - 基于储层计算的时间序列分析框架
Reservoir Computing时间序列分类时间序列聚类机器学习神经网络Github开源项目
这个开源项目利用储层计算技术,实现了时间序列数据的分类、聚类和预测功能。它支持处理单变量和多变量时间序列,并提供了易用的Python库。项目包含多个功能模块、丰富的数据集和高级示例。其特有的储层模型空间表示方法在处理复杂时间序列任务时表现出色。
AutoFP8 - 量化库优化大语言模型推理性能
AutoFP8FP8量化vLLM模型压缩神经网络Github开源项目
AutoFP8是一个开源FP8量化库,用于生成vLLM兼容的压缩检查点。它提供FP8_E4M3精度的量化权重、激活和KV缓存比例,支持静态和动态激活方案。AutoFP8能将预训练模型转换为FP8格式,与vLLM无缝集成,提高大语言模型推理效率,同时保持模型精度。这个工具适用于优化和部署大规模语言模型。
causality-lab - 开源因果发现和推理算法库
因果发现算法图结构学习统计测试神经网络Github开源项目
Causality Lab是一个开源的因果发现和推理算法库,包含多种先进算法如PC、RAI、FCI和ICD等。该项目提供了模拟数据生成、图形模型处理和性能评估工具,支持开发和测试新的因果结构学习算法。最新的CLEANN算法还可为预训练Transformer模型的输出生成因果解释,为因果推理研究提供了全面支持。
llm-transparency-tool - 深入分析Transformer语言模型的交互式可视化工具
LLM Transparency Tool语言模型可视化分析贡献图神经网络Github开源项目
LLM Transparency Tool是一个用于分析Transformer语言模型的交互式工具。该工具支持选择模型和提示、运行推理,并通过贡献图可视化模型内部机制。它能够展示token表示、注意力头和前馈网络块的详细信息,有助于理解模型的决策过程。这个工具兼容多种模型,并提供Docker部署选项,是研究人员和开发者分析语言模型的实用资源。
CC5205 - 综合数据挖掘与机器学习课程资源
数据挖掘机器学习聚类算法神经网络数据分析Github开源项目
智利大学计算机科学系的开源数据挖掘课程,结合理论与实践。课程资源丰富,包括视频、幻灯片和补充材料,全面覆盖从数据分析到机器学习算法的各个方面。特别关注数据隐私和伦理,为学习者提供全方位的数据科学教育。通过实践项目和丰富的学习资源,帮助学生和专业人士深入掌握数据挖掘和机器学习技能。
character-bert - 字符级CNN构建的开放词汇表神经网络模型
CharacterBERT自然语言处理词嵌入神经网络开放词表Github开源项目
CharacterBERT是BERT的一个变体,采用字符级CNN模块动态构建词表示,无需依赖预定义词片词汇表。这种方法可生成任意输入标记的表示,适用于医学等专业领域。与标准BERT相比,CharacterBERT生成词级上下文表示,对拼写错误更为鲁棒,且可轻松适应不同领域而无需重新训练词片词汇表。该模型在多个医学领域任务中表现优于BERT,提供更便捷实用的词级开放词汇表表示。
CC6205 - 自然语言处理基础到前沿的全面课程
自然语言处理机器学习深度学习神经网络NLP课程Github开源项目
该自然语言处理课程涵盖NLP基础和前沿技术,包括传统的N-gram模型、朴素贝叶斯、隐马尔可夫模型,以及现代的词嵌入、循环神经网络和Transformer等。通过理论学习和实践,学生可掌握NLP核心概念和最新进展,为后续研究和应用打下基础。课程内容丰富全面,适合想系统学习NLP的学生和研究者。
tdmelodic - AI东京方言日语声调词典生成工具
日语口音词典神经网络东京方言自然语言处理语音合成Github开源项目
tdmelodic是一个开源的日语(东京方言)声调词典生成工具,采用AI技术和神经网络算法。该项目能够通过分析日语单词的表面形式和罗马音来估计音调,用于构建大规模声调词典。tdmelodic适用于学术研究和语音合成等领域,提供完整文档和多种使用方式。项目获得新能源产业技术综合开发机构(NEDO)部分资助。
Awesome-Information-Bottleneck - 信息瓶颈理论在机器学习中的进展和应用综述
Information Bottleneck深度学习信息理论神经网络机器学习Github开源项目
本项目汇总了信息瓶颈理论在机器学习领域的关键文献,包括经典论文、综述、理论研究、模型开发和应用。重点介绍了信息瓶颈原理解释深度神经网络学习行为的方法,以及在表示学习、生成模型、强化学习等方向的创新应用。项目为研究人员和实践者提供了了解信息瓶颈理论最新进展的全面资源。
CC6204 - 西语深度学习实战课程
Deep Learning神经网络PyTorchCNNRNNGithub开源项目
CC6204是GitHub上的一个开源深度学习课程项目,采用西班牙语授课。课程涵盖神经网络理论、CNN、RNN等核心内容,融合理论与实践,讲解深度学习模型原理及应用,指导学生构建模型解决实际问题。提供在线视频和PyTorch编程作业,全面培养深度学习实战能力。
pytorch-CycleGAN-and-pix2pix - PyTorch中的高效CycleGAN和pix2pix图像翻译
CycleGANpix2pixPyTorch图像翻译神经网络Github开源项目
该项目提供了PyTorch框架下的CycleGAN和pix2pix图像翻译实现,支持配对和无配对的图像翻译。最新版本引入img2img-turbo和StableDiffusion-Turbo模型,提高了训练和推理效率。项目页面包含详细的安装指南、训练和测试步骤,以及常见问题解答。适用于Linux和macOS系统,兼容最新的PyTorch版本,并提供Docker和Colab支持,便于快速上手。