Project Icon

keras-tcn

强化长记忆能力的时序卷积网络

该项目介绍了时序卷积网络(TCN)如何在长时间序列数据中替代LSTM/GRU并表现出更优异的性能。TCN提供更长的记忆能力、更稳定的梯度,同时支持并行处理和灵活的感受野。这些特性在人脸识别、添加任务、复制记忆任务和语言模型等任务中表现突出。用户可以通过本项目配置和运行TCN模型,探索其在不同任务中的应用潜力。

liquid_time_constant_networks - Liquid Time-Constant Networks (LTC) 的代码库
BPTTGithubLiquid time-constant NetworksTensorFlowcontinuous-time modelspython3开源项目
本项目提供了Liquid time-constant Networks等连续时间模型的官方训练资源。支持使用TensorFlow和Python进行模型训练与评估,适用于手势分割、房间占用检测、交通量预测等多种数据集。通过详细的步骤和参数设置指导,科研人员和开发者可以优化并存储训练结果,深入探索连续时间模型的应用。
cond_rnn - 条件时间序列预测的深度学习框架
ConditionalRecurrentGithubKerasRNNTensorFlow开源项目时间序列
ConditionalRecurrent是一个兼容Keras的包装器,用于基于时间不变数据进行条件时间序列预测。它支持各种循环层,通过学习条件表示来初始化RNN状态,有效模拟P(x_{t+1}|x_{0:t}, cond)。该库适用于包含外部输入的时间序列数据,如天气预测,为整合时间不变条件信息提供了实用的解决方案。
STCN - 改进内存覆盖的高效视频对象分割框架
GithubNeurIPSSTCN开源项目神经网络空间时间对应视频目标分割
STCN是一个创新的视频对象分割框架,通过改进内存覆盖重新构建时空网络。该方法在多个基准测试中达到了最先进水平,同时保持20+ FPS的高效运行。STCN采用简洁的网络结构,建立图像间亲和力,并使用L2相似度替代点积,显著提升内存利用率。这种方法在准确性和效率间实现了理想平衡,为视频对象分割研究带来新思路。
ttt-lm-pytorch - 基于测试时训练的高表达能力RNN模型
GithubRNNTTT序列建模开源项目机器学习隐藏状态
ttt-lm-pytorch项目提出了一种新型序列建模层,结合了RNN的线性复杂度和高表达能力的隐藏状态。该方法将隐藏状态设计为机器学习模型,通过自监督学习在测试阶段持续更新,因此被称为测试时训练(TTT)层。项目实现了TTT-Linear和TTT-MLP两种变体,分别采用线性模型和双层MLP作为隐藏状态,为长序列建模提供了高效替代方案。
textgenrnn - 高效训练文本生成神经网络的实用模块
GithubKerasPythonTensorFlowchar-rnntextgenrnn开源项目
textgenrnn是一个基于Keras和TensorFlow的Python 3模块,只需几行代码即可训练不同规模和复杂度的文本生成神经网络。支持字符级和词级训练,并可使用预训练模型加快训练。其现代架构利用注意力加权和跳过嵌入等技术,提升模型质量和训练速度。可在GPU上训练并在CPU上生成文本,还可在Colab中免费试用。
recurrent-memory-transformer-pytorch - Recurrent Memory Transformer的PyTorch实现助力超长序列处理
GithubPyTorchRecurrent Memory Transformer人工智能开源项目深度学习自然语言处理
Recurrent Memory Transformer的PyTorch实现项目致力于解决超长序列处理问题。该模型通过创新的记忆机制和高效注意力机制,可处理长达百万token的序列。项目提供简便的安装使用方法,支持XL记忆和记忆回放反向传播等先进功能。这一实现在长序列处理、因果推理和强化学习等领域展现出优异性能,为AI研究和应用开发提供了实用工具。
TS-TCC - 创新的时间序列无监督表示学习方法
GithubIJCAI对比学习开源项目时间序列自监督学习表示学习
TS-TCC是一种无监督时间序列表示学习框架,利用时间和上下文对比从未标记数据中学习表示。该方法在多个真实数据集上表现优异,适用于少量标记数据和迁移学习场景。TS-TCC还扩展到半监督设置(CA-TCC),相关研究发表于IEEE TPAMI。这一方法为时间序列分析提供了有效的表示学习工具,推动了该领域的发展。
LongMem - 为语言模型赋予长期记忆能力
GithubLongMem开源项目评估语言模型长期记忆预训练
LongMem项目通过创新的长期记忆机制提升了语言模型的性能。该项目实现了记忆库、检索机制和联合注意力等核心技术,使模型在内容学习任务中表现优异。项目开源了完整代码,包括环境配置、模型结构和评估方法,为研究者提供了便利的复现和探索工具。LongMem为自然语言处理领域开辟了新的研究方向。
tensorflow-deep-learning - TensorFlow深度学习教程
GithubTensorFlow开源项目深度学习神经网络训练课程
本项目通过展示如何使用TensorFlow和Keras解决多种问题,教授深度学习的基本技能及其应用。课程内容包括关键视频教程、实践练习和项目实战,确保学习者能通过动手操作全面理解深度学习。适合任何级别的学者,帮助你提升个人和职业技能。
LongNet - 扩展Transformer到10亿标记的创新变体
Dilated AttentionGithubLongNetTransformer开源项目机器学习长序列建模
LongNet是一个创新的Transformer变体,通过膨胀注意力机制扩展序列长度至超过10亿标记,同时保持对较短序列的高性能。该模型具有线性计算复杂度,适用于极长序列的分布式训练,并且其膨胀注意力可以无缝替代标准注意力。实验结果证明,LongNet在长序列建模和一般语言任务上表现出色,为处理整个语料库或互联网序列开辟了新路径。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号