Project Icon

keras-attention

Keras 兼容的注意力层,支持 Luong 和 Bahdanau 评分函数

Keras Attention Layer 支持 Luong 和 Bahdanau 的评分函数,与 Tensorflow 2.8 至 2.14 兼容。该层易于安装和使用,可根据需求调整参数,广泛应用于提高深度学习模型精度。提供丰富的实例和详细文档,包括在 LSTM 网络中的注意力机制实现,以及 IMDB 数据集和加数任务的实验数据。

mlp - 多层感知器实现n-gram语言模型的开源项目
GithubPyTorch多层感知器开源项目神经网络自动微分自然语言模型
该项目基于Bengio等人2003年的论文,实现了多层感知器(MLP)作为n-gram语言模型。项目提供C、NumPy和PyTorch三种实现,展示了从底层操作到高级抽象的不同层次。通过对比,突出了PyTorch在Tensor处理、自动微分和深度学习层构建方面的优势。相比传统n-gram模型,此方法以较少参数实现更低验证损失,但训练成本较高。
keras-ocr - 基于Keras的开源文本检测和OCR解决方案
Githubkeras-ocr图像处理开源项目文字识别深度学习计算机视觉
keras-ocr是一个开源的文本检测和OCR工具包,集成了CRAFT检测模型和CRNN识别模型。该项目提供高级API用于训练和部署OCR流程,支持Python 3.6+和TensorFlow 2.0.0+环境。keras-ocr自带预训练模型,在COCO-Text验证集上表现接近主流云服务。它为开发者提供了一个灵活、高效且易于使用的OCR开发平台。
recurrent-memory-transformer-pytorch - Recurrent Memory Transformer的PyTorch实现助力超长序列处理
GithubPyTorchRecurrent Memory Transformer人工智能开源项目深度学习自然语言处理
Recurrent Memory Transformer的PyTorch实现项目致力于解决超长序列处理问题。该模型通过创新的记忆机制和高效注意力机制,可处理长达百万token的序列。项目提供简便的安装使用方法,支持XL记忆和记忆回放反向传播等先进功能。这一实现在长序列处理、因果推理和强化学习等领域展现出优异性能,为AI研究和应用开发提供了实用工具。
former - 使用PyTorch实现简单Transformer模型的指南
GithubIMDb数据集PyTorchtransformer分类实验开源项目自注意力机制
详细介绍了如何使用PyTorch从零开始实现简单的Transformer模型,包含安装和使用指南,以及通过命令行控制超参数和数据自动下载的说明。
ktransformers - 体验前沿LLM推理优化的灵活框架
GPU加速GithubKTransformersLLM推理优化大型语言模型开源项目深度学习框架
KTransformers是一个灵活的Python框架,通过高级内核优化和并行策略增强Transformers性能。框架支持单行代码注入优化模块,提供Transformers兼容接口、OpenAI和Ollama标准RESTful API及简化的ChatGPT风格Web UI。专注本地部署和异构计算优化,KTransformers集成Llamafile和Marlin内核,为LLM推理优化实验提供灵活平台。
Deep-RL-Keras - 模块化实现深度强化学习算法,支持A2C、A3C、DDPG、DDQN
Actor-Critic算法GithubKeras优化算法开源项目深度Q学习深度增强学习
本项目在Keras框架下实现了多种常用的深度强化学习算法模块化,包括A2C、A3C、DDPG、DDQN等。用户可以通过命令行参数运行不同的RL算法,并在OpenAI Gym环境中进行训练。项目支持模型可视化和Tensorboard监控,提供详细的算法说明和使用案例,帮助用户理解和应用这些技术。
LongNet - 扩展Transformer到10亿标记的创新变体
Dilated AttentionGithubLongNetTransformer开源项目机器学习长序列建模
LongNet是一个创新的Transformer变体,通过膨胀注意力机制扩展序列长度至超过10亿标记,同时保持对较短序列的高性能。该模型具有线性计算复杂度,适用于极长序列的分布式训练,并且其膨胀注意力可以无缝替代标准注意力。实验结果证明,LongNet在长序列建模和一般语言任务上表现出色,为处理整个语料库或互联网序列开辟了新路径。
keras3 - R语言高级神经网络接口 快速构建深度学习模型
APIGithubKerasR语言开源项目深度学习神经网络
keras3是R语言的高级神经网络接口,专注于快速实验和构建深度学习模型。它支持CPU和GPU无缝运行,提供用户友好的API。项目内置支持卷积网络和循环网络,支持多种网络架构。keras3适用于构建各类深度学习模型,帮助研究人员快速将想法转化为结果。
tflearn - 深度学习库,简化TensorFlow高阶API的使用
GithubTFLearnTensorFlow开源项目深度学习神经网络高层API
TFLearn是一个模块化且透明的深度学习库,基于TensorFlow构建,提供高阶API以加速实验。特点包括易用的高阶API、快速原型设计、完全透明的TensorFlow集成、强大的训练辅助功能和精美的图形可视化。支持最新的深度学习模型,兼容TensorFlow v2.0及以上版本。
labse_bert - 多语言BERT句子嵌入模型及其应用
GithubHuggingfaceLABSE BERT句子嵌入多语言处理开源项目模型模型应用自然语言处理
LaBSE BERT是一种语言无关的句子嵌入模型,由Fangxiaoyu Feng等人开发并在TensorFlow Hub上提供。该模型能够将文本转换为高效的向量表示,适用于多语言文本处理。利用AutoTokenizer和AutoModel加载模型,并通过mean_pooling方法获取句子嵌入,以增强文本分析和信息检索等领域的性能。使用PyTorch实现编码和处理,多语言文本分析更加轻松。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号