Project Icon

single-cell-transformer-papers

Transformer模型在单细胞组学分析中的应用概览

本项目汇总了单细胞组学数据分析中的Transformer模型,包括论文、代码、数据模态等关键信息。通过全面概述单细胞Transformer模型,展示了该领域的最新进展和发展趋势。项目内容持续更新,为研究人员提供了宝贵的参考资源。项目内容涵盖了各Transformer模型的核心要素,如数据模态、预训练数据集、模型架构和任务类型等。这种系统性的整理使研究人员能够快速了解和比较不同模型的特点,为单细胞组学研究提供了有力支持。

commented-transformers - 精细注释的Transformer在PyTorch中的实现
Attention机制BERTGPT-2GithubPyTorchTransformer开源项目
详细注释的Transformer实现,涵盖从头创建Transformer系列,包括注意力机制和整体Transformer的实现。提供双向注意力、因果注意力及因果交叉注意力的实现,以及GPT-2和BERT模型的单文件实现,兼容torch.compile(..., fullgraph=True)以提高性能。
iTransformer - 用于多变量时间序列预测的iTransformer模型
GithubTransformer模型iTransformer多变量预测开源项目时间序列预测高效注意力机制
iTransformer是一种用于多变量时间序列预测的开源模型,无需修改任何Transformer模块。它在处理大规模数据时表现出色,具备显著的性能提升和强大的泛化能力。iTransformer已在多种基准测试中表现优异,支持静态协变量和概率发射头。用户可通过pip安装,并使用项目提供的详细训练和评估脚本。更多信息请参阅官方论文。
transformer-abstractive-summarization - Transformer模型实现的抽象文本摘要项目
GithubTransformer开源项目文本摘要注意力机制深度学习自然语言处理
transformer-abstractive-summarization是一个开源项目,利用Transformer模型实现抽象文本摘要。项目基于'Attention is all you need'论文提出的Transformer模型,使用Inshorts数据集训练。项目提供博客教程,详细介绍Transformer原理及其在文本摘要中的应用。该技术能生成高质量摘要,适用于新闻和文档处理等领域。项目采用Apache License 2.0许可证。
Transformers_And_LLM_Are_What_You_Dont_Need - 分析深度学习模型在时间序列预测中的表现与局限
GithubMambaTransformers开源项目时间序列预测深度学习线性模型
本项目汇集大量研究论文和文章,深入分析变压器和大语言模型在时间序列预测中的表现及局限性。探讨这些深度学习模型处理时间序列数据的挑战,并介绍更适合的替代方法。为时间序列预测领域的研究和应用提供全面的参考资源。
Crossformer - 高效利用跨维度依赖的多变量时间序列预测模型
CrossformerGithubTransformer开源项目时间序列预测注意力机制深度学习
Crossformer是一种新型Transformer模型,针对多变量时间序列预测设计。该模型采用维度分段嵌入、两阶段注意力机制和层次编码器-解码器结构,有效捕捉时间和维度间的依赖关系。Crossformer在多个基准数据集上表现优异,为长序列预测和高维数据处理提供新思路。其开源实现便于研究人员和实践者探索应用。
nlp_paper_study - NLP论文学习和实战资源库
GithubNLP信息抽取开源项目知识图谱论文研究预训练模型
nlp_paper_study项目是一个综合性NLP学习资源库,涵盖论文阅读方法、经典会议论文解读、理论学习和实战经验。内容包括transformer、预训练模型、信息抽取、知识图谱等多个NLP主题,从基础到前沿。项目还提供竞赛经验和实用工具介绍,帮助研究者和工程师系统掌握NLP知识,提升科研与应用能力。
transformerlab-app - 多功能大语言模型实验平台 支持本地操作和微调
GithubTransformer Lab人工智能开源软件开源项目模型训练语言模型
Transformer Lab是一个功能丰富的大语言模型实验平台。该应用支持一键下载多种流行模型、跨硬件微调、RLHF优化等功能。平台提供模型聊天、评估和RAG等交互方式,并具备REST API、云端运行和插件系统。Transformer Lab适用于多种操作系统,为AI研究和开发提供了便捷的工具。
transformers-interpret - 快速解读Transformer模型的工具,只需2行代码
GithubTransformers Interprettransformers可视化开源项目文本分类解释工具
Transformers-interpret是一款为Transformer模型设计的解释工具,只需简单代码即可实现。支持文本和计算机视觉模型,并可在笔记本中展示或保存为PNG和HTML文件。通过导入预训练模型和tokenizer,用户能快速获得预测分类解释,并提供可视化功能。此项目基于Captum库构建,支持多标签分类等功能,帮助开发者深入理解模型决策。
transformers-code - 对Transformers从入门到高效微调的全方位实战指南
GithubNLPTransformers分布式训练开源项目微调模型训练
课程提供丰富的实战代码和案例,从基础入门到高效微调以及低精度和分布式训练。涵盖命名实体识别、机器阅读理解和生成式对话机器人等NLP任务。帮助深入理解Transformers的核心组件和参数微调技术,包括模型优化和分布式训练。适合对Transformers应用和实践感兴趣的学习者。课程在B站和YouTube持续更新,紧跟技术前沿。
tab-transformer-pytorch - 表格数据处理的注意力网络新突破
FT TransformerGithubPytorchTab Transformer亚马逊AI开源项目表格数据
Tab Transformer项目在Pytorch中实现了表格数据的注意力网络,性能接近GBDT。亚马逊最新研究称在实际表格数据集上使用注意力机制超越了GBDT。项目提供详细安装和使用说明,并包含改进的FT Transformer模型以供比较。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号