Project Icon

MoLFormer-XL-both-10pct

大规模分子语言模型实现化学结构与性质预测

MoLFormer是一个在ZINC和PubChem数据集上训练的化学语言模型,通过处理11亿分子的SMILES表示实现分子特征学习。模型采用线性注意力机制与旋转位置编码,在MoleculeNet的11个基准任务中展现优异性能。该模型可应用于分子相似度分析、特征提取及分子性质预测,适用于200原子以下的小分子研究。

docling-models - 将PDF文档中的版式与表格结构自动识别的开源模型
DoclingGithubHuggingfacePDF文档转换TableFormer布局分析开源项目模型表结构识别
docling模型支持PDF文档的布局与表格结构分析。布局模型使用RT-DETR技术识别版式元素,如标题、脚注与图片,性能接近人类标准。TableFormer模型则在表格结构识别上表现优异,准确识别复杂表格。该项目可应用于多种需要文档处理的场景。
mformer-sanctity - 开源深度学习NLP开发框架
GithubHuggingfaceMIT协议transformers开源协议开源项目模型编程语言软件许可
这是一个基于MIT许可证的开源自然语言处理项目,使用transformers技术进行开发。该框架旨在为NLP应用开发提供支持,集成了相关工具和技术组件。框架采用模块化设计,便于开发者进行自然语言处理相关功能的开发和部署。
xllm - 便捷微调大语言模型,集成最新优化技术
GithubX—LLM大语言模型开源项目模型训练训练优化集成开发
X—LLM是一个便捷的微调大语言模型工具,集成了诸如QLoRA、DeepSpeed、GPTQ、Flash Attention 2和FSDP等最新优化方法,显著提升训练效率。用户可以专注于模型和数据的优化,而不需要繁琐的代码编写。该工具支持多种Transformer模型,并可无缝对接HuggingFace Hub,适用于生产环境和快速原型设计,有助于用户更好地掌控模型训练进度并降低开销。
MOMENT-1-large - 多功能时间序列分析基础模型:预测、分类、异常检测和填补
GithubHuggingfaceMOMENT基础模型开源项目时间序列分析机器学习模型预训练模型
MOMENT-1-large是一款专为时间序列分析设计的多功能基础模型。它能够高效处理预测、分类、异常检测和数据填补等多种任务。该模型具有出色的零样本和少样本学习能力,可以在缺少或仅有少量任务特定样本的情况下直接使用。此外,MOMENT-1-large支持使用领域相关数据进行微调,以进一步提升性能。作为一个灵活而强大的工具,它为各类时间序列分析任务提供了有力支持。
prot_t5_xl_uniref50 - 基于T5架构的大规模蛋白质序列预训练模型
GithubHuggingfaceProtT5-XL-UniRef50UniRef50开源项目模型特征提取生物信息学蛋白质语言模型
ProtT5-XL-UniRef50是基于T5-3B架构的蛋白质序列预训练模型,在UniRef50数据集的4500万个序列上进行自监督学习。该模型采用改进的掩码语言建模目标,能够捕捉蛋白质序列中的关键生物物理特性。ProtT5-XL-UniRef50可用于蛋白质特征提取和下游任务微调,在二级结构预测等任务中表现优异,为蛋白质序列研究提供了有力工具。
xlm-roberta-xl - 基于2.5TB数据训练的100语种自然语言处理模型
GithubHuggingfaceXLM-RoBERTa-XL多语言模型开源项目机器学习模型自然语言处理预训练模型
XLM-RoBERTa-XL是基于2.5TB CommonCrawl数据训练的大规模多语言模型,支持100种语言的自然语言处理。该模型采用掩码语言建模进行自监督学习,适用于序列分类、标记分类和问答等需要理解整句上下文的任务。XLM-RoBERTa-XL为多语言NLP研究和应用提供了强大的基础,但不适合文本生成类任务。
rinalmo - 基于BERT的非编码RNA预训练模型助力RNA结构预测
GithubHuggingfaceRNA模型RiNALMo序列分析开源项目模型深度学习生物信息学
RiNALMo是一种基于BERT架构的非编码RNA预训练语言模型。该模型在3600万条独特ncRNA序列上使用掩码语言建模进行训练,可有效应用于RNA结构预测。模型包含33层、1280个隐藏单元和20个注意力头,总参数量达6.5亿。RiNALMo可用于RNA序列特征提取、序列和核苷酸级别的分类回归任务,以及RNA接触预测等多种下游应用。
mit-b4 - 使用SegFormer预训练模型提升语义分割效率
GithubHugging FaceHuggingfaceImageNetSegFormerTransformer开源项目模型语义分割
此项目提供SegFormer的b4-sized预训练模型,具有分层Transformer和轻量级MLP解码头,在ADE20K和Cityscapes等基准上展现出色性能。经过ImageNet-1k预训练的SegFormer可用于下游任务微调,满足多种应用需求。用户可在[模型库](https://huggingface.co/models?other=segformer)中根据任务需求选择合适版本,优化图像分割效果。
DiT-MoE - 16亿参数规模的稀疏化扩散Transformer模型
DiT-MoEGithub图像生成开源项目扩散模型深度学习混合专家
DiT-MoE项目采用混合专家模型,将扩散Transformer扩展至16亿参数规模。作为扩散Transformer的稀疏版本,DiT-MoE在保持与密集网络相当性能的同时,实现了高效的推理。项目提供PyTorch实现、预训练权重和训练/采样代码,并包含专家路由分析和Hugging Face检查点。通过混合专家方法,DiT-MoE在模型扩展和推理优化方面展现出显著优势。
ToxicityModel - 基于RoBERTa的毒性检测与评分优化工具
AI辅助GithubHuggingfaceToxicityModeltransformers开源项目模型毒性识别词汇评级
这是一款基于RoBERTa的微调模型,用于有效检测和评分文本毒性。模型通过有毒及无毒语言示例训练,特别在wiki_toxic和toxic_conversations_50k数据集上表现出色。作为RLHF训练的辅助工具,该模型的输出值可用于判断文本的毒性与否,适合多种需检测有毒语言的应用场景。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号