Project Icon

Mol-Instructions

大规模生物分子指令数据集助力大语言模型

Mol-Instructions是一个开放的大规模生物分子指令数据集,包含分子导向、蛋白质导向和生物分子文本三类指令。数据集涵盖分子设计、蛋白质功能预测等多个任务,通过AI协作、数据提取和模板转换等方法构建。该数据集旨在增强大语言模型在生物分子领域的表现,现已在Hugging Face平台发布。

Mistral-7B-Instruct-v0.2-AWQ - Mistral-7B-Instruct-v0.2改进版指令微调大语言模型
AI推理AWQGithubHuggingfaceMistral-7B-Instruct-v0.2开源项目文本生成模型模型量化
Mistral-7B-Instruct-v0.2是Mistral AI团队开发的改进版指令微调大语言模型。基于Mistral-7B-v0.1架构,采用分组查询注意力和滑动窗口注意力技术。支持[INST]和[/INST]标记的指令格式,提供聊天模板功能。模型性能出色,但缺乏审核机制。适用于需要无限制输出的应用场景,展示了基础模型易于微调并获得优秀性能。
ChatMol - 使用自然语言驱动的PyMOL交互式分子可视化分析工具
ChatMolGithubPyMOL分子可视化开源项目插件自然语言交互
ChatMol是一款PyMOL插件,通过自然语言交互实现分子可视化和分析。它支持命令行、迷你GUI、Python和网页浏览器等多种交互方式,集成了大型语言模型。ChatMol可执行PyMOL任务,提供建议和解释。该工具还包括Streamlit应用、Python包和在线问答系统。ChatMol简化了分子结构分析过程,无需复杂设置即可使用。
nucleotide-transformer-v2-500m-multi-species - 基于多物种基因组的大规模DNA语言模型
DNA序列GithubHuggingfaceNucleotide Transformer基因组学开源项目模型生物信息学预训练模型
nucleotide-transformer-v2-500m-multi-species是一个基于850个多物种基因组预训练的5亿参数Transformer模型。该模型利用多样化物种的DNA序列信息,通过掩码语言建模训练,可用于分子表型预测等任务。它采用6-mer标记化方法,结合旋转位置编码和门控线性单元,在900B个标记上训练而成。这一基础模型为基因组学研究提供了有力工具,可应用于多种下游分析。
magicoder - 开源代码生成与指令数据的高质量低偏见模型
GithubMagicoderOSS-Instruct人类评估大模型开源代码开源项目
Magicoder项目采用OSS-Instruct方法,通过开源代码片段生成低偏见、高质量的指令数据。Magicoder-S-DS-6.7B模型在HumanEval测试中表现优于GPT-3.5-turbo-1106和Gemini Ultra,展示了卓越的代码生成能力。项目提供多个模型和数据集,并支持在线和本地Gradio演示,适用于多种代码生成场景。
Awesome-instruction-tuning - 介绍开源指令调优数据集和模型的精选资源库
GithubHelsinki-NLPLLMsalpacainstruction tuning datasetsmultilingual tools开源项目
此页面汇总了开源的指令调优数据集、模型、相关论文和资源库的精选列表。涵盖传统NLP任务修改的数据集、大型语言模型生成的数据,还包括跨语言翻译工具和研究论文链接。对于研究和应用指令调优技术的研究人员、开发者和数据科学家,这是一个重要的参考资源。
Graphormer - 优化分子科学中的AI研究和应用
Azure Quantum ElementsGithubGraphormer分子建模开源项目材料科学药物发现
Graphormer是一个深度学习包,用于加速分子科学中的AI研究和应用,如材料发现和药物发现。它支持PyG、DGL、OGB和OCP的数据接口,并采用fairseq框架。提供PCQM4M和PCQM4Mv2的预训练模型,特别适合大规模分子建模任务。优化的预训练版本可在Azure Quantum Elements上使用。
Qwen2-1.5B-Instruct - 性能卓越的开源指令调优语言模型
GithubHuggingfaceQwen2人工智能大语言模型开源项目机器学习模型自然语言处理
Qwen2-1.5B-Instruct是Qwen2系列中的指令调优语言模型,在语言理解、生成、多语言处理、编码和数学推理等方面表现优异。该模型基于改进的Transformer架构,通过大规模预训练和偏好优化,在多项基准测试中超越了大多数开源模型。Qwen2-1.5B-Instruct易于部署,适用于多种AI应用场景,能够高效处理复杂的语言任务。
Mistral-Nemo-Instruct-2407-vllm-fp8 - 开源多语言指令微调大模型
Apache 2许可GithubHuggingfaceMistral-Nemo-Instruct-2407多语言大语言模型开源项目指令微调模型
Mistral-Nemo-Instruct-2407是Mistral AI与NVIDIA联合开发的开源指令微调语言模型。该模型在128K上下文窗口训练,支持多语言和代码生成,性能优于同等规模模型。采用Apache 2许可,可替代Mistral 7B使用。模型在多项基准测试中表现出色,支持mistral_inference、transformers和NeMo等框架进行推理。
OLMo-7B-0724-hf - OLMo开放式语言模型促进语言处理技术进步
AI2GithubHuggingfaceOLMo变形金刚开源语言模型开源项目模型自然语言处理
OLMo是由AI2开发的开源语言模型系列,旨在推动语言模型科学研究。该模型基于Dolma数据集训练,采用先进的Transformer结构,实现性能提升和多阶段优化。OLMo-7B-0724-hf具备强大的文本生成能力,适用于文本推理和生成任务。支持在HuggingFace平台上进行加载、微调和评估,且提供多种数据检查点,方便研究与开发。该项目得到多家机构支持,并在多个主要AI任务中表现优异。
SmolLM-1.7B-Instruct - SmolLM-1.7B-Instruct 模型的技术特性与应用场景分析
GithubHuggingfaceSmolLM开源项目微调性能优化数据集模型语言模型
SmolLM-1.7B-Instruct 是一款包含135M、360M和1.7B参数的小型语言模型,通过高质量数据集微调而成。v0.2版本在主题保持和回答提示方面表现优越。支持多种应用方式,包括本地和浏览器演示。但需注意,该模型可能并非完全精准,建议作为辅助工具应用于常识问答、创造性写作和基础编程等场景。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号