multitask-text-and-chemistry-t5-base-augm项目介绍
项目概览
multitask-text-and-chemistry-t5-base-augm是一个多领域、多任务的语言模型,旨在解决化学和自然语言领域的各种任务。这个项目由Christofidellis等人发布,并着重于将语言模型应用于这些领域的多种任务。
模型详情
该模型是基于T5-small预训练模型并结合增强数据集进行训练的一个变体。此模型整合了可用的数据集来处理多种任务,包括:
- 反应预测
- 逆合成路径规划
- 分子描述生成
- 条件文本生成新分子
- 从段落到步骤动作的转换
开发者团队
这个项目的开发团队来自于多个研究机构,包括:
- Dimitrios Christofidellis(IBM Research)
- Giorgio Giannone(IBM Research)
- Jannis Born(IBM Research)
- Teodoro Laino(IBM Research)
- Matteo Manica(IBM Research)
- Ole Winther(丹麦技术大学)
分发与集成
此模型已经被原生集成到GT4SD平台中,这使得用户可以更方便地访问和使用它。
模型类型与日期
multitask-text-and-chemistry-t5-base-augm是基于Transformer的语言模型,专门设计用于在多领域和多任务的数据集上进行训练。该模型于2023年发布。
训练算法和数据集
关于训练算法、参数、以及公平性约束等具体信息,目前没有公开提供。此外,模型的一些特性也尚未详细披露。
获取更多信息
如果需要进一步的文献参考,可以查阅Christofidellis等人发表的论文《Unifying Molecular and Textual Representations via Multi-task Language Modelling》。
许可协议
该模型采用MIT许可协议,这意味着它可以被自由使用和分发。
问题反馈
如果有任何问题或反馈,可以在GT4SD的代码库中提交问题。