#IBM研究院
multitask-text-and-chemistry-t5-base-augm - 多任务文本与化学T5适用于化学与自然语言的多领域模型
Github开源项目语言模型模型Huggingface多任务化学IBM研究院Multitask Text and Chemistry T5
Multitask Text and Chemistry T5是一个基于Transformer的多任务语言模型,应用于化学和自然语言领域的多种任务。它以t5-small为预训练基础,并通过增强数据集进行训练。2023年发布,该模型由IBM Research与丹麦技术大学合作开发并集成于GT4SD。应用领域包括正向反应预测、逆合成、分子注释、文本条件的生成和段落到动作的转换。
granite-8b-code-instruct-4k - 提升逻辑推理与代码生成的8B参数模型
Github开源项目模型编程助手Huggingface训练数据代码模型Granite-8B-Code-Instruct-4KIBM研究院
通过许可的指令数据集细调提升指令遵循与问题解决能力,由IBM Research开发,模型在HumanEvalSynthesis(Python)中展示了卓越的表现。适用于编程助手开发,以IBM超级计算集群进行训练,为特定指令生成实用代码。尽管在某些领域存在局限性,提供示例可优化输出。建议开发者在关键应用中进行安全测试和调优,确保模型可靠性。