Project Icon

GENA_LM

专为长DNA序列设计的开源基础模型家族

GENA-LM是专为长DNA序列设计的开源基础模型家族。它采用BPE分词方法,支持最长36k bp的输入序列,并基于最新T2T人类基因组进行预训练。该项目提供多种预训练模型,包括BERT和BigBird架构,可用于启动子预测和剪接位点识别等多种下游任务。GENA-LM为基因组学研究提供了新的分析工具,促进了DNA序列分析技术的进步。

GENA-LM

GENA-LM 是一系列用于长DNA序列的开源基础模型。

GENA-LM 模型是在人类DNA序列上训练的transformer掩码语言模型。

我们的GENA-LM模型的主要特点:

  • 使用BPE分词而非k-mers(DNABERT、Nucleotide Transformer)
  • 最大输入序列长度范围从4.5k到36k碱基对,相比之下DNABERT为512碱基对,Nucleotide Transformer为1000碱基对
  • 在最新的T2T人类基因组组装上进行预训练,而非GRCh38/hg38

预训练模型

模型架构最大序列长度,标记(碱基对)参数数分词器数据训练数据
bert-baseBERT-12L512(4500)110MT2T 拆分 v1T2T 拆分 v1
bert-base-t2tBERT-12L512(4500)110MT2T+1000G SNPs+多物种T2T+1000G SNPs
bert-base-lastln-t2tBERT-12L512(4500)110MT2T+1000G SNPs+多物种T2T+1000G SNPs
bert-base-t2t-multiBERT-12L512(4500)110MT2T+1000G SNPs+多物种T2T+1000G SNPs+多物种
bert-large-t2tBERT-24L512(4500)336MT2T+1000G SNPs+多物种T2T+1000G SNPs
bigbird-base-sparseBERT-12L, DeepSpeed稀疏操作, RoPE4096(36000)110MT2T 拆分 v1T2T 拆分 v1
bigbird-base-sparse-t2tBERT-12L, DeepSpeed稀疏操作, RoPE4096(36000)110MT2T+1000G SNPs+多物种T2T+1000G SNPs
bigbird-base-t2tBERT-12L, HF BigBird4096(36000)110MT2T+1000G SNPs+多物种T2T+1000G SNPs

T2T 拆分 v1 指的是使用未增强的T2T人类基因组组装拆分的初步模型。基于BERT的模型采用预层归一化,而lastln明确表示层归一化也应用于最后一层。RoPE表示使用旋转位置嵌入代替BERT类型的绝对位置嵌入。

对于我们的首批模型(gena-lm-bert-basegena-lm-bigbird-base-sparse),我们保留人类染色体22和Y(CP068256.2和CP086569.2)作为掩码语言建模任务的测试数据集。对于所有其他模型,我们保留人类染色体7和10(CP068271.2和CP068268.2);这些模型的名称中带有后缀"t2t"。其他数据用于训练。仅人类模型在预处理的Human T2T v2基因组组装及其1000基因组SNP增强数据上进行训练,总计约480 x 10^9碱基对。多物种模型在仅人类和多物种数据上进行训练,总计约1072 x 10^9碱基对。

下游任务上的预训练模型

模型任务任务序列长度指标HF 分支名称
gena-lm-bert-base-t2t启动子300bp74.56+-0.36 F1promoters_300_run_1
gena-lm-bert-large-t2t启动子300bp76.44+-0.16 F1promoters_300_run_1
gena-lm-bert-large-t2t启动子2000bp93.70+-0.44 F1promoters_2000_run_1
gena-lm-bert-base-t2t剪接位点15000bp92.63+-0.09 PR AUCspliceai_run_1
gena-lm-bert-large-t2t剪接位点15000bp93.59+-0.11 PR AUCspliceai_run_1

要获取下游任务上的预训练模型,请用表格中的值替换model_namebranch_name。表格中的指标是多次运行的平均值。因此,每个检查点的值可能与此处报告的有所不同。

from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained(f'AIRI-Institute/{model_name}')
model = AutoModel.from_pretrained(f'AIRI-Institute/{model_name}', revision=branch_name, trust_remote_code=True)

示例

如何加载预训练的GENA-LM用于掩码语言建模

from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t')
model = AutoModel.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t', trust_remote_code=True)

如何加载预训练的GENA-LM以在分类任务上进行微调

从GENA-LM仓库获取模型类:

git clone https://github.com/AIRI-Institute/GENA_LM.git
from GENA_LM.src.gena_lm.modeling_bert import BertForSequenceClassification
from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t')
model = BertForSequenceClassification.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t')

或者你可以直接下载modeling_bert.py并将其放在你的代码附近。

或者你可以从HuggingFace AutoModel获取模型类:

from transformers import AutoTokenizer, AutoModel
model = AutoModel.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t', trust_remote_code=True)
gena_module_name = model.__class__.__module__
print(gena_module_name)
import importlib
# 可用的类名:
# - BertModel, BertForPreTraining, BertForMaskedLM, BertForNextSentencePrediction,
# - BertForSequenceClassification, BertForMultipleChoice, BertForTokenClassification,
# - BertForQuestionAnswering
# 查看 https://huggingface.co/docs/transformers/model_doc/bert
cls = getattr(importlib.import_module(gena_module_name), 'BertForSequenceClassification')
print(cls)
model = cls.from_pretrained('AIRI-Institute/gena-lm-bert-base-t2t', num_labels=2)

GENA-LM bigbird-base-t2t 模型使用HuggingFace BigBird实现。因此,可以使用Transformers库中的默认类:

from transformers import AutoTokenizer, BigBirdForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained('AIRI-Institute/gena-lm-bigbird-base-t2t')
model = BigBirdForSequenceClassification.from_pretrained('AIRI-Institute/gena-lm-bigbird-base-t2t')

笔记本

  • 在Colab中打开 使用GENA-LM和Huggingface Transformers进行序列分类

  • 在Colab中打开 使用GENA LM生成的DNA嵌入进行聚类

  • 在Colab中打开 探索在Enformer数据集上微调的GENA-LM模型用于基因表达

引用

@article {GENA_LM,
	author = {Veniamin Fishman and Yuri Kuratov and Maxim Petrov and Aleksei Shmelev and Denis Shepelin and Nikolay Chekanov and Olga Kardymon and Mikhail Burtsev},
	title = {GENA-LM: A Family of Open-Source Foundational Models for Long DNA Sequences},
	elocation-id = {2023.06.12.544594},
	year = {2023},
	doi = {10.1101/2023.06.12.544594},
	publisher = {Cold Spring Harbor Laboratory},
	URL = {https://www.biorxiv.org/content/early/2023/06/13/2023.06.12.544594},
	eprint = {https://www.biorxiv.org/content/early/2023/06/13/2023.06.12.544594.full.pdf},
	journal = {bioRxiv}
}

下游任务

用于模型评估的下游任务包括预测启动子和增强子活性、剪接位点、染色质谱和多聚腺苷酸化位点强度。 查看downstream_tasks文件夹以获取我们使用的代码和数据预处理脚本:

预训练数据

下载和预处理数据

要下载人类基因组,请运行以下脚本:

./download_data.sh human

对于预处理,执行以下脚本:

python src/gena_lm/genome_tools/create_corpus.py --input_file data/ncbi_dataset/data/GCA_009914755.4/GCA_009914755.4_T2T-CHM13v2.0_genomic.fna --output_dir data/processed/human/

安装

对于具有稀疏注意力的模型(gena-lm-bigbird-base-sparsegena-lm-bigbird-base-sparse-t2t),需要FP16支持和DeepSpeed。

用于FP16的APEX

安装APEX https://github.com/NVIDIA/apex#quick-start

git clone https://github.com/NVIDIA/apex
cd apex
# 最新的提交可能会构建失败
git checkout 2386a912164b0c5cfcd8be7a2b890fbac5607c82
# 如果pip版本 >= 23.1(参考:https://pip.pypa.io/en/stable/news/#v23-1),支持多个相同键的`--config-settings`... 
pip install -v --disable-pip-version-check --no-cache-dir --no-build-isolation --config-settings "--build-option=--cpp_ext" --config-settings "--build-option=--cuda_ext" ./
# 否则
pip install -v --disable-pip-version-check --no-cache-dir --no-build-isolation --global-option="--cpp_ext" --global-option="--cuda_ext" ./

用于稀疏操作的DeepSpeed

需要安装DeepSpeed以使用语言模型的稀疏注意力版本。DeepSpeed稀疏注意力仅支持计算能力 >= 7的GPU(V100、T4、A100),CUDA 10.1、10.2、11.0或11.1,并且仅在FP16模式下运行(截至DeepSpeed 0.6.0)。

可以使用pytorch.org提供的CUDA 10.2/11.0/11.1版本的PyTorch>=1.7.1,<=1.10.1轮子。 但是,使用CUDA 11.1 PyTorch轮子的稀疏操作需要在系统上安装CUDA 11.3/11.4。 稀疏操作也可以与PyTorch==1.12.1 CUDA 11.3轮子一起使用,但运行DeepSpeed稀疏操作测试需要修改它们,因为它们检查Torch CUDA版本 <=11.1。 用于Triton 1.1.1的DeepSpeed分支已经更新了测试。

Triton 1.0.0和1.1.1需要python<=3.9。

pip install triton==1.0.0
DS_BUILD_SPARSE_ATTN=1 pip install deepspeed==0.6.0 --global-option="build_ext" --global-option="-j8" --no-cache

并使用以下命令检查安装:

ds_report

Triton 1.1.1

Triton 1.1.1为A100上的稀疏操作带来了2倍的速度提升,但DeepSpeed(0.6.5)目前仅支持triton 1.0.0。 在需要这种速度提升的情况下,可以使用支持triton 1.1.1的DeepSpeed分支:

pip install triton==1.1.1
git clone https://github.com/yurakuratov/DeepSpeed.git
cd DeepSpeed
DS_BUILD_SPARSE_ATTN=1 pip install -e . --global-option="build_ext" --global-option="-j8" --no-cache

并使用以下命令运行稀疏操作测试:

cd tests/unit
pytest -v test_sparse_attention.py

使用lm-experiments-tools进行微调

我们使用lm-experiments-tools仓库中的Trainer和多GPU训练作为我们微调脚本的基础。但是,您也可以使用HF Transformers Trainer、PyTorch Lightning或Accelerate和PyTorch与自定义训练循环来代替。

根据https://github.com/yurakuratov/t5-experiments#install-only-lm_experiments_tools安装lm-experiments-tools:

git clone https://github.com/yurakuratov/t5-experiments
cd t5-experiments
pip install -e .
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号