中文 | 英文
360智脑
欢迎访问360智脑官方网站 https://ai.360.com获得更多体验。
简介
🎉🎉🎉 我们发布了360智脑模型系列:
- 360智脑-7B-基础版
- 360智脑-7B-对话-4K
- 360智脑-7B-对话-32K
- 360智脑-7B-对话-360K
- 360智脑-搜索
- 360智脑-1.8B-重排序
我们的360智脑模型具有以下显著特点:
- 基础模型: 利用由3.4万亿个标记组成的高质量语料库(主要包含中文、英文和代码),我们在相关基准测试中达到了与其他7B模型相当的性能。
- 对话模型: 强大的对话能力,并提供4K、32K和360K三种上下文长度。360K(约50万中文字符)是发布时(2024年4月11日)中文开源模型中最长的上下文长度。
新闻和更新
- [2024年5月23日] 我们发布了两个模型,360智脑-搜索和360智脑-1.8B-重排序,分别在C-MTEB排行榜的检索和重排序任务中排名第一。
- [2024年5月20日] 我们扩展了llama3并发布了llama3-8B-360智脑-360k-指令🤗 详情请见此处。
- [2024年4月12日] 我们发布了360智脑-7B v1.0,包括基础模型和三个具有4K、32K和360K上下文长度的对话模型。 技术报告在此和arXiv上可查。
目录
下载链接
大小 | 模型 | BF16 | Int4 |
---|---|---|---|
7B | 360智脑-7B-基础版 | 🤖 🤗 | |
7B | 360智脑-7B-对话-4K | 🤖 🤗 | 🤖 🤗 |
7B | 360智脑-7B-对话-32K | 🤖 🤗 | 🤖 🤗 |
7B | 360智脑-7B-对话-360K | 🤖 🤗 | 🤖 🤗 |
325M | 360智脑-搜索 | 🤗 | |
1.8B | 360智脑-1.8B-重排序 | 🤗 |
模型评估
基础模型
我们在OpenCompass上评估了我们的模型,具体包括C-Eval、AGIEval、MMLU、CMMLU、HellaSwag、MATH、GSM8K、HumanEval、MBPP、BBH和LAMBADA。 这些基准测试对模型的自然语言理解、知识、数学、代码生成和逻辑推理等能力进行了测试。
结果如下所示,可以在OpenCompass排行榜上查看或重现。
模型 | 平均分 | CEval | AGIEval | MMLU | CMMLU | HellaSwag | MATH | GSM8K | HumanEval | MBPP | BBH | LAMBADA |
---|---|---|---|---|---|---|---|---|---|---|---|---|
Baichuan2-7B | 41.49 | 56.3 | 34.6 | 54.7 | 57 | 67 | 5.4 | 24.6 | 17.7 | 24 | 41.8 | 73.3 |
Baichuan-7B | 31.94 | 44.7 | 24.6 | 41.5 | 44.6 | 68.4 | 2.5 | 9.6 | 9.1 | 6.4 | 32.8 | 67.1 |
ChatGLM3-6B | 58.67 | 67 | 47.4 | 62.8 | 66.5 | 76.5 | 19.2 | 61 | 44.5 | 57.2 | 66.2 | 77.1 |
DeepSeek-7B | 39.8 | 45 | 24 | 49.3 | 46.8 | 73.4 | 4.2 | 18.3 | 25 | 36.4 | 42.8 | 72.6 |
InternLM2-7B | 58.01 | 65.7 | 50.2 | 65.5 | 66.2 | 79.6 | 19.9 | 70.6 | 41.5 | 42.4 | 64.4 | 72.1 |
InternLM-7B | 39.33 | 53.4 | 36.9 | 51 | 51.8 | 70.6 | 6.3 | 31.2 | 13.4 | 14 | 37 | 67 |
LLaMA-2-7B | 33.27 | 32.5 | 21.8 | 46.8 | 31.8 | 74 | 3.3 | 16.7 | 12.8 | 14.8 | 38.2 | 73.3 |
LLaMA-7B | 30.35 | 27.3 | 20.6 | 35.6 | 26.8 | 74.3 | 2.9 | 10 | 12.8 | 16.8 | 33.5 | 73.3 |
Mistral-7B-v0.1 | 47.67 | 47.4 | 32.8 | 64.1 | 44.7 | 78.9 | 11.3 | 47.5 | 27.4 | 38.6 | 56.7 | 75 |
MPT-7B | 30.06 | 23.5 | 21.3 | 27.5 | 25.9 | 75 | 2.9 | 9.1 | 17.1 | 22.8 | 35.6 | 70 |
Qwen1.5-7B | 55.12 | 73.57 | 50.8 | 62.15 | 71.84 | 72.62 | 20.36 | 54.36 | 53.05 | 36.8 | 40.01 | 70.74 |
Qwen-7B | 49.53 | 63.4 | 45.3 | 59.7 | 62.5 | 75 | 13.3 | 54.1 | 27.4 | 31.4 | 45.2 | 67.5 |
XVERSE-7B | 34.27 | 61.1 | 39 | 58.4 | 60.8 | 73.7 | 2.2 | 11.7 | 4.9 | 10.2 | 31 | 24 |
Yi-6B | 47.8 | 73 | 44.3 | 64 | 73.5 | 73.1 | 6.3 | 39.9 | 15.2 | 23.6 | 44.9 | 68 |
360智脑-7B | 56.15 | 74.11 | 49.49 | 67.44 | 72.38 | 83.05 | 16.38 | 53.83 | 35.98 | 42.4 | 43.95 | 78.59 |
对话模型
4K和32K模型分别使用相同的4K SFT数据进行训练。
为了训练长上下文模型,我们采用了两阶段方法。
第一阶段:我们增加了RoPE基数并将上下文长度扩展到32K。
- 首先,我们使用32K上下文窗口对约5B个token进行了持续预训练。
- 然后在SFT阶段,我们使用来自各种来源的长文本数据对模型进行微调,包括高质量的人工标注的32K数据。
第二阶段:我们将上下文长度扩展到360K,使用以下数据进行训练:
- 少量高质量的人工标注超长数据。
- 由于标注的超长数据稀缺,我们构建了各种形式的合成数据。
- 多文档问答:类似于Ziya-Reader,我们基于360的数据库生成多文档问答对。针对一行多文档问答数据输入构建多个问答对,形成多轮格式,显著提高了训练效率。
- 单文档问答:类似于LLama2 Long,我们基于一行长文本输入中的不同段落构建多轮问答数据。
我们在各种长度和基准测试上评估了我们的模型。
-
长上下文基准测试
我们在LongBench上评估了我们的32K和360K模型,这是一个多任务双语长上下文基准。我们报告了与下游应用最相关的中文任务结果:单/多文档问答、摘要生成、少样本学习和代码补全。
模型 平均分 单文档问答 多文档问答 摘要生成 少样本学习 代码补全 GPT-3.5-Turbo-16k 37.84 61.2 28.7 16 29.2 54.1 ChatGLM2-6B-32k 37.16 51.6 37.6 16.2 27.7 52.7 ChatGLM3-6B-32k 44.62 62.3 44.8 17.8 42 56.2 InternLM2-Chat-7B 42.20 56.65 29.15 17.99 43.5 63.72 Qwen1.5-Chat-7B 36.75 52.85 30.08 14.28 32 54.55 Qwen1.5-Chat-14B 39.80 60.39 27.99 14.77 37 58.87 360智脑-7B-Chat-32K 45.18 57.18 48.06 15.03 44 61.64 -
360智脑-7B-Chat-360K在"大海捞针"测试中的表现
大海捞针测试将一小段信息放在长文本的不同位置,并查询这个信息来测试LLM的长上下文能力。 360智脑-7B-Chat-360K 在英文和中文的"大海捞针"任务中均能达到98%以上的准确率。
-
英文版本(与大海捞针相同)
针:在旧金山最好的事情就是吃一个三明治,然后在阳光明媚的日子里坐在多洛雷斯公园。
查询:在旧金山最好做的事情是什么?
-
中文版本
我们参照SuperCLUE-200K基准构建了中文版本:
干草堆:中国小说。
针:王莽是一名勤奋的店员,他每天凌晨就起床,赶在第一缕阳光照亮大地之前到达店铺,为即将开始的一天做准备。他清扫店铺,整理货架,为顾客提供方便。他对五金的种类和用途了如指掌,无论顾客需要什么,他总能准确地找到。 然而,他的老板刘秀却总是对他吹毛求疵。刘秀是个挑剔的人,他总能在王莽的工作中找出一些小错误,然后以此为由扣他的工资。他对王莽的工作要求非常严格,甚至有些过分。即使王莽做得再好,刘秀也总能找出一些小问题,让王莽感到非常沮丧。 王莽虽然对此感到不满,但他并没有放弃。他知道,只有通过自己的努力,才能获得更好的生活。他坚持每天早起,尽管他知道那天可能会再次被刘秀扣工资。他始终保持微笑,尽管他知道刘秀可能会再次对他挑剔。
查询:王莽在谁的手下工作?
快速开始
我们提供简单的示例来说明如何在🤖ModelScope和🤗Transformers上使用360智脑-7B-Base和360智脑-7B-Chat。
依赖安装
- python >= 3.8
- pytorch >= 2.0
- transformers >= 4.37.2
- CUDA >= 11.4
pip install -r requirements.txt
可选地,我们建议安装Flash-Attention 2以提高性能并减少内存占用。
flash-attn >= 2.3.6
FLASH_ATTENTION_FORCE_BUILD=TRUE pip install flash-attn==2.3.6
🤗 Transformers
基础模型推理演示
from transformers import AutoTokenizer, AutoModelForCausalLM
from transformers.generation import GenerationConfig
MODEL_NAME_OR_PATH = "qihoo360/360Zhinao-7B-Base"
tokenizer = AutoTokenizer.from_pretrained(
MODEL_NAME_OR_PATH,
trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME_OR_PATH,
device_map="auto",
trust_remote_code=True)
generation_config = GenerationConfig.from_pretrained(
MODEL_NAME_OR_PATH,
trust_remote_code=True)
inputs = tokenizer('中国二十四节气\n1. 立春\n2. 雨水\n3. 惊蛰\n4. 春分\n5. 清明\n', return_tensors='pt')
inputs = inputs.to(model.device)
pred = model.generate(input_ids=inputs["input_ids"], generation_config=generation_config)
print("输出:\n", tokenizer.decode(pred.cpu()[0], skip_special_tokens=True))
对话模型推理演示
from transformers import AutoTokenizer, AutoModelForCausalLM
from transformers.generation import GenerationConfig
MODEL_NAME_OR_PATH = "qihoo360/360Zhinao-7B-Chat-4K"
tokenizer = AutoTokenizer.from_pretrained(
MODEL_NAME_OR_PATH,
trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME_OR_PATH,
device_map="auto",
trust_remote_code=True)
generation_config = GenerationConfig.from_pretrained(
MODEL_NAME_OR_PATH,
trust_remote_code=True)
messages = []
#第一轮
messages.append({"role": "user", "content": "介绍一下刘德华"})
response = model.chat(tokenizer=tokenizer, messages=messages, generation_config=generation_config)
messages.append({"role": "assistant", "content": response})
print(messages)
#第二轮
messages.append({"role": "user", "content": "他有什么代表作?"})
response = model.chat(tokenizer=tokenizer, messages=messages, generation_config=generation_config)
messages.append({"role": "assistant", "content": response})
print(messages)
🤖 ModelScope
基础模型推理演示
from modelscope import AutoModelForCausalLM, AutoTokenizer
from modelscope import GenerationConfig
MODEL_NAME_OR_PATH = "qihoo360/360Zhinao-7B-Base"
tokenizer = AutoTokenizer.from_pretrained(
MODEL_NAME_OR_PATH,
trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME_OR_PATH,
device_map="auto",
trust_remote_code=True)
generation_config = GenerationConfig.from_pretrained(
MODEL_NAME_OR_PATH,
trust_remote_code=True)
inputs = tokenizer('中国二十四节气\n1. 立春\n2. 雨水\n3. 惊蛰\n4. 春分\n5. 清明\n', return_tensors='pt')
inputs = inputs.to(model.device)
pred = model.generate(input_ids=inputs["input_ids"], generation_config=generation_config)
print("输出:\n", tokenizer.decode(pred.cpu()[0], skip_special_tokens=True))
对话模型推理演示
from modelscope import AutoModelForCausalLM, AutoTokenizer
from modelscope import GenerationConfig
MODEL_NAME_OR_PATH = "qihoo360/360Zhinao-7B-Chat-4K"
tokenizer = AutoTokenizer.from_pretrained(
MODEL_NAME_OR_PATH,
trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME_OR_PATH,
device_map="auto",
trust_remote_code=True)
generation_config = GenerationConfig.from_pretrained(
MODEL_NAME_OR_PATH,
trust_remote_code=True)
messages = []
#第一轮
messages.append({"role": "user", "content": "介绍一下刘德华"})
response = model.chat(tokenizer=tokenizer, messages=messages, generation_config=generation_config)
messages.append({"role": "assistant", "content": response})
print(messages)
#第二轮
messages.append({"role": "user", "content": "他有什么代表作?"})
response = model.chat(tokenizer=tokenizer, messages=messages, generation_config=generation_config)
messages.append({"role": "assistant", "content": response})
print(messages)
命令行界面演示
使用终端进行命令行交互:
python cli_demo.py
注意:对于Mac用户,暂不支持device = 'mps'
。
网页演示
streamlit run web_demo.py
API演示
启动API:
python openai_api.py
然后使用以下参数发送请求:
curl 'http://localhost:8360/v1/chat/completions' \
-H 'Content-Type: application/json' \
-d '{
"max_new_tokens": 200,
"do_sample": true,
"top_k": 0,
"top_p": 0.8,
"temperature": 1.0,
"repetition_penalty": 1.0,
"messages": [
{"role": "system", "content": "你是一个乐于助人的助手。"},
{"role": "user", "content": "你好"}
]
}'
模型推理
量化
我们提供基于AutoGPTQ的量化方案,并发布了Int4量化模型。
部署
vLLM安装
我们推荐使用 vLLM==0.3.3
。
如果你使用 CUDA 12.1 和 PyTorch 2.1,可以直接安装vLLM:
pip install vllm==0.3.3
否则,请参考vLLM官方的安装说明。
安装完成后,执行以下步骤:
-
将
vllm/zhinao.py
复制到vLLM安装目录(在python/conda环境中)的vllm/model_executor/models
中。 -
将
vllm/serving_chat.py
复制到vLLM安装目录的vllm/entrypoints/openai
中。 -
然后在
vllm/model_executor/models/__init__.py
中添加一行:"ZhinaoForCausalLM": ("zhinao", "ZhinaoForCausalLM"),
vLLM服务启动
启动服务:
python -m vllm.entrypoints.openai.api_server \
--served-model-name 360Zhinao-7B-Chat-4K \
--model qihoo360/360Zhinao-7B-Chat-4K \
--trust-remote-code \
--tensor-parallel-size 1 \
--max-model-len 4096 \
--host 0.0.0.0 \
--port 8360
使用curl请求服务:
curl http://localhost:8360/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "360Zhinao-7B-Chat-4K",
"max_tokens": 200,
"top_k": -1,
"top_p": 0.8,
"temperature": 1.0,
"presence_penalty": 0.0,
"frequency_penalty": 0.0,
"messages": [
{"role": "system", "content": "你是一个乐于助人的助手。"},
{"role": "user", "content": "你好"}
],
"stop": [
"<eod>",
"<|im_end|>",
"<|im_start|>"
]
}'
使用python请求服务:
from openai import OpenAI
openai_api_key = "EMPTY"
openai_api_base = "http://localhost:8360/v1"
client = OpenAI(
api_key=openai_api_key,
base_url=openai_api_base,
)
chat_response = client.chat.completions.create(
model="360Zhinao-7B-Chat-4K",
messages=[
{"role": "system", "content": "你是一个乐于助人的助手。"},
{"role": "user", "content": "你好"},
],
stop=[
"<eod>",
"<|im_end|>",
"<|im_start|>"
],
presence_penalty=0.0,
frequency_penalty=0.0
)
print("聊天响应:", chat_response)
如果需要启用重复惩罚,我们建议设置
presence_penalty
和frequency_penalty
,而不是repetition_penalty
。
模型微调
训练数据
训练数据: data/training_data_sample.json
。这个示例数据从multiturn_chat_0.8M中采样了10,000行并转换了格式。
数据格式:
[
{
"id": 1,
"conversations": [
{
"from": "system",
"value": "你是一个乐于助人的助手。"
},
{
"from": "user",
"value": "您好啊"
},
{
"from": "assistant",
"value": "你好!我今天能为您做些什么?有什么问题或需要帮助吗? 我在这里为您提供服务。"
}
]
}
]
微调脚本
set -x
HOSTFILE=hostfile
DS_CONFIG=./finetune/ds_config_zero2.json
# 参数
LR=5e-6
EPOCHS=3
MAX_LEN=4096
BATCH_SIZE=4
NUM_NODES=1
NUM_GPUS=8
MASTER_PORT=29500
IS_CONCAT=False # 是否连接到最大长度(MAX_LEN)
DATA_PATH="./data/training_data_sample.json"
MODEL_PATH="qihoo360/360Zhinao-7B-Base"
OUTPUT_DIR="./outputs/"
deepspeed --hostfile ${HOSTFILE} \
--master_port ${MASTER_PORT} \
--num_nodes ${NUM_NODES} \
--num_gpus ${NUM_GPUS} \
finetune.py \
--report_to "tensorboard" \
--data_path ${DATA_PATH} \
--model_name_or_path ${MODEL_PATH} \
--output_dir ${OUTPUT_DIR} \
--model_max_length ${MAX_LEN} \
--num_train_epochs ${EPOCHS} \
--per_device_train_batch_size ${BATCH_SIZE} \
--gradient_accumulation_steps 1 \
--save_strategy steps \
--save_steps 200 \
--learning_rate ${LR} \
--lr_scheduler_type cosine \
--adam_beta1 0.9 \
--adam_beta2 0.95 \
--adam_epsilon 1e-8 \
--max_grad_norm 1.0 \
--weight_decay 0.1 \
--warmup_ratio 0.01 \
--gradient_checkpointing True \
--bf16 True \
--tf32 True \
--deepspeed ${DS_CONFIG} \
--is_concat ${IS_CONCAT} \
--logging_steps 1 \
--log_on_each_node False
bash finetune/ds_finetune.sh
- 配置
HOSTFILE
可以在单机和多机训练之间切换。 - 配置
ds_config
可以在zero1、zero2和zero3之间切换。 fp16, bf16
可以配置混合精度训练。推荐使用bf16以与预训练模型保持一致。is_concat
配置训练数据是否连接。
360智脑搜索模型介绍
360智脑搜索使用自研BERT模型作为基础进行多任务微调,在C-MTEB-Retrieval基准上的Retrieval任务平均得分为75.05,目前排名第一。 C-MTEB-Retrieval排行榜包含8个不同领域的[查询, 段落]相似度检索子任务,使用NDCG@10(归一化折损累积增益@10)作为评估指标。
模型 | T2检索 | MMarco检索 | Du检索 | Covid检索 | Cmedqa检索 | 电商检索 | 医疗检索 | 视频检索 | 平均 |
---|---|---|---|---|---|---|---|---|---|
360智脑搜索 | 87.12 | 83.32 | 87.57 | 85.02 | 46.73 | 68.9 | 63.69 | 78.09 | 75.05 |
AGE_Hybrid | 86.88 | 80.65 | 89.28 | 83.66 | 47.26 | 69.28 | 65.94 | 76.79 | 74.97 |
OpenSearch-text-hybrid | 86.76 | 79.93 | 87.85 | 84.03 | 46.56 | 68.79 | 65.92 | 75.43 | 74.41 |
piccolo-large-zh-v2 | 86.14 | 79.54 | 89.14 | 86.78 | 47.58 | 67.75 | 64.88 | 73.1 | 74.36 |
stella-large-zh-v3-1792d | 85.56 | 79.14 | 87.13 | 82.44 | 46.87 | 68.62 | 65.18 | 73.89 | 73.6 |
优化要点
- 数据过滤:严格防止C-MTEB-Retrieval测试数据泄露,清理测试集中所有查询和段落;
- 数据源增强:利用开源数据和LLM合成数据提高数据多样性;
- 负例挖掘:使用多种方法深度挖掘难以区分的负例以提高信息增益;
- 训练效率:多机多CPU + Deepspeed方法优化GPU内存利用率。
环境要求
cd Retrieval
pip install -r requirements.txt
训练脚本
cd Retrieval/finetune
sh train.sh
推理脚本
cd Retrieval/eval
python test_model.py
C-MTEB测试脚本
cd Retrieval/eval
sh eval.sh
参考
360智脑-1.8B-重排序模型介绍
360智脑-1.8B-重排序模型以自研的360智脑_1.8B_base模型为基础。我们自研的单向生成模型360智脑_1.8B_reranking取得了70.13的平均分,目前排名总榜第一、开源模型第一,为生成模型承担判别任务开辟了新的可能。
C-MTEB-Reranking排行榜包含四个子任务,是判断不同领域用户问题和答案相似度的任务。使用MAP(平均精确度均值)作为评估指标。目前该排行榜上的开源模型主要是双向判别模型(BERT类模型)。唯一的单向生成模型(GPT类模型)是gte-Qwen1.5-7B-instruct,平均分66.38,排名第25,效果不太理想。
模型 | T2重排序 | MMarco重排序 | CMedQAv1 | CMedQAv2 | 平均 |
---|---|---|---|---|---|
360智脑-1.8B-重排序 | 68.55 | 37.29 | 86.75 | 87.92 | 70.13 |
piccolo-large-zh-v2 | 67.15 | 33.39 | 90.14 | 89.31 | 70 |
Baichuan-text-embedding | 67.85 | 34.3 | 88.46 | 88.06 | 69.67 |
stella-mrl-large-zh-v3.5-1792d | 66.43 | 28.85 | 89.18 | 89.33 | 68.45 |
PEG | 69.43 | 33.55 | 86.56 | 84.09 | 68.41 |
bge-reranker-base | 67.28 | 35.46 | 81.27 | 84.1 | 67.03 |
bge-reranker-large | 67.6 | 37.17 | 82.14 | 84.19 | 67.78 |
优化要点
通过迭代发现和解决以下技术问题,不断激发大模型在预训练阶段蕴含的世界知识,更好地弥合生成模型与判别任务之间的差距。
- 数据处理:模型训练未利用世界知识,即既未使用领域数据继续预训练,也未使用排行榜外的数据集进行微调。仅使用排行榜内的四个数据集,仔细迭代数据感知,针对不同数据集进行数据清洗和挖掘,确保单项任务排名能进入前三。
- 解决任务冲突:合并四个任务时,由于不同数据集领域分布、答案模式、训练数据量、收敛步数甚至序列长度不同,不同任务之间存在冲突。深入解决这些冲突问题是获得各项任务综合指标最优的通用模型的关键。
- 解决训练不稳定:与生成多个字符的生成任务不同,使用生成模型做判别任务需要模型输出连续值。因此,训练过程中存在震荡问题。深入分析和解决训练不稳定可以得到泛化性和鲁棒性更好的模型。
环境要求
cd Reranking
pip install -r requirements.txt
如果您的GPU支持fp16或bf16精度,我们还建议安装flash-attention(现在支持flash attention 2)以提高运行效率并减少内存使用。(flash-attention是可选的,不是运行此项目所必需的)
git clone https://github.com/Dao-AILab/flash-attention
cd flash-attention && pip install .
# 以下安装是可选的,可能会很慢。
# pip install csrc/layer_norm
# 如果flash-attn版本高于2.1.1,则无需安装以下内容。
# pip install csrc/rotary
输入格式
[
{
"id": "identity_0",
"conversations": [
{
"from": "user",
"value": "天空是什么颜色\n\n蓝色"
},
{
"from": "assistant",
"value": "3"
}
]
}
]
训练脚本
cd Reranking
sh finetune/finetune_ds.sh
推理脚本
cd Reranking
python test_model.py
引用
如果您觉得我们的工作有帮助,欢迎引用:
@article{qwen,
title={360智脑技术报告},
author={360智脑团队},
journal={arXiv preprint arXiv:2405.13386},
year={2024}
}
许可证
本仓库的源代码遵循开源许可证Apache 2.0。
360智脑开源模型支持商业使用。如果您希望将这些模型用于商业目的或继续训练它们用于商业目的,请通过电子邮件(g-zhinao-opensource@360.cn)与我们联系申请。具体许可协议请见<<360智脑开源模型许可证>>。