项目介绍
项目概述
OpenCALM-3B是由CyberAgent公司研发的一套仅包含解码器的语言模型。这个模型专门用于处理和分析日语数据集,帮助用户更好地进行日语自然语言处理作业。
使用方法
如果要使用OpenCALM-3B模型,可以通过以下Python代码进行调用:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("cyberagent/open-calm-3b", device_map="auto", torch_dtype=torch.float16)
tokenizer = AutoTokenizer.from_pretrained("cyberagent/open-calm-3b")
inputs = tokenizer("AIによって私達の暮らしは、", return_tensors="pt").to(model.device)
with torch.no_grad():
tokens = model.generate(
**inputs,
max_new_tokens=64,
do_sample=True,
temperature=0.7,
top_p=0.9,
repetition_penalty=1.05,
pad_token_id=tokenizer.pad_token_id,
)
output = tokenizer.decode(tokens[0], skip_special_tokens=True)
print(output)
该代码展示了如何加载模型和分词器,并生成自然语言文本。
模型详情
OpenCALM模型家族包含不同规模的模型,可以根据具体需求来选择合适的模型:
模型 | 参数数量 | 层数 | 维度 | 头数 | 开发人员 |
---|---|---|---|---|---|
open-calm-small | 160M | 12 | 768 | 12 | 19.7 |
open-calm-medium | 400M | 24 | 1024 | 16 | 13.8 |
open-calm-large | 830M | 24 | 1536 | 16 | 11.3 |
open-calm-1b | 1.4B | 24 | 2048 | 16 | 10.3 |
open-calm-3b | 2.7B | 32 | 2560 | 32 | 9.7 |
open-calm-7b | 6.8B | 32 | 4096 | 32 | 8.2 |
所有这些模型都是基于Transformer框架开发的语言模型,专注于日语的处理。
开发者信息
该模型由CyberAgent, Inc.开发,项目作者是Ryosuke Ishigami。
数据集
OpenCALM-3B的训练数据集主要来源于日语的Wikipedia和Common Crawl。
使用许可
OpenCALM-3B模型使用的许可证是Creative Commons Attribution-ShareAlike 4.0国际许可(CC BY-SA 4.0)。在使用该模型时,需适当注明CyberAgent, Inc.的贡献。
引用
项目使用的库是GPT-NeoX,可以通过以下引用方式进行引用:
@software{gpt-neox-library,
title = {{GPT-NeoX: Large Scale Autoregressive Language Modeling in PyTorch}},
author = {Andonian, Alex and Anthony, Quentin and Biderman, Stella and Black, Sid and Gali, Preetham and Gao, Leo and Hallahan, Eric and Levy-Kramer, Josh and Leahy, Connor and Nestler, Lucas and Parker, Kip and Pieler, Michael and Purohit, Shivanshu and Songz, Tri and Phil, Wang and Weinbach, Samuel},
url = {https://www.github.com/eleutherai/gpt-neox},
doi = {10.5281/zenodo.5879544},
month = {8},
year = {2021},
version = {0.0.1},
}
这些信息提供了对项目的全面概览,有助于了解其应用和使用方法。