dpr-reader-single-nq-base项目介绍
项目概述
dpr-reader-single-nq-base
是一个用于开放域问答研究的模型,这个模型是通过自然问答(Natural Questions, NQ)数据集进行训练的。这是Facebook研究团队开发的一套顶尖的工具和模型,专门用于问答领域的研究,属于密集文段检索(Dense Passage Retrieval,简称DPR)的一部分。
如何开始使用该模型
要使用dpr-reader-single-nq-base
进行开放域问答,请参考以下代码:
from transformers import DPRReader, DPRReaderTokenizer
tokenizer = DPRReaderTokenizer.from_pretrained("facebook/dpr-reader-single-nq-base")
model = DPRReader.from_pretrained("facebook/dpr-reader-single-nq-base")
encoded_inputs = tokenizer(
questions=["什么是爱?"],
titles=["Haddaway"],
texts=["‘What Is Love’ 是艺术家Haddaway录制的一首歌"],
return_tensors="pt",
)
outputs = model(**encoded_inputs)
start_logits = outputs.start_logits
end_logits = outputs.end_logits
relevance_logits = outputs.relevance_logits
使用场景
直接使用
dpr-reader-single-nq-base
以及相关的上下文编码器和问题编码器都可以用于开放域问答任务。这些模型利用复杂的算法从大量文本中检索与问题相关的答案。
误用和不当使用
模型不应被用于有意创造敌对或疏远他人的环境。此外,DPR 模型系列未经过培训以提供真实或准确地表现人和事件的能力,因此使用这些模型生成此类内容是超出了模型能力范围的。
风险、限制和偏见
在使用该模型时,用户需要意识到可能存在偏见和偏见问题。模型生成的预测可能包含具有对特定群体的冒犯性或有害的陈规定型观念。因此,在应用该模型时需要谨慎。
训练过程
dpr-reader-single-nq-base
的训练基于自然问答数据集。该数据集中的问题通过谷歌搜索查询获取,答案则由标注者在维基百科文章中寻找。这一训练方法允许模型在运行时高效地检索与输入问题最相关的文本段。
评估结果
模型开发者在五个问答数据集上对该模型进行了评估,包括NQ、TriviaQA、WebQuestions (WQ)、CuratedTREC (TREC)、和SQuAD v1.1。模型在Top-k准确度(k=20和k=100)上的表现如下:
Top 20 | Top 100 | |||||||||
---|---|---|---|---|---|---|---|---|---|---|
NQ | TriviaQA | WQ | TREC | SQuAD | NQ | TriviaQA | WQ | TREC | SQuAD | |
78.4 | 79.4 | 73.2 | 79.8 | 63.2 | 85.4 | 85.0 | 81.4 | 89.1 | 77.2 |
环境影响
在训练过程中使用了8个32GB的GPU进行计算,具体的碳排放量及其他环境影响未知。
技术规格
有关模型架构、目标、计算基础设施和训练细节的更多信息,请参考相关论文。
引用信息
如果在您的工作中使用了此模型,请参考以下文献信息:
@inproceedings{karpukhin-etal-2020-dense,
title = "Dense Passage Retrieval for Open-Domain Question Answering",
author = "Karpukhin, Vladimir and Oguz, Barlas and Min, Sewon and Lewis, Patrick and Wu, Ledell and Edunov, Sergey and Chen, Danqi and Yih, Wen-tau",
booktitle = "Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP)",
month = nov,
year = "2020",
address = "Online",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2020.emnlp-main.550",
doi = "10.18653/v1/2020.emnlp-main.550",
pages = "6769--6781",
}