#LEGAL-BERT
legal-bert-base-uncased - 法律领域专用预训练语言模型
语言模型Huggingface模型司法文本法律自然语言处理Github预训练模型开源项目LEGAL-BERT
LEGAL-BERT是一系列针对法律领域优化的BERT模型,基于12GB多样化英语法律文本预训练而成。它涵盖立法、法院案例和合同等内容,在法律特定任务中表现优于通用BERT。此外,项目提供了一个仅为BERT-BASE大小33%的轻量级模型,在保持竞争力的同时提高了效率。LEGAL-BERT旨在促进法律NLP研究、计算法律和法律技术应用的发展。
legal-bert-small-uncased - 专为法律领域设计的轻量级BERT模型
法律文本自然语言处理法律领域模型Github预训练模型开源项目LEGAL-BERTHuggingface
legal-bert-small-uncased是一个轻量级法律领域BERT模型。它在12GB多样化法律文本上预训练,包括法规、判例和合同。与普通BERT相比,该模型在法律任务上表现更优,且体积更小、运行更快,为法律NLP研究和应用提供了高效工具。