#法律领域
legal-bert-small-uncased - 专为法律领域设计的轻量级BERT模型
Github开源项目预训练模型自然语言处理模型Huggingface法律领域LEGAL-BERT法律文本
legal-bert-small-uncased是一个轻量级法律领域BERT模型。它在12GB多样化法律文本上预训练,包括法规、判例和合同。与普通BERT相比,该模型在法律任务上表现更优,且体积更小、运行更快,为法律NLP研究和应用提供了高效工具。
InLegalBERT - 印度法律领域预训练语言模型
Github开源项目自然语言处理模型Huggingface法律领域InLegalBERT印度法律法律文本预训练
InLegalBERT是一个针对印度法律领域的预训练语言模型,基于540万份印度法院文件训练而成。该模型涵盖1950年至2019年间的多个法律领域,在法律条文识别、语义分割和法院判决预测等任务中表现优异。作为印度法律自然语言处理研究的基础工具,InLegalBERT为该领域的发展提供了有力支持。