#BERT模型

CAIL2019:中国法律人工智能挑战赛相似案例匹配数据集及其应用

2024年09月05日
Cover of CAIL2019:中国法律人工智能挑战赛相似案例匹配数据集及其应用

NL2SQL-RULE: 增强型BERT文本到SQL生成模型

2024年09月05日
Cover of NL2SQL-RULE: 增强型BERT文本到SQL生成模型

g2pW: 一个用于中文多音字消歧的条件加权Softmax BERT模型

2024年09月05日
Cover of g2pW: 一个用于中文多音字消歧的条件加权Softmax BERT模型
相关项目
Project Cover

contextualSpellCheck

contextualSpellCheck项目使用BERT模型进行上下文拼写检查和纠错,能有效识别和修正非词错误。该工具易于通过pip安装,并可以集成到spaCy管道中。项目支持多种语言和API调用,提供了丰富的扩展方法和自定义选项,方便开发者获取拼写检查和纠错数据。社区贡献代码和优化建议也受到欢迎,进一步提升项目性能和功能。

Project Cover

g2pW

g2pW是一个开源的普通话多音字消歧工具,基于条件加权softmax BERT模型。它可将中文文本转换为拼音或注音符号,支持简繁体中文并提供离线使用功能。该项目已集成至PaddleSpeech和pypinyin-g2pW等开源项目中,在语音合成和自然语言处理领域具有广泛应用。

Project Cover

NL2SQL-RULE

NL2SQL-RULE项目提出了一种基于内容增强BERT的文本到SQL生成方法。该方法通过引入数据库设计规则,构建问题向量和表头向量,有效提升了WHERE子句列和值的推理性能。在不使用执行引导解码的情况下,该方法在逻辑形式准确率和执行准确率上均超过了基线模型SQLova。项目开源了详细的运行步骤、数据示例和预训练模型,为自然语言到SQL转换研究开辟了新的方向。

Project Cover

cail2019

本文记录了CAIL2019法律智能挑战赛的参赛历程。从基础BERT模型出发,逐步优化YES/NO问题和未知答案处理策略,最终发展为多任务学习的端到端模型。文章分析了数据集特点、模型迭代过程和技术难点,展示了AI竞赛中如何通过持续改进提升模型效果。

Project Cover

bert-base-nli-stsb-mean-tokens

此模型能将句子和段落映射为768维向量,适用于分类和语义搜索。但由于其生成的嵌入质量不佳,已被弃用。建议使用最新的模型以提升效果。通过安装sentence-transformers库或使用HuggingFace Transformers,都能实现向量转换功能。

Project Cover

bluebert_pubmed_uncased_L-12_H-768_A-12

探索在PubMed文献上预训练的BERT模型,BlueBERT利用4000M词语料库支持生物医学自然语言处理,提升医学信息提取和文本分析精度,并通过多个基准数据集的评估。

Project Cover

paraphrase-multilingual-MiniLM-L12-v2

paraphrase-multilingual-MiniLM-L12-v2模型是sentence-transformers框架的一部分,能够将句子转换为384维的密集向量。该模型支持多语言功能,适合进行句子聚类和语义搜索,并能通过HuggingFace Transformers应用。在此模型的优化下,您可在多语言环境(如法语、葡萄牙语、中文)中高效实现句子相似性比较和特征提取,并利用其简便的安装和使用过程提升操作效率。

Project Cover

finbert-tone

FinBERT是一款针对金融领域的预训练语言模型,通过分析企业报告、财报会议记录和分析师报告等文本,显著提升了金融自然语言处理的研究和应用水平。其微调版本finbert-tone在金融文本情感分析任务中表现优异,能够精确识别金融文本中的正面、负面和中性情绪。这一模型为金融领域的研究人员和从业者提供了强大的分析工具,有助于深入洞察和分析金融市场情绪动向。

Project Cover

rubert-base-cased-sentiment

该项目基于DeepPavlov的RuBERT模型,通过35万多条多源俄语文本进行微调,实现了中性、积极和消极三分类的情感分析功能。模型支持transformers库调用,便于集成应用。训练语料涵盖社交媒体、产品评论等多个领域,提高了模型的通用性。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号