Logo

#BERT模型

CAIL2019:中国法律人工智能挑战赛相似案例匹配数据集及其应用

2 个月前
Cover of CAIL2019:中国法律人工智能挑战赛相似案例匹配数据集及其应用

g2pW: 一个用于中文多音字消歧的条件加权Softmax BERT模型

2 个月前
Cover of g2pW: 一个用于中文多音字消歧的条件加权Softmax BERT模型

NL2SQL-RULE: 增强型BERT文本到SQL生成模型

2 个月前
Cover of NL2SQL-RULE: 增强型BERT文本到SQL生成模型

相关项目

Project Cover
contextualSpellCheck
contextualSpellCheck项目使用BERT模型进行上下文拼写检查和纠错,能有效识别和修正非词错误。该工具易于通过pip安装,并可以集成到spaCy管道中。项目支持多种语言和API调用,提供了丰富的扩展方法和自定义选项,方便开发者获取拼写检查和纠错数据。社区贡献代码和优化建议也受到欢迎,进一步提升项目性能和功能。
Project Cover
g2pW
g2pW是一个开源的普通话多音字消歧工具,基于条件加权softmax BERT模型。它可将中文文本转换为拼音或注音符号,支持简繁体中文并提供离线使用功能。该项目已集成至PaddleSpeech和pypinyin-g2pW等开源项目中,在语音合成和自然语言处理领域具有广泛应用。
Project Cover
NL2SQL-RULE
NL2SQL-RULE项目提出了一种基于内容增强BERT的文本到SQL生成方法。该方法通过引入数据库设计规则,构建问题向量和表头向量,有效提升了WHERE子句列和值的推理性能。在不使用执行引导解码的情况下,该方法在逻辑形式准确率和执行准确率上均超过了基线模型SQLova。项目开源了详细的运行步骤、数据示例和预训练模型,为自然语言到SQL转换研究开辟了新的方向。
Project Cover
cail2019
本文记录了CAIL2019法律智能挑战赛的参赛历程。从基础BERT模型出发,逐步优化YES/NO问题和未知答案处理策略,最终发展为多任务学习的端到端模型。文章分析了数据集特点、模型迭代过程和技术难点,展示了AI竞赛中如何通过持续改进提升模型效果。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号