热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#GraphCodeBERT
graphcodebert-base - GraphCodeBERT结合数据流信息的代码预训练模型
模型
GraphCodeBERT
Github
深度学习
代码理解
数据流分析
开源项目
Huggingface
自然语言处理
GraphCodeBERT是基于Transformer架构的代码预训练模型,结合代码序列和数据流信息。模型包含12层、768维隐藏状态和12个注意力头,最大序列长度512。在CodeSearchNet数据集上训练,涵盖6种编程语言的230万函数-文档对,旨在增强代码理解和处理能力。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号