Project Icon

graphcodebert-base

GraphCodeBERT结合数据流信息的代码预训练模型

GraphCodeBERT是基于Transformer架构的代码预训练模型,结合代码序列和数据流信息。模型包含12层、768维隐藏状态和12个注意力头,最大序列长度512。在CodeSearchNet数据集上训练,涵盖6种编程语言的230万函数-文档对,旨在增强代码理解和处理能力。

bertweet-base - BERTweet为英文推文提供预训练大规模语言模型
BERTweetGithubHuggingfaceRoBERTa开源项目推特模型自然语言处理预训练语言模型
BERTweet是针对英文推文预训练的开源大规模语言模型。该模型基于RoBERTa架构,使用8.5亿条英文推文进行训练,包括与COVID-19相关的推文。BERTweet在词性标注、命名实体识别、情感分析和讽刺检测等任务中表现出色。作为处理Twitter数据的基础工具,BERTweet可应用于多种自然语言处理任务,为研究人员提供了宝贵的资源。
deberta-v2-xxlarge - 强大的自然语言处理模型,采用解耦注意力机制的BERT增强版
BERTDeBERTaGithubHuggingface开源项目模型深度学习自然语言处理预训练模型
DeBERTa-v2-xxlarge是一个48层、1536隐藏层和15亿参数的高级语言模型。它通过解耦注意力和增强型掩码解码器优化了BERT和RoBERTa架构,使用160GB原始数据训练。该模型在SQuAD和GLUE等多个自然语言理解任务中表现优异,性能显著优于BERT和RoBERTa。DeBERTa-v2-xxlarge适用于复杂的自然语言处理任务,是研究和开发中的有力工具。
mdeberta-v3-base - DeBERTa V3架构多语言模型助力跨语言NLU任务
DeBERTaGithubHuggingface多语言模型开源项目模型深度学习自然语言处理预训练模型
mdeberta-v3-base是基于DeBERTa V3架构的多语言预训练模型,使用2.5T CC100数据训练。在XNLI跨语言迁移任务中,其平均准确率达79.8%,显著超越XLM-R。模型采用梯度解耦嵌入共享和ELECTRA式预训练,增强下游任务表现。结构包含12层transformer,768维隐藏层,共2.76亿参数。适用于多语言自然语言理解任务,尤其在低资源语言中表现出色。
bert4torch - 基于PyTorch开发的自然语言处理工具
Githubbert4torch功能开源项目快速上手模型预训练权重
bert4torch是一个基于PyTorch开发的自然语言处理工具。支持包括BERT、RoBERTa、GPT在内的多种预训练模型,适用于广泛NLP任务。提供丰富示例及详尽文档,助力快速实施项目。特包高级功能如大模型推理,极致满足专业需求,是NLP领域的首选工具库。
Codestral-22B-v0.1-GGUF - 针对80多种编程语言优化的开源代码助手模型
Codestral-22BGithubHuggingface人工智能代码生成开源项目机器学习模型量化模型
Codestral-22B-v0.1-GGUF是一个支持80多种编程语言的开源代码助手模型。它能够回答代码问题、生成代码,并提供Fill in the Middle功能。该模型已被量化为多个版本,以适应不同的硬件配置,让开发者能够在本地设备上高效运行这一代码辅助工具。模型支持Python、Java、C++等主流编程语言,可用于代码文档编写、解释和重构等任务。
starcoder2-15b - 基于15B参数训练的多语言代码生成模型
GithubHuggingfaceStarCoder2人工智能代码生成模型开源项目模型深度学习编程语言
starcoder2-15b是NVIDIA开发的代码生成模型,支持600+种编程语言,采用GQA和FIM技术训练。模型具有16K token上下文窗口,基于4万亿以上的代码数据集训练。支持多种精度和量化部署方案,遵循BigCode OpenRAIL-M许可协议,具备代码溯源功能。
starcoder2-15b-GPTQ - 支持600多种编程语言的大规模代码生成模型
GithubHuggingfaceStarCoder2代码生成开源项目机器学习模型深度学习自然语言处理
starcoder2-15b-GPTQ是一个经GPTQ量化的15B参数代码生成模型,支持600多种编程语言。它采用分组查询注意力机制和滑动窗口注意力,具有16,384个token的上下文窗口,在4万亿以上token上训练。模型可生成代码片段,但可能存在缺陷,使用时需谨慎。提供多种精度和量化版本,适应不同硬件需求。
codegen-350M-multi - 支持多种编程语言的程序合成模型
CodeGenGithubHuggingface多语言模型开源项目模型程序合成行业应用训练数据
CodeGen-Multi 350M是一种程序合成模型,旨在生成可执行代码。其预训练数据来自GitHub的多语言代码库,包括C、C++、Go、Java、JavaScript和Python等。模型具备350M个参数,可以高效生成和补全代码。适用于HumanEval和MTPB等基准测试,为程序合成任务提供了良好的支持。
UltraFastBERT - 指数级加速的BERT语言模型训练与推理方案
BERTGithubUltraFastBERT开源项目机器学习神经网络语言模型
UltraFastBERT是一个开源项目,旨在通过创新的快速前馈(FFF)层设计实现BERT语言模型的指数级加速。项目提供了完整的训练代码,以及在CPU、PyTorch和CUDA平台上的高效实现。包含训练文件夹、各平台基准测试代码,以及UltraFastBERT-1x11-long模型的配置和权重,可通过HuggingFace轻松加载使用。研究人员可以方便地复现结果,并进一步探索该突破性技术在自然语言处理领域的广泛应用潜力。
deepseek-coder-1.3b-base - 基于深度学习的多语言代码生成模型
DeepSeek CoderGithubHuggingface人工智能代码生成开源项目机器学习模型自然语言处理
deepseek-coder-1.3b-base是一个由DeepSeek开发的开源代码生成模型。它基于1.3B参数和2T训练数据,支持多种编程语言的代码补全、插入和项目级生成。模型采用16K窗口大小和填空任务训练,在HumanEval等多个基准测试中表现优异。这一工具为开发者提供了灵活、高效的编程辅助解决方案。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号