#代码生成

codet5-large - 支持多编程语言的代码理解与生成大模型
代码生成CodeT5CodeSearchNetHuggingfaceGithub开源项目模型深度强化学习语言模型
CodeT5-large预训练模型支持多语言代码处理,并在CodeXGLUE基准中展示了卓越的性能。
StarCoder2-7B-GGUF - 多种量化模型版本,提升代码生成性能与存储效率
Github开源项目StarCoder2代码生成量化模型模型LlamaEdgeHuggingface模型压缩
此项目提供多种量化模型版本,旨在优化代码生成任务中的性能与存储效率。可选范围包括小容量、质量损失较大的版本到大容量、质量损失低的版本,以满足各种需求。Q4_K_M与Q5_K_M模型在质量与容量间表现出良好的平衡。该项目使用llama.cpp进行量化,适合空间与性能有特定需求的开发者。
Qwen2.5-Coder-7B-Instruct-GPTQ-Int4 - Qwen2.5-Coder高效代码生成与长文本处理
HuggingfaceQwen2.5-Coder长上下文支持量化开源项目代码生成模型Hugging FaceGithub
Qwen2.5-Coder项目通过5.5万亿训练令牌的使用,显著提升了代码生成、推理和修正能力。该模型支持长达128K的上下文长度,采用GPTQ 4位量化,并保持数学与通用能力优势。搭载transformers架构,具备RoPE和SwiGLU等技术,优化代码生成和处理过程。
CodeQwen1.5-7B-Chat-GGUF - 支持92种编程语言的强大代码生成模型
CodeQwen1.5长上下文开源项目代码生成模型Github多语言支持Huggingface语言模型
CodeQwen1.5是一个基于transformer的语言模型,专注于代码生成。它支持92种编程语言,并能处理长达64K标记的上下文,适用于文本到SQL转换和错误修正。
CodeFuse-CodeLlama-34B-GGUF - 基于Llama2打造的高性能代码生成模型,多量化格式任您选择
大语言模型CodeLlama代码生成GGUF模型量化模型GithubHuggingface开源项目
CodeFuse-CodeLlama-34B是一款基于Llama2架构的代码生成模型,提供2位至8位多种GGUF量化格式。该模型支持CPU和GPU推理,具有优秀的代码理解与生成能力。开发者可根据硬件和性能需求选择合适的量化版本,实现高效部署。模型兼容llama.cpp、text-generation-webui等主流框架,便于快速集成使用。
starcoder2-7b - 支持17种编程语言的开源代码生成模型
编程语言开源项目模型StarCoder2Github机器学习代码生成自然语言处理Huggingface
StarCoder2是一个基于7B参数训练的代码生成模型,支持17种主流编程语言的代码理解与生成。模型采用先进的注意力机制和大规模上下文窗口,在代码补全和程序生成等任务中表现出色,支持多种硬件环境部署。
tiny_starcoder_py - 基于StarCoder架构的Python代码生成AI模型
人工智能模型代码生成StarCoder深度学习模型GithubTinyStarCoderPyHuggingface开源项目
TinyStarCoderPy是一个基于StarCoder架构的164M参数AI模型,针对Python编程场景进行优化。该模型在100B规模的Python代码数据集上完成训练,具备代码生成和填空功能,支持8k上下文长度和多查询注意力机制,可用于GitHub代码开发环境中的编程辅助任务。
codebert-cpp - 训练于GitHub代码库的C++代码分析模型
模型预训练机器学习Github代码生成CodeBERTHuggingfaceC++开源项目模型
CodeBERT-CPP是基于Microsoft CodeBERT架构的C++代码分析模型,经100万步训练优化。该模型利用GitHub代码库数据进行掩码语言建模,主要用于CodeBERTScore评分系统,也适用于其他C++代码分析任务。作为开源项目,CodeBERT-CPP为开发者提供了一个专业的C++代码评估工具。
codet5-small - 基于标识符语义的代码理解与生成统一模型
CodeT5开源项目模型预训练模型Github代码理解机器学习代码生成Huggingface
CodeT5是一个基于Transformer架构的代码处理模型,专注于通过标识符提升代码语义理解能力。模型支持代码摘要、生成、翻译等多种任务,在835万个CodeSearchNet数据集实例上完成预训练。其创新的标识符识别机制显著提升了代码理解和生成的效果。
Qwen2.5-Coder-7B-Instruct-GGUF - 基于5.5万亿数据训练的大规模代码生成模型
Qwen2.5-Coder代码调试Github代码生成模型量化人工智能代码Huggingface开源项目模型
Qwen2.5-Coder-7B-Instruct的量化版本模型,经过5.5万亿数据规模训练,具备代码生成、推理和bug修复等核心功能。模型支持128K长文本处理,可满足大规模代码开发需求。基于llama.cpp实现量化,在保持原有性能的同时优化了模型部署效率。
DeepSeek-Coder-V2-Lite-Instruct-GGUF - 高性能代码模型的多版本量化优化支持多种硬件推理应用
代码生成开源项目量化模型模型人工智能Huggingface模型压缩DeepSeek-CoderGithub
本项目针对DeepSeek-Coder-V2-Lite-Instruct模型进行量化优化,提供20多种GGUF格式文件,大小从6GB到17GB不等。采用llama.cpp的imatrix技术实现高效压缩,同时保持模型性能。用户可根据硬件条件选择适合的版本,支持NVIDIA、AMD等平台的深度学习推理。
CodeLlama-7b-Python-hf - Meta推出的Python专用代码生成与理解模型
大语言模型Github开源项目模型Code LlamaPython编程Huggingface人工智能代码生成
CodeLlama-7b-Python-hf作为Code Llama系列的Python特化版本,搭载70亿参数规模的优化Transformer架构。这款由Meta开发的模型通过预训练和精调,具备出色的Python代码补全和理解能力。模型支持商业及研究领域应用,使用需遵循Meta许可协议。
starchat2-15b-v0.1 - 基于StarCoder2微调的双能力开源语言模型
大模型语言模型Github开源项目代码生成StarChat2模型Huggingface人工智能
StarChat2-15b-v0.1是一款基于StarCoder2的开源语言模型,拥有160亿参数规模。该模型通过合成数据集微调,在MT Bench、IFEval聊天评测及HumanEval代码测试中展现了均衡性能。模型支持600多种编程语言,具备代码生成和对话交互功能。开发者可通过Transformers框架调用,需注意模型存在输出偏差等局限性。
Qwen2.5-Coder-7B-Instruct-GGUF - 基于Qwen2.5的7B参数代码专用模型支持超长文本输入与代码生成
GGUF格式大语言模型Github开源项目指令微调模型HuggingfaceQwen2.5-Coder代码生成
Qwen2.5-Coder-7B-Instruct-GGUF是一款开源的代码专用大语言模型,通过5.5万亿token的训练提升了代码生成和推理能力。模型采用transformers架构,参数规模为7.61B,具备32K-128K的长文本处理能力。该模型在保持通用能力的同时优化了编程相关任务,支持GGUF格式并可通过llama.cpp部署,适用于代码智能体等实际应用场景。
codet5-base - 基于标识符语义的代码理解生成预训练模型
代码生成GithubCodeT5预训练模型开源项目自然语言处理模型Huggingface机器学习
CodeT5是一个代码预训练模型,通过理解代码中的标识符语义提升性能。模型采用编码器-解码器架构,支持代码理解和生成等多项任务。在代码缺陷检测、克隆检测、代码总结、代码生成等任务中表现优异。其创新点在于能够准确识别和处理代码标识符,并结合代码注释实现自然语言与编程语言的有效转换。
deepseek-moe-16b-base - 采用稀疏混合专家架构的开源大语言模型
代码生成模型训练Github开源项目DeepSeek MoE模型人工智能Huggingface机器学习
DeepSeek MoE 16B Base是一个基于稀疏混合专家(MoE)架构的开源大语言模型,支持商业应用。模型使用bfloat16格式,可通过Transformers库调用,擅长文本生成和补全。它采用查询-键值对映射的注意力机制,高效处理自然语言处理任务。该项目遵循MIT许可,提供详细文档和示例代码,便于开发者集成使用。
OpenCodeInterpreter-DS-6.7B - 代码生成与执行精炼的整合,提升编程任务效率与准确性
模型性能代码生成开源项目执行反馈OpenCodeInterpreter模型Huggingface开源Github
OpenCodeInterpreter-DS-6.7B是一个结合代码生成和执行精炼的开源系统,基于deepseek-coder-6.7b-base模型。该项目在HumanEval和MBPP等基准测试中表现优异,通过执行反馈和人类反馈不断优化性能,为复杂代码任务提供高效且准确的解决方案。
Codestral-22B-v0.1-IMat-GGUF - Codestral-22B-v0.1量化模型及IMatrix文件下载指南
IMatrix下载步骤Github量化模型开源项目代码生成Codestral-22B-v0.1Huggingface
Codestral-22B-v0.1项目提供了多种量化版本,包括Q8_0、Q6_K、Q4_K等,并支持IMatrix数据集的应用。用户可通过huggingface-cli下载这些文件,对于较大的文件,可使用gguf-split工具进行合并。更新版本修复了FIM标记缺失,并通过部分量化方法提升性能。项目涵盖的量化文件类型多样且灵活,满足不同的应用需求。
granite-20b-code-base-8k - IBM开源代码生成模型多语言支持与准确性提升
代码生成大语言模型训练数据IBM研究开源项目Granite-20B-Code-Base-8K模型HuggingfaceGithub
Granite-20B-Code-Base-8K是IBM推出的开源代码生成模型,旨在提升软件开发效率。模型通过3万亿标记的训练数据,支持116种编程语言,具备代码生成和修复等功能。在多个数据集的测试中表现良好,通过两阶段训练策略提高逻辑和指令执行能力,适合处理技术债务及漏洞检测等任务,广泛适用于企业应用。
Qwen2.5-Coder-1.5B-Instruct - 支持超长文本处理的智能代码生成模型
长文本处理Qwen2.5-CoderGithub模型指令微调开源项目代码生成Huggingface大语言模型
基于Qwen2.5架构开发的代码特化大语言模型,通过5.5万亿token训练提升了代码生成、推理和修复能力。模型支持长文本处理,具备代码智能体和数学推理功能,采用transformers架构并集成多项先进技术,为代码开发提供全面的辅助支持
Qwen2.5-Coder-7B - 新一代多语言编程模型具备出色的代码生成与长文本处理能力
机器学习Qwen2.5-CoderGithub模型开源项目代码生成深度学习Huggingface人工智能
Qwen2.5-Coder-7B是一个基于Qwen2.5-7B训练的专业代码开发模型,在代码生成、推理和修复方面表现优异。该模型经过5.5万亿token的训练,支持128K上下文窗口,适用于代码助手和数学推理等场景。采用transformer架构,拥有76亿参数和28层注意力层,支持131,072个token的上下文长度。Qwen2.5-Coder-7B不仅优化了代码生成能力,还保持了数学和通用能力的优势,为代码开发和人工智能应用提供了全面的基础支持。
gpt_bigcode-santacoder - 多语言代码生成模型SantaCoder支持Python、Java和JavaScript
Github模型开源项目代码生成源代码处理Huggingface人工智能编程深度学习模型SantaCoder
SantaCoder是一个基于GPT-2架构的代码生成模型,专门针对Python、Java和JavaScript三种编程语言优化。该模型通过GitHub代码库训练,使用236亿个代码token和float16精度,能够根据上下文高效生成代码片段。SantaCoder采用多查询注意力机制和Fill-in-the-Middle目标,通过代码注释或函数签名触发代码生成,而非直接响应指令。此模型为开发者提供了强大的代码补全和生成工具。
CodeLlama-13b-hf - Meta开发的13B参数通用代码生成和理解模型
机器学习GithubCode Llama模型开源项目代码生成Huggingface人工智能模型自然语言处理
CodeLlama-13b-hf是Meta开发的13B参数大型语言模型,专注于代码生成和理解。作为Code Llama系列的基础版本之一,该模型支持代码补全和填充功能。它采用优化的transformer架构,于2023年上半年训练完成,适用于商业和研究用途。这一通用代码合成工具能有效处理多种编程任务,为开发者提供代码辅助功能。
CodeLlama-7B-Instruct-GPTQ - 高性能代码编程助手 支持多种量化参数的GPU推理
CodeLlamaHuggingface指令调优Meta代码生成Github模型开源项目机器学习
CodeLlama-7B-Instruct模型的GPTQ量化版本由TheBloke优化,提供4-bit和8-bit多种量化参数组合。模型支持代码补全、填充和指令对话,可通过Python或text-generation-webui部署。经AutoGPTQ验证,兼容ExLlama和Hugging Face TGI等推理框架,适用于不同硬件环境和性能需求。
Qwen2.5-Coder-7B-Instruct-AWQ - AWQ量化7B参数代码模型支持128K长文本处理
Qwen2.5-Coder人工智能代码生成Github模型开源项目大语言模型AWQ量化Huggingface
Qwen2.5-Coder-7B-Instruct-AWQ是一个AWQ量化的4比特指令微调模型,具有7B参数。该模型在代码生成、推理和修复方面表现出色,支持处理长达128K tokens的上下文。它采用28层、28个注意力头的因果语言模型架构,并应用RoPE、SwiGLU等技术。这一模型在提升编码能力的同时,保持了数学和通用领域的性能,为代码智能助手等应用提供了坚实基础。
CodeLlama-34b-Instruct-hf - Meta推出的34B参数代码生成语言模型
Huggingface大型语言模型人工智能程序开发开源项目代码生成模型Code LlamaGithub
CodeLlama-34b-Instruct-hf是Meta开发的代码生成语言模型,采用34B参数规模并经过指令微调。该模型支持代码补全和指令对话功能,适用于多种编程语言开发。作为Code Llama系列的一员,模型基于优化的Transformer架构,通过大规模代码数据集训练,可用于代码合成和理解任务。
starcoder2-7b-AWQ - AWQ量化的StarCoder2代码生成模型
机器学习模型程序开发StarCoder2深度学习代码生成Github模型开源项目Huggingface
StarCoder2-7B-AWQ是经AWQ量化的大规模代码生成模型。它支持17种编程语言,采用分组查询注意力机制,具有16,384个token的上下文窗口。该模型在多项基准测试中表现优异,能生成高质量代码。量化后显著降低内存占用,便于部署应用。
Laravel-11-Llama-3.2-1B-Instruct-GGUF - 用于Laravel 11文档查询的Llama 3.2定制模型
Laravel 11Github代码生成开源项目文档辅助模型模型微调语言模型Huggingface
此模型是Meta的Llama 3.2 1B Instruct的定制版本,专为Laravel 11文档查询而设计。能快速回应简单问题,并提供复杂问题的分步骤指导。可通过LM Studio、Jan、vLLM、llama.cpp等工具本地运行,适合经常处理Laravel 11的开发者。建议交叉验证重要信息,以减轻长文本处理中可能的偏差。
CodeLlama-7b-Instruct-hf - Meta推出的7B参数代码生成模型 支持多语言编程
Huggingface代码生成开发工具Github开源项目人工智能模型模型Code Llama机器学习
CodeLlama-7b-Instruct-hf是Meta开发的7B参数代码生成模型,基于优化的Transformer架构。它支持代码补全、插入和指令跟随,适用于多种编程语言,尤其擅长Python。作为Code Llama系列的一员,该模型提供安全的代码助手功能,可用于商业和研究领域。
deepseek-coder-6.7b-base - 多语言支持的大规模代码模型,提供项目级智能补全功能
Huggingface机器学习人工智能开源项目代码生成模型Github自然语言处理DeepSeek Coder
deepseek-coder-6.7b-base是一个经过2万亿token训练的大规模代码模型。它支持多种编程语言,能够进行项目级代码补全和填充。该模型在多个编程基准测试中表现优异,16K的上下文窗口使其能够处理大型代码项目。这个开源模型允许商业使用,为开发者提供了强大的编码辅助功能。
Yi-Coder-9B-Chat-GGUF - 支持52种编程语言的大上下文AI编程助手
人工智能助手多语言支持编程模型代码生成Yi-Coder-9B-ChatGithub开源项目模型Huggingface
Yi-Coder-9B-Chat-GGUF是一个支持52种编程语言的AI助手模型,具有128k的上下文长度。作为首个在LiveCodeBench上达到20%通过率的10B以下参数模型,它专门针对编程对话进行了优化。该模型由01-ai开发,bartowski提供基于llama.cpp的GGUF量化版本。用户可以在LM Studio中使用ChatML预设与模型进行交互,获取编程问题的解答。
Qwen2.5-14B-Instruct-AWQ - Qwen2.5大模型,专注于提升编码、数学能力与多语种支持
长上下文支持多语言支持开源项目代码生成Qwen2.5-14B-Instruct量子化Github模型Huggingface
Qwen2.5是一款大语言模型,专注提升编码和数学能力,同时优化指令跟随、长文本生成和结构化数据理解。支持29种语言,如中文和英语。具备更强的系统提示适应性,适合角色扮演和条件设置。AWQ量化4-bit版本72B模型具备因果语言模型结构,支持131,072个token的上下文处理和8,192个token的文本生成,适合长文本处理及多语言应用。
gemma-2-27b-it-GGUF - 中等VRAM用户的多语言与代码生成模型
Huggingface机器学习Gemma开源项目代码生成多语言模型Github谷歌
Gemma 2是由Google开发的27B参数模型,基于Gemini技术,适合中等VRAM用户。该模型能够处理多语言、代码和数学文本,尤其擅长生成代码和解决数学问题,弥补了8B和70B模型之间的空缺。其13万亿词元的训练量使其在多语言和编程语言上尤为出色,具有广泛的应用价值。
CodeLlama-70b-Instruct-hf - 深入探讨CodeLlama-70B模型的代码生成和应用场景
MetaGithub开源项目模型Code LlamaInstructHuggingface模型训练代码生成
CodeLlama-70B由Meta开发,是针对代码生成和理解的语言模型。此模型通过预训练和微调,特别适合一般代码合成和指令遵循,具备更安全的部署特性。本页面为开发者提供了详细的安装指南、使用示例及模型架构信息,以便于代码建议和生成的实现。
santacoder - 跨编程语言的代码生成解决方案
Github模型开源项目Fill-in-the-Middle代码生成HuggingfaceMulti Query Attention无指令模型SantaCoder
SantaCoder模型专注于生成Python、Java和JavaScript的代码,通过1.1B参数和多查询注意力机制,在不同数据集上展现出卓越的性能。该模型使用2048个Token的上下文窗口,并以填充中间目标优化了精确度。通过专业训练过滤,SantaCoder提升了代码补全能力。此模型可在多个开发场景中应用,但需注意代码许可和归属要求。
Codestral-22B-v0.1 - 支持多语言代码生成和填空功能,涵盖80多种编程语言,包括Python和Java
编程语言代码生成GithubCodestral-22B-v0.1开源项目模型模型推理机械学习Huggingface
Codestral-22B-v0.1是Mistral AI开发的模型,覆盖80多种编程语言的数据集,包括Python、Java、C等流行语言。该模型可通过mistral_common、mistral_inference和transformers库进行推理,支持用户消息生成代码和填空模式预测,适合软件开发者在VS Code等环境中使用。目前不具备内容审核机制,团队将继续改进以适应需审核环境的部署