#代码生成

EvalGPT学习资料汇总 - 基于大语言模型的代码解释器框架

2 个月前
Cover of EvalGPT学习资料汇总 - 基于大语言模型的代码解释器框架

devlooper 入门指南 - 自主修复代码的程序合成代理

2 个月前
Cover of devlooper 入门指南 - 自主修复代码的程序合成代理

neural入门指南 - AI驱动的Vim/Neovim代码生成插件

2 个月前
Cover of neural入门指南 - AI驱动的Vim/Neovim代码生成插件

Automata学习资料汇总 - 自主编程AI系统的未来

2 个月前
Cover of Automata学习资料汇总 - 自主编程AI系统的未来

Llama2-Code-Interpreter学习资料大全 - 让AI模型执行代码、调试和访问互联网

2 个月前
Cover of Llama2-Code-Interpreter学习资料大全 - 让AI模型执行代码、调试和访问互联网

gp.nvim入门指南 - Neovim中的GPT AI助手插件

2 个月前
Cover of gp.nvim入门指南 - Neovim中的GPT AI助手插件

财通财通宝基金管理人和托管人的法律责任解析

2 个月前
Cover of 财通财通宝基金管理人和托管人的法律责任解析

AutoCoder学习资料汇总 - 一个超越GPT-4 Turbo的代码生成大模型

2 个月前
Cover of AutoCoder学习资料汇总 - 一个超越GPT-4 Turbo的代码生成大模型

pix2code学习资料汇总 - 从GUI截图自动生成代码的深度学习项目

2 个月前
Cover of pix2code学习资料汇总 - 从GUI截图自动生成代码的深度学习项目

llm-scraper入门指南 - 基于LLM的网页结构化数据提取工具

2 个月前
Cover of llm-scraper入门指南 - 基于LLM的网页结构化数据提取工具
相关项目
Project Cover

deepseek-coder-7b-instruct-v1.5

DeepSeek Coder是一个开源的代码生成语言模型,通过2T代码数据预训练和2B指令数据微调,具备4K上下文窗口。该模型支持代码生成与理解功能,开发者可通过Hugging Face平台便捷部署,并允许商业应用场景。

Project Cover

granite-3b-code-instruct-2k

IBM Research的Granite-3B-Code-Instruct-2K是一个3B参数的AI模型,专注提升编程指令响应。它从多个许可数据集微调而来,支持多种编程语言。尽管在某些语言上的性能突出,域外使用建议提供示例指导。部署于IBM超算集群确保了高效性。然而,模型须在特定应用上进行安全测试。

Project Cover

Qwen1.5-1.8B-Chat

Qwen1.5是Qwen2的测试版本,显著提高了聊天模型的人类偏好性能和多语言支持,并能处理32K上下文长度。其基于Transformer架构,采用了SwiGLU激活函数及多种注意力机制,并改进了分词器以增强多语言和代码适应性。通过数据预训练与后期优化,该模型在对话系统中的表现尤为突出。

Project Cover

Codestral-22B-v0.1

Codestral-22B-v0.1是Mistral AI开发的模型,覆盖80多种编程语言的数据集,包括Python、Java、C等流行语言。该模型可通过mistral_common、mistral_inference和transformers库进行推理,支持用户消息生成代码和填空模式预测,适合软件开发者在VS Code等环境中使用。目前不具备内容审核机制,团队将继续改进以适应需审核环境的部署

Project Cover

santacoder

SantaCoder模型专注于生成Python、Java和JavaScript的代码,通过1.1B参数和多查询注意力机制,在不同数据集上展现出卓越的性能。该模型使用2048个Token的上下文窗口,并以填充中间目标优化了精确度。通过专业训练过滤,SantaCoder提升了代码补全能力。此模型可在多个开发场景中应用,但需注意代码许可和归属要求。

Project Cover

CodeLlama-70b-Instruct-hf

CodeLlama-70B由Meta开发,是针对代码生成和理解的语言模型。此模型通过预训练和微调,特别适合一般代码合成和指令遵循,具备更安全的部署特性。本页面为开发者提供了详细的安装指南、使用示例及模型架构信息,以便于代码建议和生成的实现。

Project Cover

gemma-2-27b-it-GGUF

Gemma 2是由Google开发的27B参数模型,基于Gemini技术,适合中等VRAM用户。该模型能够处理多语言、代码和数学文本,尤其擅长生成代码和解决数学问题,弥补了8B和70B模型之间的空缺。其13万亿词元的训练量使其在多语言和编程语言上尤为出色,具有广泛的应用价值。

Project Cover

Qwen2.5-14B-Instruct-AWQ

Qwen2.5是一款大语言模型,专注提升编码和数学能力,同时优化指令跟随、长文本生成和结构化数据理解。支持29种语言,如中文和英语。具备更强的系统提示适应性,适合角色扮演和条件设置。AWQ量化4-bit版本72B模型具备因果语言模型结构,支持131,072个token的上下文处理和8,192个token的文本生成,适合长文本处理及多语言应用。

Project Cover

Yi-Coder-9B-Chat-GGUF

Yi-Coder-9B-Chat-GGUF是一个支持52种编程语言的AI助手模型,具有128k的上下文长度。作为首个在LiveCodeBench上达到20%通过率的10B以下参数模型,它专门针对编程对话进行了优化。该模型由01-ai开发,bartowski提供基于llama.cpp的GGUF量化版本。用户可以在LM Studio中使用ChatML预设与模型进行交互,获取编程问题的解答。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号