#Python

Elyra学习资料汇总 - 为JupyterLab带来AI功能的扩展套件

2 个月前
Cover of Elyra学习资料汇总 - 为JupyterLab带来AI功能的扩展套件

AI-Chatbot-Framework 学习资料汇总 - 基于Python的AI聊天机器人框架

2 个月前
Cover of AI-Chatbot-Framework 学习资料汇总 - 基于Python的AI聊天机器人框架

Sunfish 国际象棋引擎入门指南 - 131行Python代码实现的强大AI

2 个月前
Cover of Sunfish 国际象棋引擎入门指南 - 131行Python代码实现的强大AI

OpenPrompt学习资料汇总 - 开源提示学习框架

2 个月前
Cover of OpenPrompt学习资料汇总 - 开源提示学习框架

Cookiecutter Data Science 学习资料汇总 - 数据科学项目的标准化模板

2 个月前
Cover of Cookiecutter Data Science 学习资料汇总 - 数据科学项目的标准化模板

Mojo编程语言学习资料汇总 - 兼具Python语法和系统级性能的AI编程语言

2 个月前
Cover of Mojo编程语言学习资料汇总 - 兼具Python语法和系统级性能的AI编程语言

SerpentAI入门指南 - 将任何游戏变成AI训练沙盒环境的强大框架

2 个月前
Cover of SerpentAI入门指南 - 将任何游戏变成AI训练沙盒环境的强大框架

Langflow入门指南 - 构建AI应用的低代码工具

2 个月前
Cover of Langflow入门指南 - 构建AI应用的低代码工具

Vanna学习资料汇总 - 基于RAG的文本到SQL生成框架

2 个月前
Cover of Vanna学习资料汇总 - 基于RAG的文本到SQL生成框架

Chroma 学习资源汇总 - 开源AI原生嵌入式数据库

2 个月前
Cover of Chroma 学习资源汇总 - 开源AI原生嵌入式数据库
相关项目
Project Cover

dolphin-2.5-mixtral-8x7b-GGUF

Dolphin 2.5 Mixtral 8X7B是Eric Hartford推出的一款采用GGUF格式的模型。它支持多种比特选项的量化推理,并兼容llama.cpp、KoboldCpp、LM Studio等环境。模型设计注重性能与资源平衡,适合多种应用场景。

Project Cover

CodeLlama-7b-hf

Code Llama是一套从7亿到340亿参数的生成文本模型,设计用于代码合成与理解。这些模型基于Hugging Face Transformers架构,提供7B基础版本,具备代码补全和填充功能。针对Python的特定变体也已开发,以便提供更佳的技术支持。探索Code Llama可以如何为项目提供技术支持,满足多样的商业与研究需求。

Project Cover

codegen-350M-mono

该模型基于大量Python语言数据训练,旨在合成程序。它可以通过英文提示生成代码,从而用于代码补全任务。

Project Cover

CodeLlama-34b-hf

这是一个预训练和微调的语言模型,专注于代码生成和理解,参数规模可达34亿。适用于多样化的代码合成任务,特别针对Python进行了优化。基于Transformer架构,该模型为商业应用和研究提供了安全可靠的支持。

Project Cover

pythia-12b-deduped

Pythia Scaling Suite是EleutherAI开发的用于解释性研究的大语言模型集合。该套件包含八种尺寸的模型,每种尺寸有去重和非去重版本,均在相同的数据集和顺序下训练,提供科学实验的受控环境,支持对大型语言模型的行为与功能研究。用户可以在Hugging Face上获取154个中间检查点,并通过开源代码库进行调整和扩展。

Project Cover

CodeLlama-7B-Python-GGUF

CodeLlama 7B Python GGUF格式模型提供多平台下的文本生成功能。由llama.cpp团队推出的GGUF格式,替代GGML,增强了标记和元数据支持。兼容多种UI和库,如text-generation-webui和LM Studio,并提供多种量化选项,以适应不同硬件需求,支持与LangChain等Python项目的高级整合。

Project Cover

speechless-code-mistral-7b-v1.0

该项目展示了一款专注于代码生成和推理的模型,具备提升推理和规划能力的特点。其多种量化选项支持8位以下的CPU+GPU推断,使其在多种编程语言上均表现不俗。模型经过微调,覆盖了201,981个样本的数据集,包括编码、推理和规划样本,支持Alpaca指令格式。在HumanEval基准测试中通过率达51.22%,适用于多种编程语言的验证,如Python、Java、C++等,为编程助手和代码验证提供支持。

Project Cover

t5-base-qg-hl

该模型采用T5-base架构,专注于生成基于答案的问句。通过在文本中使用<hl>标记来突出答案范围,并以</s>结束文本,即可生成相关问题。这一工具提供了直观的使用体验,适合需要自动生成理解型问题的场景,有助于提高文本处理效率。

Project Cover

german-sentiment-bert

该项目开发了一个基于BERT架构的德语情感分类模型。模型在184万个德语样本上训练,数据来源包括社交媒体和各类评论。提供Python包便于使用,支持情感预测和概率输出。在多个数据集上表现优异,最高F1分数达0.9967。可应用于对话系统等德语情感分析场景。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号