#Python

vectordb-recipes学习资源汇总 - 高质量LLM和向量数据库应用示例集

2 个月前
Cover of vectordb-recipes学习资源汇总 - 高质量LLM和向量数据库应用示例集

BM25S入门指南 - 快速高效的Python词法搜索库

2 个月前
Cover of BM25S入门指南 - 快速高效的Python词法搜索库

Langroid:强大的多智能体编程框架 - LLM应用开发利器

2 个月前
Cover of Langroid:强大的多智能体编程框架 - LLM应用开发利器

uAgents入门指南 - 创建自主AI代理的轻量级框架

2 个月前
Cover of uAgents入门指南 - 创建自主AI代理的轻量级框架

SeaGOAT入门指南 - AI时代的本地语义代码搜索引擎

2 个月前
Cover of SeaGOAT入门指南 - AI时代的本地语义代码搜索引擎

rwkv.cpp入门指南 - 用于RWKV语言模型的INT4/INT5/INT8和FP16 CPU推理

2 个月前
Cover of rwkv.cpp入门指南 - 用于RWKV语言模型的INT4/INT5/INT8和FP16 CPU推理

Basaran入门学习资料汇总 - 开源替代OpenAI文本补全API的项目

2 个月前
Cover of Basaran入门学习资料汇总 - 开源替代OpenAI文本补全API的项目

magentic入门指南 - 轻松将LLM集成到Python代码中

2 个月前
Cover of magentic入门指南 - 轻松将LLM集成到Python代码中

Graph of Thoughts (GoT) 学习资料汇总 - 用图结构解决复杂问题的大语言模型框架

2 个月前
Cover of Graph of Thoughts (GoT) 学习资料汇总 - 用图结构解决复杂问题的大语言模型框架

Tree of Thoughts (ToT)学习资料汇总 - 基于大语言模型的刻意问题求解方法

2 个月前
Cover of Tree of Thoughts (ToT)学习资料汇总 - 基于大语言模型的刻意问题求解方法
相关项目
Project Cover

dolphin-2.5-mixtral-8x7b-GGUF

Dolphin 2.5 Mixtral 8X7B是Eric Hartford推出的一款采用GGUF格式的模型。它支持多种比特选项的量化推理,并兼容llama.cpp、KoboldCpp、LM Studio等环境。模型设计注重性能与资源平衡,适合多种应用场景。

Project Cover

CodeLlama-7b-hf

Code Llama是一套从7亿到340亿参数的生成文本模型,设计用于代码合成与理解。这些模型基于Hugging Face Transformers架构,提供7B基础版本,具备代码补全和填充功能。针对Python的特定变体也已开发,以便提供更佳的技术支持。探索Code Llama可以如何为项目提供技术支持,满足多样的商业与研究需求。

Project Cover

codegen-350M-mono

该模型基于大量Python语言数据训练,旨在合成程序。它可以通过英文提示生成代码,从而用于代码补全任务。

Project Cover

CodeLlama-34b-hf

这是一个预训练和微调的语言模型,专注于代码生成和理解,参数规模可达34亿。适用于多样化的代码合成任务,特别针对Python进行了优化。基于Transformer架构,该模型为商业应用和研究提供了安全可靠的支持。

Project Cover

pythia-12b-deduped

Pythia Scaling Suite是EleutherAI开发的用于解释性研究的大语言模型集合。该套件包含八种尺寸的模型,每种尺寸有去重和非去重版本,均在相同的数据集和顺序下训练,提供科学实验的受控环境,支持对大型语言模型的行为与功能研究。用户可以在Hugging Face上获取154个中间检查点,并通过开源代码库进行调整和扩展。

Project Cover

CodeLlama-7B-Python-GGUF

CodeLlama 7B Python GGUF格式模型提供多平台下的文本生成功能。由llama.cpp团队推出的GGUF格式,替代GGML,增强了标记和元数据支持。兼容多种UI和库,如text-generation-webui和LM Studio,并提供多种量化选项,以适应不同硬件需求,支持与LangChain等Python项目的高级整合。

Project Cover

speechless-code-mistral-7b-v1.0

该项目展示了一款专注于代码生成和推理的模型,具备提升推理和规划能力的特点。其多种量化选项支持8位以下的CPU+GPU推断,使其在多种编程语言上均表现不俗。模型经过微调,覆盖了201,981个样本的数据集,包括编码、推理和规划样本,支持Alpaca指令格式。在HumanEval基准测试中通过率达51.22%,适用于多种编程语言的验证,如Python、Java、C++等,为编程助手和代码验证提供支持。

Project Cover

t5-base-qg-hl

该模型采用T5-base架构,专注于生成基于答案的问句。通过在文本中使用<hl>标记来突出答案范围,并以</s>结束文本,即可生成相关问题。这一工具提供了直观的使用体验,适合需要自动生成理解型问题的场景,有助于提高文本处理效率。

Project Cover

llama-2-tiny-random

基于Llama-2-7b-chat-hf配置进行随机初始化,通过修改隐藏层、注意力头等参数设置,以低资源消耗实现文本生成,适合低成本运算的研究及开发场景。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号