#Python
Graph of Thoughts (GoT) 学习资料汇总 - 用图结构解决复杂问题的大语言模型框架
Tree of Thoughts (ToT)学习资料汇总 - 基于大语言模型的刻意问题求解方法
dolphin-2.5-mixtral-8x7b-GGUF
Dolphin 2.5 Mixtral 8X7B是Eric Hartford推出的一款采用GGUF格式的模型。它支持多种比特选项的量化推理,并兼容llama.cpp、KoboldCpp、LM Studio等环境。模型设计注重性能与资源平衡,适合多种应用场景。
CodeLlama-7b-hf
Code Llama是一套从7亿到340亿参数的生成文本模型,设计用于代码合成与理解。这些模型基于Hugging Face Transformers架构,提供7B基础版本,具备代码补全和填充功能。针对Python的特定变体也已开发,以便提供更佳的技术支持。探索Code Llama可以如何为项目提供技术支持,满足多样的商业与研究需求。
codegen-350M-mono
该模型基于大量Python语言数据训练,旨在合成程序。它可以通过英文提示生成代码,从而用于代码补全任务。
CodeLlama-34b-hf
这是一个预训练和微调的语言模型,专注于代码生成和理解,参数规模可达34亿。适用于多样化的代码合成任务,特别针对Python进行了优化。基于Transformer架构,该模型为商业应用和研究提供了安全可靠的支持。
pythia-12b-deduped
Pythia Scaling Suite是EleutherAI开发的用于解释性研究的大语言模型集合。该套件包含八种尺寸的模型,每种尺寸有去重和非去重版本,均在相同的数据集和顺序下训练,提供科学实验的受控环境,支持对大型语言模型的行为与功能研究。用户可以在Hugging Face上获取154个中间检查点,并通过开源代码库进行调整和扩展。
CodeLlama-7B-Python-GGUF
CodeLlama 7B Python GGUF格式模型提供多平台下的文本生成功能。由llama.cpp团队推出的GGUF格式,替代GGML,增强了标记和元数据支持。兼容多种UI和库,如text-generation-webui和LM Studio,并提供多种量化选项,以适应不同硬件需求,支持与LangChain等Python项目的高级整合。
speechless-code-mistral-7b-v1.0
该项目展示了一款专注于代码生成和推理的模型,具备提升推理和规划能力的特点。其多种量化选项支持8位以下的CPU+GPU推断,使其在多种编程语言上均表现不俗。模型经过微调,覆盖了201,981个样本的数据集,包括编码、推理和规划样本,支持Alpaca指令格式。在HumanEval基准测试中通过率达51.22%,适用于多种编程语言的验证,如Python、Java、C++等,为编程助手和代码验证提供支持。
t5-base-qg-hl
该模型采用T5-base架构,专注于生成基于答案的问句。通过在文本中使用<hl>标记来突出答案范围,并以</s>结束文本,即可生成相关问题。这一工具提供了直观的使用体验,适合需要自动生成理解型问题的场景,有助于提高文本处理效率。
llama-2-tiny-random
基于Llama-2-7b-chat-hf配置进行随机初始化,通过修改隐藏层、注意力头等参数设置,以低资源消耗实现文本生成,适合低成本运算的研究及开发场景。