#Python

GluonTS入门指南 - 概率时间序列建模Python库

2 个月前
Cover of GluonTS入门指南 - 概率时间序列建模Python库

Ai-Learn学习资料汇总 - 人工智能实战就业学习路线图

2 个月前
Cover of Ai-Learn学习资料汇总 - 人工智能实战就业学习路线图

数值线性代数入门指南 - 高效矩阵计算的关键技术

2 个月前
Cover of 数值线性代数入门指南 - 高效矩阵计算的关键技术

best-of-ml-python学习资料汇总 - 精选机器学习Python库排名榜单

2 个月前
Cover of best-of-ml-python学习资料汇总 - 精选机器学习Python库排名榜单

awesome-nlp学习资源汇总 - 自然语言处理研究资料大全

2 个月前
Cover of awesome-nlp学习资源汇总 - 自然语言处理研究资料大全

awesome-datascience学习资料汇总 - 全面的数据科学资源集合

2 个月前
Cover of awesome-datascience学习资料汇总 - 全面的数据科学资源集合

data-science-ipython-notebooks学习资料汇总 - 数据科学Python笔记本集合

2 个月前
Cover of data-science-ipython-notebooks学习资料汇总 - 数据科学Python笔记本集合

imodels入门指南 - 可解释机器学习的Python利器

2 个月前
Cover of imodels入门指南 - 可解释机器学习的Python利器

gpt-computer-assistant入门指南 - 跨平台AI助手开发框架

2 个月前
Cover of gpt-computer-assistant入门指南 - 跨平台AI助手开发框架

EdgeGPT学习资料汇总 - 微软Bing AI聊天功能的逆向工程API

2 个月前
Cover of EdgeGPT学习资料汇总 - 微软Bing AI聊天功能的逆向工程API
相关项目
Project Cover

dolphin-2.5-mixtral-8x7b-GGUF

Dolphin 2.5 Mixtral 8X7B是Eric Hartford推出的一款采用GGUF格式的模型。它支持多种比特选项的量化推理,并兼容llama.cpp、KoboldCpp、LM Studio等环境。模型设计注重性能与资源平衡,适合多种应用场景。

Project Cover

CodeLlama-7b-hf

Code Llama是一套从7亿到340亿参数的生成文本模型,设计用于代码合成与理解。这些模型基于Hugging Face Transformers架构,提供7B基础版本,具备代码补全和填充功能。针对Python的特定变体也已开发,以便提供更佳的技术支持。探索Code Llama可以如何为项目提供技术支持,满足多样的商业与研究需求。

Project Cover

codegen-350M-mono

该模型基于大量Python语言数据训练,旨在合成程序。它可以通过英文提示生成代码,从而用于代码补全任务。

Project Cover

CodeLlama-34b-hf

这是一个预训练和微调的语言模型,专注于代码生成和理解,参数规模可达34亿。适用于多样化的代码合成任务,特别针对Python进行了优化。基于Transformer架构,该模型为商业应用和研究提供了安全可靠的支持。

Project Cover

pythia-12b-deduped

Pythia Scaling Suite是EleutherAI开发的用于解释性研究的大语言模型集合。该套件包含八种尺寸的模型,每种尺寸有去重和非去重版本,均在相同的数据集和顺序下训练,提供科学实验的受控环境,支持对大型语言模型的行为与功能研究。用户可以在Hugging Face上获取154个中间检查点,并通过开源代码库进行调整和扩展。

Project Cover

CodeLlama-7B-Python-GGUF

CodeLlama 7B Python GGUF格式模型提供多平台下的文本生成功能。由llama.cpp团队推出的GGUF格式,替代GGML,增强了标记和元数据支持。兼容多种UI和库,如text-generation-webui和LM Studio,并提供多种量化选项,以适应不同硬件需求,支持与LangChain等Python项目的高级整合。

Project Cover

speechless-code-mistral-7b-v1.0

该项目展示了一款专注于代码生成和推理的模型,具备提升推理和规划能力的特点。其多种量化选项支持8位以下的CPU+GPU推断,使其在多种编程语言上均表现不俗。模型经过微调,覆盖了201,981个样本的数据集,包括编码、推理和规划样本,支持Alpaca指令格式。在HumanEval基准测试中通过率达51.22%,适用于多种编程语言的验证,如Python、Java、C++等,为编程助手和代码验证提供支持。

Project Cover

t5-base-qg-hl

该模型采用T5-base架构,专注于生成基于答案的问句。通过在文本中使用<hl>标记来突出答案范围,并以</s>结束文本,即可生成相关问题。这一工具提供了直观的使用体验,适合需要自动生成理解型问题的场景,有助于提高文本处理效率。

Project Cover

llama-2-tiny-random

基于Llama-2-7b-chat-hf配置进行随机初始化,通过修改隐藏层、注意力头等参数设置,以低资源消耗实现文本生成,适合低成本运算的研究及开发场景。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号