#模型权重

Tree Diffusion: 探索语法树上的扩散模型在程序合成中的应用

3 个月前
Cover of Tree Diffusion: 探索语法树上的扩散模型在程序合成中的应用

自动化解释性:使用人工智能理解人工智能

3 个月前
Cover of 自动化解释性:使用人工智能理解人工智能

TransNormerLLM: 更快更好的线性注意力大语言模型

3 个月前
Cover of TransNormerLLM: 更快更好的线性注意力大语言模型
相关项目
Project Cover

TransnormerLLM

TransNormerLLM是一种高效的大规模语言模型,使用线性注意力机制,优于传统的软注意力模型。该模型训练于高质量语料库,包含1.4万亿个词元,支持中文、英语和多语言基准测试,在多领域表现出色。提供385M、1B和7B参数版本,开放给学术研究,商用需申请许可。

Project Cover

automated-interpretability

automated-interpretability项目开发了一套自动化工具,用于生成、模拟和评分语言模型中神经元行为的解释。该项目提供了代码库、神经元激活查看器和GPT-2 XL神经元的公开数据集。这些资源旨在帮助研究人员和开发者深入理解大型语言模型的内部机制。

Project Cover

tree-diffusion

Tree Diffusion 是一个开源的深度学习框架,专注于高效生成语法树。该框架结合了扩散模型和变异策略,能在复杂语法约束下快速生成有效的树结构。项目提供完整代码库、预训练模型和使用指南,支持多种编程语言和自定义语法。Tree Diffusion 在程序合成、代码生成和自然语言处理等领域具有广泛应用前景,为研究人员和开发者提供了强大的工具。

Project Cover

Meta-Llama-3-8B-Instruct-abliterated-v3

Meta-Llama-3-8B-Instruct模型采用正交化技术减少拒绝行为,保留原始知识,适用于控制特定行为。

Project Cover

Infinity-Instruct-7M-Gen-Llama3_1-8B

Infinity-Instruct-7M-Gen-Llama3.1-8B是一个开源指令调优模型,无需人类反馈即可达到较高性能。依托于百万级数据集的训练,该模型展现出优于GPT-4在AlpacaEval 2.0测试中的表现。项目持续更新,提供多样模型权重和数据集资源,支持学术研究。采用FlagScale技术,显著降低训练成本。

Project Cover

open_llama_3b_v2

OpenLLaMA是一个复现Meta AI的LLaMA大型语言模型的开源项目。它提供3B、7B和13B三种规模的模型,使用开源数据集训练了1万亿个标记。该项目采用与原始LLaMA相同的预处理和训练参数,在多项评估中表现出色。OpenLLaMA提供PyTorch和JAX格式的预训练权重,遵循Apache 2.0许可证发布。

Project Cover

JaColBERTv2.5

该模型使用全新的训练方法,基于40%的数据成功创建了高效的日语信息检索系统。在多个数据集上表现优异,特别是改进的多向量检索方法,在资源受限的情况下提供卓越性能,优于包括BGE-M3在内的多语言模型,适合资源有限的应用场景。

Project Cover

Phi-3.5-mini-instruct-GGUF

该项目基于llama.cpp框架,对Microsoft Phi-3.5-mini-instruct模型进行GGUF格式量化,提供从Q2到Q8等多个精度版本。每个量化版本都针对不同硬件平台进行了优化,包括针对ARM芯片的特殊优化版本。项目提供完整的模型特性对比和选择指南,帮助开发者根据实际需求选择合适的量化版本。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号