#语言模型
TinyLlama - 3万亿token训练的小型1.1B参数语言模型
TinyLlama语言模型AI预训练开源项目模型评估Github
TinyLlama是一个使用3万亿token预训练的1.1B参数语言模型。它与Llama 2架构兼容,可集成到现有Llama项目中。TinyLlama体积小巧,适用于计算和内存受限的场景。该项目开源了预训练和微调代码,具有高效的训练和推理性能。TinyLlama可应用于推测解码、边缘计算和实时对话等领域。
crab - 多模态语言模型代理基准测试框架
开源项目CRAB多模态AI语言模型基准测试跨平台Github
CRAB是一个构建语言模型代理基准环境的Python框架。该项目支持跨平台部署,提供统一接口访问多种环境。CRAB特点包括简单配置、创新的基准测试套件和图形评估方法。这些功能为开发和评估多模态语言模型代理提供了灵活的工具。
EasyContext - 优化语言模型上下文长度至百万级的开源项目
EasyContext长上下文模型语言模型注意力机制训练技巧Github开源项目
EasyContext 是一个开源项目,致力于优化语言模型的上下文长度至 100 万个标记。项目结合序列并行、Deepspeed zero3 卸载和 Flash attention 等技术,实现了对 Llama2-7B 和 Llama2-13B 模型的全参数微调。通过最小化硬件需求,EasyContext 展示了长上下文扩展的可行性,并提供简洁的实现代码和评估结果,为自然语言处理研究和开发提供了有价值的资源。
Chain-of-ThoughtsPapers - 大型语言模型推理能力研究与应用进展
Chain-of-Thought语言模型推理能力提示工程人工智能Github开源项目
Chain-of-ThoughtsPapers项目收集了大型语言模型推理能力研究的关键论文。涵盖从基础到前沿的多个主题,如零样本推理、多模态推理和模型自我改进等。这些研究揭示了语言模型在复杂推理任务中的潜力,推动了自然语言处理领域的发展。项目持续更新,反映领域最新进展,为研究人员和开发者提供重要参考资料。
build-nanogpt - 从零构建GPT-2模型的开源教学项目
nanoGPTGPT-2语言模型机器学习深度学习Github开源项目
build-nanogpt是一个开源教学项目,演示如何从零构建GPT-2模型。通过详细的Git提交记录和YouTube视频讲解,项目展示了124M参数GPT-2模型的完整构建过程。用户可在约1小时内重现模型,并可扩展至GPT-3规模。项目还提供模型训练示例、FAQ和勘误表,是深入理解大型语言模型原理的实用资源。该项目适合对大型语言模型感兴趣的开发者和研究人员,不仅提供了代码实现,还包含详细的解释和实践指导,有助于深入理解现代自然语言处理技术。
tessdata - Tesseract.js OCR语言数据集综合指南
Tesseract.js训练数据OCR语言模型NPM包Github开源项目
tessdata项目是Tesseract.js的多语言OCR数据集仓库。它提供了LSTM和传统OCR引擎的训练文件,包括默认和替代版本。项目详细说明了各数据集特点、NPM包发布状态,并介绍了通过CDN或本地方式集成到Tesseract.js的方法。这一资源为开发者提供了全面的OCR语言数据集使用指南。
open-instruct - 开源指令微调大语言模型的完整工具集
模型微调语言模型开源项目AI训练评估基准Github
open-instruct是一个致力于指令微调预训练语言模型的开源项目。它提供了基于最新技术和公开数据集的模型微调代码,以及多项基准测试的评估工具。项目发布了包括Tülu系列在内的多个微调模型检查点。open-instruct支持全参数微调、LoRA和QLoRA等高效方法,并提供完整的训练和评估脚本。该工具集为研究人员和开发者提供了探索指令调优大语言模型的全面解决方案。
MiniChain - MiniChain 简化大语言模型编程的轻量级库
MiniChain语言模型提示链PythonOpenAIGithub开源项目
MiniChain是一个轻量级的大语言模型编程库,通过简洁的API简化AI开发过程。它支持Python函数注释、链式调用、模板系统和可视化功能,便于实现复杂AI任务。MiniChain兼容OpenAI、Hugging Face和Google Search等多种后端,提供灵活选择。该库可用于实现检索增强QA、记忆型聊天和信息提取等多种AI应用,以简洁代码完成各种流行方法。
aphrodite-engine - 开源高性能语言模型推理引擎
Aphrodite语言模型推理引擎AI加速量化技术Github开源项目
Aphrodite是一个开源的语言模型推理引擎,采用vLLM的分页注意力机制实现高效推理。它支持连续批处理、多种量化方法和分布式推理,可为大规模用户提供快速服务。该引擎还具备多种采样方法和8位KV缓存,能够处理更长的上下文并提高吞吐量。Aphrodite目前作为PygmalionAI的官方后端引擎使用。
loft - 探索百万级token长文本处理的前沿基准
LOFT长上下文基准语言模型文本检索多模态任务Github开源项目
LOFT是一个长文本处理基准,包含6类30多个数据集,涵盖检索、多跳推理等任务。该项目提供多模态数据、评估代码和数据集重生成工具,旨在测试大规模语言模型的长文本处理能力。LOFT为研究人员提供了标准化平台,用于全面评估长文本语言模型性能,有助于推动自然语言处理技术发展。
ngram - N元语言模型实践:机器学习基础与自然语言处理入门
n-gram语言模型机器学习自回归tokenizationGithub开源项目
ngram项目是一个构建N元语言模型的开源工具,通过实践演示机器学习和自然语言处理的基础概念。项目使用32,032个名字作为数据集,实现字符级语言模型,涵盖训练、评估、数据分割等核心环节。提供Python和C语言双版本实现,便于深入理解N元模型原理及性能比较。适合入门者学习自回归语言建模和机器学习基础知识。
mamba-minimal - 单文件PyTorch实现的Mamba模型
MambaPyTorch实现语言模型状态空间模型深度学习Github开源项目
mamba-minimal项目是Mamba模型的PyTorch单文件实现。该项目在保持代码简洁可读的同时,实现了与官方版本在前向和反向传播上相同的数值输出。虽未优化速度,但为理解Mamba架构提供了有价值的资源。项目包含文本生成示例,方便研究者和开发者使用和学习Mamba模型。
direct-preference-optimization - DPO算法实现语言模型的偏好数据优化
DPO语言模型偏好优化机器学习训练算法Github开源项目
DPO(Direct Preference Optimization)是一种语言模型训练算法,通过偏好数据优化模型。该项目提供DPO算法的参考实现,包含监督微调和基于偏好学习两个阶段。支持各种因果HuggingFace模型,可添加自定义数据集,并包括'conservative' DPO和IPO等变体。这为研究人员提供了灵活工具,用于从偏好数据训练语言模型。
UltraFastBERT - 指数级加速的BERT语言模型训练与推理方案
UltraFastBERT语言模型神经网络机器学习BERTGithub开源项目
UltraFastBERT是一个开源项目,旨在通过创新的快速前馈(FFF)层设计实现BERT语言模型的指数级加速。项目提供了完整的训练代码,以及在CPU、PyTorch和CUDA平台上的高效实现。包含训练文件夹、各平台基准测试代码,以及UltraFastBERT-1x11-long模型的配置和权重,可通过HuggingFace轻松加载使用。研究人员可以方便地复现结果,并进一步探索该突破性技术在自然语言处理领域的广泛应用潜力。
CoT-Collection - 思维链微调数据集提升语言模型少样本学习能力
CoT-Collection思维链语言模型零样本学习few-shot学习Github开源项目
CoT-Collection数据集包含184万个思维链推理过程,覆盖1060个任务。该项目通过思维链微调提升语言模型的零样本和少样本学习能力。研究人员可通过Hugging Face获取数据集和预训练模型。这一资源有助于增强AI系统的推理能力,仅供非商业研究使用。
ICL_PaperList - 上下文学习研究论文集,从预训练到应用
上下文学习语言模型提示工程预训练零样本学习Github开源项目
ICL_PaperList是一个收录上下文学习(In-context Learning)研究论文的开源项目。内容涵盖模型预训练、提示调优、分析评估等方面,并对Survey、Model Training、Prompt Tuning等领域进行了分类整理。该项目为研究人员提供了全面的上下文学习文献资源,有助于了解该领域的最新进展和发展方向。
awesome-multi-modal-reinforcement-learning - 多模态强化学习前沿论文与研究资源汇总
多模态强化学习视觉强化学习语言模型预训练表征学习Github开源项目
本项目收集了多模态强化学习(MMRL)领域的前沿研究论文和资源。内容涵盖视觉、语言及其结合的MMRL方法,包括ICLR、NeurIPS、ICML等顶级会议论文,以及预训练、表征学习、视觉推理等热点主题。项目持续追踪最新进展,为MMRL研究提供全面参考。
AutoCompressors - 创新语言模型技术实现长文本上下文压缩
AutoCompressor语言模型上下文压缩Llama生成式AIGithub开源项目
AutoCompressors是一项创新语言模型技术,可将长文本上下文压缩为少量摘要向量并进行推理。该项目提供官方实现,包含预训练模型、安装指南和示例代码。支持Llama-2和OPT等基础模型,有效提升长文本处理能力,为自然语言处理开辟新途径。
streaming-llm - 突破输入长度限制的流式语言模型框架
StreamingLLM语言模型注意力机制无限长度输入AI对话Github开源项目
StreamingLLM是一个创新框架,使大型语言模型能处理超长输入序列。它通过注意力汇聚点技术解决了长文本处理的内存和性能问题,无需额外微调。在多轮对话等流式应用中,StreamingLLM比基线方法速度提升最高22.2倍。该技术已被多个知名项目采用,为语言模型的实际应用开辟了新途径。
InfiniteBench - 长文本语言模型评测基准 挑战10万词极限
InfiniteBench长文本评估语言模型基准测试人工智能Github开源项目
InfiniteBench是一个专门评测语言模型超长文本处理能力的基准工具。它设计了12个涵盖真实和合成场景的任务,用于测试模型在10万词以上上下文中的理解和推理能力。该基准不仅有助于推动语言模型技术进步,还为改进LLM应用提供了重要参考。InfiniteBench的多样性和专业性使其成为评估长文本处理能力的有效工具。
LongMem - 为语言模型赋予长期记忆能力
LongMem语言模型长期记忆预训练评估Github开源项目
LongMem项目通过创新的长期记忆机制提升了语言模型的性能。该项目实现了记忆库、检索机制和联合注意力等核心技术,使模型在内容学习任务中表现优异。项目开源了完整代码,包括环境配置、模型结构和评估方法,为研究者提供了便利的复现和探索工具。LongMem为自然语言处理领域开辟了新的研究方向。
guidance - 灵活高效的语言模型编程框架
Guidance语言模型AI编程代码生成多模态Github开源项目
Guidance是一个创新的语言模型编程框架,通过约束生成和控制流程来优化模型输出。它支持正则表达式、上下文无关文法等约束方式,并能灵活结合条件、循环等控制结构。Guidance可显著提升特定任务的输出质量,同时降低延迟和成本。该框架兼容多种后端,包括Transformers、llama.cpp和OpenAI等,具有广泛的适用性。
REST - 创新检索式推测解码加速大语言模型生成
REST语言模型推理加速检索式生成推测解码Github开源项目
REST是一种创新检索式推测解码方法,利用数据存储检索草稿令牌以加速大语言模型生成。无需额外训练,可即插即用于现有语言模型。在HumanEval和MT-Bench测试中,REST展现显著速度提升,为提高大语言模型效率开辟新途径。
Video-LLaMA - 指令微调的音视频语言模型实现多模态视频理解
Video-LLaMA多模态视频理解语言模型AI对话Github开源项目
Video-LLaMA是一个多模态AI项目,为大型语言模型赋予视频和音频理解能力。该项目基于BLIP-2和MiniGPT-4构建,包含视觉-语言和音频-语言两个分支。经过大规模视频和图像数据预训练及指令微调后,Video-LLaMA能够进行视频分析、音频理解和多轮对话。该模型支持英文和中文交互,为视频内容分析提供了新的AI解决方案。
Binoculars - 无需训练的AI文本检测工具
BinocularsAI生成文本检测零样本领域无关语言模型Github开源项目
Binoculars是一款无需训练数据的AI文本检测工具,利用语言模型预训练数据集重叠原理识别生成内容。提供Python接口和在线演示,支持零样本检测,目前主要适用于英语文本。该项目为AI文本识别领域引入了新的解决思路。Binoculars适用于学术界、新闻媒体、内容平台等需要识别AI生成文本的场景,有助于维护信息真实性和原创性。
llm-attacks - 研究大语言模型的对抗性攻击与安全防御
LLM攻击对抗性攻击语言模型GCG算法实验复现Github开源项目
LLM-attacks项目致力于研究对齐语言模型的通用和可迁移对抗性攻击。项目实现了GCG算法,可对LLaMA-2等模型进行安全测试。研究者能够复现论文中的单一行为、多行为和迁移实验。项目提供完整的安装指南、模型使用说明和实验脚本,并包含交互式演示notebook。该研究有助于深入理解和提升大语言模型的安全性,对相关领域的发展具有重要价值。
honest_llama - 推理时干预技术提高大语言模型真实性
Inference-Time InterventionLLaMATruthfulQA语言模型真实性Github开源项目
Honest LLaMA项目开发的推理时干预(ITI)技术通过调整注意力头激活,显著提升了大语言模型在TruthfulQA基准测试中的真实性表现。这种方法具有数据效率高、计算成本低的优势,为平衡模型真实性和实用性提供了新思路。ITI技术在LLaMA等模型上的成功应用,展示了其在提高AI系统可信度方面的潜力。
data-selection-survey - 全面探索语言模型数据选择的关键技术
语言模型数据选择预训练多语言Web数据Github开源项目
这个项目全面梳理了语言模型数据选择的各个环节,涵盖预训练、指令微调和偏好对齐等阶段。内容包括语言过滤、启发式方法、数据质量评估和去重等核心技术,还探讨了多语言和特定领域模型的专门选择策略。项目汇集了众多相关研究文献,为语言模型开发提供了系统的参考资源。
sparsegpt - 开源项目实现大型语言模型高效压缩
SparseGPT语言模型模型压缩稀疏化神经网络剪枝Github开源项目
SparseGPT是一个致力于大型语言模型压缩的开源项目。它提供了一套工具,可在单次操作中对OPT、BLOOM和LLaMA等大规模语言模型进行精确剪枝。该项目支持非结构化、n:m结构化和稀疏量化压缩方法,并包含在WikiText2、PTB和C4子集上评估模型性能的脚本。SparseGPT能有效缩减模型规模的同时保持准确性,为研究人员和开发者提供了探索语言模型压缩的实用工具。
pyreft - 表征微调的开源Python库
ReFT语言模型表示微调pyreft人工智能Github开源项目
pyreft是一个开源的Python库,支持表征微调(ReFT)方法。它可与HuggingFace上的预训练语言模型配合使用,通过配置文件设置参数,并支持将结果分享到HuggingFace。pyreft提供了参数高效的微调方法,可针对特定时间步和表征进行干预,区别于LoRA等其他PEFT方法。该库还支持与LoRA结合,并提供了便捷的数据处理和训练功能。
TransformerLens - 深入解析生成式语言模型的机制解释工具
TransformerLens机械可解释性语言模型神经网络解析开源工具Github开源项目
TransformerLens是一个开源库,专门用于解释生成式语言模型的内部机制。它支持加载50多种开源语言模型,让研究人员能够访问模型的内部激活。用户可以缓存激活数据,并在模型运行时进行编辑、删除或替换。这个工具为深入理解复杂语言模型的工作原理提供了有力支持。
BIG-bench - 评估大型语言模型能力的开放基准
BIG-bench语言模型基准测试任务创建模型评估Github开源项目
BIG-bench是一个开放的基准测试项目,致力于评估大型语言模型的能力并预测其未来发展。该项目包含200多个多样化任务,涉及算术、推理等多个领域。研究人员可通过JSON或编程方式贡献新任务,并利用公开模型进行评估。BIG-bench Lite作为24个精选任务的子集,提供了高效的模型性能评估方法。这一平台为深入研究语言模型能力提供了宝贵资源。
jailbreakbench - 大语言模型越狱攻防能力评估基准
JailbreakBench语言模型基准测试安全性AI伦理Github开源项目
JailbreakBench是一个评估大语言模型越狱攻防能力的开源基准。它包含JBB-Behaviors数据集、官方排行榜和越狱字符串存储库,全面追踪越狱攻击和防御进展。研究人员可利用JailbreakBench加载越狱字符串、访问数据集、进行红队测试,以及提交新的攻击和防御方法。该项目为大语言模型安全研究提供了稳定的性能比较平台。
LLMs-Finetuning-Safety - 大语言模型微调对安全性的潜在影响研究
微调语言模型安全性GPT-3.5harmful examplesGithub开源项目
本研究探讨了对齐大语言模型微调可能带来的安全风险。实验表明,即使无意识的微调也可能降低模型安全性。通过对GPT-3.5 Turbo和Llama-2的实验,研究揭示了三个风险等级的微调场景:使用有害、隐含有害和良性数据集。结果显示微调后模型在多个类别中呈现更高有害性,凸显了平衡模型能力和安全性的挑战。
byt5 - 字节级预训练语言模型开启无词元化时代
ByT5语言模型UTF-8字节预训练自然语言处理Github开源项目
ByT5作为mT5模型的无词元化版本,通过直接操作UTF-8字节实现了文本处理的简化。研究表明,ByT5在多种任务中与mT5旗鼓相当,并在处理噪声文本和对拼写发音敏感的任务中表现更为出色。该项目不仅开源了完整的模型训练、微调和评估代码,还提供了从小型到超大型的多个预训练模型检查点,为推动自然语言处理技术向无词元化方向发展做出了重要贡献。
RWKV-Runner - 一款全自动化轻量级RWKV管理和启动工具并提供与OpenAI API兼容的接口
RWKV Runner语言模型自动化OpenAI API部署Github开源项目
RWKV-Runner项目通过一个轻量级的可执行程序,简化了大型语言模型的使用,并提供与OpenAI API兼容的接口,使每个ChatGPT客户端都能作为RWKV客户端使用。项目支持多语言本地化,提供用户友好界面,自动安装依赖,包含一键启动、模型管理、前后端分离等功能。支持多级VRAM配置和CUDA加速,适用于大多数计算机。提供简单的部署示例、内置模型转换工具和远程模型检查功能。
相关文章
prometheus-eval学习资料汇总 - 专用于评估语言模型的开源框架
2 个月前
AIlice入门指南 - 全方位自主AI助手
2 个月前
LLM-Shearing:加速大语言模型预训练的结构化剪枝方法 - 学习资料汇总
2 个月前
ReLLM学习资料汇总 - 使用正则表达式提取LLM结构化输出的Python库
2 个月前
makeMoE入门指南 - 从零实现稀疏混合专家语言模型
2 个月前
Multimodal-GPT入门学习资料 - 训练视觉语言对话模型的开源项目
2 个月前
Awesome-Prompt-Engineering学习资料汇总 - 提升大语言模型提示工程能力的一站式资源
2 个月前
KAN-GPT入门学习资料汇总 - 基于Kolmogorov-Arnold网络的GPT实现
2 个月前
Local-LLM-Comparison-Colab-UI入门指南 - 比较本地部署LLM性能的开源项目
2 个月前