#自然语言处理

recurrent-memory-transformer - 记忆增强型Transformer为Hugging Face模型提升长序列处理能力
Recurrent Memory Transformer长文本处理机器学习模型自然语言处理Hugging FaceGithub开源项目
Recurrent Memory Transformer (RMT)是为Hugging Face模型设计的记忆增强型循环Transformer。通过在输入序列中添加特殊记忆标记,RMT实现了高效的记忆机制,能够处理长达1M及以上的token序列。项目提供RMT实现代码、训练示例和评估工具,在BABILong等长文本基准测试中表现优异,为研究长序列处理提供了有力支持。
parler-tts - 轻量级开源TTS模型 支持自定义语音特征
Parler-TTS文本转语音开源模型语音合成自然语言处理Github开源项目
Parler-TTS是一个轻量级开源文本转语音模型,通过文本提示控制语音特征如性别、语速和音调。项目提供完整训练和推理代码及预训练模型,便于用户定制TTS模型。最新版本引入SDPA和Flash Attention 2,显著提升生成速度。该模型支持随机声音生成和特定说话人复制,适用于多种TTS应用场景。
ReazonSpeech - 多模型语音识别开源工具包 支持日语音频分析
ReazonSpeech语音识别深度学习开源项目自然语言处理Github
ReazonSpeech是一个开源语音识别项目,整合了多种高性能模型。它提供基于NeMo的FastConformer-RNNT模型、基于Kaldi的K2模型和基于ESPnet的Conformer-Transducer模型。此外,该项目还包含专用于日语电视节目分析的工具,有助于构建日语音频语料库。ReazonSpeech支持多个深度学习框架,为开发者提供了多样化的选择。
DeepSeek-V2 - 兼顾效率与经济性的大规模混合专家语言模型
DeepSeek-V2混合专家模型大语言模型预训练模型自然语言处理Github开源项目
DeepSeek-V2是一款基于专家混合(MoE)架构的大规模语言模型,总参数量达2360亿,每个token激活210亿参数。相较于DeepSeek 67B,该模型在提升性能的同时,显著降低了训练成本和推理资源消耗。DeepSeek-V2在多项标准基准测试和开放式生成任务中表现优异,展现了其在多领域的应用潜力。
pynini - Python语法规则编译与优化工具
Pynini有限状态转换器语法规则编译自然语言处理Python扩展模块Github开源项目
Pynini是一个Python扩展模块,用于编译、优化和应用语法规则。它可将规则编译为加权有限状态转换器、下推转换器或多下推转换器,并使用OpenFst有限状态转换器和FST归档作为输入输出。Pynini为自然语言处理提供了高效工具,支持Python 3.8-3.13版本,在Apache许可下开源。
WeTextProcessing - 中英文文本标准化和反标准化处理工具包
WeTextProcessing文本归一化逆文本归一化自然语言处理语音识别Github开源项目
WeTextProcessing是一个开源的文本处理工具包,主要用于中英文文本的标准化和反标准化。它提供API接口,允许自定义规则,并支持C++运行时部署。该工具适用于语音识别后处理、自然语言处理等需要处理大量文本数据的场景。WeTextProcessing具有高性能和灵活配置的特点,可满足各种文本处理需求。
openhermes-function-calling - 开源语言模型函数调用能力增强项目
OpenHermes函数调用开源项目AI模型自然语言处理Github
openhermes-function-calling是一个旨在为开源语言模型添加函数调用能力的项目。通过集成此项目,语言模型可以理解、执行和响应特定的函数调用,从而扩展了模型的应用范围。它为开发者提供了新的工具,使他们能够在各种场景中更灵活地应用语言模型,如自然语言处理、对话系统和智能助手等。该项目通过定义标准化的函数接口和参数格式,实现了模型与外部函数的无缝对接,促进了人工智能技术在实际应用中的发展和创新。
CosyVoice_For_Windows - 多语言语音合成工具 支持零样本和跨语言生成
CosyVoice语音合成AI语音深度学习自然语言处理Github开源项目
CosyVoice_For_Windows是一个开源的语音合成项目,支持多语言、零样本和跨语言语音生成。该工具提供SFT、零样本、跨语言和指令推理等多种模式。项目包含Web演示界面,便于快速了解功能。同时还支持高级训练和部署,适用于语音合成的研究和应用开发。
wtpsplit - 多语言文本分割工具 支持85种语言的高效句子和段落分割
SaT文本分割多语言自然语言处理深度学习Github开源项目
wtpsplit是一个开源的文本分割工具,实现了最新的SaT模型。它支持85种语言的句子和段落分割,具有高效、稳健的特点。该工具通过LoRA技术可适应特定领域和风格,提供多种模型大小以满足不同应用需求。wtpsplit在保持高性能的同时,还具有较低的计算成本,适用于从通用句子分割到特定领域文本处理的各种场景。
fastText - 高效词向量学习和文本分类库
fastText词向量文本分类机器学习自然语言处理Github开源项目
fastText是Facebook开发的开源自然语言处理库,专注于高效词向量学习和文本分类。它支持157种语言,利用子词信息丰富词向量表示,并采用多种技巧提升分类性能。该库易用且训练速度快,适合大规模文本处理。fastText还提供模型量化功能,可大幅压缩模型体积,便于部署。
OLMo - 开源语言模型加速科学研究
OLMo开源语言模型人工智能机器学习自然语言处理Github开源项目
OLMo是一个开源语言模型项目,提供多种规模的先进模型,如1B、7B和7B Twin 2T,全部基于Dolma数据集训练。该项目支持模型训练、微调和推理,提供详细配置和检查点以确保研究可重现。OLMo还包含数据检查和评估工具,为语言模型研究提供全面支持,旨在加速这一领域的科学进展。
Awesome-Tool-Learning - 大型语言模型工具学习研究与应用进展综述
工具学习大语言模型人工智能自然语言处理工具增强Github开源项目
Awesome-Tool-Learning汇集了工具学习领域的精选论文和应用。项目涵盖调查研究、微调、上下文学习等多个方向的最新进展,同时收录英文和中文资源。研究人员和开发者可通过该项目全面了解大型语言模型在工具使用方面的前沿发展。
RAG-Survey - RAG技术全面综述 基础方法、增强技术及未来方向
RAG检索增强生成大语言模型人工智能自然语言处理Github开源项目
该研究对检索增强生成(RAG)技术进行了系统性调查和分类。文章全面总结了RAG的基础方法,包括基于查询、潜在表示和logit的技术,以及新兴的推测性RAG。同时深入探讨了RAG的多种增强策略,涵盖输入优化、检索器改进和生成器增强等关键方面。这份综述为AI领域的研究人员和开发者提供了RAG技术的最新进展概览,有助于把握未来研究方向。
DeepSeek-LLM - 多语言大模型展现卓越编码与数学能力
DeepSeek LLM语言模型人工智能开源自然语言处理Github开源项目
DeepSeek LLM是一个包含67亿参数的先进语言模型,经过2万亿英文和中文token的训练。该模型在推理、编码、数学和中文理解等方面表现优异,超越多个同类模型。其67B Chat版本在编码和数学方面尤为出色,在HumanEval和GSM8K等基准测试中名列前茅。项目开源了7B和67B的base与chat版本,可用于学术和商业研究。
Synonyms - 中文近义词自然语言处理工具包
Synonyms中文近义词自然语言处理相似度计算分词Github开源项目
Synonyms是一个开源的中文近义词工具包,用于自然语言处理任务。它支持文本对齐、相似度计算、语义偏移和关键词提取等功能。该工具包基于大规模词向量模型,覆盖43万余词汇,适用于聊天机器人、问答系统、推荐系统等场景。Synonyms提供词语和句子相似度计算API,可用于多种NLP应用。
Awesome-LLM - 全面汇总大型语言模型研究进展与资源
大语言模型ChatGPT人工智能自然语言处理深度学习Github开源项目
Awesome-LLM项目汇集了大型语言模型(LLM)领域的核心资源,包括关键论文、开源模型、训练框架及应用案例。该项目系统梳理了从GPT到当前最新LLM的技术演进,为研究者和开发者提供全面的学习参考。项目内容涵盖LLM历史发展、前沿突破及实践应用,是了解和探索LLM技术的重要资料库。
Qwen2 - 阿里巴巴推出多语言大规模语言模型 支持128K上下文
Qwen2大语言模型自然语言处理人工智能模型训练Github开源项目
Qwen2是阿里巴巴发布的大规模语言模型系列,规模从0.5B到72B不等。支持27种语言,在编码和数学等领域表现优异。Qwen2-7B-Instruct和Qwen2-72B-Instruct模型的上下文长度达128K,显著增强长文本处理能力。项目提供多种部署选项,包括本地运行和规模化推理,并支持模型量化和微调。
LLMsNineStoryDemonTower - 大语言模型全面学习路径 从入门到实战进阶
LLMsChatGLM3微调开源模型自然语言处理Github开源项目
LLMsNineStoryDemonTower项目提供全面的大语言模型学习资源,涵盖NLP基础到高级应用的九个层次。内容包括ChatGLM、Baichuan、Llama2等主流模型实践,以及模型微调、推理加速和多模态应用等进阶主题。该项目为学习者构建了从理论到实践的完整大语言模型学习路径。
lerf - 基于语言嵌入的辐射场技术 实现3D场景的语义理解与交互
LERFNeRF计算机视觉3D渲染自然语言处理Github开源项目
LERF是一个创新的3D场景理解项目,结合了语言嵌入技术和辐射场。它能实现3D场景的语义理解和文本交互,生成高质量相关性图,支持复杂文本查询。LERF提供灵活的可视化选项,与Nerfstudio集成,并有多个版本适应不同硬件。该项目支持自定义图像编码器扩展,为计算机视觉和自然语言处理的交叉领域提供新的研究方向。
Pretrained-Language-Model - 先进预训练语言模型与优化技术集合
预训练语言模型自然语言处理MindSporeTensorFlowPyTorchGithub开源项目
此开源项目汇集了多个先进的预训练语言模型和相关优化技术。包含200B参数中文语言模型PanGu-α、高性能中文NLP模型NEZHA、模型压缩技术TinyBERT和DynaBERT等子项目。这些模型在多项中文NLP任务中表现出色,支持MindSpore、TensorFlow和PyTorch等多种深度学习框架。
AwesomeNLP - 从基础到前沿的NLP实战教程与学习资源
自然语言处理NLP大模型信息抽取知识图谱Github开源项目
这个开源项目提供了全面的NLP学习资源,涵盖文本分类、信息抽取、知识图谱、机器翻译等多个领域的理论和实战教程。项目为NLP初学者设计了详细的学习路径,同时也包含了大模型应用等前沿内容。资源丰富且实用,适合希望深入学习自然语言处理的人员参考。
CharacterGLM-6B - 新一代中文AI角色对话模型
CharacterGLM-6B对话预训练模型角色扮演人工智能自然语言处理Github开源项目
CharacterGLM-6B是聆心智能与清华大学CoAI实验室联合开发的新一代对话模型。基于ChatGLM2系列,该模型通过独特的属性和行为设计,实现AI角色的一致性、拟人化和吸引力。在多项评估中,CharacterGLM-6B展现出优于主流大语言模型的性能,尤其在角色扮演和对话能力方面表现突出。这一开源项目为研究人员和开发者提供了创建个性化AI角色的有力工具,推动对话AI技术的进步。
VITA - 开源全模态交互语言模型
VITA多模态大语言模型人工智能自然语言处理语音识别Github开源项目
VITA是一款开源全模态语言模型,实现了视频、图像、文本和音频的综合处理。其特点包括全模态理解、无唤醒交互和音频中断交互,显著提高了用户体验。通过创新的状态令牌和双工方案,VITA提升了多模态交互体验。在多项基准测试中,VITA展现出优秀性能,为多模态AI研究和应用开辟了新途径,有望推动相关技术的发展。
Transformer-from-scratch - 简洁实现Transformer模型的入门教程
TransformerLLMPyTorch模型训练自然语言处理Github开源项目
该项目展示了如何用约240行代码实现Transformer模型,包含基于PyTorch的训练演示和详细的Jupyter Notebook。使用450Kb样本数据集,在单CPU上20分钟内完成训练,帮助初学者理解大型语言模型的原理和实现过程。
awesome-demos - Gradio构建的AI演示和应用集合
Gradio演示自然语言处理计算机视觉机器学习Github开源项目
该项目汇集了使用Gradio构建的多样化AI演示和应用。涵盖自然语言处理、计算机视觉等领域,包括文本生成、图像处理、语音合成等功能。展示了AI技术的多样性和实用性,为开发者提供参考和灵感。
Awesome-Reasoning-Foundation-Models - 基础模型推理能力资源汇总
基础模型人工智能机器学习自然语言处理计算机视觉Github开源项目
本资源列表汇总了基础模型推理能力相关内容,包括语言、视觉和多模态基础模型,以及常识、数学、逻辑等多领域推理任务应用。同时概述了预训练、微调、对齐训练等推理技术,为研究人员和开发者提供全面参考。
haystack-cookbook - Haystack框架的多样化NLP应用案例集
HaystackRAG自然语言处理大语言模型向量数据库Github开源项目
Haystack-cookbook是一个开源项目,集成了多种自然语言处理任务的实践案例。项目展示了如何使用Haystack框架,结合各类模型、向量数据库和检索技术构建NLP应用。内容涵盖文本问答、多语言处理、语音识别和信息提取等领域,为开发者提供了丰富的代码示例和学习资源。项目通过Jupyter Notebook形式呈现多个实用案例,包括使用不同的语言模型、向量数据库进行文本检索、问答系统构建等。这些示例涵盖了从基础NLP任务到高级应用的广泛场景,有助于开发者快速上手Haystack框架并探索其在实际项目中的应用潜力。
awesome-multi-task-learning - 精选多任务学习资源集合 涵盖数据集代码库和研究论文
多任务学习机器学习神经网络计算机视觉自然语言处理Github开源项目
此项目汇集了多任务学习(MTL)领域的精选资源,包含数据集、代码库和研究论文。涉及计算机视觉、自然语言处理、强化学习等多个领域的MTL基准测试和数据集。另外还收录了MTL架构、优化方法和任务关系学习等相关研究。对于研究人员和工程师深入学习和应用MTL技术而言,这是一个极具参考价值的资源库。
llama3-from-scratch - 深入解析Llama 3模型实现原理
Llama3模型实现自然语言处理神经网络机器学习Github开源项目
本项目详细演示了Llama 3模型的实现过程,包括模型架构、分词、嵌入和注意力机制等核心技术。通过逐步解析模型文件和实现RMS归一化、旋转位置编码(RoPE)等关键组件,为开发者提供了构建大型语言模型的实践指南。项目结合代码实现和可视化说明,深入浅出地解释了复杂概念,是研究大型语言模型的重要参考资料。
arxiv-translator - arXiv论文自动中文翻译与浏览平台
论文翻译arXiv自然语言处理大语言模型人工智能Github开源项目
arxiv-translator是一个开源项目,旨在为用户提供arXiv论文的中文翻译网页。该项目利用nougat OCR技术提取PDF文本并自动翻译,提供包含arXiv ID、标题和链接的论文列表。涵盖机器学习、人工智能等领域的最新研究,方便研究人员和学生快速了解学术前沿。
data-science-on-aws - 在AWS平台上开展数据科学工作的全面指南,涵盖从数据摄取到模型部署的完整流程
AWSSageMaker机器学习数据科学自然语言处理Github开源项目
该项目提供在AWS平台上开展数据科学工作的全面指南,涵盖从数据摄取到模型部署的完整流程。内容包括使用Amazon SageMaker构建AI/ML管道、BERT模型文本分类、高级模型训练及实时流分析等。项目特别关注自然语言处理任务,为数据科学家和机器学习工程师展示了AWS云端AI解决方案的实际应用。
llama3-chinese - 基于Meta-Llama-3-8B的中英双语大语言模型
Llama3-Chinese大语言模型自然语言处理开源项目人工智能Github
Llama3-Chinese是基于Meta-Llama-3-8B训练的中英双语大语言模型。该项目使用高质量多语言数据和先进训练方法,提升了模型的对话能力。项目提供完整的模型使用指南,包括下载、合并、推理和部署,并配有Web和CLI演示,方便研究者和开发者使用。
Awesome-Mamba-Collection - Mamba模型在多领域应用的综合资源集
Mamba深度学习人工智能计算机视觉自然语言处理Github开源项目
Awesome-Mamba-Collection项目汇集了Mamba相关的论文、教程和视频资源。涵盖Mamba在视觉、语言、多模态等领域的应用,以及理论分析和架构改进。为研究者和开发者提供全面的Mamba参考资料,促进知识共享和社区协作。适合各级别人士学习Mamba技术。
PyxLSTM - 基于xLSTM架构的高效序列建模Python库
PyxLSTMLSTM序列建模深度学习自然语言处理Github开源项目
PyxLSTM是一个基于xLSTM架构的Python库,为序列建模任务提供高效实现。该库引入指数门控、内存混合和矩阵内存结构,支持sLSTM和mLSTM变体。PyxLSTM提供灵活的模型架构、高级模型定义、训练工具和数据处理功能,适用于语言建模、文本生成等任务。其轻量模块化设计易于集成,并配有详细文档和测试。
AgentTuning - 提升大语言模型的多任务代理能力
AgentTuningLLMAI代理机器学习自然语言处理Github开源项目
AgentTuning项目通过多种代理任务的交互数据微调大语言模型,增强其通用代理能力。实验表明,经过AgentTuning的模型在新的代理任务中展现出良好的泛化能力,同时保持了强大的语言处理能力。项目开源的AgentInstruct数据集和AgentLM模型为相关研究提供了重要参考。
BLOOM - 开发的多语言、大规模开放科学语言模型
AI开发模型训练AI工具BloomModeltransformers自然语言处理PyTorch模块模型配置热门
作为致力于通过开源和开放科学推进AI发展的平台,BLOOM提供包括BloomModel在内的多款AI模型,充实的文档与代码资源助力研究人员与开发者更好地探索与应用前沿AI技术。