#Transformer模型
ctransformers - Python接口的高效C/C++ Transformer模型
CTransformersGGMLPythonTransformer模型LangChainGithub开源项目
CTransformers提供Python接口,通过GGML库高效加载和运行C/C++实现的Transformer模型。支持多种模型类型,如GPT-2、GPT-J、LLaMA等,并可与Hugging Face和LangChain集成。提供CUDA、ROCm和Metal兼容的GPU加速选项,适合高性能自然语言处理任务。
whisper - 多语种语音识别与翻译解决方案
Whisper语音识别多语言处理OpenAITransformer模型Github开源项目热门
Whisper是一个通用语音识别模型,支持多种语言处理任务,如语音翻译和语言识别。该模型基于大规模多样化音频数据集进行训练,利用Transformer技术实现高效的序列到序列学习。用户可以通过简单的命令或Python代码实现快速准确的语音识别与翻译,是一个适用于多种应用场景的强大工具。支持多个模型大小和语言选项,用户可根据需求选择合适的模型。
intel-extension-for-transformers - 提升GenAI与LLM模型性能的先进工具包
Intel Extension for Transformers量化推理LLMGenAITransformer模型Github开源项目
Intel® Extension for Transformers是专为提升基于Transformer架构的GenAI/LLM模型而设计的先进工具包。本工具包支持多种平台,如Intel Gaudi2、CPU和GPU,并整合了Hugging Face transformers APIs与Intel® Neural Compressor,提供顺畅的模型压缩过程和多样化的优化选择。此外,工具包含可定制的NeuralChat聊天机器人框架,为用户带来高效的AI交互体验。
lightseq - 基于CUDA的高性能训练与推理库
LightSeq混合精度训练Transformer模型BERT性能序列处理Github开源项目
LightSeq为基于CUDA的高性能训练与推理库,专为序列处理和生成优化,支持BERT、Transformer等主流模型。最新版本新增int8混合精度功能,显著提升训练与推理效率,完美兼容Fairseq、Hugging Face等框架。
quick-start-guide-to-llms - 大型语言模型指南
Quick Start Guide to Large Language ModelsTransformer模型OpenAIJupyter笔记本GitHubGithub开源项目
GitHub仓库《Large Language Models快速入门指南》包含丰富的代码段和笔记本,展示了Transformer模型的多种应用,包括语义搜索、提示工程、文本分类、推荐引擎和视觉问答等。克隆仓库并打开Jupyter Notebook,即可深入学习这些技术。仓库不断更新,旨在为读者提供详细的教程和示例,帮助高效使用大型语言模型。
ecco - 使用交互式可视化工具理解自然语言处理模型
开源项目Ecco自然语言处理解释性Transformer模型可视化Github
Ecco是一个Python库,通过交互式可视化工具解释基于Transformer的自然语言处理模型。它专注于探索预训练模型,功能包括特征归因、神经元激活捕获及可视化、Token处理过程等。支持GPT2、BERT、RoBERTA等多种模型,帮助理解Transformer模型的内部机制和决策过程。
llm-analysis - 大型语言模型训练与推理的延迟和内存使用分析工具
llm-analysisTransformer模型延迟分析内存分析大语言模型Github开源项目
llm-analysis 是一款为大型语言模型(LLMs),如Transformer设计的工具,用于在不同的模型、GPU、数据类型和并行配置下估算训练与推理的延迟和内存使用。通过简单设置,可以快速计算出不同训练和推理方案的系统性能,以确定最优和可行的配置方案。此外,llm-analysis 支持多种并行化和重计算策略,并提供多种预定义配置和命令行接口,极大简化了配置和调试流程。它功能强大且易于集成,是开发和优化LLMs的理想工具。
dodrio - 交互式工具帮助NLP研究者分析Transformer模型的注意力权重
DodrioNLPTransformer模型交互式可视化文本分析Github开源项目
Dodrio是一个交互式可视化系统,旨在帮助NLP研究人员分析和比较Transformer模型中的注意力权重。用户可查看实时演示、下载代码并本地运行。由Jay Wang、Robert Turko和Polo Chau开发,支持个性化模型和数据集的可视化。
iTransformer - 用于多变量时间序列预测的iTransformer模型
iTransformer时间序列预测Transformer模型多变量预测高效注意力机制Github开源项目
iTransformer是一种用于多变量时间序列预测的开源模型,无需修改任何Transformer模块。它在处理大规模数据时表现出色,具备显著的性能提升和强大的泛化能力。iTransformer已在多种基准测试中表现优异,支持静态协变量和概率发射头。用户可通过pip安装,并使用项目提供的详细训练和评估脚本。更多信息请参阅官方论文。
cybertron - 纯Go语言实现的自然语言处理工具包 支持多种预训练模型
CybertronNLPGo语言Transformer模型机器学习Github开源项目
Cybertron是一个基于spaGO构建的纯Go语言包,为开发者提供简单接口使用NLP技术,无需其他编程语言或复杂框架。该项目支持使用HuggingFace模型库中的预训练Transformer模型,主要用于推理。Cybertron兼容BERT、ELECTRA等多种模型,可应用于文本分类、问答、文本生成等任务。它支持服务器模式和库模式两种使用方式,为Go开发者提供了便捷的NLP解决方案。
STF - 窗口注意力机制推动图像压缩技术进步
图像压缩Transformer模型CNN模型深度学习CompressAIGithub开源项目
STF项目开发了基于窗口注意力的图像压缩方法,在CNN和Transformer架构上均实现突破。该技术在Kodak和CLIC数据集上表现出色,兼顾压缩性能和编解码效率。项目开源了预训练模型、训练评估脚本和OpenImages数据集训练指南,为图像压缩研究提供了全面资源。
GODEL-v1_1-large-seq2seq - 提升对话任务表现的大规模预训练模型
HuggingfaceGODELTransformer模型开源项目模型预训练模型多轮对话Github对话生成
GODEL是为目标导向对话设计的预训练模型,使用基于Transformer的编码器-解码器架构,能从外部文本中生成响应。该模型在需要外部信息支持的对话任务中表现出色。v1.1版本在551M条Reddit多轮对话及5M条指令和知识对话上训练,能通过少量特定对话高效微调,适合需要情感共鸣或基于知识生成安全响应的情境。
trocr-base-printed - 基于Transformer的OCR模型 专注印刷文本识别
TrOCRHuggingface模型光学字符识别图像转文本Github开源项目自然语言处理Transformer模型
TrOCR是一种基于Transformer的光学字符识别模型,专门针对印刷文本设计。该模型采用图像Transformer编码器和文本Transformer解码器架构,在SROIE数据集上经过微调。TrOCR能高效处理单行文本图像,为OCR任务提供先进解决方案。这个开源项目适用于多种场景,可轻松集成到各类文本识别应用中。
trocr-large-handwritten - TrOCR:大规模预训练的手写文本识别模型
模型图像文字识别IAM数据集TrOCRGithubTransformer模型手写识别Huggingface开源项目
trocr-large-handwritten是一个基于Transformer架构的大规模手写文本OCR模型,在IAM数据集上进行了微调。它由图像编码器和文本解码器组成,能够准确识别单行手写文本图像。该模型具有强大的性能,可用于手写文本数字化和信息提取,为研究人员和开发者提供了高效的OCR解决方案。
musicgen-large - 基于文本和音频提示的大规模AI音乐生成模型
模型音频合成开源项目Transformer模型Huggingface文本生成音乐Github人工智能MusicGen
MusicGen-large是Meta AI开发的3.3B参数规模文本到音乐生成模型。该模型采用单阶段自回归Transformer架构和32kHz EnCodec分词器,能根据文本描述或音频提示生成高质量音乐。MusicGen支持文本和旋律引导音乐创作,为AI音乐研究开辟新途径。研究人员可通过Transformers或Audiocraft库使用MusicGen进行音乐生成实验。
small - Funnel Transformer小模型助力有效的英文处理
Hugging Face预训练开源项目英语语言处理模型Transformer模型HuggingfaceFunnel TransformerGithub
Funnel Transformer是一款基于自监督学习的预训练英语模型,使用丰富的公共数据集进行训练,类似ELECTRA的目标,通过区分原始与替换标记来学习语言特征。模型不区分大小写字母,适合用于序列分类、标记分类和问答任务。访问模型中心可获取进行特定任务的微调版本。
led-base-16384 - 基于Longformer的长文档处理变换器
Huggingface文本摘要Transformer模型开源项目模型问答系统Github自然语言处理长文本处理
led-base-16384是Allenai开发的一款长文档处理模型,基于Longformer架构构建。通过16倍扩展bart-base的位置编码矩阵,该模型能够处理长达16K的文本序列。模型主要应用于长文本摘要生成和问答系统,并提供了完整的微调教程。这一开源项目为长文本处理领域提供了实用的解决方案。
license_plate_recognizer - 精准识别车牌文字的OCR模型,适合自动化监控应用
自动监控GithubTransformer模型开源项目License Plate Recognition字符错误率HuggingfaceOCR模型
此模型基于微软的trocr-base-handwritten,专门开发用于从车牌图像中提取文本,特别适用于OCR车牌识别任务,字符错误率为0.0036,适合各类车辆自动化监控系统。利用TrOCR模型并在PawanKrGunjan/license_plates数据集上微调,能高效将图像转换为文本。在低光或者低分辨率下,性能可能下降,且可能会受到不同地区车牌设计差异的影响。
相关文章
CTransformers: 高效的Python语言模型绑定库
3 个月前
CTransformers: 高性能Python绑定的Transformer模型实现
3 个月前
Intel Extension for Transformers: 加速AI模型在英特尔平台上的部署与优化
3 个月前
LightSeq: 高性能序列处理与生成库
3 个月前
大型语言模型快速入门指南:从初学者到实践专家
3 个月前
Cybertron: 在Go语言中实现Transformer模型的强大框架
3 个月前
STF: 基于窗口注意力的图像压缩新方法
3 个月前
Whisper入门学习资料 - 强大的多语言语音识别模型
2 个月前
ctransformers入门学习资料 - Python实现的C/C++变压器模型绑定
2 个月前