Logo

#Transformer模型

Logo of ctransformers
ctransformers
CTransformers提供Python接口,通过GGML库高效加载和运行C/C++实现的Transformer模型。支持多种模型类型,如GPT-2、GPT-J、LLaMA等,并可与Hugging Face和LangChain集成。提供CUDA、ROCm和Metal兼容的GPU加速选项,适合高性能自然语言处理任务。
Logo of quick-start-guide-to-llms
quick-start-guide-to-llms
GitHub仓库《Large Language Models快速入门指南》包含丰富的代码段和笔记本,展示了Transformer模型的多种应用,包括语义搜索、提示工程、文本分类、推荐引擎和视觉问答等。克隆仓库并打开Jupyter Notebook,即可深入学习这些技术。仓库不断更新,旨在为读者提供详细的教程和示例,帮助高效使用大型语言模型。
Logo of iTransformer
iTransformer
iTransformer是一种用于多变量时间序列预测的开源模型,无需修改任何Transformer模块。它在处理大规模数据时表现出色,具备显著的性能提升和强大的泛化能力。iTransformer已在多种基准测试中表现优异,支持静态协变量和概率发射头。用户可通过pip安装,并使用项目提供的详细训练和评估脚本。更多信息请参阅官方论文。
Logo of whisper
whisper
Whisper是一个通用语音识别模型,支持多种语言处理任务,如语音翻译和语言识别。该模型基于大规模多样化音频数据集进行训练,利用Transformer技术实现高效的序列到序列学习。用户可以通过简单的命令或Python代码实现快速准确的语音识别与翻译,是一个适用于多种应用场景的强大工具。支持多个模型大小和语言选项,用户可根据需求选择合适的模型。
Logo of ecco
ecco
Ecco是一个Python库,通过交互式可视化工具解释基于Transformer的自然语言处理模型。它专注于探索预训练模型,功能包括特征归因、神经元激活捕获及可视化、Token处理过程等。支持GPT2、BERT、RoBERTA等多种模型,帮助理解Transformer模型的内部机制和决策过程。
Logo of cybertron
cybertron
Cybertron是一个基于spaGO构建的纯Go语言包,为开发者提供简单接口使用NLP技术,无需其他编程语言或复杂框架。该项目支持使用HuggingFace模型库中的预训练Transformer模型,主要用于推理。Cybertron兼容BERT、ELECTRA等多种模型,可应用于文本分类、问答、文本生成等任务。它支持服务器模式和库模式两种使用方式,为Go开发者提供了便捷的NLP解决方案。
Logo of intel-extension-for-transformers
intel-extension-for-transformers
Intel® Extension for Transformers是专为提升基于Transformer架构的GenAI/LLM模型而设计的先进工具包。本工具包支持多种平台,如Intel Gaudi2、CPU和GPU,并整合了Hugging Face transformers APIs与Intel® Neural Compressor,提供顺畅的模型压缩过程和多样化的优化选择。此外,工具包含可定制的NeuralChat聊天机器人框架,为用户带来高效的AI交互体验。
Logo of llm-analysis
llm-analysis
llm-analysis 是一款为大型语言模型(LLMs),如Transformer设计的工具,用于在不同的模型、GPU、数据类型和并行配置下估算训练与推理的延迟和内存使用。通过简单设置,可以快速计算出不同训练和推理方案的系统性能,以确定最优和可行的配置方案。此外,llm-analysis 支持多种并行化和重计算策略,并提供多种预定义配置和命令行接口,极大简化了配置和调试流程。它功能强大且易于集成,是开发和优化LLMs的理想工具。
Logo of STF
STF
STF项目开发了基于窗口注意力的图像压缩方法,在CNN和Transformer架构上均实现突破。该技术在Kodak和CLIC数据集上表现出色,兼顾压缩性能和编解码效率。项目开源了预训练模型、训练评估脚本和OpenImages数据集训练指南,为图像压缩研究提供了全面资源。