#Transformer模型
Intel Extension for Transformers入门指南 - 加速Transformer模型的工具包
ctransformers入门学习资料 - Python实现的C/C++变压器模型绑定
STF: 基于窗口注意力的图像压缩新方法
大型语言模型快速入门指南:从初学者到实践专家
Intel Extension for Transformers: 加速AI模型在英特尔平台上的部署与优化
CTransformers: 高性能Python绑定的Transformer模型实现
CTransformers: 高效的Python语言模型绑定库
ctransformers
CTransformers提供Python接口,通过GGML库高效加载和运行C/C++实现的Transformer模型。支持多种模型类型,如GPT-2、GPT-J、LLaMA等,并可与Hugging Face和LangChain集成。提供CUDA、ROCm和Metal兼容的GPU加速选项,适合高性能自然语言处理任务。
whisper
Whisper是一个通用语音识别模型,支持多种语言处理任务,如语音翻译和语言识别。该模型基于大规模多样化音频数据集进行训练,利用Transformer技术实现高效的序列到序列学习。用户可以通过简单的命令或Python代码实现快速准确的语音识别与翻译,是一个适用于多种应用场景的强大工具。支持多个模型大小和语言选项,用户可根据需求选择合适的模型。
intel-extension-for-transformers
Intel® Extension for Transformers是专为提升基于Transformer架构的GenAI/LLM模型而设计的先进工具包。本工具包支持多种平台,如Intel Gaudi2、CPU和GPU,并整合了Hugging Face transformers APIs与Intel® Neural Compressor,提供顺畅的模型压缩过程和多样化的优化选择。此外,工具包含可定制的NeuralChat聊天机器人框架,为用户带来高效的AI交互体验。
lightseq
LightSeq为基于CUDA的高性能训练与推理库,专为序列处理和生成优化,支持BERT、Transformer等主流模型。最新版本新增int8混合精度功能,显著提升训练与推理效率,完美兼容Fairseq、Hugging Face等框架。
quick-start-guide-to-llms
GitHub仓库《Large Language Models快速入门指南》包含丰富的代码段和笔记本,展示了Transformer模型的多种应用,包括语义搜索、提示工程、文本分类、推荐引擎和视觉问答等。克隆仓库并打开Jupyter Notebook,即可深入学习这些技术。仓库不断更新,旨在为读者提供详细的教程和示例,帮助高效使用大型语言模型。
ecco
Ecco是一个Python库,通过交互式可视化工具解释基于Transformer的自然语言处理模型。它专注于探索预训练模型,功能包括特征归因、神经元激活捕获及可视化、Token处理过程等。支持GPT2、BERT、RoBERTA等多种模型,帮助理解Transformer模型的内部机制和决策过程。
llm-analysis
llm-analysis 是一款为大型语言模型(LLMs),如Transformer设计的工具,用于在不同的模型、GPU、数据类型和并行配置下估算训练与推理的延迟和内存使用。通过简单设置,可以快速计算出不同训练和推理方案的系统性能,以确定最优和可行的配置方案。此外,llm-analysis 支持多种并行化和重计算策略,并提供多种预定义配置和命令行接口,极大简化了配置和调试流程。它功能强大且易于集成,是开发和优化LLMs的理想工具。
dodrio
Dodrio是一个交互式可视化系统,旨在帮助NLP研究人员分析和比较Transformer模型中的注意力权重。用户可查看实时演示、下载代码并本地运行。由Jay Wang、Robert Turko和Polo Chau开发,支持个性化模型和数据集的可视化。
iTransformer
iTransformer是一种用于多变量时间序列预测的开源模型,无需修改任何Transformer模块。它在处理大规模数据时表现出色,具备显著的性能提升和强大的泛化能力。iTransformer已在多种基准测试中表现优异,支持静态协变量和概率发射头。用户可通过pip安装,并使用项目提供的详细训练和评估脚本。更多信息请参阅官方论文。