Project Icon

ALMA-13B-Pretrain

改进大型语言模型的翻译性能与偏好优化技术

ALMA基于新的翻译模型范式,初步在单语数据上进行精调,接着应用高质量的平行数据进行优化,从而显著提升大型语言模型的翻译效果。其最新版本ALMA-R采用了对比偏好优化(CPO),相较于传统监督精调,进一步提高了翻译的精度,可与GPT-4媲美。尤其是ALMA-13B-LoRA,通过过渡性精调和人类撰写的平行数据,确保了在专业翻译任务中的卓越表现。

Llama-2-7b-hf - Meta开发的开源语言模型 支持多种参数规模和商业应用
GithubHuggingfaceLlama 2人工智能大语言模型开源项目模型自然语言处理预训练模型
Llama-2-7b-hf是Meta推出的开源大型语言模型之一,采用优化的Transformer架构。该模型经过2万亿token预训练,拥有70亿参数,支持4k上下文长度。Llama 2系列提供预训练和微调版本,可用于多种自然语言生成任务。在多项基准测试中表现优异,并支持商业应用,是一个功能强大的开源AI工具。
Llama-3.1-8B - Meta推出的多语言大型语言模型 支持128K超长上下文
GithubHuggingfaceLlama 3.1Meta人工智能多语言大语言模型开源项目模型
Llama-3.1-8B是Meta公司推出的多语言大型语言模型,采用优化的Transformer架构,支持128K超长上下文。该模型在8种语言中进行预训练和指令微调,在通用对话和多语言任务上表现优异。Llama-3.1-8B适用于助手式聊天、自然语言生成等商业和研究场景,并提供自定义商业许可证。用户在遵守使用政策的前提下可广泛应用该模型。
LLaMA-Adapter - 轻量级适配方法高效微调大语言模型
GithubLLaMA-Adapter多模态大语言模型开源项目微调指令跟随
LLaMA-Adapter是一种高效的大语言模型微调方法。通过在LLaMA模型中插入适配器,仅引入120万个可学习参数,1小时内即可将LLaMA转化为指令跟随模型。该方法提出零初始化注意力机制,稳定早期训练。LLaMA-Adapter支持多模态输入,拓展应用场景。与全量微调相比,在参数量和训练时间上具显著优势,同时保持相当性能。
mLoRA - 为大型语言模型提供高效多LoRA适配器构建
GithubLoRA适配器mLoRA大语言模型开源框架开源项目高效微调
mLoRA 是一个开源框架,旨在高效地对多个大型语言模型 (LLMs) 进行 LoRA 和其变体的微调。其主要功能包括同时微调多个 LoRA 适配器、共享基础模型、优化的流水线并行算法,并支持多种 LoRA 变体和偏好对齐算法。mLoRA 可在普通硬件上高效运行,支持多种模型和算法,有助于节省计算和内存资源。通过参考文档可了解如何快速部署和使用 mLoRA。
Chinese-LLaMA-Alpaca-3 - 中文Llama-3大模型及其精调版本的特性
GithubLlama-3-Chinese中文大模型开源开源项目性能提升指令精调
Chinese-LLaMA-Alpaca-3项目推出了基于Meta新一代Llama-3技术的中文模型版本,涵盖原始及指令精调版本。这些模型利用海量中文数据增强了语义理解与指令执行性能,可广泛适用于多种中文文本处理任务。
llama-lora-fine-tuning - 单GPU微调LLaMA模型的高效方法
GPUGithubLLaMAVicuna开源项目微调语料库
本项目展示了在单个16G GPU上微调vicuna-7b模型的方法。通过采用LoRA、半精度模型和8位加载等技术,有效降低了内存需求。项目详细说明了环境配置、模型准备、语料处理和微调过程,并提供P100和A100的性能数据。这种方法使研究者和开发者能在有限硬件资源下进行大型语言模型的定制化训练。
Llama-3-8B-Magpie-Align-v0.3 - 优化中文查询与对齐数据的强大语言模型
GithubHuggingfaceLlama-3-8B-Magpie-Align中文指令数据集开源项目模型模型性能超反馈技术问答系统
该项目通过在Llama-3-8B上执行SFT和DPO优化,大幅提升了模型性能,尤其在中文查询响应上。使用高质量数据集进行训练,并在AlpacaEval等基准测试中表现优异,展现Magpie数据的规模和质量优势,为语言模型的普及化提供可能。
Pretrained-Language-Model - 先进预训练语言模型与优化技术集合
GithubMindSporePyTorchTensorFlow开源项目自然语言处理预训练语言模型
此开源项目汇集了多个先进的预训练语言模型和相关优化技术。包含200B参数中文语言模型PanGu-α、高性能中文NLP模型NEZHA、模型压缩技术TinyBERT和DynaBERT等子项目。这些模型在多项中文NLP任务中表现出色,支持MindSpore、TensorFlow和PyTorch等多种深度学习框架。
pretraining-with-human-feedback - 基于人类偏好预训练的语言模型代码库
GithubHugging Facetoxicity人类偏好多任务开源项目预训练
该项目为根据人类偏好预训练语言模型提供了一套基于Hugging Face Transformers和wandb的工具。项目实现了五种预训练目标,通过对训练数据注释并使用这些目标函数提升模型性能,包括毒性检测和隐私信息识别等任务。项目还提供详细的配置文件和评估方式指导。
GPT4RoI - 大型语言模型的区域感知能力优化
GPT4RoIGithubLLaMA模型区域感兴趣调整大型语言模型开源项目视觉认知
GPT4RoI项目专注于优化大型语言模型的区域感知能力,发布新版本GPT4RoI-7B-delta-V0来提升性能。该项目提供完整的训练与推理代码,并有在线演示以提升用户体验。项目包含了详尽的数据集和权重处理方法,便于研究者和开发者有效应用于区域相关的语言模型任务。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号