Project Icon

Qwen2.5-0.5B-Instruct-bnb-4bit

提升多语言长文本生成与指令跟随能力,改善结构化数据处理

Qwen2.5语言模型系列在知识、编码和数学上取得进步,支持29种语言和128K词的长文本生成。其指令跟随和结构化数据处理经过优化,提升生成JSON等输出的效率。适用于多语言和复杂任务的场景,如代码生成和数据管理,通过改进训练架构提升性能和内存效率。

flan-t5-xxl - 多语言自然语言处理的先进模型
FLAN-T5GithubHuggingface多语言模型开源项目指令微调模型自然语言处理语言生成
FLAN-T5 XXL是一款经过大规模指令微调的多语言语言模型。该模型在超过1000个涵盖多种语言的任务上进行了训练,在少样本和零样本学习方面表现卓越。在多项基准测试中,FLAN-T5 XXL展现了领先性能,例如在五样本MMLU测试中达到75.2%的准确率。这个模型可应用于翻译、问答和推理等多种自然语言处理任务,为研究人员提供了探索语言模型能力和局限性的有力工具。
llm-awq - 激活感知权重量化技术实现大语言模型高效压缩与加速
AWQGithubLLM开源项目模型量化视觉语言模型边缘设备
AWQ是一种高效的大语言模型低比特权重量化技术,支持INT3/4量化,适用于指令微调和多模态模型。它提供预计算模型库、内存高效的4位线性层和快速推理CUDA内核。AWQ使TinyChat可在边缘设备上实现大模型高效本地推理。该技术已被Google、Amazon等采用,并获MLSys 2024最佳论文奖。
Step-DPO - 优化大语言模型长链推理的高效方案
GithubStep-DPO大语言模型开源项目数学问题模型微调长链推理
Step-DPO是一种旨在提升大语言模型长链推理能力的新方法。该方法通过数据构建流程生成了1万对高质量步骤偏好对数据集,在仅使用少量数据的情况下显著提升了模型性能。研究表明,Step-DPO能将Qwen2-7B-Instruct在MATH和GSM8K测试集上的得分分别提高5.6%和2.4%。应用Step-DPO后的Qwen2-72B-Instruct更是在这两个测试集上分别达到70.8%和94.0%的得分,超越了多个闭源模型。
bloomz-560m - 支持多语言的自然语言处理及生成模型
GithubHuggingfacebloomz-560m开源项目文本生成核心指代消解模型程序合成自然语言推理
bloomz-560m是一个多语言处理和生成的开源项目,专注于核心指代消解和自然语言推理任务。支持的语言多达50余种,包括中文、英语、法语、日语等。该项目使用Python和Java等编程语言,基于Winogrande、XNLI、SuperGLUE等数据集进行测试,致力于提升文本生成的准确性与灵活性。
Llama-3.2-3B-Instruct-uncensored-GGUF - 高效文本生成的前沿模型格式
GPU加速GithubHuggingfaceLlama-3.2-3B-Instruct-uncensored-GGUF开源项目文本生成模型模型格式量化
Llama-3.2-3B-Instruct-uncensored-GGUF采用了最新的GGUF格式,替代了不再支持的GGML,提升了大规模文本生成的性能。它兼容多种客户端与库,从llama.cpp到进阶GPU工具,包括Python库和用户友好的图形界面,如LM Studio和text-generation-webui,以及适用于故事创作的KoboldCpp。此更新提升了模型推理效率,具有广泛的兼容性,适用于多种系统平台,实现快速响应与多功能扩展。
InternLM - 支持1M上下文的聊天模型
GithubInternLM2.5人工智能增强学习开源项目搜集信息长上下文
InternLM2.5系列采用最新技术,专注于AI研究和商业应用的长文本处理和逻辑推理,提供1M文本窗口处理能力和优化的指令遵循与用户互动体验。适合广泛的应用场景。
t5-v1_1-large - 自然语言处理的统一文本到文本框架
C4GithubHuggingfaceT5开源项目文本到文本转换模型自然语言处理转移学习
T5 Version 1.1在自然语言处理中提供了一种统一的文本到文本转换框架,融入了多项技术改进,如GEGLU激活函数和特定的模型架构,适用于多种NLP任务的微调。尽管仅在C4数据集上进行了预训练,但在下游任务中表现出色,适合数据丰富的任务之后微调,为现有NLP任务提供了有效支持。
LongQLoRA - 大语言模型上下文长度高效扩展的创新方法
GithubLongQLoRA上下文长度扩展低资源训练大语言模型开源项目性能评估
LongQLoRA是一种扩展大语言模型上下文长度的方法,可在单个32GB V100 GPU上将LLaMA2模型的上下文长度从4096扩展到8192。该方法在PG19和Proof-pile数据集上表现优异,仅需1000步微调即可达到接近MPT-7B-8K的性能。项目还提供了预训练数据集、指令微调数据集以及扩展上下文长度的模型。
Llama-2-7b-hf - Meta开发的开源语言模型 支持多种参数规模和商业应用
GithubHuggingfaceLlama 2人工智能大语言模型开源项目模型自然语言处理预训练模型
Llama-2-7b-hf是Meta推出的开源大型语言模型之一,采用优化的Transformer架构。该模型经过2万亿token预训练,拥有70亿参数,支持4k上下文长度。Llama 2系列提供预训练和微调版本,可用于多种自然语言生成任务。在多项基准测试中表现优异,并支持商业应用,是一个功能强大的开源AI工具。
gpt2 - 大规模文本生成模型的创新特性
GPT-2GithubHuggingface偏见开源项目文本生成机器学习模型语言模型
这是一款基于Transformer架构的预训练模型,以因果语言建模为目标在大量英文数据上进行自监督学习。它专注于从给定提示生成文本,可用于直接文本生成或针对特定任务的微调。尽管展示了高质量文本生成的能力,该模型可能反映其训练数据中的偏见,使用时需谨慎。这一模型应用广泛,包括文本生成和特征提取等领域。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号