Project Icon

mpt-7b

高性能开源大语言模型

MPT-7B是一个开源大语言模型,在1万亿英文文本和代码上预训练。其改进的Transformer架构支持高效训练和推理,可处理超长输入。模型采用ALiBi技术处理长序列,无需位置嵌入。MPT-7B支持商业使用,为开发者提供了适用于多种下游任务微调的强大基础模型。

mamba-2.8b - 突破性能界限的高效开源语言模型
Apache 2.0GithubHuggingface开源许可开源项目模型法律版权软件许可
mamba-2.8b是一个开源语言模型,采用状态空间模型架构,在性能和效率方面有所突破。该模型参数规模较小,但具有较快的推理速度和良好的文本生成能力。mamba-2.8b为自然语言处理领域提供了新的可能性,适用于需要快速响应的应用场景。研究人员和开发者可以基于此模型探索高效的AI解决方案。
gemma-7b - Google推出的轻量级开源大语言模型
GemmaGithubHuggingface人工智能大语言模型开源项目机器学习模型自然语言处理
Gemma-7b是Google基于Gemini技术推出的开源大语言模型,拥有70亿参数。该模型在6万亿token的多样化数据集上训练,支持8192个token的上下文长度。Gemma-7b在MMLU、HellaSwag等多项基准测试中表现优异。模型采用严格的数据清洗和安全评估流程,为研究人员提供高性能且负责任的AI工具,促进AI技术的普及与创新。
aya-23-8B - 支持23种语言的开源多语言大模型
Aya-23-8BGithubHuggingface人工智能多语言模型开源项目机器学习模型自然语言处理
Aya-23-8B是由Cohere For AI开发的开源多语言大模型,基于Command系列模型架构,通过Aya Collection数据集进行指令微调。该模型包含80亿参数,支持阿拉伯语、中文、英语在内的23种语言,具有8192的上下文长度。模型采用优化的Transformer架构,主要面向学术研究和非商业应用场景。
bloom-7b1 - 支持57种语言的开源大型语言模型
BLOOMGithubHuggingface人工智能多语言大型语言模型开源开源项目模型
BLOOM是BigScience项目开发的开源大型语言模型,支持45种自然语言和12种编程语言,拥有1760亿参数。该模型使用1.5TB预处理文本在法国超级计算机上训练,可用于文本生成、信息提取和问答等任务。BLOOM采用RAIL开放许可证,旨在推动语言模型公共研究,但不适用于高风险场景。
mt5-large - 多语言文本转换模型支持101种语言处理
GithubHuggingfacemT5多语言模型开源项目机器学习模型自然语言处理预训练
mt5-large是基于Google's mT5架构开发的大规模多语言预训练模型。该模型在覆盖101种语言的mC4语料库上训练,可处理中文、英语、法语等多语言任务。mt5-large采用统一的文本到文本格式,在多语言NLP基准测试中表现出色。值得注意的是,该模型需要针对特定下游任务进行微调后才能使用。mt5-large为多语言自然语言处理研究和应用提供了坚实基础,有助于推动跨语言AI技术的发展。
Mistral-7B-v0.1-sharded - 模型带来更高效的文本生成性能
GithubHugging FaceHuggingfaceMistral 7Btransformer模型大语言模型开源项目模型预训练
Mistral-7B-v0.1是一个预训练的生成文本模型,拥有70亿参数,采用先进的变压器架构,并在多项基准测试中表现优于Llama 2 13B。该模型分片为2GB,以减少RAM需求,适合在资源有限的环境中应用,但不包含内容监管功能。若遇到'mistral'错误,通过安装transformers源代码可解决。
gpt-neo-2.7B - EleutherAI开发的27亿参数GPT-Neo语言模型展现多任务处理能力
EleutherAIGPT-NeoGithubHuggingface开源项目模型深度学习自然语言处理语言模型
GPT-Neo 2.7B是EleutherAI基于GPT-3架构开发的大规模语言模型,在The Pile数据集上训练了4200亿个token。模型在语言理解、科学推理等多个评估任务中表现优异,超越同等规模的GPT-2和GPT-3 Ada。尽管存在潜在偏见,GPT-Neo 2.7B仍为自然语言处理领域提供了新的研究方向和应用可能。
OLMo-7B - 专注于语言模型科学的开放模型
GithubHuggingfaceOLMo开源项目模型模型性能训练数据集语言模型
OLMo系列模型由Allen Institute for AI开发,旨在推进语言模型科学。该系列模型使用Dolma数据集进行训练,提供诸如OLMo 7B等多种版本及详细的训练检查点和代码支持。这些模型可用于英文学术研究,并可在Hugging Face平台上获取。项目获得哈佛大学、Databricks、AMD等机构支持,并在MMLU测试中显示出明显的性能提升。
zephyr-7B-beta-AWQ - 基于Mistral模型优化的高性能7B开源对话模型,支持AWQ量化部署
AI模型GithubHuggingfaceZephyr 7B Beta大语言模型开源项目微调性能评估模型
Zephyr-7B-beta是基于Mistral-7B-v0.1模型的开源对话助手,采用DPO技术训练,在多项基准测试中表现优异。模型支持AWQ 4-bit量化,文件大小仅4.15GB,可通过多种框架高效部署。该项目使用MIT许可证,主要支持英语,适合研究和教育用途。
SOLAR-10.7B-v1.0 - 深度扩展技术驱动的大语言模型实现超30B参数级性能
GithubHuggingfaceSOLAR-10.7B人工智能大模型开源项目模型深度学习语言模型
SOLAR-10.7B采用深度扩展(DUS)技术开发,通过整合Mistral 7B权重和持续预训练,实现10.7B参数达到30B级模型性能。在H6评测中得分74.20,高于Mixtral-8x7B等大型模型。模型以Apache-2.0许可开源发布,提供完整预训练版本。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号