Project Icon

bert-base-uncased-sst2-unstructured80-int8-ov

BERT模型的非结构化剪枝与量化优化技术

该项目通过非结构化幅度剪枝、量化和蒸馏,在GLUE SST2数据集上优化了BERT模型。模型在Torch和OpenVINO IR模式下准确率达到0.9128,并在Transformer层中实现了80%的稀疏性。此项目适用于OpenVINO 2024.3.0及以上版本及Optimum Intel 1.19.0及更高版本,利用NNCF完成优化,同时提供详细的参数与训练步骤,以实现高效的文本分类。

mobilebert-uncased - 轻量级BERT模型优化资源受限设备性能
BERTGithubHuggingfaceMobileBERT开源项目模型模型压缩深度学习自然语言处理
MobileBERT是BERT_LARGE的精简版本,采用瓶颈结构设计,平衡自注意力机制和前馈网络。这个紧凑型BERT模型专为资源受限设备优化,保持强大性能的同时大幅缩小模型体积。MobileBERT能在移动设备等计算资源有限的环境中高效运行,适用于各类NLP任务。
bert-tiny - 轻量级预训练自然语言处理模型
BERTGithubHuggingface开源项目模型模型压缩知识蒸馏自然语言处理预训练模型
BERT-tiny是一款轻量级预训练自然语言处理模型,源自Google BERT项目。它采用2层网络结构和128维隐藏层,专为资源受限环境下的下游任务设计。尽管体积小巧,BERT-tiny在自然语言推理等任务中仍表现出色,保留了BERT模型的核心功能。这使其成为需要在计算资源有限情况下进行自然语言处理的研究人员和开发者的理想选择。
Qwen2.5-7B-bnb-4bit - 采用4bit量化技术加速Qwen2.5-7B模型并降低70%内存占用
GithubHuggingfaceQwen2.5Unsloth大语言模型开源项目模型模型微调深度学习
基于Qwen2.5-7B的量化优化版本,通过4bit量化技术将内存占用降低70%。模型拥有76亿参数,具备128K上下文长度和29种语言处理能力,支持编码、数学运算和长文本生成等功能。该版本在保持原有性能的同时实现轻量化部署,可用于后续的模型微调与定制开发。
SocialBERT-social - ESG领域社会文本分类的优化语言模型
ESGGithubHuggingfaceSocialBERT人工智能开源项目模型社会文本分类自然语言处理
SocialBERT-social是专注于ESG领域社会文本分类的高效语言模型。通过在SocialBERT-base基础上利用2k社会数据集进行微调,该模型大幅提升了社会文本识别精度。它与Hugging Face pipeline无缝集成,适用于复杂的ESG分析和风险评估任务。项目还提供了详尽的使用指南和相关论文,为研究者和实践者提供了全面的支持。
bert-medium - BERT中型变体模型用于高效下游任务训练
BERTGithubHuggingface开源项目机器学习模型知识蒸馏自然语言处理预训练模型
bert-medium是Google BERT官方仓库发布的轻量级预训练模型变体。作为bert-tiny、bert-mini和bert-small系列中的一员,该模型在缩小规模的同时保持了良好性能。bert-medium采用8层结构,隐藏层大小为512,旨在为下游任务提供高效的训练基础。这一中型变体适合于需要在计算资源和模型表现之间寻求平衡的应用场景。
bert-large-uncased - 大规模无大小写区分BERT自然语言处理预训练模型
BERTGithubHuggingface开源项目掩码语言模型模型深度学习自然语言处理预训练模型
bert-large-uncased是基于大规模英文语料预训练的自然语言处理模型。通过掩码语言建模和下一句预测任务,模型学习了双向语言表示。它拥有24层结构、1024维隐藏层和16个注意力头,总计336M参数。该模型适用于序列分类、标记分类和问答等下游任务的微调,也可直接用于掩码填充或作为特征提取器。
distilbert-onnx - DistilBERT模型在SQuAD问答任务上的ONNX转换优化
DistilBERTGithubHuggingfaceONNX转换开源项目模型知识蒸馏自然语言处理问答系统
本项目提供了distilbert-base-cased-distilled-squad模型的ONNX转换版本。该模型基于DistilBERT-base-cased,经过第二轮知识蒸馏在SQuAD v1.1数据集上微调。在开发集上,模型达到87.1的F1分数,接近BERT bert-base-cased版本的88.7。这一ONNX实现为问答任务提供了轻量高效的解决方案。
stsb-bert-tiny-onnx - 基于BERT的轻量级文本向量化模型
GithubHuggingfacesentence-transformers开源项目文本嵌入模型模型训练自然语言处理语义相似度
这是一个轻量级的文本向量化模型,基于sentence-transformers框架开发。模型可将文本转换为128维向量表示,主要应用于文本聚类和语义搜索。支持通过sentence-transformers和HuggingFace两种方式调用,提供完整的模型评估数据。
bert-base-uncased-emotion - BERT模型用于情感分析的优化与应用
GithubHuggingfacePyTorch Lightningbert-base-uncased-emotion开源项目情感分析情感类别数据集模型
该项目基于bert-base-uncased模型,并使用PyTorch Lightning技术在一个情感数据集上进行了微调,支持文本分类和情感分析。训练参数包括128的序列长度、2e-5的学习率、32的批处理大小和4个训练周期,运行在两块GPU上。尽管模型尚未最优化,但在实际应用中显示出一定效果,达到了0.931的验证精度。更多项目详情可以通过nlp viewer查看。
hierarchical-bert-model - 层级BERT模型的实现及优化方案
Adam优化器GithubHuggingfaceKeras学习率开源项目模型模型图训练超参数
一个基于Keras框架的层级BERT模型实现,通过优化训练参数提升模型性能。模型采用float32精度训练,集成JIT编译技术,并针对性配置了学习率和优化参数。该模型主要应用于层级文本分类任务。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号