#少样本学习
LibFewShot - 优化少样本学习研究的开源项目
LibFewShot少样本学习非情景方法度量学习方法Meta学习方法Github开源项目
LibFewShot是一款面向少样本学习研究的开源项目,支持多种经典和元学习方法。项目提供快速安装指南和详细教程,支持的数据集包括Caltech-UCSD Birds、Stanford Cars等,并提供下载多种预训练模型和配置文件。LibFewShot还鼓励代码贡献,遵循PEP 8编码风格。项目采用MIT许可证,仅限学术研究使用。
FSL-Mate - 少样本学习资源平台,推动FSL研究发展
FSL-MateFewShotPapersPaddleFSL少样本学习Python库Github开源项目
FSL-Mate提供少样本学习的全面资源,包括FewShotPapers论文列表和PaddlePaddle基础的FSL库PaddleFSL。FSL-Mate项目持续更新,致力于简化少样本学习。最新更新涵盖了ICLR 2024、AAAI 2023、EMNLP 2023,以及ICCV和NeurIPS 2023的相关论文。
ReCon - 融合对比和生成方法的3D表示学习框架
ReCon3D表示学习点云分类零样本学习少样本学习Github开源项目
ReCon是一个融合对比学习和生成式预训练的3D表示学习框架,有效解决了数据不足和表示过拟合问题。该框架在3D点云分类、少样本学习和零样本迁移等任务中表现出色,在ScanObjectNN数据集上达到91.26%的分类准确率。ReCon展现了在3D表示学习领域的先进性能,为相关研究提供了新的思路。
LLM4Annotation - 大型语言模型在数据标注中的应用及研究进展
大语言模型数据标注知识蒸馏提示工程少样本学习Github开源项目
LLM4Annotation项目概述了大型语言模型在数据标注领域的应用研究。该项目涵盖LLM标注方法、质量评估及学习利用等方面,探讨了LLM提升数据标注效率和质量的潜力。这份综述为相关研究人员提供了系统性参考,展示了LLM在数据标注领域的最新进展。
t-few - 参数高效微调方法优于GPT-3上下文学习
T-Few参数高效微调少样本学习自然语言处理预训练语言模型Github开源项目
t-few项目提出一种少样本参数高效微调方法,在多个NLP任务中表现优于GPT-3的上下文学习。项目开源代码包含环境配置、实验运行等功能,并在RAFT基准测试中达到领先水平。这为NLP领域少样本学习提供了高效且低成本的解决方案,研究人员可基于此进行深入研究。
LAMP - 少量样本视频生成的创新技术
LAMP视频生成少样本学习动作模式CVPR 2024Github开源项目
LAMP是一种基于少量样本的视频生成技术,仅需8-16个视频和1个GPU即可训练。该方法可学习特定运动模式,用于文本到视频生成和视频编辑,能创造奔马、烟花等多种动态效果。LAMP为资源受限情况下的视频生成提供了新的解决方案,在视频生成领域具有重要意义。
Grounding-DINO-1.5-API - 先进的开放集目标检测模型系列
Grounding DINO 1.5目标检测IDEA Research零样本迁移少样本学习Github开源项目
Grounding DINO 1.5是IDEA Research开发的开放集目标检测模型套件,包括专业版和边缘版两个模型。项目提供模型使用示例,模型托管于DeepDataSpace平台。Grounding DINO 1.5 Pro在COCO、LVIS等多个零样本迁移基准测试中性能领先,并在ODinW少样本设置下创造新纪录。该模型在广泛场景中展现出强大泛化能力,推动了开放集目标检测的发展。
WinClip - 先进的零样本和少样本异常检测算法
WinCLIP异常检测计算机视觉零样本学习少样本学习Github开源项目
WinCLIP是计算机视觉领域的创新零样本和少样本异常检测算法,专注于异常分类和异常分割。该方法在MVTec-AD和VisA数据集上表现出色,在图像级和像素级异常检测任务中均展现优异性能。项目提供完整实现代码,包含环境配置、数据集准备和结果复现指南,为研究人员和开发者提供重要参考,推动了异常检测技术的发展。
EfficientWord-Net - 开源的少样本自定义唤醒词检测引擎
EfficientWord-Net热词检测少样本学习语音助手PythonGithub开源项目
EfficientWord-Net是一个开源的热词检测引擎,基于少样本学习技术,支持开发者添加自定义唤醒词。该项目采用Google的TFLite实现实时推理,架构灵感源自FaceNet的孪生网络。EfficientWord-Net使用Python开发,兼容3.6至3.9版本,提供自定义唤醒词生成和多唤醒词同时检测等功能,适用于家庭助手等应用场景。
amd-partial-phonetree-v1 - 融合句子转换器和对比学习的高效文本分类模型
Github模型文本分类句子嵌入开源项目SetFit少样本学习Logistic回归Huggingface
SetFit模型结合sentence-transformers/paraphrase-mpnet-base-v2,通过高效的少样本学习实现文本分类。模型采用对比学习微调句子转换器和训练LogisticRegression分类头,具有优异的分类性能。支持最大512标记长度,适用于电话语音邮件和电话树分类需求。模型适合需要高效文本分类的研发人员和数据科学家使用。
answer-classification-setfit-v2-binary - SetFit少样本学习文本分类模型,适用于多领域
文本分类少样本学习Github开源项目SetFit对比学习Huggingface句子转换器模型
项目运用了SetFit框架,实现在BAAI/bge-base-en-v1.5基础上的少样本学习文本分类,结合对比学习和Logistic Regression算法,提升了文本分类的精准度。模型适用于广泛领域,支持长至512个token的文本分类,易于通过SetFit库安装使用,设计理念基于“无提示高效少样本学习”,在小数据集上实现可靠分类表现,提供了一项潜力巨大的深度学习工具。
ZeroShotBioNER - 高效生物医学命名实体识别的突破性方法
零样本学习Huggingface少样本学习模型生物医学文本识别BERT命名实体识别Github开源项目
ZeroShotBioNER是一种创新的生物医学命名实体识别模型,基于Transformer架构,支持零样本和少样本学习。该模型在25多个生物医学NER类别上训练,可识别疾病、化学物质、基因等多种实体。其突出优势在于能进行零样本推理,并仅需少量样本即可针对新类别进行微调。模型采用BioBERT架构,提供详细的使用说明和丰富的实体类别列表,为生物医学文本分析提供了强大工具。
amd-power-dialer-v1 - 少样本高效文本分类模型概览
文本分类少样本学习Github开源项目SetFit对比学习Huggingface句子转换器模型
了解利用SetFit和Sentence Transformer进行少样本高效文本分类的方式,该模型微调Sentence Transformer并用其特征进行分类头训练。用户可通过简单安装与代码示例快捷进行推理,显著优化文本分类任务。
xglm-564M - 提升跨语言AI技术的多语言自回归语言模型
多语言Github模型开源项目语言模型XGLM-564M少样本学习Huggingface参数
XGLM-564M是一个多语言自回归语言模型,具有5.64亿参数,在30种语言的平衡语料库上训练,涉及5000亿子标记。该模型适用于跨语言少样本学习,支持多语言自然语言处理,并在COPA任务上实现零样本评估。有兴趣的用户可查看model card以获取更多使用信息。
相关文章