Project Icon

lm-ner-linkedin-skills-recognition

LinkedIn技能识别的深度学习模型

该模型通过对distilbert-base-uncased进行LinkedIn领域的微调,展示出高效的技能识别性能。在评估集上,它达到了高精度(0.9119)、召回率(0.9312)和F1值(0.9214),准确率更是高达0.9912,适用于需要高可靠性技能识别的场景。

LLM-Workshop - 大语言模型实践与应用工作坊
GithubLLM人工智能开源项目机器学习深度学习自然语言处理
LLM-Workshop 是 Sourab Mangrulkar 创建的大语言模型工作坊。该项目为开发者和研究人员提供 LLM 技术学习平台,内容包括模型训练、调优技巧、应用开发等。工作坊旨在帮助参与者掌握 AI 和自然语言处理领域的实用技能,适合想要深入了解大语言模型技术的人员参与。
awesome-llms-fine-tuning - 大语言模型微调资源指南,包括教程、工具与最佳实践
BERTGPTGithubLLMRoBERTafine-tuning开源项目
本页面汇总了微调大语言模型(如GPT、BERT、RoBERTa)的全面资源,适用于特定任务和领域的需求。包含教程、论文、工具、框架和最佳实践,为研究人员、数据科学家和机器学习从业者提供宝贵的指导,提升模型表现,优化工作流程。
self-refine - LLM自我反馈迭代优化自然语言处理任务
GithubLLMSelf-Refine开源项目自我反馈自然语言处理迭代优化
Self-Refine是一个创新的自然语言处理项目,利用大型语言模型(LLM)生成、评估和改进自身输出。通过迭代过程,LLM对自己的工作提供反馈并持续优化结果。该项目在缩写生成、对话响应和代码可读性改进等多个任务中展现了效果。这种自我完善方法为提升AI系统性能和可靠性开辟了新途径。
LLMs_interview_notes - LLM核心技术与应用实践面试题集锦
GithubLLMslangchain大模型开源项目微调面试
该项目收集整理了大语言模型(LLMs)领域的面试题和学习资料,内容涵盖基础知识、进阶技能、微调方法、LangChain应用等方面。通过详细的问答解析,帮助读者理解LLM的核心概念、训练技巧和参数高效微调等关键技术。项目为准备面试和深入学习大模型技术的人提供了全面实用的参考资源。
xlm-roberta-large-finetuned-conll03-english - XLM-RoBERTa基于命名实体识别模型支持百余种语言
GithubHuggingfaceXLM-RoBERTa命名实体识别多语言模型开源项目模型自然语言处理迁移学习
xlm-roberta-large-finetuned-conll03-english是基于XLM-RoBERTa的多语言命名实体识别模型,预训练涵盖百余种语言,并经英语CoNLL-2003数据集微调。适用于命名实体识别、词性标注等标记分类任务,具备出色的多语言处理能力。模型由Facebook AI团队开发,在Hugging Face平台开放使用。使用时需注意潜在偏见和局限性。
dive-into-llms - 大语言模型实践教程
GithubLLM人工智能大模型开源项目教程编程实践
该项目提供一系列大语言模型实践教程,涵盖模型微调、部署、提示学习、知识编辑、水印技术等多个前沿主题。通过动手实践,学习者可快速掌握大模型技术,为相关课程和研究奠定基础。教程内容源自上海交通大学课程,适合AI爱好者和研究人员学习使用。
bert-small - 轻量级BERT模型用于下游NLP任务优化
BERTGithubHuggingface人工智能开源项目模型知识蒸馏自然语言处理预训练模型
bert-small是Google BERT官方仓库转换的小型预训练模型,属于紧凑型BERT变体系列。该模型采用4层结构和512维隐藏层,为自然语言处理研究提供轻量级解决方案。在自然语言推理等任务中,bert-small展现出优秀的泛化能力,有助于推进NLI研究beyond简单启发式方法。作为下游任务优化的理想选择,bert-small为NLP领域带来新的研究与应用可能。
machine-learning-list - 机器学习入门与语言模型学习指南
ElicitGithub开源项目机器学习深度学习生产部署语言模型
这个指南旨在帮助员工掌握机器学习,尤其是语言模型的知识。内容涵盖从基础到高级,通过推荐阅读的论文和资源,了解生产部署与长期扩展的重要技术和方法。
bert-large-uncased-whole-word-masking-finetuned-squad - 全词遮蔽BERT模型在SQuAD数据集上精细调优的大型问答系统
BERTGithubHuggingface开源项目机器学习模型自然语言处理问答系统预训练模型
该项目是一个基于BERT的大型问答模型,采用全词遮蔽技术预训练,并在SQuAD数据集上精细调优。模型架构包含24层Transformer,1024维隐藏层和16个注意力头,总参数量3.36亿。在BookCorpus和英文维基百科上预训练后,可应用于多种问答任务。模型在SQuAD评估中展现出优秀性能,F1分数达93.15,精确匹配分数为86.91。
prodigy-openai-recipes - 结合OpenAI大语言模型与本地Prodigy实例,通过零次和少次学习技术,高效构建高质量数据集的方法
GithubNEROpenAIProdigyspaCytextcat开源项目
该项目展示了如何结合OpenAI大语言模型与本地Prodigy实例,通过零次和少次学习技术,高效构建高质量数据集。用户可以使用该方法进行命名实体识别和文本分类等任务,手动校正模型预测结果以提高数据准确性。项目提供详细的设置指南,帮助用户在本地安装和运行必要的软件,并配置API密钥。通过高效的数据注解流程和灵活的模板设置,用户能够快速获得金标准数据,并训练符合特定需求的监督模型。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号