Project Icon

chinese-bert-wwm

基于全词掩码技术的中文自然语言处理模型

chinese-bert-wwm 是一个采用全词掩码技术的中文 BERT 预训练模型。该模型由哈工大讯飞联合实验室(HFL)开发,基于 Google BERT 架构,通过全词掩码方式优化中文语言理解能力。模型支持文本分类、命名实体识别等自然语言处理任务,是 MacBERT、ELECTRA 等中文预训练模型系列的重要组成部分。

hierarchical-bert-model - 层级BERT模型的实现及优化方案
Adam优化器GithubHuggingfaceKeras学习率开源项目模型模型图训练超参数
一个基于Keras框架的层级BERT模型实现,通过优化训练参数提升模型性能。模型采用float32精度训练,集成JIT编译技术,并针对性配置了学习率和优化参数。该模型主要应用于层级文本分类任务。
sentiment_analysis_model - BERT模型的情感分析应用
BERTGithubHuggingface开源项目情感分析无监督学习模型模型描述预训练
该情感分析模型基于BERT,在大规模英语语料的自监督训练基础上,具备双向语句理解能力,经过精细调优,专注于文本分类任务,该项目微调BERT模型以进行情感分析,可用于自动提取文本中的情感特征。
GPT2-Chinese - GPT2-Chinese:支持多种中文Token化和大规模语料训练
BERT分词器GPT2-ChineseGithubHuggingface中文语言模型开源项目预训练模型
GPT2-Chinese项目提供了适用于中文的GPT2训练代码,支持BERT和BPE Tokenizer,能够生成诗词、新闻、小说等内容,适用于大规模语料训练。该项目基于Pytorch实现,支持最新的预训练模型,如通用中文模型和古诗词模型。详细的模型信息可以在Huggingface Model Hub中找到。用户可以自行训练和生成文本,同时支持FP16和梯度累积。
xlm-roberta-xxl - 基于2.5TB数据训练的100语言自然语言处理模型
GithubHuggingfaceXLM-RoBERTa-XL多语言模型开源项目机器学习模型自然语言处理预训练模型
XLM-RoBERTa-XXL是一个基于2.5TB CommonCrawl数据预训练的多语言Transformer模型,支持100种语言的自然语言处理任务。通过掩码语言建模技术实现句子的双向表示学习,适用于序列分类、标记分类、问答等下游任务的微调,可应用于多语言文本分析和跨语言任务场景。
squeezebert-uncased - SqueezeBERT:提高NLP任务效率的高效开源模型
GithubHuggingfaceSqueezeBERT开源项目微调模型组卷积语言模型预训练
SqueezeBERT是一个专注于提高自然语言处理任务效率的无大小写敏感的预训练模型。其架构通过分组卷积替换点对点全连接层,使其在Google Pixel 3设备上运行速度比bert-base-uncased快4.3倍。利用Mask Language Model和Sentence Order Prediction对模型进行了预训练,所使用的数据集包括BookCorpus和English Wikipedia。尽管模型尚未微调,但SqueezeBERT为文本分类任务奠定了坚实基础,建议使用squeezebert-mnli-headless作为起点。
v3_1_pt_ep1_sft_5_based_on_llama3_1_8b_final_data_20241019 - 探索先进的自然语言处理开源模型及其实际应用
GithubHuggingfacetransformers开源项目模型模型卡环境影响训练细节语言模型
了解先进自然语言处理开源模型的信息,包括用途、评估方法及风险提示。虽然详细信息未完全披露,但以上内容可为开发和应用提供重要参考。
Chinese-Tiny-LLM - 中文大语言模型训练流程与高质量语料库开源项目
Chinese-Tiny-LLMGithub中文语料库开源项目自然语言处理语言模型预训练
Chinese-Tiny-LLM项目提供完整的中文网络语料清洗流程和预训练代码,包含MAP-CC(8000亿中文token预训练数据集)、CHC-Bench(中文难例指令理解基准测试)和CT-LLM(2B参数中文中心语言模型)。该项目突破了传统依赖英语语料库的LLM训练方法,为构建更具包容性和适应性的语言模型奠定基础。
UltraFastBERT - 指数级加速的BERT语言模型训练与推理方案
BERTGithubUltraFastBERT开源项目机器学习神经网络语言模型
UltraFastBERT是一个开源项目,旨在通过创新的快速前馈(FFF)层设计实现BERT语言模型的指数级加速。项目提供了完整的训练代码,以及在CPU、PyTorch和CUDA平台上的高效实现。包含训练文件夹、各平台基准测试代码,以及UltraFastBERT-1x11-long模型的配置和权重,可通过HuggingFace轻松加载使用。研究人员可以方便地复现结果,并进一步探索该突破性技术在自然语言处理领域的广泛应用潜力。
Chinese-LLaMA-Alpaca - 中文NLP开源模型,深化语义理解与执行技术
Github中文Alpaca中文LLaMA大模型开源开源项目指令精调
Chinese-LLaMA-Alpaca-3项目致力于提升中文NLP的处理效率和效果,通过扩展中文词表并使用中文数据进行二次预训练,大幅增强了中文文本的编解码能力。该项目提供了完善的模型下载、部署和训练指导,支持多种生态系统和快速本地部署,适合高质量文本生成和多轮对话任务。同时,通过开源和社区合作,推动开源大模型技术研究及应用。
bert-mini - 轻量级BERT模型为下游NLP任务提供高效解决方案
BERTGithubHuggingface开源项目模型模型压缩知识蒸馏自然语言处理预训练模型
bert-mini是一种轻量级BERT预训练模型,由Google BERT仓库的TensorFlow检查点转换而来。作为较小的BERT变体之一,它采用4层256隐藏单元的结构,旨在平衡性能和模型大小。bert-mini专为下游自然语言处理任务的微调而设计,为研究人员和开发者提供了一个高效、易部署的解决方案,适用于资源受限的场景。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号