#日本語

japanese-reranker-cross-encoder-xsmall-v1 - 小型高效的日语Reranker模型,通过CrossEncoder技术实现精确排序
日本語CrossEncoder模型GithubReranker开源项目SentenceTransformersHuggingface
这个开源项目提供了一款专为日语环境设计的小型Reranker模型,采用CrossEncoder技术实现精确排序。模型具备6层架构和384隐藏单元,支持GPU加速,可在多种应用场景中表现优秀。通过SentenceTransformers和HuggingFace库,模型支持在JQaRA和JGLUE等多个数据集上的应用,以实现广泛的适用性和性能提升。
Meta-Llama-3.1-8B-Instruct-plus-Swallow - 日本语流畅度提升:Meta-Llama-3.1新版本兼容Llama-3
Github模型Meta Llama-3.1开源项目模型升级HuggingfaceLlama-3日本語Swallow-8B
Swallow-8B通过持续的日语预训练提高语言流畅度,并在Meta-Llama-3.1-8B-Instruct新版本中升级整合。该项目结合了tokyotech-llm的技术,增强了模型的日语处理能力。Meta-Llama-3.1-8B-Instruct以保留优势为基础,与Llama-3-Swallow-8B的差分向量融合,实现技术与功能的提升。
deberta-v2-base-japanese-char-wwm - 日语DeBERTa V2模型实现字符级遮蔽与预训练
开源项目自然语言处理字符级别模型HuggingfaceDeBERTa V2transformers日本語Github
该项目介绍了日语DeBERTa V2 base模型,该模型在日语Wikipedia、CC-100和OSCAR数据集上进行字符级分词和整体词遮蔽的预训练,可用于掩码语言建模及下游任务微调,采用了22,012个字符级子词的sentencepiece分词模型,通过transformers库进行训练。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号