#希伯来语
Notebooks - 开源希伯来语Python编程教学项目
Python编程教育免费课程希伯来语Jupyter NotebookGithub开源项目
Notebooks项目提供希伯来语Python编程教学资源,包含Jupyter笔记本形式的课程内容。教材涵盖丰富的编程知识、示例和练习题,基于十年教学经验编写,并持续更新。课程设计建议学习者每个笔记本用1-3天学习并完成练习。项目目标是以直观便捷的方式普及编程知识,为希伯来语使用者提供优质的开源学习材料。
dictalm2.0 - 探索专注于希伯来语词汇与指令优化的生成式语言模型
开源项目模型GithubHuggingface文本生成希伯来语大语言模型预训练DictaLM 2.0
DictaLM-2.0是一种具有70亿参数的预训练生成文本模型,专门用于处理希伯来语文本,增强了词汇和指令功能。模型基于Mistral-7B-v0.1结构,扩充了1000个专属希伯来语词以提升压缩率,并在超过1900亿的自然文本数据上进行持续预训练,包含50%希伯来语和50%英语文本。提供高精度基模型和量化版本,适用于多种应用需求。用户可通过Python代码示例轻松加载和使用。此模型不内含内容审查机制,适合语言模型的专业研究。
dictalm2.0-instruct-fine-tuned - 优化的希伯来语问答生成模型
ronigold/dictalm2.0-instruct-fine-tuned模型Github开源项目希伯来语问题答案生成自然语言处理模型微调Huggingface
本项目提供了一种专门针对希伯来语问答生成而优化的模型,适用于教育和信息化应用。通过从希伯来语维基百科提取数据进行微调,增强了模型生成自然问答对的能力。在使用于敏感领域时,建议引入人工监督以规避潜在训练数据偏见造成的问题。
hebert-finetuned-hebrew-metaphor - heBERT微调模型实现希伯来语隐喻检测 准确率达95.10%
heBERT开源项目希伯来语模型Github自然语言处理Huggingface模型训练隐喻识别
该项目为基于avichr/heBERT的希伯来语隐喻检测微调模型。模型在HebrewMetaphors数据集上训练,可识别20个希伯来语动词的隐喻用法。经过Adam优化器和线性学习率调度器的训练,模型在验证集上达到95.10%的准确率。这是以色列理工学院电气工程与计算机科学学院研究团队的成果。
dictabert-joint - 基于BERT的希伯来语多任务自然语言处理模型
语法分析语言模型Github模型希伯来语自然语言处理DictaBERTHuggingface开源项目
DictaBERT-joint是一个针对希伯来语的多任务语言处理模型,集成了前缀分割、形态消歧、词形还原、句法分析和命名实体识别功能。模型提供JSON、UD和IAHLT-UD三种数据格式输出,支持按需初始化不同任务模块。
alephbert-base - 优化希伯来语自然语言处理的先进语言模型
语言模型Github开源项目AlephBERTBERT架构希伯来语Huggingface训练数据模型
AlephBERT是一个基于Google BERT架构的希伯来语语言模型。这一模型利用了来自OSCAR、Wikipedia以及Twitter的丰富语料,提升了自然语言处理的表现。训练过程中使用了Masked Language Model损失优化策略,提高了效率和准确性。通过Huggingface的Transformer库,用户能够轻松集成这一模型,满足多种自然语言处理需求。
Hebrew-Mistral-7B - 面向希伯来语和英语的通用大型语言模型
Hebrew-Mistral-7BHuggingface开源项目模型希伯来语Github开源自然语言处理大语言模型
Hebrew-Mistral-7B是一款开源的大型语言模型,参数量达到70亿,专注于希伯来语和英语的语言理解与生成。基于Mistral-7B-v1.0,模型适用于多种自然语言处理任务,包含64,000个词元,提升了希伯来语和英语的语言处理能力。
dictalm2.0-instruct - 支持对话功能的希伯来语大型语言模型
自然语言生成开源项目模型GithubHuggingface指令微调希伯来语语言模型DictaLM-2.0
通过对DictaLM-2.0模型的指令调优,此项目提升了大型语言模型在希伯来语环境下的指令执行和词汇能力。采用高精度配置和扩展的希伯来语指令数据集,遵循Zephyr-7B-beta的调整方案,专为对话设计,旨在提供流畅的聊天体验。尽管表现出色,但尚未集成内容审核机制,项目期待与社区合作,优化模型在内容监控环境中的应用。