#text-generation
saiga_mistral_7b_gguf - 模型下载安装与使用指南
Github开源项目模型Huggingface模型下载系统要求text-generationLlama.cppru_turbo_saiga
该项目提供与Llama.cpp兼容的7B模型下载和指导,用户可以通过下载model-q4_K.gguf文件和使用interact_mistral_llamacpp.py脚本来运行模型。项目支持多个量化模型,最低系统要求为10GB RAM,以支持q8_0高阶量化模型进行高效运行。详细的安装和使用步骤帮助用户快速启用模型,简化文本生成任务。
gemma-2-9b-it-russian-function-calling-GGUF - Function Calling任务优化的俄语AI模型
Github开源项目模型transformersHuggingfaceDiTyrussiantext-generationFunction Calling
该模型基于Google的gemma-2-9b-it,在俄语数据集DiTy/function-calling上进行微调,以实现精确的功能调用任务。模型提供safetensors和GGUF两种格式下载选项,用户可用Python脚本配置功能调用,并通过自定义聊天模板提升功能调用的效率和智能性,适用于高精度需求场景。
Defne-llama3.1-8B - Defne-llama3.1-8B多语言微调的文本生成模型
人工智能Github开源项目模型HuggingfaceLlama-3text-generationDefne
Defne-llama3.1-8B是一个经过微调的文本生成模型,专为土耳其语数据集优化,并与VAGOsolutions的Llama-3.1-SauerkrautLM-8b-Instruct结合使用。该模型利用transformers库实现高效的多语言文本生成,支持8位加载及多设备使用,为用户带来流畅的交互体验。
Llama-3-8B-Ultra-Instruct-SaltSprinkle - 文本生成与多任务性能提升的融合模型
Github开源项目模型Huggingfacemergekittext-generationHellaSwagDAREAI推理挑战
项目利用DARE TIES方法融合NousResearch与Dampfinchen模型,提升文本生成和推理性能。在AI2推理和HellaSwag测试中表现突出,准确率分别为61.35%和77.76%。项目增强了模型的推理能力及德语和故事生成的效果。需注意,该模型可能生成有害内容,用户使用时自行承担责任。详细结果可在Open LLM Leaderboard查看。
BeagSake-7B - 高效文本生成模型的合并与性能评估
Github开源项目Hugging Face模型Huggingface模型合并text-generationAI评测BeagSake-7B
BeagSake-7B项目通过LazyMergekit工具合并了BeagleSempra-7B和WestBeagle-7B模型,以优化文本生成性能。该项目在AI2 Reasoning Challenge、HellaSwag等多项测试任务中表现优异,通过调整模型合并策略和采用float16精度,有效提升了模型的推理效率。此策略为多种语言理解任务提供了新的技术路径。