#机器学习

imodels入门指南 - 可解释机器学习的Python利器

2 个月前
Cover of imodels入门指南 - 可解释机器学习的Python利器

DeepMoji入门学习资料汇总 - 基于12亿条推文训练的情感分析模型

2 个月前
Cover of DeepMoji入门学习资料汇总 - 基于12亿条推文训练的情感分析模型

Best_AI_paper_2020学习资料汇总 - 2020年AI领域重要论文集锦

2 个月前
Cover of Best_AI_paper_2020学习资料汇总 - 2020年AI领域重要论文集锦

clip-retrieval 学习资料汇总 - 轻松计算CLIP嵌入并构建检索系统

2 个月前
Cover of clip-retrieval 学习资料汇总 - 轻松计算CLIP嵌入并构建检索系统

AiLearning-Theory-Applying入门学习资料汇总 - 快速上手AI理论及应用实战

2 个月前
Cover of AiLearning-Theory-Applying入门学习资料汇总 - 快速上手AI理论及应用实战

ML-Notebooks学习资源汇总 - 机器学习和深度学习的Jupyter Notebook集合

2 个月前
Cover of ML-Notebooks学习资源汇总 - 机器学习和深度学习的Jupyter Notebook集合

interpret学习资料汇总 - 解释机器学习模型的开源工具包

2 个月前
Cover of interpret学习资料汇总 - 解释机器学习模型的开源工具包

awesome-generative-ai:学习资料汇总-生成式AI项目和服务的精选列表

2 个月前
Cover of awesome-generative-ai:学习资料汇总-生成式AI项目和服务的精选列表

ML-YouTube-Courses入门学习资料汇总 - 发现最新机器学习/AI课程的宝库

2 个月前
Cover of ML-YouTube-Courses入门学习资料汇总 - 发现最新机器学习/AI课程的宝库

start-llms学习资料汇总 - 从零开始掌握大语言模型的完整指南

2 个月前
Cover of start-llms学习资料汇总 - 从零开始掌握大语言模型的完整指南
相关项目
Project Cover

llama-2-ko-7b

Llama-2-Ko是基于Llama-2的语言模型,使用韩语语料库进行预训练,增强了文本生成功能。该模型提供从7B到70B参数的版本,尤其7B版本适配Hugging Face Transformers。Llama-2-Ko优化了变压器结构,增加了韩语词汇,有效生成高质量文本。项目由Junbum Lee领导,支持多参数与微调版本,应用广泛。

Project Cover

gpt2-alpaca

gpt2-alpaca 是在 Alpaca 数据集上进行指令微调的 GPT2 模型,展示了如健康饮食建议、诗歌创作及外星人视角评论等不同生成示例。在 TruthfulQA 和 Winogrande 等多项评测中取得优异成绩,并提供在 Hugging Face 开放 LLM 排行榜上的详细分析,适合研究生成模型表现的人员参考。

Project Cover

glm-4-9b-chat-1m

GLM-4-9B-Chat-1M 是智谱 AI 开发的先进预训练模型,具备网页浏览、代码执行和长文本推理等功能,支持 26 种语言,适用于需要大规模上下文处理的应用场景。最新更新提升了处理能力,支持长达 1M 上下文长度。

Project Cover

mistral-7b-instruct-v0.2-bnb-4bit

该项目介绍了一种运用Unsloth技术的模型微调方法,使Mistral、Gemma、Llama等模型实现2-5倍的速度提升,并减少70%的内存使用。用户可通过在Google Colab或Kaggle运行免费笔记本,轻松获得经过优化的模型。工具初学者友好,支持多种微调和导出格式,如GGUF、vLLM,及上传至Hugging Face,满足不同用户的需求。

Project Cover

calme-2.2-llama3-70b

模型通过DPO精调优化文本生成,基于Meta-Llama-3-70B-Instruct开发,性能在多个基准测试中表现杰出,如IFEval 82.08、HellaSwag 86.22及GSM8k 88.25分。其量化特性提升效能,适宜多种应用场景。

Project Cover

Bielik-7B-Instruct-v0.1

Bielik-7B-Instruct-v0.1 是一种微调的波兰语语言模型,利用高性能计算提升语言理解能力。该模型通过权重损失和自适应学习率等技术进行优化,显著提高了性能,并提供多种精简版本。

Project Cover

twitter-roberta-base

该模型在经过5800万推文数据训练后基于原始RoBERTa基础模型优化,旨在提高其对Twitter数据的自然语言处理性能。用户可通过TweetEval官方仓库评估该模型,示例功能包括文本预处理、掩码语言模型、推文嵌入及特征提取,适用于情感分析及文本相似度判定等用途。

Project Cover

gpt2

这是一个由OpenAI开发的大规模预训练语言模型,基于Transformer架构,通过自监督学习方式在英文语料上训练。模型核心功能是预测文本序列中的下一个词,可用于文本生成及其他自然语言处理任务。支持ONNX部署,便于开发者进行实际应用开发和模型微调。

Project Cover

gliner_small-v2.1

gliner_small-v2.1是一个基于双向Transformer架构的命名实体识别模型,具备识别任意类型实体的能力。这款模型采用166M参数规模,在保持较小资源占用的同时提供灵活的实体识别功能。模型支持英语处理,采用Apache-2.0许可证开源发布。相比传统NER模型的固定实体类型限制和大语言模型的高资源消耗,该模型提供了一个平衡的解决方案。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号