#开源项目
mlx-llm 学习资源汇总 - 在Apple芯片上实时运行大型语言模型的工具库
Yi-Coder-9B-Chat-GGUF
Yi-Coder-9B-Chat经过Llamacpp的imatrix选项量化处理,增强了在不同硬件上的推理能力。用户能根据自身需求从Q8_0、Q6_K_L等多种量化模型中选择,以适应不同的RAM和VRAM配置。更新内容包括分词器修复,所有文件均可在LM Studio中运行。项目亦提供对ARM芯片优化的Q4_0_X_X文件,用户可通过huggingface-cli下载具体量化模型并查看硬件兼容性和使用建议。
bert-base-japanese-upos
此模型在日语维基百科文本上进行预训练,支持词性标注和依存解析等任务。它衍生自bert-base-japanese-char-extended,利用UPOS体系为短单位词标注。通过Python代码,用户能方便地进行文本处理和结构解析,适合希望高效处理日语文本的用户。该模型具有良好的兼容性,可通过Huggingface平台使用。
Mistral-7B-Instruct-v0.3-GGUF
Mistral 7B Instruct v0.3是一款经过优化的指令跟随模型,新增功能调用支持进一步扩展应用范围,增强助理功能。此版本引入扩展词汇表和新的分词器,支持功能调用。模型由Mistral AI创建,GGUF量化由bartowski提供。提醒:本社区模型由第三方提供,用户需自行负责内容的准确和适用性。
text2vec-large-chinese
基于text2vec衍生的中文模型,采用LERT替代MacBERT,提高句子相似性和特征提取效率。支持onnxruntime,发布于2024年6月25日。
trocr-base-stage1
此预训练模型使用Transformer进行光学字符识别(OCR),为TrOCR模型的一部分。其图像编码器采用BEiT权重初始化,文本解码器则使用RoBERTa权重,处理图像为固定大小的16x16像素块并线性嵌入。适用于单行文本图像的OCR任务,并支持针对特定任务进行微调,兼容PyTorch实现。
subnet9_Aug17
文档介绍了transformers库中的模型,涵盖开发细节、使用场景及局限性。根据模型卡的建议,用户可以了解模型的偏见、风险和局限,及如何开始使用。简要说明了性能评估、环境影响和技术规格,并提供起步代码和细节。详细信息建议查看相关存储库和文献。
blinkshot
BlinkShot是由Flux Schnell和Together AI技术支持的开源AI图像生成工具,使用Next.js和Tailwind框架构建,并集成Helicone的数据可视化及Plausible网站分析功能。项目的未来发展方向包括提供下载按钮、邮件认证、剩余积分提示及图像库功能。用户可通过克隆仓库并在本地运行体验该工具。
dolphin-2.5-mixtral-8x7b-GGUF
Dolphin 2.5 Mixtral 8X7B是Eric Hartford推出的一款采用GGUF格式的模型。它支持多种比特选项的量化推理,并兼容llama.cpp、KoboldCpp、LM Studio等环境。模型设计注重性能与资源平衡,适合多种应用场景。
clip4clip-webvid150k
CLIP4Clip结合CLIP模型和WebVid数据集,成功在视频文本检索中提高精度,利用150,000个视频文本对的训练提升性能。此模型擅长处理大规模视频数据,具备视觉-时间概念学习能力,适合高效视频搜索应用。其架构支持文本到视频的快速检索,提升搜索效率。