#高精度
gmflow - 利用全球匹配提高光流估计的准确性与效率
GMFlow光流估计全局匹配高效率高精度Github开源项目
GMFlow将光流重新定义为全球匹配问题,简化了光流估计流程。它提供灵活的模块化设计,可以轻松构建定制模型,并在高端GPU上显著加速。该项目在Sintel基准测试中表现出高准确性和效率,预训练模型适用于FlyingChairs、FlyingThings3D和KITTI等数据集。新更新扩展了GMFlow至立体和深度任务,并提供更多速度和准确性的选择。
buddhi-128k-chat-7b-GGUF - 高效的文本生成模型量化方式,保障性能与质量
开源项目模型高精度Huggingface质量量化Githubllama.cpp
本项目通过llama.cpp的量化处理,满足多样硬件需求,提供不同文件格式。i-matrix选项的应用和各类量化方式的整合,提升了模型精度与效率。根据RAM和VRAM情况,用户可以选择合适的量化版本。通过特性图表选择K-quants或I-quants,尤其是I-quants在性能和体积方面更具优势。下载指引详细,便于用户节省存储空间并优化性能,支持多种GPU平台,适合专业用户高效部署。
japanese-sentiment-analysis - 基于chABSA数据集的日语情感分析模型,具有高准确率和F1分数
高精度模型训练japanese-sentiment-analysisHuggingfaceGithub开源项目模型情感分析数据集
此模型基于chABSA数据集构建,专为日语情感分析设计,具有极高的准确率和F1得分。使用transformers和Pytorch进行训练,可通过Python API进行访问和集成。
Reflection-70b-PreciseQuant-6bpw-gguf - 高精度量化模型 实现接近完美的性能保留
开源项目高精度性能优化Github模型HuggingfaceReflection-Llama-3.1-70B大语言模型模型量化
本项目提供Reflection-Llama-3.1-70B模型的高精度量化版本。采用精细调优的量化技术,将模型压缩至50GB,同时保持99.96%的困惑度性能。相较于常规FP8量化,精度显著提升。项目包含快速下载指南和运行说明,便于部署使用。