#变压器

Yi-34B - 开源双语大语言模型Yi-34B,在语言理解和推理性能上超越多款先进模型
开源Yi大语言模型HuggingfaceGithub开源项目模型双语变压器
Yi系列的开源双语大语言模型凭借出色的语言理解和推理能力,在全球顶尖LLM排行中占据一席之地。在依托Transformer和Llama架构的基础上,Yi模型通过自有的高质量训练数据和效能优化的训练管道,实现了在多项评测中的领先表现。特别是Yi-34B-Chat模型在AlpacaEval榜单上表现出色,仅次于GPT-4 Turbo,展现出其多领域广泛应用的潜力。
rtdetr_r50vd - 全新RT-DETR模型提升精度与速度的实时物体检测方案
GithubYOLO模型目标检测开源项目实时应用RT-DETRHuggingface变压器
RT-DETR是面向实时物体检测的创新模型,通过混合编码器和最小化不确定性查询选择,实现高精度和快速检测。模型在COCO和Objects365数据集训练,支持速度调整以适应多种场景。RT-DETR-R50/R101在COCO上分别取得53.1%和54.3%的平均精度,在T4 GPU上达到108和74 FPS,性能超过YOLO模型。
mpt-1b-redpajama-200b - 适应性强的1.3B参数解码器模型
Github模型模型架构开源项目RedPajamaHuggingface训练数据变压器MPT-1b-RedPajama-200b
MPT-1b-RedPajama-200b是一个1.3B参数的解码器模型,由MosaicML在2023年4月使用RedPajama数据集训练。该模型采用改良的解码器架构,使用ALiBi和QK LayerNorm提升训练效率,不依赖位置嵌入。训练中使用了67% Common Crawl和15% C4数据,目标是复刻Llama系列的训练集。部署模型时需要启用信任远程代码,并支持优化的FlashAttention实现,助力自然语言处理研究的发展。
distilbert-base-uncased-finetuned-sst-2-english - JavaScript情感分析中的ONNX优化
Transformers.js开源项目情感分析模型GithubHuggingfaceWebML变压器ONNX
基于ONNX权重实现Transformers.js的兼容性,能够快速执行情感分析。安装Transformers.js库后,即可使用预训练模型进行高效的文本情感分析。这种方法有效提高了模型运行速度,并支持WebML,是JavaScript开发者的重要工具。
laser-dolphin-mixtral-2x7b-dpo-GGUF - 跨平台兼容的量化模型:GGUF格式的应用与性能评估
MacadelicccLaser Dolphin Mixtral 2X7B DPO量化HuggingfaceGithub开源项目模型变压器LLM
GGUF格式开创了一种新的模型优化方法,适用于多平台的机器学习应用,带来更优的性能与存储管理。该项目兼容多个用户界面,如llama.cpp和KoboldCpp,并支持多种量化文件格式,推荐选用Q4_K_M和Q5_K_M以实现性能与资源消耗的最佳平衡。
rtdetr_r50vd_coco_o365 - 首个实时无NMS的端到端物体检测模型RT-DETR
变压器Huggingface物体检测模型Github开源项目速度优化灵活调整RT-DETR
RT-DETR-R50VD COCO O365通过无NMS的端到端Transformer技术优化物体检测性能,结合高效编码器与精准查询选择,实现速度和准确度平衡。其灵活调整机制在COCO和Objects365数据集预训练中表现突出,超过传统YOLO模型。
h2o-danube2-1.8b-chat - 1.8B参数的聊天模型,提升自然语言生成效果
H2O.ai变压器h2o-danube2-1.8b-chatGithub模型开源项目大语言模型文本生成Huggingface
H2O.ai推出1.8B参数的h2o-danube2-1.8b-chat模型,基于Llama 2架构,并经过H2O LLM Studio和Mistral分词器微调。该模型适用于多种文本生成应用,支持transformers库中的集成和量化、分片设置,提升计算效率。在基准测试中表现优异,并重视负责与道德使用,欢迎用户反馈以优化性能。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号