#TinyLlama
OnnxStream: 轻量级ONNX推理引擎助力边缘设备运行大型AI模型
2 个月前
相关项目
OnnxStream
OnnxStream专为优化内存使用而设计,支持在低资源设备上高效运行大型模型如Stable Diffusion和TinyLlama。在仅有512MB RAM的Raspberry Pi Zero 2上,实现图像生成和语言模型推理,而无需额外交换空间或磁盘写入。通过解耦推理引擎与模型权重组件,OnnxStream显著降低内存消耗,提供轻量且高效的推理解决方案。其静态量化和注意力切片技术增强了多种应用中的适应性和性能。
TinyLlama
TinyLlama是一个使用3万亿token预训练的1.1B参数语言模型。它与Llama 2架构兼容,可集成到现有Llama项目中。TinyLlama体积小巧,适用于计算和内存受限的场景。该项目开源了预训练和微调代码,具有高效的训练和推理性能。TinyLlama可应用于推测解码、边缘计算和实时对话等领域。