#Intel

IPEX-LLM:英特尔推出的高效大语言模型加速库

3 个月前
Cover of IPEX-LLM:英特尔推出的高效大语言模型加速库

AI芯片的发展现状与未来趋势

3 个月前
Cover of AI芯片的发展现状与未来趋势
相关项目
Project Cover

neon

neon是Intel推出的深度学习框架,旨在实现最佳性能,兼容多种硬件。提供全面的教程和iPython笔记本,支持卷积层、RNN、LSTM、GRU和BatchNorm等常用层。预训练模型库和示例脚本涵盖VGG、强化学习、深度残差网络等。neon v2.0.0+优化了CPU性能,集成Intel Math Kernel Library,用户可快速安装并部署在CPU、GPU或Nervana硬件上。

Project Cover

oneAPI-samples

探索Intel oneAPI工具包示例库,涵盖CPU、GPU和FPGA的多种编程示例。通过oneAPI示例目录便捷查找和获取代码,从入门到高级教程应有尽有,支持多种编程语言和目标设备。包含针对AI和图像渲染的示例,以及各操作系统的使用指南。发现更多资源和最佳实践,提升开发效率。

Project Cover

AI-Chip

提供最新AI芯片和知识产权(IP)领域的动态,包括Nvidia、Intel、Qualcomm、Tesla等公司最新消息。涵盖IC供应商、科技巨头、IP供应商和初创企业,提供全面的行业报道。了解NVIDIA Hopper架构、Intel Loihi 2、Qualcomm Cloud AI 100等前沿技术,加速云端和边缘AI应用的高效开发和部署。

Project Cover

ipex-llm-tutorial

IPEX-LLM教程提供了在英特尔XPU上使用低位大语言模型库的全面指导。内容覆盖从环境配置到高级应用开发,包括中文支持、GPU加速和模型微调等主题。本教程适合希望在英特尔硬件上开发和优化大语言模型应用的开发者,帮助他们深入了解IPEX-LLM的功能和实际应用。

Project Cover

throttled

throttled是一款针对Linux系统优化Intel CPU性能的开源工具。它通过周期性覆盖MSR和MCHBAR默认值,调整CPU功率限制和温度阈值,防止嵌入式控制器重置这些参数。此外,throttled还提供CPU降压、IccMax调整和HWP覆盖等高级功能,全面提升CPU性能。该工具适用于多种笔记本型号,可有效解决Intel CPU在Linux系统下的节流问题。

Project Cover

neural-chat-7b-v3-3

neural-chat-7b-v3-3是Intel基于Mistral-7B模型微调的大语言模型,专注提升数学推理能力。模型在多个基准测试中表现优异,支持8192个token上下文长度,提供多种精度推理选项。适用于多种语言任务,但建议部署前进行安全评估。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号