AI芯片(IC和IP)
最新动态
- 添加SambaNova的新闻。
- 添加Groq的新闻。
- 添加d-Matrix的新闻。
- 添加Neureality的新闻。
- 添加高通的新闻。
- 添加英伟达的新闻。
- 添加Cerebras的新闻。
- 添加最新MLCommons的MLPerf结果链接。
- 添加IBM AIU的新闻。
- 添加特斯拉 Dojo的新闻。
- 添加最新MLCommons的MLPerf结果链接。
- 添加Cerebras的新闻。
- 添加初创公司d-Matrix。
- 添加Tachyum Prodigy通用处理器的新闻。
- 添加Intel Habana Gaudi®2的新闻。
- 在AI编译器部分添加初创公司Modular AI。
- 添加初创公司TeraMem。
- 添加初创公司Aspinity。
- 添加Synopsys DesignWare ARC NPX6 NPU IP的新闻。
- 添加英伟达 Hopper的新闻。
- 添加Graphcore的新闻。
- 添加初创公司Ceremorphic。
- 添加Lightelligence的新闻。
- 添加最新MLCommons的MLPerf结果链接。
- 添加Cerebras的新闻。
- 添加Habana的新闻。
- 添加谷歌Tensor芯片的新闻。
- 添加英特尔Loihi 2的新闻。
- 添加特斯拉Dojo的新闻。
- 添加Untether AI的新闻。
- 添加初创公司Innatera Nanosystems。
- 添加初创公司EdgeQ。
- 添加初创公司Quadric。
- 添加初创公司Analog Inference。
- 添加Tenstorrent的新闻。
- 添加谷歌的新闻。
- 添加SiMa.ai的新闻。
- 添加初创公司Neureality。
- 添加Cerebras的新闻。
- 添加Groq的新闻。
- 添加英伟达的新闻。
- 添加SambaNova的新闻。
快捷方式
GPU
成千上万的NVIDIA GPU、NVIDIA Quantum-2 InfiniBand和完整的NVIDIA AI软件栈即将登陆Azure;NVIDIA、微软和全球企业将使用该平台进行快速、经济高效的AI开发和部署
在2022年NVIDIA GTC主题演讲中,NVIDIA CEO黄仁勋介绍了基于新NVIDIA Hopper GPU架构的新NVIDIA H100张量核心GPU。这篇文章让你深入了解新H100 GPU,并描述了NVIDIA Hopper架构GPU的重要新特性。
NVIDIA推出Grace:用于大型AI系统的高性能Arm服务器CPU
在另一个繁忙的春季GPU技术大会上,图形和加速器设计师NVIDIA宣布他们将再次设计自己的基于Arm的CPU/系统级芯片。以计算机编程先驱和美国海军后备上将Grace Hopper的名字命名,Grace CPU是NVIDIA最新的尝试,旨在通过提供高性能CPU与他们常规的GPU产品一起更全面地垂直整合他们的硬件堆栈。据NVIDIA称,该芯片专为大规模神经网络工作负载设计,预计将于2023年在NVIDIA产品中推出。
Mobileye EyeQ
Loihi
Intel发布Loihi 2、新Lava软件框架和新合作伙伴,推进神经形态计算
第二代研究芯片使用预生产阶段的Intel 4工艺,增长至100万个神经元。Intel增加了开放的软件框架,以加速开发人员的创新并向商业化迈进。
Habana
Intel Habana Labs推出用于训练和推理的第二代AI处理器
在今天的Intel Vision活动中,Intel宣布其专注于AI深度学习处理器技术的数据中心团队Habana Labs推出了第二代深度学习处理器:Habana® Gaudi®2和Habana® Greco™。这些新处理器通过为客户提供高性能、高效率的深度学习计算选择,以解决训练工作负载和数据中心推理部署中的行业差距,同时降低所有规模公司进军AI的门槛。
在2020年re:Invent中,Andy Jassy提出了创建这种新培训实例类别的主要动机:“为我们的最终客户提供高达40%的价格性能比优势,优于当前一代基于GPU的实例。”
高端移动SoC领导者已将AI应用于整个平台。
Qualcomm Cloud AI 100专为AI推理加速而设计,满足云端的独特需求,包括功耗效率、规模、工艺节点进步和信号处理——促进数据中心在边缘云上更快更高效地运行推理。Qualcomm Cloud AI 100旨在成为越来越依赖于边缘云基础设施的数据中心的领先解决方案。
三星最近发布了“新款Exynos 9810功能丰富,配有2.9GHz定制CPU、业内首款6CA LTE调制解调器和深度学习处理能力”。
这是我们第一个完整的系统级芯片,旨在比通用CPU更快更高效地运行和训练深度学习模型。
IBM Telum处理器:用于IBM Z和IBM LinuxONE的下一代微处理器
7纳米微处理器旨在满足客户在从数据中获取基于AI的洞察力方面的需求,同时不会影响高量交易工作负载的响应时间。
TrueNorth是IBM与DARPASyNAPSE项目合作开发的神经形态CMOS ASIC。
这是一个多核处理器网络芯片设计,具有4096个核心,每个核心模拟256个可编程硅“神经元”,总计超过100万个神经元。每个神经元都有256个可编程“突触”来传递信号。因此,可编程突触的总数刚刚超过2.68亿(228)。从基本的构建模块来看,其晶体管数为54亿。由于每个4096个神经突触核心都处理内存、计算和通信,TrueNorth绕过了冯·诺依曼架构瓶颈,因此非常节能,消耗70毫瓦,约为传统微处理器功率密度的1/10,000。维基百科
“IBM研究AI硬件中心是一个全球研究中心,位于纽约州奥尔巴尼。该中心专注于支持AI所需的巨大处理能力和前所未有的速度的下一代芯片和系统,以实现其全部潜力。
基于业界首款也是最具扩展性和广泛采用的数据基础设施处理器的七代,Marvell的OCTEON™、OCTEON™ Fusion和ARMADA®平台针对无线基础设施、有线运营商网络、企业和云数据中心进行了优化。
谷歌推出了最新的Pixel智能手机,在众多变化中,搜索巨头采用自家芯片是最具长期影响的一项。
谷歌首席执行官桑达尔·皮查伊在本周的Google I/O虚拟大会上,只花了1分42秒的时间介绍公司最新的TPU v4张量处理单元(TPU),但可能这是此次活动最重要和最受期待的新闻。
机器学习已经在从网络安全到医疗诊断的诸多商业和研究领域实现了突破。我们构建了张量处理单元(TPU),以便任何人都能实现类似的突破。云TPU是定制设计的机器学习专用集成电路(ASIC),为谷歌的产品如翻译、照片、搜索、助手和Gmail提供动力。以下是如何利用TPU和机器学习加速您公司的成功,特别是在大规模情况下。
如今,AI已经无处不在,从消费者到企业应用。随着连接设备的爆炸性增长,再加上对隐私/机密性、低延迟和带宽限制的需求,在云中训练的AI模型越来越需要在边缘运行。边缘TPU是谷歌专门为边缘AI设计的ASIC。它在物理和电力占用小的情况下提供高性能,使得在边缘部署高精度AI成为可能。
其他参考资料:
谷歌 TPU3 看点
谷歌 TPU 揭密
谷歌的神经网络处理器专利
脉动阵列 - 因谷歌TPU获得新生
我们都应当接受脉动阵列吗?
AWS Trainium是AWS设计的第二款定制机器学习(ML)芯片,为在云中训练深度学习模型提供最佳性价比。Trainium在Amazon EC2中提供最高性能以及最多的TFLOPS(浮点运算量),支撑最迅速的ML训练,并支持更广泛的ML应用。Trainium芯片专门针对图像分类、语义搜索、翻译、语音识别、自然语言处理和推荐引擎等应用的深度学习训练工作负载进行了优化。
AWS Inferentia。高性能机器学习推理芯片,由AWS定制设计。
AWS Inferentia以极低的成本提供高吞吐量、低延迟的推理性能。每个芯片提供数百TOPS(每秒万亿次操作)的推理吞吐量,使复杂模型能够快速做出预测。为了获得更高性能,可以将多个AWS Inferentia芯片组合使用,以驱动数千TOPS的吞吐量。AWS Inferentia将可用于Amazon SageMaker、Amazon EC2和Amazon Elastic Inference。
在2019年阿里云(Aliyun)云栖大会上,平头哥发布了首款用于云端大规模AI推理的专用处理器。汉光800是阿里巴巴成立20年来的首款半导体产品。
该公司声称,紫霄AI芯片的性能是同类竞品的两倍,沧海视频转码芯片性能提升了30%,而智能网卡玄灵更是提升了四倍。不过,它并未提供外部基准测试或具体产品细节。
中国科技巨头百度周三表示,已开始量产第二代昆仑人工智能(AI)芯片,因为它正在争取成为北京市推动的芯片产业中的关键参与者。
这款由富士通开发的DLU是从零开始创建的,并且既不基于Sparc也不基于ARM指令集。事实上,它拥有自己的指令集和专门为深度学习设计的新数据格式。 这家日本计算巨头富士通在制造高效且高度可扩展的HPC工作负载系统方面有着深厚的经验,以其K超级计算机为例。富士通认为HPC和AI架构不会融合,而是将朝着更专用的功能方向发展。
诺基亚开发了ReefShark芯片组用于其5G网络解决方案。AI在ReefShark设计中的无线电部分被植入基带中,通过增强深度学习来触发自主认知网络的智能快速响应,优化网络并增加商业机会。
据信息报导,Facebook公司(FB.O)正在开发一款机器学习芯片,用于处理如用户内容推荐等任务,报导引用了熟悉该项目的两位消息人士的话。
特斯拉在AI日上的最大新闻是Dojo超级计算机,而非Optimus机器人
埃隆·马斯克在AI日上向观众展示了Optimus人形机器人。虽然如果按马斯克建议的价格(20,000美元)量产,该机器人可能对我们的生活和社会产生巨大影响,但演示的另一部分可能会更快地改变世界。那就是Dojo超级计算机的状态报告。它可能比双足机器人更快地改变世界。
特斯拉Dojo——独特的封装和芯片设计使其比竞争AI硬件具有数量级优势
特斯拉举办了他们的AI日,展示了他们的软件和硬件基础设施的内部运作。此次展示的一部分是之前预告过的Dojo AI训练芯片。特斯拉声称他们的D1 Dojo芯片具有GPU级别的计算能力、CPU级别的灵活性,并带有网络交换IO。
专门为边缘推断设计的ML处理器为移动设备和智能IP摄像头提供了4.6 TOPs的行业领先性能,具有3 TOPs/W的惊人效率。
Arm的第二代高度可扩展高效NPU Ethos-N78,单核心性能提升2.5倍,现可通过多核技术扩展到1到10 TOP/s及更高。它提供了90多种配置,灵活优化ML能力。
新的DesignWare ARC NPX6 NPU IP为汽车、消费类和数据中心芯片设计提供高达3,500 TOPS的性能
无论您是希望拥有智能手持设备、消费产品或工业机器人,还是通过强大的云服务器实现您的愿景,我们都能帮助您实现。我们通过我们的PowerVR神经网络加速器(NNA)和GPU使您的产品智能化。我们的NC-SDK可以无缝部署AI加速,不论是独立部署还是组合部署。我们的NNA通过可扩展架构提供最高效率,支持从低性能物联网设备到高性能RoboTaxi等广泛的智能边缘和终端设备。
一种解决方案是为边缘深度学习提供专用的低功耗AI处理器,并结合深度神经网络(DNN)图形编译器
VeriSilicon的神经网络处理器(NPU)IP是一种高度可扩展、可编程的计算机视觉和人工智能处理器,支持端点、边缘设备和云设备的AI操作升级。Vivante NPU IP旨在满足各种芯片尺寸和功耗预算,是一种具有成本效益的高质量神经网络加速引擎解决方案。
Cerebras发布Andromeda,这是一台拥有1350万核心的AI超级计算机,实现大语言模型的近完美线性扩展
Andromeda提供超过1 Exaflop的AI计算能力和120 Petaflops的密集计算能力,是有史以来最大的一台AI超级计算机之一,而且操作非常简单。
我们宣布在单个设备上训练最大模型的记录。使用Cerebras软件平台(CSoft),我们的客户可以轻松在单个CS-2系统上训练最先进的GPT语言模型(如GPT-3[i]和GPT-J[ii]),参数量达200亿。这些模型在单个CS-2上设置仅需几分钟,用户可以用几下键盘快捷地在模型之间切换。而用GPU集群则需要几个月的工程工作。
Cerebras完成F轮融资,又获得2.5亿美元估值4亿美元
新一轮F轮融资为公司带来了2.5亿美元的资本,使通过风险资本筹集的总额达到7.2亿美元。
Cerebras发布第二代晶圆级引擎(WSE2):2.6万亿个晶体管,100%良率
两年前,Cerebras推出了一种硅设计革命:一个像你的头一样大的处理器,占据12英寸晶圆尽可能大的矩形面积,基于16nm工艺,专注于AI和HPC工作负载。今天,公司推出了其第二代产品,基于台积电7nm工艺,拥有两倍以上的核心和所有一切的两倍以上。
Cerebras CS-1通过比其他任何芯片都要大的方式计算深度学习AI问题
今天,公司宣布推出其终端用户计算产品Cerebras CS-1,并公告其第一个客户阿贡国家实验室。
Graphcore发布第三代智能处理单元(IPU),这是首个使用3D晶圆叠晶(WoW)技术制造的处理器。
AI芯片制造商Graphcore又筹集了1.5亿美元,估值为19.5亿美元
专为人工智能应用设计处理器的布里斯托初创公司Graphcore宣布再次筹集了1.5亿美元用于研发,并继续吸纳新客户。其估值现为19.5亿美元。
解密又一个xPU:Graphcore的IPU 给出了一些关于其IPU架构的分析。
Graphcore AI芯片:更多分析 更多分析。
深度剖析AI芯片初创公司Graphcore的IPU 在更多信息披露后进行深入分析。
Tenstorrent融资超过2亿美元,估值达到10亿美元,用于研发可编程的高性能AI计算机
多伦多,2021年5月20日/美通社/——开发下一代计算机的硬件初创公司Tenstorrent今日宣布,在最近的融资轮中已筹集超过2亿美元,使公司估值达到10亿美元。此次融资由Fidelity Management and Research Company领投,其他参与投资的还有Eclipse Ventures、Epic CG和Moore Capital。
与Tenstorrent首席执行官Ljubisa Bajic和首席技术官Jim Keller的采访
Blaize,前身为ThinCI,已完成D轮融资7100万美元。新投资者Franklin Templeton和现有投资者Temasek领投,同时还有Denso和其他新老投资者的参与。这轮融资使得Blaize的总融资额达到约1.55亿美元。
成立于2014年,总部位于加利福尼亚新瓦克的初创公司Koniku迄今为止已经获得了165万美元的融资,致力于成为“世界上第一家神经计算公司”。其理念是,既然大脑是有史以来最强大的计算机,为什么不逆向工程它呢?Koniku实际上正在将生物神经元集成到芯片上,并且已经取得了足够的进展,他们声称已获得阿斯利康作为客户。波音公司 также已经签署了意向书,计划在化学探测无人机中使用该技术。
Adapteva 目前已从包括移动巨头爱立信在内的投资者那里获得了510万美元的投资。论文《Epiphany-V:一款1024处理器64位RISC系统芯片》描述了Adapteva在16nm FinFet技术中设计的1024核处理器芯片。
我们的原型模拟AI处理器中的ResNet-50。量产版本将支持900-1000 fps和INT8精度,功耗为3瓦。
模拟AI处理器公司Mythic今天推出了其M1076模拟矩阵处理器,为低功耗AI处理提供支持。
BrainChip今日宣布其Akida神经网络处理器商业化。该处理器针对多种边缘计算和物联网(IoT)应用,BrainChip声称自己是第一个商业化生产神经形态AI芯片的公司,这种芯片在超低功耗和性能方面比传统方法更具优势。
AI处理器芯片制造商Deep Vision在B轮融资中筹集了3500万美元
老虎全球领投B轮融资,使Deep Vision能够在边缘计算应用中扩展视频分析和自然语言处理能力。
加州山景城——Groq将其第一代AI推理芯片重新定位为语言处理单元(LPU),并展示了Meta的Llama-2 700亿参数的大型语言模型(LLM),每秒每用户240个令牌的推理速度。Groq的首席执行官Jonathan Ross告诉EE Times,该公司在其基于十架(64芯片)云开发系统上的第一个AI硅中,几天内便运行了Llama-2。该系统基于该公司四年前发布的第一代AI硅片。
由前谷歌员工创立的AI芯片初创公司Groq筹集3亿美元以推动自动驾驶汽车和数据中心
Jonathan Ross离开谷歌创立下一代半导体初创公司Groq,成立于2016年。今天,总部位于加州山景城的公司宣布筹集了3亿美元,由Tiger Global Management和亿万富翁投资者Dan Sundheim的D1 Capital领投,并正式进入公众视野。
Kneron通过A轮融资超过1000万美元,加速边缘AI开发
据这篇文章称,“Gyrfalcon提供汽车AI芯片技术”
自2017年9月推出其AI加速器芯片的生产版本以来,Gyrfalcon Technology Inc.(GTI)一直在推广基于矩阵的应用特定芯片用于各种形式的AI。通过授权其专有技术,该公司认为可以帮助汽车制造商在18个月内将竞争力极强的AI芯片投入生产,并在AI性能、功耗改善和成本优势方面取得显著提高。
SambaNova以51亿美元的估值筹集6.76亿美元资金,加倍押注于云端企业AI软件今天,总部位于帕洛阿尔托的SambaNova Systems推出了一款新的AI芯片SN40L,将用于驱动其全栈大型语言模型(LLM)平台SambaNova Suite,该平台帮助企业从芯片到模型——构建和部署定制的生成性AI模型。
SambaNova——一家开发AI硬件和运行在其上的集成系统的初创公司,仅在去年12月从三年的隐秘研发中正式亮相——今天宣布了一大笔融资,用于将其业务推向世界。该公司已完成6.76亿美元的融资,联合创始人兼CEO Rodrigo Liang确认此轮D轮融资对公司估值为51亿美元。
介绍SambaNova Systems DataScale:计算新时代的到来
过去几个月里,SambaNova一直与许多组织紧密合作,并在自然语言处理(NLP)方面建立了新的技术标准。这项NLP深度学习的进步通过在SambaNova Systems的数据流优化系统上实现的击败GPU的世界纪录性能结果得以体现。
NLP技术的新标准:超越GPU
过去几个月里,SambaNova一直与许多组织紧密合作,并在NLP方面建立了新的技术标准。这项NLP深度学习的进步通过在SambaNova Systems的数据流优化系统上实现的击败GPU的世界纪录性能结果得以体现。
GreenWaves展示先进的音频演示
Gap9处理器,作为面向物联网设备中的计算机视觉的Gap8的继任者,是一种超低功耗神经网络处理器,适用于电池供电的设备。GreenWaves的市场副总裁Martin Croome告诉EE Times Europe,公司在Gap8获得听力市场的好评后,决定将Gap9专注于听力市场。
光子芯片以比GPU快100倍的速度解决最难的数学问题
光计算初创公司Lightelligence展示了一款运行Ising问题的硅光子加速器,其速度比典型的GPU设置快100多倍。
Lightmatter为光子AI芯片筹集更多资金
Lightmatter,一家由MIT分拆出来的公司,正在使用硅光子计算引擎构建AI加速器,宣布了一轮B轮融资,筹集了额外的8000万美元。这项技术基于专有的硅光子技术,通过在芯片内部操纵相干光来进行计算,非常快速且耗能极少。
“独角兽” AI芯片制造商Hailo筹集1.36亿美元
以色列AI芯片初创公司Hailo在C轮融资中筹集了1.36亿美元,使公司总融资额达到2.24亿美元。据报道,该公司已成为“独角兽”。
Tachyum推出Prodigy通用处理器
2021年5月11日——Tachyum今天推出了世界上首款通用处理器Prodigy,将CPU、GPU和TPU的功能统一到一个处理器中,形成了同质架构,同时以远低于竞争产品的成本提供了巨大的性能提升。
AlphaICs开始采样其深度学习协处理器
AlphaICs,一家开发面向智能视觉应用的边缘AI和学习硅的初创公司,正在采样其深度学习协处理器Gluon,该协处理器还配备了一个软件开发工具包。
Syntiant:模拟深度学习芯片
初创公司Syntiant Corp.是一家位于加利福尼亚州欧文的半导体公司,其CEO Kurt Busch表示,该公司由前Broadcom的顶级工程师领导,具有创新设计和生产数十亿颗芯片的经验。
百度支持神经形态芯片开发商
慕尼黑——瑞士初创公司aiCTX已从百度风投处获得150万美元的A轮前融资,以开发其低功耗神经形态计算和处理器设计的商业应用,并实现其所谓的“神经形态智能”。该公司目标是低功耗边缘计算嵌入式感知处理系统。
Flex Logix在挑战Nvidia AI中有两个赚钱的路径
这家可编程芯片公司获得了5500万美元的风险投资,使其总融资额达到8200万美元。
Preferred Networks开发用于MN-3大型集群的定制深度学习处理器MN-Core
2018年12月12日,日本东京——Preferred Networks, Inc. 今天宣布正在开发一种专门用于深度学习的处理器MN-Core(TM),并将在东京Big Site举办的2018年SEMICON Japan上展出其独立开发的深度学习硬件,包括MN-Core芯片、板卡和服务器。
AI初创公司Cornami揭示神经网络芯片的细节
隐秘初创公司Cornami周四揭示了一些其新颖芯片设计的细节以运行神经网络。CTO Paul Masters表示,芯片将最终实现20世纪70年代首次出现的技术的最佳方面。
Anaflash Inc.(圣何塞,CA)是一家初创公司,已经开发了一款测试芯片,用于展示在逻辑兼容的嵌入式闪存中进行的模拟神经计算。
Optalysys 推出全球首个商业光处理系统 FT:X 2000
Optalysys 开发了光学协处理技术,能够在与传统计算机相比大大减少能耗的情况下提供新的处理能力。它的第一个协处理器基于已建立的衍射光学方法,使用低功率激光光子的代替传统电力和电子。这种本质上并行的技术具有很高的可扩展性,成为计算的新范式。
低功率 AI 初创公司 Eta Compute 交付首批商业芯片
该公司通过新的电源管理方案摆脱了风险更高的尖峰神经网络。
Eta Compute 推出用于边缘 AI 的尖峰神经网络芯片
公司在 Arm TechCon 上表示,该芯片可以自学习并在 100 微瓦级别进行推理。
Achronix 回归提供全方位 FPGA 的市场,推出了一款新的高端 7 纳米系列,加入了加速深度学习的硅芯片淘金热。它旨在利用其 AI 模块的新设计、新的片上网络,以及使用 GDDR6 存储器,以较低的成本提供与更大对手 Intel 和 Xilinx 类似的性能。
Areanna 是由于深度学习的兴起而产生的新架构爆炸的最新例子。计算的全新方法的推出激发了业内工程师的想象力,希望成为下一个惠普。
将 NeuroBlade 地址加入到数十家 AI 芯片初创公司中。这家以色列公司刚刚完成了一轮由 Check Point Software 的创始人牵头,并由 Intel Capital 参与的 2300 万美元 A 轮融资。
Luminous Computing 开发了一种光学微芯片,可以比其他半导体更快地运行 AI 模型,同时消耗更少的能量。
芯片初创公司 Efinix 希望通过 IoT 推进 AI 的发展
六年历史的初创公司 Efinix 在由 Intel 和 Xilinx 主导的 FPGA 技术上创造了一个颇具吸引力的转折点;该公司希望其节能芯片能推动物联网中嵌入式 AI 的市场。
AIStorm 融资 1320 万美元用于 AI 边缘计算芯片
David Schie 是 Maxim、Micrel 和 Semtech 的前高管,他认为这两个市场都要迎来变革。他与 WSI、东芝和 Arm 的资深人士 Robert Barker、Andreas Sibrai 和 Cesar Matias 在 2011 年共同创立了 AIStorm,这是一家位于圣何塞的人工智能(AI)初创公司,专门开发可以直接处理来自穿戴设备、手机、汽车设备、智能音箱和其他物联网(IoT)设备数据的芯片组。
SiMa.ai 在 Dell Technologies Capital 领投的 A 轮融资中筹集了 3000 万美元
加利福尼亚州圣何塞——(商业电讯)——SiMa.ai,这家公司使高性能机器学习变得环保,今天宣布其机器学习 SoC(MLSoC)平台——行业内首个支持传统计算与高性能、低功耗、安全和可靠机器学习推理的统一解决方案。SiMa.ai 的 MLSoC 提供每瓦最高帧率,是首个在 ResNet-501 上突破 1000 FPS/W 阈值的机器学习平台。在客户参与中,该公司在广泛的嵌入式边缘应用中,通过其自动化软件流程展示了对现如今竞争解决方案的 FPS/W 提升了 10-30 倍。该平台将提供范围从 50 TOPs@5W 到 200 TOPs@20W 的机器学习解决方案,首个实现高性能推理 (10 TOPs/W) 的行业排名。
SiMa.ai™ 推出 MLSoC™ ——首款突破 1000 FPS/W 阈值并较其他解决方案提升 10-30 倍的机器学习平台
使高性能机器学习变得环保的公司 SiMa.ai 今天宣布其机器学习 SoC(MLSoC)平台——行业内首个支持传统计算与高性能、低功耗、安全和可靠机器学习推理的统一解决方案。SiMa.ai 的 MLSoC 提供每瓦最高帧率,是首个在 ResNet-501 上突破 1000 FPS/W 阈值的机器学习平台。在客户参与中,该公司在广泛的嵌入式边缘应用中,通过其自动化软件流程展示了对现如今竞争解决方案的 FPS/W 提升了 10-30 倍。该平台将提供范围从 50 TOPs@5W 到 200 TOPs@20W 的机器学习解决方案,首个实现高性能推理 (10 TOPs/W) 的行业排名。
Untether AI 筹集了 1.25 亿美元用于 AI 加速芯片
Untether AI,这家开发定制芯片以用于 AI 推理工作负载的初创公司,今天宣布获得了来自 Tracker Capital Management 和 Intel Capital 的 1.25 亿美元融资。这轮超额认购的融资还包括加拿大退休金计划投资委员会和 Radical Ventures 的参与,将用于支持客户扩展。
GrAI Matter Labs 揭示 NeuronFlow 技术并宣布 GrAIFlow SDK
GrAI Matter Labs(即 GML),作为神经形态计算的先驱,今日揭示了 NeuronFlow——一种新的可编程处理器技术,并宣布了其 GrAIFlow 软件开发工具包的早期访问计划。
Crunchbase 上的 Rain Neuromorphics
我们构建受大脑启发的人工智能处理器。我们的使命是实现大规模的脑智能。
Crunchbase 上的 Applied Brain Research
ABR 制作了世界上最先进的神经形态编译器、运行时和库,适用于新兴的神经形态计算领域。
EE Times 独家! 新芯片针对物联网设备中的 AI 驱动的语音接口——“端点最重要的 AI 工作负载”。
XMOS 推出 xcore.ai,一款用于边缘 AI 处理的强大芯片
最新的 xcore.ai 是一款交叉芯片,旨在单一设备中提供高性能 AI、数字信号处理、控制和输入/输出,价格从 1 美元起。
我们设计和生产 AI 处理器及其在数据中心运行的软件。我们独特的方法优化了推理,并专注于性能、能效和易用性;同时,我们的方法使得成本效益的训练成为可能。
我们构建高性能 AI 推理协处理器,可以无缝集成到各种计算平台中,包括数据中心、服务器、桌面、汽车和机器人。
Corerain 提供超高性能的 AI 加速芯片和全球首个基于流引擎的 AI 开发平台。
Perceive 从隐匿中崛起,推出 Ergo 边缘 AI 芯片
设备端计算解决方案初创公司 Perceive 今日从隐匿中崛起,推出其首款产品:用于 AI 推理的 Ergo 边缘处理器。首席执行官 Steve Teig 声称,这款设计用于安全摄像头、连接设备和手机等消费设备的芯片,在其类别中提供了“突破性”的精度和性能。
随着传统芯片制造商在应对快速发展的 AI 软件领域挑战方面苦苦挣扎,一家位于圣何塞的初创公司宣布其已经拥有正在运行的硅片,并开发了一种全新的、面向未来的芯片范式来解决这些问题。
SimpleMachines, Inc.(SMI)团队——包括来自 Qualcomm、Intel 和 Sun Microsystems 的顶级研究科学家和行业重量级人物——已经创建了一种首创的易于编程的高性能芯片,将加速各种 AI 和机器学习应用。
NeuReality 获得 3500 万美元用于推广 AI 加速器芯片
开发 AI 推理加速器芯片的初创公司 NeuReality 获得了 3500 万美元的新风险投资。
NeuReality 推出专注于 AI 的推理平台 NR1-P
NeuReality 推出了 NR1-P,这是一款新型的专注于 AI 的推理平台。NeuReality 已经开始向客户和合作伙伴展示其专注于 AI 的平台。NeuReality 通过开发基于新型系统芯片(SoC)的一种 AI 为中心的推理平台,重新定义了现今过时的 AI 系统架构。
NeuReality 为其新型 AI 推理平台筹集 800 万美元
以色列 AI 硬件初创公司 NeuReality 今天宣布从隐匿中崛起,并宣布完成 800 万美元的种子轮融资,该公司正在通过抛弃当前的 CPU 为中心的模式,采用一种新的方法来改进 AI 推理平台。
该公司由 Khosla Ventures 支持,正在为边缘 AI 计算开发其第一代产品。该公司在 2018 年 3 月成立后不久筹集了 450 万美元,因此最新一笔资金使得到目前为止总融资额达到了 1510 万美元。
加利福尼亚州伯林盖姆,2021 年 6 月 22 日 —— Quadric(quadric.io),一家高性能边缘处理的创新公司,推出了统一的硅和软件平台,释放了设备端 AI 的力量。
5G 是当前无线技术的革命,每家新老芯片公司都在试图渗透到这个竞争激烈但极其有利可图的市场。EdgeQ 是该领域最具趣味的新参与者之一,这家从 Qualcomm 出身的初创公司去年获得了 4000 万美元的 A 轮融资。
荷兰初创公司Innatera专注于制造用于脉冲神经网络的神经形态AI加速器,该公司已生产出其首批芯片,评估了它们的性能,并透露了其架构的详细信息。
本周,处于隐身模式的AI芯片初创公司Ceremorphic已准备推出一款面向数据中心、汽车、高性能计算、机器人及其他新兴应用领域的异构AI处理器。
机器学习(ML)是不是都需要大量的处理、DSP等等?根据Aspinity团队的说法,不一定。该公司继续在模拟领域推进。公司最新的模拟ML家族成员AML100完全在模拟域中运行。因此,它可以将始终在线系统的功耗减少95%(实际上,我们需要阅读几次才能相信)。
TetraMem在Linley 2022春季处理器大会上首次亮相的模拟内存计算技术
独家报道: AI芯片初创公司d-Matrix在微软的支持下融资1.1亿美元
9月6日(路透社)— 硅谷AI芯片初创公司d-Matrix从包括微软公司(MSFT.O)在内的投资者那里筹集了1.1亿美元,在许多芯片公司难以筹集资金的时期。
该初创公司结合了数据中心级推理的数字内存计算和芯片小块实现。
AI芯片编译器
1. pytorch/glow
2. TVM:端到端深度学习编译器栈
3. Google Tensorflow XLA
4. Nvidia TensorRT
5. PlaidML
6. nGraph
7. MIT Tiramisu编译器
8. ONNC(开放神经网络编译器)
9. MLIR:多层次中间表示
10. 张量代数编译器(taco)
11. 张量理解
12. PolyMage Labs
13. OctoML
14. Modular AI
AI芯片基准测试
-
MLPerf:广泛的机器学习基准套件,用于衡量ML软件框架、ML硬件加速器和ML云平台的性能。 您可以在这里找到最新的MLPerf结果:培训 2.1,高性能计算 2.0,推理小型 1.0。
您可以在这里找到MLPerf推理结果v2.1。
您可以在这里找到MLPerf培训结果v1.0。
参考资料
- FPGA和AI处理器:DNN和CNN适用于所有
- 12家AI硬件初创公司开发新AI芯片
- 深度神经网络硬件架构教程
- 神经网络加速器比较
- 2018年AI芯片技术白皮书。
您可以从 Google Drive下载。
- 当我们谈论AI芯片时我们在谈论什么 #1, #2, #3, #4
- AI芯片论文列表
- TPU vs GPU vs Cerebras vs Graphcore:对ML硬件的公平比较