特别推荐>>



世界最大AI芯片诞生

发布日期:2019-08-22 06:48
摘要:Cerebras与传统思维背道而驰,开发出了世界上面积最大的芯片。这反映出多家企业制造新一代专业AI芯片的竞争到了一个关键节点。



理查德•沃特斯 旧金山报道

OR--商业新媒体 】半导体制造商之间相互竞争,希望在专业人工智能(AI)处理器这个蓬勃发展的市场上获得优势。最近,这种竞争催生出了全球最大的计算机芯片。

尽管芯片电路不断缩小,但加州初创企业Cerebras开发的这款硅晶片的表面积比标准iPad略大,是其最接近的竞争对手产品面积的56倍。它所消耗的电量相当于一个半机架中所有服务器的耗电量——机架是指数据中心里面高逾6英尺的由计算机搭成的塔。

经过近四年的研发,这款巨型芯片于周一问世。这是迄今为止最明显的一个迹象,表现出在芯片行业艰难应对AI需求之际,传统思维正受到怎样的颠覆。

这还突显出,瞄准最复杂AI问题的计算能力投入出现的巨大的飞跃。复杂的AI问题促使美国研究集团OpenAI上月从微软(Microsoft)筹集10亿美元,希望借助硬件的指数式升级,研发出达到人类智能水平的AI。

美国芯片分析师帕特里克•穆尔黑德(Patrick Moorhead)表示,大多数芯片制造商一直在致力于制造出更小的模块式元件,即所谓的“小芯片”(chiplet)。如今,最先进的芯片就是由这些小芯片组装而成的。他表示,然而Cerebras已经抛弃了这种传统的方法,它在单个芯片上构建了一个完整的计算集群。

制造新一代专业AI芯片的长达数年的竞争终于到了一个关键节点,包括英特尔(Intel)、Habana Labs和英国初创企业Graphcore在内的数家企业,要么刚刚起步,要么承诺在今年年底前向客户交付第一批芯片。Cerebras表示已经有许多客户收到了该公司制作的芯片,但并未透露这些公司的名字,尽管该公司的芯片可能最适合顶级互联网企业所运行的大规模计算任务。

逾50家企业一直在尝试开发出专业的AI芯片。其中大多数AI芯片被应用在推理(inference)上,即把经过训练的AI系统应用于真实案例中,而不是一开始就将这些芯片应用在训练深度学习模型这种更需要密集数据的工作中。有几家初创企业已经向这个难题发起挑战,例如Cerebras、Graphcore、Wave Computing,以及中国企业寒武纪(Cambricon)。

美国芯片研究公司林利集团(Linley Group)首席分析师林利•格温纳普(Linley Gwennap)表示,这些企业发运产品所需的时间之长表明,技术上的挑战远远超出了大多数人的预期。但这并没有阻止一些没有做出产品的初创企业获得高估值。Cerebras首席执行官安德鲁•费尔德曼(Andrew Feldman)表示,该公司已筹集逾2亿美元风险资本,去年年底的最新一轮融资中其估值已达到约16亿美元。

对新型AI处理器的需求,源于训练神经网络需要大量的数据。神经网络用于所谓的深度学习系统,以处理图像识别和语言理解等任务。

神经网络的运作方式就像一个巨大的反馈回路,反复利用信息,学习在无形的数据中找到模式。与必须处理许多不同计算任务的通用型中央处理器(CPU)中的核心相比,这项工作所需的芯片中的计算“核心”(也就是大脑),是相对简单的。但芯片制造商们必须找到利用大量核心的方法,以减少训练大型深度学习系统所需的时间,同时节省电力,也节省成本。

Cerebras在进行这一挑战时达到了理论上的极限,它从一个直径300毫米的圆形晶圆(wafer)上,切割下来一块单独的、正方形的芯片,这是当今芯片代工厂所能生产出来的最大的硅晶片。通常情况下,晶圆会被切割成数十片独立的芯片,因为现在并不存在一种技术能将电路蚀刻到任何面积大于一张大邮票的芯片上。为了试图克服这一局限性,Cerebras将晶圆上的许多不同部分(也就是所谓的晶片(die))连接起来,使它们能够直接相互通信,实际上就是将整个硅晶片变成了一个巨大的处理器。

大多数制造专业深度学习芯片的企业都采用了将数据推送至计算内存的设计,这些内存与该芯片的许多处理核心放在一起,这样它们处理任务时就能将可能的延迟降至最低,而且只用很少的能量就能来回传送消息。

接下来的任务是将这些核心以矩阵的形式连接起来,这样它们就可以像大脑中的突触一样相互交流。Cerebras声称,通过连接40万个核心,它已经在保持在单个芯片上处理所有进程的效率的同时,将这一处理过程推向了极限。

英特尔一直试图通过将多个单独的芯片组合在一起,形成一个庞大的阵列,从而达到同样的效果——这家公司在4年前AI竞赛刚刚开始之际就收购了AI芯片初创企业Nervana。英特尔AI项目的首席技术官阿米尔•霍斯劳沙希(Amir Khosrowshahi)表示,该公司的这一努力在过去6个月中带来了突破性进展,并将为今年晚些时候即将推出的系统带来更高的效率。

然而,穆尔黑德表示,即使英特尔成功地将数千个核心连接成一个类似矩阵的巨大系统,它也不太可能像Cerebras的芯片那样高效,因为该公司具有将所有东西都放置在单个芯片上的先天优势。■ 



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)



  相关文章
摘要:Cerebras与传统思维背道而驰,开发出了世界上面积最大的芯片。这反映出多家企业制造新一代专业AI芯片的竞争到了一个关键节点。



理查德•沃特斯 旧金山报道

OR--商业新媒体 】半导体制造商之间相互竞争,希望在专业人工智能(AI)处理器这个蓬勃发展的市场上获得优势。最近,这种竞争催生出了全球最大的计算机芯片。

尽管芯片电路不断缩小,但加州初创企业Cerebras开发的这款硅晶片的表面积比标准iPad略大,是其最接近的竞争对手产品面积的56倍。它所消耗的电量相当于一个半机架中所有服务器的耗电量——机架是指数据中心里面高逾6英尺的由计算机搭成的塔。

经过近四年的研发,这款巨型芯片于周一问世。这是迄今为止最明显的一个迹象,表现出在芯片行业艰难应对AI需求之际,传统思维正受到怎样的颠覆。

这还突显出,瞄准最复杂AI问题的计算能力投入出现的巨大的飞跃。复杂的AI问题促使美国研究集团OpenAI上月从微软(Microsoft)筹集10亿美元,希望借助硬件的指数式升级,研发出达到人类智能水平的AI。

美国芯片分析师帕特里克•穆尔黑德(Patrick Moorhead)表示,大多数芯片制造商一直在致力于制造出更小的模块式元件,即所谓的“小芯片”(chiplet)。如今,最先进的芯片就是由这些小芯片组装而成的。他表示,然而Cerebras已经抛弃了这种传统的方法,它在单个芯片上构建了一个完整的计算集群。

制造新一代专业AI芯片的长达数年的竞争终于到了一个关键节点,包括英特尔(Intel)、Habana Labs和英国初创企业Graphcore在内的数家企业,要么刚刚起步,要么承诺在今年年底前向客户交付第一批芯片。Cerebras表示已经有许多客户收到了该公司制作的芯片,但并未透露这些公司的名字,尽管该公司的芯片可能最适合顶级互联网企业所运行的大规模计算任务。

逾50家企业一直在尝试开发出专业的AI芯片。其中大多数AI芯片被应用在推理(inference)上,即把经过训练的AI系统应用于真实案例中,而不是一开始就将这些芯片应用在训练深度学习模型这种更需要密集数据的工作中。有几家初创企业已经向这个难题发起挑战,例如Cerebras、Graphcore、Wave Computing,以及中国企业寒武纪(Cambricon)。

美国芯片研究公司林利集团(Linley Group)首席分析师林利•格温纳普(Linley Gwennap)表示,这些企业发运产品所需的时间之长表明,技术上的挑战远远超出了大多数人的预期。但这并没有阻止一些没有做出产品的初创企业获得高估值。Cerebras首席执行官安德鲁•费尔德曼(Andrew Feldman)表示,该公司已筹集逾2亿美元风险资本,去年年底的最新一轮融资中其估值已达到约16亿美元。

对新型AI处理器的需求,源于训练神经网络需要大量的数据。神经网络用于所谓的深度学习系统,以处理图像识别和语言理解等任务。

神经网络的运作方式就像一个巨大的反馈回路,反复利用信息,学习在无形的数据中找到模式。与必须处理许多不同计算任务的通用型中央处理器(CPU)中的核心相比,这项工作所需的芯片中的计算“核心”(也就是大脑),是相对简单的。但芯片制造商们必须找到利用大量核心的方法,以减少训练大型深度学习系统所需的时间,同时节省电力,也节省成本。

Cerebras在进行这一挑战时达到了理论上的极限,它从一个直径300毫米的圆形晶圆(wafer)上,切割下来一块单独的、正方形的芯片,这是当今芯片代工厂所能生产出来的最大的硅晶片。通常情况下,晶圆会被切割成数十片独立的芯片,因为现在并不存在一种技术能将电路蚀刻到任何面积大于一张大邮票的芯片上。为了试图克服这一局限性,Cerebras将晶圆上的许多不同部分(也就是所谓的晶片(die))连接起来,使它们能够直接相互通信,实际上就是将整个硅晶片变成了一个巨大的处理器。

大多数制造专业深度学习芯片的企业都采用了将数据推送至计算内存的设计,这些内存与该芯片的许多处理核心放在一起,这样它们处理任务时就能将可能的延迟降至最低,而且只用很少的能量就能来回传送消息。

接下来的任务是将这些核心以矩阵的形式连接起来,这样它们就可以像大脑中的突触一样相互交流。Cerebras声称,通过连接40万个核心,它已经在保持在单个芯片上处理所有进程的效率的同时,将这一处理过程推向了极限。

英特尔一直试图通过将多个单独的芯片组合在一起,形成一个庞大的阵列,从而达到同样的效果——这家公司在4年前AI竞赛刚刚开始之际就收购了AI芯片初创企业Nervana。英特尔AI项目的首席技术官阿米尔•霍斯劳沙希(Amir Khosrowshahi)表示,该公司的这一努力在过去6个月中带来了突破性进展,并将为今年晚些时候即将推出的系统带来更高的效率。

然而,穆尔黑德表示,即使英特尔成功地将数千个核心连接成一个类似矩阵的巨大系统,它也不太可能像Cerebras的芯片那样高效,因为该公司具有将所有东西都放置在单个芯片上的先天优势。■ 



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)



  相关文章

读者评论


您可能感兴趣的资讯
OR


最新资讯
OR


摘要:Cerebras与传统思维背道而驰,开发出了世界上面积最大的芯片。这反映出多家企业制造新一代专业AI芯片的竞争到了一个关键节点。



理查德•沃特斯 旧金山报道

OR--商业新媒体 】半导体制造商之间相互竞争,希望在专业人工智能(AI)处理器这个蓬勃发展的市场上获得优势。最近,这种竞争催生出了全球最大的计算机芯片。

尽管芯片电路不断缩小,但加州初创企业Cerebras开发的这款硅晶片的表面积比标准iPad略大,是其最接近的竞争对手产品面积的56倍。它所消耗的电量相当于一个半机架中所有服务器的耗电量——机架是指数据中心里面高逾6英尺的由计算机搭成的塔。

经过近四年的研发,这款巨型芯片于周一问世。这是迄今为止最明显的一个迹象,表现出在芯片行业艰难应对AI需求之际,传统思维正受到怎样的颠覆。

这还突显出,瞄准最复杂AI问题的计算能力投入出现的巨大的飞跃。复杂的AI问题促使美国研究集团OpenAI上月从微软(Microsoft)筹集10亿美元,希望借助硬件的指数式升级,研发出达到人类智能水平的AI。

美国芯片分析师帕特里克•穆尔黑德(Patrick Moorhead)表示,大多数芯片制造商一直在致力于制造出更小的模块式元件,即所谓的“小芯片”(chiplet)。如今,最先进的芯片就是由这些小芯片组装而成的。他表示,然而Cerebras已经抛弃了这种传统的方法,它在单个芯片上构建了一个完整的计算集群。

制造新一代专业AI芯片的长达数年的竞争终于到了一个关键节点,包括英特尔(Intel)、Habana Labs和英国初创企业Graphcore在内的数家企业,要么刚刚起步,要么承诺在今年年底前向客户交付第一批芯片。Cerebras表示已经有许多客户收到了该公司制作的芯片,但并未透露这些公司的名字,尽管该公司的芯片可能最适合顶级互联网企业所运行的大规模计算任务。

逾50家企业一直在尝试开发出专业的AI芯片。其中大多数AI芯片被应用在推理(inference)上,即把经过训练的AI系统应用于真实案例中,而不是一开始就将这些芯片应用在训练深度学习模型这种更需要密集数据的工作中。有几家初创企业已经向这个难题发起挑战,例如Cerebras、Graphcore、Wave Computing,以及中国企业寒武纪(Cambricon)。

美国芯片研究公司林利集团(Linley Group)首席分析师林利•格温纳普(Linley Gwennap)表示,这些企业发运产品所需的时间之长表明,技术上的挑战远远超出了大多数人的预期。但这并没有阻止一些没有做出产品的初创企业获得高估值。Cerebras首席执行官安德鲁•费尔德曼(Andrew Feldman)表示,该公司已筹集逾2亿美元风险资本,去年年底的最新一轮融资中其估值已达到约16亿美元。

对新型AI处理器的需求,源于训练神经网络需要大量的数据。神经网络用于所谓的深度学习系统,以处理图像识别和语言理解等任务。

神经网络的运作方式就像一个巨大的反馈回路,反复利用信息,学习在无形的数据中找到模式。与必须处理许多不同计算任务的通用型中央处理器(CPU)中的核心相比,这项工作所需的芯片中的计算“核心”(也就是大脑),是相对简单的。但芯片制造商们必须找到利用大量核心的方法,以减少训练大型深度学习系统所需的时间,同时节省电力,也节省成本。

Cerebras在进行这一挑战时达到了理论上的极限,它从一个直径300毫米的圆形晶圆(wafer)上,切割下来一块单独的、正方形的芯片,这是当今芯片代工厂所能生产出来的最大的硅晶片。通常情况下,晶圆会被切割成数十片独立的芯片,因为现在并不存在一种技术能将电路蚀刻到任何面积大于一张大邮票的芯片上。为了试图克服这一局限性,Cerebras将晶圆上的许多不同部分(也就是所谓的晶片(die))连接起来,使它们能够直接相互通信,实际上就是将整个硅晶片变成了一个巨大的处理器。

大多数制造专业深度学习芯片的企业都采用了将数据推送至计算内存的设计,这些内存与该芯片的许多处理核心放在一起,这样它们处理任务时就能将可能的延迟降至最低,而且只用很少的能量就能来回传送消息。

接下来的任务是将这些核心以矩阵的形式连接起来,这样它们就可以像大脑中的突触一样相互交流。Cerebras声称,通过连接40万个核心,它已经在保持在单个芯片上处理所有进程的效率的同时,将这一处理过程推向了极限。

英特尔一直试图通过将多个单独的芯片组合在一起,形成一个庞大的阵列,从而达到同样的效果——这家公司在4年前AI竞赛刚刚开始之际就收购了AI芯片初创企业Nervana。英特尔AI项目的首席技术官阿米尔•霍斯劳沙希(Amir Khosrowshahi)表示,该公司的这一努力在过去6个月中带来了突破性进展,并将为今年晚些时候即将推出的系统带来更高的效率。

然而,穆尔黑德表示,即使英特尔成功地将数千个核心连接成一个类似矩阵的巨大系统,它也不太可能像Cerebras的芯片那样高效,因为该公司具有将所有东西都放置在单个芯片上的先天优势。■ 



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)



  相关文章



世界最大AI芯片诞生

发布日期:2019-08-22 06:48
摘要:Cerebras与传统思维背道而驰,开发出了世界上面积最大的芯片。这反映出多家企业制造新一代专业AI芯片的竞争到了一个关键节点。



理查德•沃特斯 旧金山报道

OR--商业新媒体 】半导体制造商之间相互竞争,希望在专业人工智能(AI)处理器这个蓬勃发展的市场上获得优势。最近,这种竞争催生出了全球最大的计算机芯片。

尽管芯片电路不断缩小,但加州初创企业Cerebras开发的这款硅晶片的表面积比标准iPad略大,是其最接近的竞争对手产品面积的56倍。它所消耗的电量相当于一个半机架中所有服务器的耗电量——机架是指数据中心里面高逾6英尺的由计算机搭成的塔。

经过近四年的研发,这款巨型芯片于周一问世。这是迄今为止最明显的一个迹象,表现出在芯片行业艰难应对AI需求之际,传统思维正受到怎样的颠覆。

这还突显出,瞄准最复杂AI问题的计算能力投入出现的巨大的飞跃。复杂的AI问题促使美国研究集团OpenAI上月从微软(Microsoft)筹集10亿美元,希望借助硬件的指数式升级,研发出达到人类智能水平的AI。

美国芯片分析师帕特里克•穆尔黑德(Patrick Moorhead)表示,大多数芯片制造商一直在致力于制造出更小的模块式元件,即所谓的“小芯片”(chiplet)。如今,最先进的芯片就是由这些小芯片组装而成的。他表示,然而Cerebras已经抛弃了这种传统的方法,它在单个芯片上构建了一个完整的计算集群。

制造新一代专业AI芯片的长达数年的竞争终于到了一个关键节点,包括英特尔(Intel)、Habana Labs和英国初创企业Graphcore在内的数家企业,要么刚刚起步,要么承诺在今年年底前向客户交付第一批芯片。Cerebras表示已经有许多客户收到了该公司制作的芯片,但并未透露这些公司的名字,尽管该公司的芯片可能最适合顶级互联网企业所运行的大规模计算任务。

逾50家企业一直在尝试开发出专业的AI芯片。其中大多数AI芯片被应用在推理(inference)上,即把经过训练的AI系统应用于真实案例中,而不是一开始就将这些芯片应用在训练深度学习模型这种更需要密集数据的工作中。有几家初创企业已经向这个难题发起挑战,例如Cerebras、Graphcore、Wave Computing,以及中国企业寒武纪(Cambricon)。

美国芯片研究公司林利集团(Linley Group)首席分析师林利•格温纳普(Linley Gwennap)表示,这些企业发运产品所需的时间之长表明,技术上的挑战远远超出了大多数人的预期。但这并没有阻止一些没有做出产品的初创企业获得高估值。Cerebras首席执行官安德鲁•费尔德曼(Andrew Feldman)表示,该公司已筹集逾2亿美元风险资本,去年年底的最新一轮融资中其估值已达到约16亿美元。

对新型AI处理器的需求,源于训练神经网络需要大量的数据。神经网络用于所谓的深度学习系统,以处理图像识别和语言理解等任务。

神经网络的运作方式就像一个巨大的反馈回路,反复利用信息,学习在无形的数据中找到模式。与必须处理许多不同计算任务的通用型中央处理器(CPU)中的核心相比,这项工作所需的芯片中的计算“核心”(也就是大脑),是相对简单的。但芯片制造商们必须找到利用大量核心的方法,以减少训练大型深度学习系统所需的时间,同时节省电力,也节省成本。

Cerebras在进行这一挑战时达到了理论上的极限,它从一个直径300毫米的圆形晶圆(wafer)上,切割下来一块单独的、正方形的芯片,这是当今芯片代工厂所能生产出来的最大的硅晶片。通常情况下,晶圆会被切割成数十片独立的芯片,因为现在并不存在一种技术能将电路蚀刻到任何面积大于一张大邮票的芯片上。为了试图克服这一局限性,Cerebras将晶圆上的许多不同部分(也就是所谓的晶片(die))连接起来,使它们能够直接相互通信,实际上就是将整个硅晶片变成了一个巨大的处理器。

大多数制造专业深度学习芯片的企业都采用了将数据推送至计算内存的设计,这些内存与该芯片的许多处理核心放在一起,这样它们处理任务时就能将可能的延迟降至最低,而且只用很少的能量就能来回传送消息。

接下来的任务是将这些核心以矩阵的形式连接起来,这样它们就可以像大脑中的突触一样相互交流。Cerebras声称,通过连接40万个核心,它已经在保持在单个芯片上处理所有进程的效率的同时,将这一处理过程推向了极限。

英特尔一直试图通过将多个单独的芯片组合在一起,形成一个庞大的阵列,从而达到同样的效果——这家公司在4年前AI竞赛刚刚开始之际就收购了AI芯片初创企业Nervana。英特尔AI项目的首席技术官阿米尔•霍斯劳沙希(Amir Khosrowshahi)表示,该公司的这一努力在过去6个月中带来了突破性进展,并将为今年晚些时候即将推出的系统带来更高的效率。

然而,穆尔黑德表示,即使英特尔成功地将数千个核心连接成一个类似矩阵的巨大系统,它也不太可能像Cerebras的芯片那样高效,因为该公司具有将所有东西都放置在单个芯片上的先天优势。■ 



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)



  相关文章
摘要:Cerebras与传统思维背道而驰,开发出了世界上面积最大的芯片。这反映出多家企业制造新一代专业AI芯片的竞争到了一个关键节点。



理查德•沃特斯 旧金山报道

OR--商业新媒体 】半导体制造商之间相互竞争,希望在专业人工智能(AI)处理器这个蓬勃发展的市场上获得优势。最近,这种竞争催生出了全球最大的计算机芯片。

尽管芯片电路不断缩小,但加州初创企业Cerebras开发的这款硅晶片的表面积比标准iPad略大,是其最接近的竞争对手产品面积的56倍。它所消耗的电量相当于一个半机架中所有服务器的耗电量——机架是指数据中心里面高逾6英尺的由计算机搭成的塔。

经过近四年的研发,这款巨型芯片于周一问世。这是迄今为止最明显的一个迹象,表现出在芯片行业艰难应对AI需求之际,传统思维正受到怎样的颠覆。

这还突显出,瞄准最复杂AI问题的计算能力投入出现的巨大的飞跃。复杂的AI问题促使美国研究集团OpenAI上月从微软(Microsoft)筹集10亿美元,希望借助硬件的指数式升级,研发出达到人类智能水平的AI。

美国芯片分析师帕特里克•穆尔黑德(Patrick Moorhead)表示,大多数芯片制造商一直在致力于制造出更小的模块式元件,即所谓的“小芯片”(chiplet)。如今,最先进的芯片就是由这些小芯片组装而成的。他表示,然而Cerebras已经抛弃了这种传统的方法,它在单个芯片上构建了一个完整的计算集群。

制造新一代专业AI芯片的长达数年的竞争终于到了一个关键节点,包括英特尔(Intel)、Habana Labs和英国初创企业Graphcore在内的数家企业,要么刚刚起步,要么承诺在今年年底前向客户交付第一批芯片。Cerebras表示已经有许多客户收到了该公司制作的芯片,但并未透露这些公司的名字,尽管该公司的芯片可能最适合顶级互联网企业所运行的大规模计算任务。

逾50家企业一直在尝试开发出专业的AI芯片。其中大多数AI芯片被应用在推理(inference)上,即把经过训练的AI系统应用于真实案例中,而不是一开始就将这些芯片应用在训练深度学习模型这种更需要密集数据的工作中。有几家初创企业已经向这个难题发起挑战,例如Cerebras、Graphcore、Wave Computing,以及中国企业寒武纪(Cambricon)。

美国芯片研究公司林利集团(Linley Group)首席分析师林利•格温纳普(Linley Gwennap)表示,这些企业发运产品所需的时间之长表明,技术上的挑战远远超出了大多数人的预期。但这并没有阻止一些没有做出产品的初创企业获得高估值。Cerebras首席执行官安德鲁•费尔德曼(Andrew Feldman)表示,该公司已筹集逾2亿美元风险资本,去年年底的最新一轮融资中其估值已达到约16亿美元。

对新型AI处理器的需求,源于训练神经网络需要大量的数据。神经网络用于所谓的深度学习系统,以处理图像识别和语言理解等任务。

神经网络的运作方式就像一个巨大的反馈回路,反复利用信息,学习在无形的数据中找到模式。与必须处理许多不同计算任务的通用型中央处理器(CPU)中的核心相比,这项工作所需的芯片中的计算“核心”(也就是大脑),是相对简单的。但芯片制造商们必须找到利用大量核心的方法,以减少训练大型深度学习系统所需的时间,同时节省电力,也节省成本。

Cerebras在进行这一挑战时达到了理论上的极限,它从一个直径300毫米的圆形晶圆(wafer)上,切割下来一块单独的、正方形的芯片,这是当今芯片代工厂所能生产出来的最大的硅晶片。通常情况下,晶圆会被切割成数十片独立的芯片,因为现在并不存在一种技术能将电路蚀刻到任何面积大于一张大邮票的芯片上。为了试图克服这一局限性,Cerebras将晶圆上的许多不同部分(也就是所谓的晶片(die))连接起来,使它们能够直接相互通信,实际上就是将整个硅晶片变成了一个巨大的处理器。

大多数制造专业深度学习芯片的企业都采用了将数据推送至计算内存的设计,这些内存与该芯片的许多处理核心放在一起,这样它们处理任务时就能将可能的延迟降至最低,而且只用很少的能量就能来回传送消息。

接下来的任务是将这些核心以矩阵的形式连接起来,这样它们就可以像大脑中的突触一样相互交流。Cerebras声称,通过连接40万个核心,它已经在保持在单个芯片上处理所有进程的效率的同时,将这一处理过程推向了极限。

英特尔一直试图通过将多个单独的芯片组合在一起,形成一个庞大的阵列,从而达到同样的效果——这家公司在4年前AI竞赛刚刚开始之际就收购了AI芯片初创企业Nervana。英特尔AI项目的首席技术官阿米尔•霍斯劳沙希(Amir Khosrowshahi)表示,该公司的这一努力在过去6个月中带来了突破性进展,并将为今年晚些时候即将推出的系统带来更高的效率。

然而,穆尔黑德表示,即使英特尔成功地将数千个核心连接成一个类似矩阵的巨大系统,它也不太可能像Cerebras的芯片那样高效,因为该公司具有将所有东西都放置在单个芯片上的先天优势。■ 



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)



  相关文章

读者评论


您可能感兴趣的资讯
OR



最新资讯
OR