Cerebras Systems 为“地球上最快的人工智能处理器”筹集了 2.5 亿美元

Cerebras Systems Inc. 是具有 2.6 万亿个晶体管的晶圆大小人工智能芯片的开发商,已筹集了 2.5 亿美元的资金,以进一步开发其技术并扩大行业采用。

Cerebras Systems 为“地球上最快的人工智能处理器”筹集了 2.5 亿美元

企业通常在其 AI 项目中使用图形处理单元。当今市场上最快的 GPU 拥有约 540 亿个晶体管。Cerebras Systems 的芯片 WSE-2 包含 2.6 万亿个晶体管,这家初创公司表示,这使其成为“地球上最快的 AI 处理器”。

WSE-2 代表 Wafer Scale Engine 2,这是对初创公司处理器所基于的独特架构的一种认可。芯片生产的典型方法是将多达几十个处理器雕刻成硅片,然后将它们分离。Cerebras Systems 使用了一种截然不同的方法:这家初创公司将一个大型处理器刻在硅片上,而不会被分解成更小的单元。 

WSE-2 中的 2.6 万亿个晶体管被组织成 850,000 个内核。据 Cerebras Systems 称,该芯片的核心针对神经网络用于将原始数据转化为洞察力的特定类型的数学运算进行了优化。WSE-2 使用 40 GB 的快速板载内存存储由神经网络处理的数据。 

Cerebras Systems 表示,与最接近的 GPU 相比,WSE-2 的内核数量是其 123 倍,片上内存是其 1,000 倍。据初创公司称,该芯片令人印象深刻的规格为客户带来了多项好处,最显着的是提高了处理效率。 

为了与 WSE-2 芯片提供的性能相匹配,公司必须部署数十或数百个传统 GPU 服务器。AI 集群中的 GPU 服务器必须不断地相互交换数据以协调它们的工作。这种交换数据的过程会延迟计算:在开始处理之前,每个 GPU 必须等待它执行计算所需的信息从另一台服务器到达。

使用 WSE-2,数据不必在两个不同的服务器之间传输,而只需从芯片的一个部分传输到另一个部分,这代表了更短的距离。较短的距离减少了处理延迟。Cerebras Systems 表示,结果是提高了神经网络的运行速度。

WSE-2 的 40 GB 板载内存提供了另一个性能提升。神经网络通常将数据存储在外部存储器中,因为它们运行的​​芯片无法容纳所有信息。数据必须在芯片和要处理的外部存储器之间传输。相比之下,WSE-2 可以使用其板载存储器存储神经网络的所有数据,从而避免与从芯片传输到外部组件的信息相关的处理延迟。

Cerebras Systems 将 WSE-2 作为名为 CS-2 的系统的一部分进行销售。据初创公司介绍,该系统可以替代数十甚至数百台传统GPU服务器。从硬件部署的角度来看,这是一个福音,因为公司需要设置的基础设施少于传统 GPU 集群所需的基础设施,从而简化了管理员的工作。

据AnandTech 称,CS-2 系统的成本为“数百万”美元。机载风扇和其他关键组件是冗余的,这意味着如果其中一个出现故障,系统可以继续运行。管理员可以更换故障部件而不会造成任何停机时间。

Cerebras Systems 的客户包括 AstraZeneca plc、GlaxoSmithKline plc、阿贡国家实验室、劳伦斯利弗莫尔国家实验室和许多其他组织。 

Cerebras Systems 联合创始人兼首席执行官 Andrew Feldman 表示:“Cerebras 团队和我们非凡的客户取得了令人难以置信的技术突破,这些突破正在改变人工智能,使以前无法想象的事情成为可能。” “这笔新资金使我们能够将我们的全球领导地位扩展到新的地区,使人工智能民主化,并开创高性能人工智能计算的下一个时代,以帮助解决当今最紧迫的社会挑战——跨越药物发现、气候变化等等。 ”

在本轮融资之后,Cerebras Systems 计划在明年年底前将其目前的员工人数增加到 400 至 600 人。这家初创公司将特别强调雇用更多工程师来支持产品开发工作。 

本文为作者 简讯搬运工 独立观点,并不代表 我是CIO 立场。

发表评论

登录后才能评论