当前位置:首页 行业动态 正文

Meta计划于2025年推出AI加速器芯片

2023-05-22

Facebook的母公司 Meta在过去几年里对元宇宙进行了大量投资,并且持续投入到相关的软硬件开发中,甚至有可能忽视了人工智能领域的最新发展趋势。不过随着生成式人工智能的兴起, Meta公司似乎也将重心转移到了人工智能上。美国当地时间星期四, Meta公司发布了两款自主研发的人工智能芯片,同时公布了他们在人工智能超级计算机领域的最新进展。

 

在过去的大约10年中, Meta已经花了数十亿美元来招募顶尖的数据科学家,并且建立了许多新的人工智能系统,这些系统现在支持的就是搜索引擎,审查过滤器,广告推荐等。但是,谷歌一直在把很多关于人工智能研究的创新变成产品方面遇到困难,特别是在产生式人工智能领域。

 

到了2022年, Meta公司才开始运行它的人工智能工作负载,它采用了 CPU以及专门设计的芯片,这些芯片是专门用来加速人工智能算法的。但是, Meta公司取消了预定在2022年大量发布的定制芯片,原因是它需要在数个数据中心中进行重大改造,转而向英伟达(Nvidia)采购了数十亿美元的 GPU。

 

为了扭转这一局面, Meta公司计划研发一款更具野心的内置芯片,计划于2025年发布。这种芯片可以用来训练人工智能的模型,并且可以用来运行这些模型。

 

Meta公司称这种新型芯片为 MetaLearning& Logistic General General Advanced Advanced Generation,简称 MTIA,是一种“芯片家族”,它可以加快人工智能的训练与推理工作量。“推理”是指运行一个训练过的模型.MTIA是一种特殊类型的集成电路,它把不同的电路集成到同一块电路板上,使之能并行地完成一项或多项任务。

 

比约林接着说:“为了提高效率和性能,我们需要一个客户化的解决方案,包括模型,软件栈,以及系统硬件。”这样才能让用户享受到更多的服务。”

 

定制化的人工智能芯片正日益成为各大技术公司的主要产品。谷歌研发的张量处理器(TPU)被用来训练大规模生成型人工智能系统,如PaLM-2、 Imagen等。亚马逊向 AWS的客户提供用于训练和推理的专利芯片。有报道称,微软正和 AMD合作,开发一种内部的人工智能芯片,叫做“雅典娜”。

 

Meta称,公司于2020年研发出第一代 MTIAV (MTIAVv1),采用7 nm工艺制造。Meta公司称, MTIA在处理“低复杂度”与“中复杂度”人工智能模型方面的效率要高于 GPU。

 

Meta认为,随着人工智能模型规模的不断扩大,在芯片存储与网络方面仍有许多问题亟待解决。看起来很巧合, Meta公司最近收购了位于奥斯陆的英国芯片“独角兽”图形核心的人工智能网络技术小组。目前, MTIA集中在“推荐工作量”方面,而非训练。

 

但 Meta强调,持续改善的 MTIA “大大”提高了企业效率,使其能够运行“更多增强”的“尖端”人工智能工作。