darthracer 发表于 2023-3-31 08:39

芯片级芯片可用于训练AI,Cerebras推人工智能开源模型抢市



大家应该记忆犹新,推出全世界最大芯片级芯片CS2的人工智能芯片创业公司Cerebras Systems日前表示,发布类似ChatGPT的开放源码模型,提供研究和商业社群免费使用,以促进更多合作。

总部位于美国加州硅谷的Cerebras发布7个模型,都在名为Andromeda的AI超级计算机训练,包括1.11亿个到130亿个参数模型。Cerebras创办人兼首席执行官Andrew Feldman表示关闭AI开放源码模型,但并不奇怪,因投资AI模型科技大厂须投入大量资金,我们构建开放源码模型造成社群兴奋,使我们更进步,很大程度就是受益于开放源码。

有更多参数的模型,就能执行越复杂的生成性AI。如OpenAI ChatGPT就有1,750亿个参数,可创作诗歌和研究,有助吸引更多人的兴趣和资金。Cerebras表示,较小模型可部署手机或智能助理,较大模型可于PC或服务器执行,适合个性应用。

对越多参数就能执行越复杂AI应用这点,Cambrian AI芯片顾问Karl Freund指越大不代表越好,据一些有趣论文,如果AI模型充分训练,小模型也颇为准确,大与训练有素需要平衡。

Andrew Feldman强调,最大模型花了一个多星期训练,通常这需要几个月,时间缩短要归功于Cerebras系统架构,包括一个芯片级大小芯片,可训练人工智能模型。目前多数AI模型都是用英伟达 (NVIDIA) GPU训练执行,不过越来越多Cerebras等创业公司试图抢占一席之地。
页: [1]
查看完整版本: 芯片级芯片可用于训练AI,Cerebras推人工智能开源模型抢市