世界上最快的 AI 模型提供商 Cerebras

前言

好久没更新文章了,关于 AIGC 相关的文章(部署、使用、MCP……),网络上可有太多现有的文章,我就不在这里过多赘述了。

但是最近我注意到了一个新的 AI 模型提供商,让我瞬间眼前一亮。

介绍给各位使用 —— Cerebras

模型对比

在测试 cerebras 前,我们先来看看其他接口模型的 Token 生成速度,我日常会使用到的提供商有:硅基流动、火山引擎包括最近开始使用的的阿里云百炼。

测试环境为:

  • Cherry Studio

模型有:

  • 硅基流动 - DeepSeek V3.1
  • 火山引擎方舟 - DeepSeek V3.1 Termius
  • 阿里云百炼国际版 - Qwen3 Max

使用的 prompt 如下,所有模型配置均为默认,没有系统提示词

1
2
3
4
5
请你帮我编写一个 React 应用程序,使用 TypeScript 语言,且不使用任何其它库,程序的内容如下

1. 一个 Todo List App,具备基本的功能(添加、删除、标记完成、取消标记等)
2. 支持为未来设定待办事项
3. 支持保存数据到本地,每次打开或刷新浏览器时都能保持数据

结果如下

提供商模型首字延迟(ms)输入Token数输出 Token 数输出耗时输出速度(Token/s)
硅基流动DeepSeek V3.1727832306121.319.01
火山引擎方舟DeepSeek V3.1 Termius71281333195.135.03
阿里云百炼国际版Qwen3 Max148788287782.235

请注意:该测试仅评估模型输出速率,不评估模型输出内容质量

基本都是在 50 T/s 以下,当然这仅仅是一个对我我常用的模型接口的随机测试,不能代表所有模型设施的性能。

Cerebras

打开 cerebras 的官网,就能看到大大的一行 “世界最快 AI 基础设施” 的字样,可见他们对自家 API 的对话生成速度非常自信

cerebras-index

文档中介绍的速度均可达到 2-3 kT/s,非常恐怖,目前支持的模型不多, qwen3-code-480b

支持模型

最后我们就来实际测试一下 cerebras,注册好账号后,生成一个 key,导入到 Cherry Studio,模型使用最快的 OpenAI GPT OSS,然后要做的,就是点击发送

提供商模型首字延迟(ms)输入Token数输出 Token 数输出耗时输出速度(Token/s)
CerebrasGPT OSS65618332651.482197.17

速度达到恐怖的 2200T/s,整个生成过程在 1.5 秒内完成

来看看实际效果,这里我录了一个视频

按下发送按钮后的不到 2 秒,整个组件的完整代码都生成完了,一气呵成。

如果把它用在代码编辑器辅助编程效果会非常爽,具体方案是 VSCode + Cline 插件,效果会非常爽,只不过一定要注意 Token 消耗,速度快了,Token 消耗也会快很多,一不小心很容易超出免费额度。

总结

Cerebras 目前知道的人并不多,价格表在 https://www.cerebras.ai/pricing

Cerebras 价格表

目前还推出了官方的 Code 服务 Cerebras Code,每天可用 2400 万 Token,最高 131k 的上下文支持,价格相较于其他代码生成服务比较贵,$50 每月,不过对于这么快的生成速度,也能接受。

至于免费版,我没有在文档中找到免费额度是每天或者每月多少,有找到的小伙伴可以说一下,免费版和付费版的输出速度是一样的,这点好评。

Licensed under CC BY-NC-SA 4.0