Compare commits

..

3 Commits

Author SHA1 Message Date
edd19df2a2 feat: 088
Some checks failed
Deploy Hugo site to Pages / build (push) Has been cancelled
Deploy Hugo site to Pages / deploy (push) Has been cancelled
2025-11-10 15:19:06 +08:00
6f140c7845 update: theme-stack to 3.32.0 2025-11-10 14:00:10 +08:00
22f5378e54 update: code font to MapleMono 2025-11-10 13:50:11 +08:00
4 changed files with 94 additions and 6 deletions

View File

@@ -79,7 +79,7 @@
* Global font family * Global font family
*/ */
:root { :root {
--code-font-family: 'Jetbrains Mono', Menlo, Monaco, Consolas, 'Courier New', --code-font-family: 'Maple Font Mono', Menlo, Monaco, Consolas, 'Courier New',
var(--zh-font-family), monospace; var(--zh-font-family), monospace;
} }

View File

@@ -0,0 +1,88 @@
---
title: "世界上最快的 AI 模型提供商 Cerebras"
categories: [ "AIGC" ]
tags: [ "ai", "llm" ]
draft: false
slug: "cerebras"
date: "2025-11-10T13:51:00+0800"
---
## 前言
好久没更新文章了,关于 AIGC 相关的文章部署、使用、MCP……网络上可有太多现有的文章我就不在这里过多赘述了。
但是最近我注意到了一个新的 AI 模型提供商,让我瞬间眼前一亮。
介绍给各位使用 —— Cerebras
## 模型对比
在测试 cerebras 前,我们先来看看其他接口模型的 Token 生成速度,我日常会使用到的提供商有:硅基流动、火山引擎包括最近开始使用的的阿里云百炼。
测试环境为:
- Cherry Studio
模型有:
- 硅基流动 - DeepSeek V3.1
- 火山引擎方舟 - DeepSeek V3.1 Termius
- 阿里云百炼国际版 - Qwen3 Max
使用的 prompt 如下,所有模型配置均为默认,没有系统提示词
> 请注意:该测试仅评估模型输出速率,不评估模型输出内容质量
```text
请你帮我编写一个 React 应用程序,使用 TypeScript 语言,且不使用任何其它库,程序的内容如下
1. 一个 Todo List App具备基本的功能添加、删除、标记完成、取消标记等
2. 支持为未来设定待办事项
3. 支持保存数据到本地,每次打开或刷新浏览器时都能保持数据
```
结果如下
| 提供商 | 模型 | 首字延迟ms | 输入Token数 | 输出 Token 数 | 输出耗时 | 输出速度Token/s |
| ---------------- | --------------------- | -------------- | ----------- | ------------- | -------- | ------------------- |
| 硅基流动 | DeepSeek V3.1 | 727 | 83 | 2306 | 121.3 | 19.01 |
| 火山引擎方舟 | DeepSeek V3.1 Termius | 712 | 81 | 3331 | 95.1 | 35.03 |
| 阿里云百炼国际版 | Qwen3 Max | 1487 | 88 | 2877 | 82.2 | 35 |
基本都是在 50 T/s 以下,当然这仅仅是一个对我我常用的模型接口的随机测试,不能代表所有模型设施的性能。
## Cerebras
打开 cerebras 的官网,就能看到大大的一行 “世界最快 AI 基础设施” 的字样,可见他们对自家 API 的对话生成速度非常自信
![cerebras-index](https://cdn.taurusxin.com/hugo/2025/11/10/cerebras-index.png)
文档中介绍的速度均可达到 2-3 kT/s非常恐怖目前支持的模型不多 `qwen3-code-480b`
![支持模型](https://cdn.taurusxin.com/hugo/2025/11/10/model-speed.png)
最后我们就来实际测试一下 cerebras注册好账号后生成一个 key导入到 Cherry Studio模型使用最快的 `OpenAI GPT OSS`,然后要做的,就是点击发送
| 提供商 | 模型 | 首字延迟ms | 输入Token数 | 输出 Token 数 | 输出耗时 | 输出速度Token/s |
| -------- | ------- | -------------- | ----------- | ------------- | -------- | ------------------- |
| Cerebras | GPT OSS | 656 | 183 | 3265 | 1.48 | 2197.17 |
速度达到恐怖的 2200T/s整个生成过程在 1.5 秒内完成
来看看实际效果,这里我录了一个视频
{{< video "https://cdn.taurusxin.com/hugo/2025/11/10/cerebras-gptoss.mov" >}}
按下发送按钮后的一瞬间,整个代码都生成完了,一气呵成,。如果把它用在代码编辑器辅助编程,不敢想有多爽。
## 总结
这个平台目前知道的人并不多,价格表在 <https://www.cerebras.ai/pricing>
![Cerebras 价格表](https://cdn.taurusxin.com/hugo/2025/11/10/cerebras-pricing.png)
目前还推出了官方的 Code 服务 `Cerebras Code`,每天可用 2400 万 Token最高 131k 的上下文支持,价格相较于其他代码生成服务比较贵,$50 每月,不过对于这么快的生成速度,也能接受。
至于免费版,我没有在文档中找到免费额度是每天或者每月多少,有找到的小伙伴可以说一下,免费版和付费版的输出速度是一样的,这点好评。

View File

@@ -16,10 +16,10 @@
<style> <style>
@font-face{ @font-face{
font-family: 'JetBrains Mono'; font-family: 'Maple Font Mono';
src: url('https://cdn.taurusxin.com/hugo/assets/fonts/JetBrainsMono/JetBrainsMono-Regular.woff2') format('woff2'), src: url('https://cdn.taurusxin.com/hugo/assets/fonts/MapleFontMono/MapleMono-Regular.woff2') format('woff2'),
url('https://cdn.taurusxin.com/hugo/assets/fonts/JetBrainsMono/JetBrainsMono-Regular.woff') format('woff'), url('https://cdn.taurusxin.com/hugo/assets/fonts/MapleFontMono/MapleMono-Regular.woff') format('woff'),
url('https://cdn.taurusxin.com/hugo/assets/fonts/JetBrainsMono/JetBrainsMono-Regular.ttf') format('truetype'); url('https://cdn.taurusxin.com/hugo/assets/fonts/MapleFontMono/MapleMono-Regular.ttf') format('truetype');
font-weight: 400; font-weight: 400;
font-style: normal; font-style: normal;
} }