Skip to main content

满血DeepSeek-R1的极速接入方式-火山方舟

URL Source: https://mp.weixin.qq.com/s/eRr74xPL54unc7-9WIQ9pA

最近一个月被DeepSeek R1天天刷屏后,很多人离了DeepSeek怕是都难以工作了。我一直以为用户量爆炸后,DeepSeek该离会员制不远了,我还真就挺愿意花点钱去获得更稳定的服务的。但…看来Deepseek真是对整会员向用户收钱这事无动于衷啊,官网和app还在天天搁这繁忙呢~

Image 23

所以,我上周也已经通过视频和公众号给大家推荐了

DeepSeek太卡了?这有5+1种DeepSeek R1最强满血替代方案等你查收!

因为DeepSeek是开源模型,有各种云服务厂商部署了他们的模型,通过API方式给用户提供服务,也有一些公司把DeepSeek R1接入了自己的产品,比如我上次文章中提到的AI编程工具Cursor、AI搜索产品Perplexity等。

不过,搜索、编程的使用场景毕竟还是受限,大家好像都更习惯通过chatbot的方式去使用deepseek的服务,于是各种云服务厂商引来了一波API使用用户量的爆炸,就看谁能接住这波deepseek溢出的泼天富贵了。

这几天关于哪家deepseek API服务商提供的服务更稳定、速度更快也是炒得好不热闹的。截至目前,我看到过的最公允的评测应该是「赛博禅心」公众号发出的:

Image 24

从这个评测看的话,火山和硅基流动Pro版本应该是目前最值得选择的模型,DeepSeek官方确实还是有点拉垮,和我自己的体验基本一致。这个评测还挺厉害的,推荐大家都可以去看看。

不过作为一个B站10万粉AI up主✌️,我对评测这事有点不一样的想法,我想试试怎么更视觉化的展现不同API平台的速率,而不只是看着这一串数字。于是,带着这该死的想法,我和Cursor折腾了大半天,整出了一个视觉化评测的小工具。

Image 25

我们拿两个问题试试不同平台的表现究竟怎么样👇

为了体现模型的真实速度,这两个视频都没有做任何加速。这两次测试里最拉垮的都是deepseek官方的API,都直接不给我回复了😢,三个云厂商的API产品服务至少都算是稳定,可以持续输出。

相对来说目前的速率情况是火山和硅基流动Pro都还挺快的:火山方舟 > 硅基流动Pro > 阿里云百炼 >> DeepSeek官方。

我又去字节的火山方舟平台看了下,一直到2月18号,火山的DeepSeek-R1和V3模型每百万token的输入和输出价格分别是2元和8元,是官方价格的一半,每个用户会有50万的免费token额度。

Image 26

Image 27

火山方舟的DeepSeek R1:https://console.volcengine.com/ark/region:ark+cn-beijing/model/detail?Id=deepseek-r1

不过,有一点需要注意的是,调用火山方舟的deepseek模型的话你需要非常关注模型名称model,他们的规则和别的平台不太一样,model名称不是统一的DeepSeek-R1,而是你需要去创建一个自己的端点(Endpoint_id)

所以,你的操作步骤应该是:

1、到这个界面创建端点

https://console.volcengine.com/ark/region:ark+cn-beijing/endpoint

Image 28

2、到这个界面创建API Key

https://console.volcengine.com/ark/region:ark+cn-beijing/apiKey

Image 29

3、去对应的套壳产品填入API key和模型端点信息

以CherryStudio为例的话,你需要在设置里找到「豆包」,然后在这个界面你除了需要输入API key之外,还要注意点击“添加”,把你在第1步获取的端点信息填写进去。

Image 30

Image 31

我们来感受下聊天过程有多丝滑👇

365/年

CursorAI编程知识星球

我的cursor教学视频已经超100万人观看,可能是中文互联网最佳了

立即查看800+人已加入
免费

通过Monica免费使用满血可联网DeepSeek R1

Monica接入DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5,来提升您的聊天、搜索、写作和编程体验。

立即查看一站式 AI 助手