一觉醒来,Coze居然开源了,本地部署教程看这一篇

AI的开源风终于吹到了智能体平台。字节Coze把大家耳熟能详的coze平台给开源了。

这就意味着coze智能体平台完全可以本地部署。本地部署后扩展性更多,比如很多人担心资料上传coze的问题,就可以得到解决。

从列出来的清单看,coze平台上的功能基本都有。

网络上不少人说这就是个乞丐版的coze平台。我部署跑了下后觉得乞丐版有点夸张了,说是阉割版比较准确。

安装过程还遇到一个问题,安装包的文件格式有问题,得手动调整下,字节的开发人员太不走心了。

下面来分享安装步骤

01

步骤一:模型配置

执行命令拉取源文件

git clone https://github.com/coze-dev/coze-studio.git


backend/conf/model/template中可以看到支持的模型配置文件,豆包, deepseek, qwen的模型都可以支持

这里用豆包的模型来进行演示。


backend/conf/model/template/model_template_ark_doubao-seed-1.6.yaml 复制到

backend/conf/model/ark_doubao-seed-1.6.yaml

如果你想同时支持多个大模型,可以把对应的模型文件都复制到backend/conf/model/

这个文件是用来配置大模型的参数,需要填入3个参数

1 id 2 api_key 3 model的endpoint

首先是id,随意填一个就好。

接下来是要填入 API KEY。

创建一个API_key,复制填入文件。

最后是model的endpoint。

进入在线推理平台,进行模型创建。

在创建的模型中选择模型,前面我用的配置文件是Doubao1.6。所以这里也必须选择Doubao1.6。

然后点击开通模型并接入。

在线推理平台上能看到模型的endpoint, 复制下来填入文件的model项。

02

步骤2:编译运行

进入docker文件夹,执行命令

cp .env.example .env docker compose --profile '*' up -d

第一次安装会遇到下面这个错误

这个问题的原因是 setup_es.sh文件是包含CRLF换行符,这个是windows格式的,但容器需要的是Linux格式: LF, 所以需要转换下

用Nodepad打开setup_es.sh文件,点击编辑->文件格式转换->转为Unit(LF)

转换成功后,文件右下方能看到格式变成了Unix。

再次重新运行,就没有任何问题了。

运行docker ps命令,可以看到opencoze已经正常运行起来,端口是8888。

03

进入Coze

浏览器中输入: http://localhost:8888

就能开始正常访问coze平台了。

注册进来的界面,果然是有点乞丐版的感觉。

插件和模版中只有少量的存在。不过也支持自定义插件。没有发现在线安装插件的。

进入工作流,打开大模型,能看到Doubao1.6。 也就是我刚刚配置的大模型。

工作流的设计和coze平台一样,支持的功能都有

写在最后

虽然功能不如coze平台完善。但此次开源意义还是比较重大,最重要的就是支持本地部署了,对于个人和企业来说,都扩展了应用场景。比如企业最担心的资料上传外网问题,本地部署后这个问题就不存在了

此次coze的开源,也算是应对dify,fastgpt, n8n平台挑战的一次正面回应吧

#AI#AI工具#智能体#Coze#字节#Agent#大模型#人工智能#coze

举报