发布时间:2025-12-21
浏览次数:0
https://.com/coze-dev/coze-
Coze是个开发平台,它集成了好些可视化工具,目的在于让Agent的创建过程、调试过程以及部署过程,都变得极为简单,是以前从未有过的那种简单。开发者可对其进行私有化部署,借此在自身的环境里构建AI应用,还能管理AI应用。
核心功能与特性:功能清单
功能模块
功能点
模型服务
管理模型列表,可接入、火山方舟 等在线或离线模型服务
搭建智能体
* 编排、发布、管理智能体* 支持配置工作流、知识库等资源
搭建应用
* 创建、发布应用* 通过工作流搭建业务逻辑
搭建工作流
创建、修改、发布、删除工作流
开发资源
做到对于以下这些资源的创建以及管理予以支持:其一为插件,其二是知识库,其三是数据库,其四乃提示词 。
API 与 SDK
发起对话,创建会话等,借助 Chat SDK 把智能体或者应用整合于自身的应用 。
快速开始
须知怎样去获取,而后进行部署,此部署对象为 Coze 开源版,接着要快速构建项目,又要去体验 Coze 开源版。
详细步骤及部署要求可参考快速开始。
环境要求:
本项目采用 2.0 许可证。详情请参阅 文件。
2. 安装踩坑及问题解决安装步骤
环境安装,步骤如官方他文档
先执行git clone操作,其中链接为https://.com/coze-dev/coze-.git ,是这样吧。
2,配置大模型服务()
默认的建议是配置豆包,即cp
斜线,配置,模型,双斜线,欧宝种子号,一点六,yaml文件路径 。
执行进入目录 /conf/model 的操作,之后按要求打开复制后的文件 -seed-1.6.yaml,该文件位于 /conf/model/ 路径下,随后再开展设置相应的行为。
我配置的是,配置参数参考:
这是链接🔗,那是关于“coze-dev”里“coze-”下“wiki”中的“3.-模式配置”的链接,形式为“https://.com/coze-dev/coze-/wiki/3.-%E6%A8%A1%E5%9E%8B%E9。
具体步骤如下
复制,后端目录下的配置文件夹中的模型文件夹里的模板文件夹中的模型模板奥拉马配置文件,到,后端目录下的配置文件夹中的奥拉马配置文件 。
然后修改
/conf/model/.yaml
这句话实在太混乱无序,难以通顺理解并进行有效改写,你可以检查一下内容是否准确完整,以便我能更好地为你处理 。
具体的.yaml,位于http://host..:11434"那里头。
id: 2003
name: qwen3:0.6b
icon_uri,它是default_icon,其中是ollama.png 。
icon_url: ""
description:
zh: ollama 模型简介
en: ollama model description
default_parameters:
- name: temperature
label:
zh: 生成随机性
en: Temperature
desc:
‘- **温度**:将温度调高,会使该模型的输出具备更多样性以及创新性,相反的,要是把温度降低,会让输出内容更遵循指令要求,然而却会减少多样性。建议不要与“Top p”一同进行调整。’。
type: float
min: "0"
max: "1"
default_val:
balance: "0.8"
creative: "1"
default_val: "1.0"
precise: "0.3"
precision: 1
options: []
style:
widget: slider
label:
zh: 生成多样性
en: Generation diversity
- name: max_tokens
label:
zh: 最大回复长度
en: Response max length
desc:
在进行相关操作时,对于控制模型输出这一行为而言,存在着Tokens长度上限的情况,一般来说,100 Tokens大约等同于150个中文汉字。
type: int
min: "1"
max: "4096"
default_val:
default_val: "4096"
options: []
style:
widget: slider
label:
zh: 输入及输出设置
en: Input and output settings
meta:
name: qwen3:0.6b
protocol: ollama
capability:
function_call: true
input_modal:
- text
input_tokens: 128000
json_mode: false
max_tokens: 128000
output_modal:
- text
output_tokens: 16384
prefix_caching: false
reasoning: false
prefill_response: false
conn_config:
base_url 是这样的,它呈现为 "http://host.docker.internal:11434" 。 ,。
api_key: ""
timeout: 0s
model: "qwen3:0.6b"
temperature: 0.6
frequency_penalty: 0
presence_penalty: 0
max_tokens: 4096
top_p: 0.95
top_k: 20
stop: []
openai: null
claude: null
ark: null
deepseek: null
qwen: null
gemini: null
custom: {}
status: 0
3,启动服务
cd docker
cp .env.example .env
使用docker compose,应用 --profile '*' 这个配置,执行up -d操作 。
如果下载镜像失败可以找一个国内的镜像源。
启动问题
我在下载镜像后, 启动的时候报错,错误信息如下:
coze-elasticsearch-setup|加上,/setup_es.sh,。
coze - elasticsearch - setup ,| /bin/sh ,: /setup_es.sh ,: 未找到 。
找到对应的-.yml文件内容:
elasticsearch-setup:
image: alpine/curl:8.12.1
用于容器的名字是,coze-elasticsearch-setup , 。
配置文件:[ '中间件', '火山设置' ] ,这样的表述拆分成小分句就是:包含配置文件呈现出这样子的内容,其中有 '中间件' ,还有 '火山设置' 。
env_file: *env_file
depends_on:
elasticsearch:
condition: service_healthy
volumes:
设置Elasticsearch的脚本路径为,点斜杠volumes目录下的elasticsearch文件夹中的setup_es.sh文件,具体路径为setup_es.sh 。
点斜杠 volumes 斜杠 elasticsearch 斜杠 es_index_schema 冒号斜杠 es_index_schema 。
command:
- /bin/sh
- -c
- |
set -ex
/setup_es.sh
这样改写:回显,单引号里面是,“Elasticsearch安装妥当。”结果。
初步分析就是没有找到
.///.shsublime text snippet,实际看了一下代码库sublime text snippet,这个文件是存在的。
问题分析与解决
要用的是上启动的那个,在11上进行使用,情况会存在些许不同,这是因为它实际上运行于一个轻量级的Linux虚拟机当中,也就是WSL 2后端,考虑到兴许是“文件换行符格式 (CRLF同LF)” 。
这是 和 Linux 混合开发环境中最常见的问题。
当转换得以完成之后,并不需要进行重启操作,仅需直接再次运行up就行,如此一来问题便被解决了。
3. 应用测试
开启之后,要是未曾进行端口的修改操作,便径直去访问,网址是:http://:8888/ 。
首次登录,直接输入邮箱,密码,点击注册即可。主界面如下:
创建一个新的智能体:
模型选择qwen3:0.6b即可
又是扑面而来的,coze的味道
进行了一番简单的尝试,总体而言与http://coze.cn相近,然而众多插件得由自己去处理授权事项了 。
后续准备深入做几个案例测试一下。
——完——
@北方的郎 · 专注模型与代码
喜欢的朋友,欢迎赞同、关注、分享三连 ^O^
如有侵权请联系删除!
Copyright © 2023 江苏优软数字科技有限公司 All Rights Reserved.正版sublime text、Codejock、IntelliJ IDEA、sketch、Mestrenova、DNAstar服务提供商
13262879759
微信二维码