大家好!我是舰长🙏 舰长尝试在Coze上使用Deepseek模型,用了Deepseek模型的智能体能力可以更强,Coze1月中旬就已经推出Deepseek模型,需要登入专业版使用!
图片
但同样也是很不稳定,舰长已经实测过。
图片
舰长,找到另一个方法,目可以达到自带思考过程不会直接返回结果效果,也就是Deepseek_R1的深度思考能力。
图片
接下来舰长将带大家一步一步制作出这款Deepseek智能体,首先已知Coze官方提供的Deepseek模型不能正常使用的情况下,我们需要另找方法去调用Deepseek模型。
Deepseek模型是已经开源,是可以进行本地部署的,为什么让大家不用在本地普通电脑上部署Deepseek?舰长这里有一张表,大家可以参考一下:
图片
部署Deepseek模型最好是选择32B以上的模型,也就是你的电脑配置最少需要4080以上,本地部署的成本可想而知。
那只能通过另一种方法——云部署采取调用API的方式,使用Deepseek-R1模型,舰长这里找到一个更适合做云部署的方法:硅基流动(SILICONFLOU)这个网站目前是有多款Deepseek模型可以使用,具体的大家可以登入网址查看:
接下来,进入https://cloud.siliconflow.cn/i/PJIaLykR
图片
点击右上角的按钮进行登入和注册
图片
进去之后,就是模型广场,可以看到是有很多Deepseek模型,可以直接体验。
图片
点击左侧栏的API秘钥→进行新建API秘钥
图片
打开Coze——找到工作空间中的新建插件
图片
插件信息创建
插件名称:Deepseek
插件描述:调用Deepseek
插件工具创建:在Coze IDE中创建
IDE运行时:选择Python3
图片
进去后点击在 IDE中创建
点击添加工具
图片
输入工具名称和介绍,如果想直接使用的名称一致喔:deepseek_v3)
图片
复制舰长提供的代码粘贴到代码中
第2行的名称和你的工具名称要一致,其余不动即可。
图片
代码:
from runtime import Argsfrom typings.deepseek_v3.deepseek_v3 import Input, Outputimport http.clientimport jsondef handler(args: Args[Input]) -> Output: # 从输入参数中获取用户输入的内容和 API 密钥 user_input = args.input.user_input api_key = args.input.api_key # 假设用户输入的 api_key 通过此字段传入 if not api_key: return {'message': 'API Key is missing. Please provide a valid API Key.'} # API 请求的 URL 和路径 conn = http.client.HTTPSConnection('api.siliconflow.cn') payload = json.dumps({ 'model': 'deepseek-ai/DeepSeek-R1-Distill-Llama-70B', # 使用 DeepSeek-R1 模型 'messages': [ { 'role': 'user', 'content': user_input } ], 'stream': False, 'max_tokens': 16384, 'stop': ['null'], 'temperature': 0.7, 'top_p': 0.7, 'top_k': 50, 'frequency_penalty': 0.5, 'n': 1, 'response_format': {'type': 'text'}, }) headers = { 'Authorization': f'Bearer {api_key}', # 使用用户提供的 API Key 'Content-Type': 'application/json' } # 发送 POST 请求 conn.request('POST', '/v1/chat/completions', body=payload, headers=headers) response = conn.getresponse() # 检查请求是否成功 if response.status == 200: # 解析响应数据 response_data = json.loads(response.read().decode('utf-8')) # 提取 content 和 reasoning_content content = response_data['choices'][0]['message'].get('content', '') reasoning_content = response_data['choices'][0]['message'].get('reasoning_content', '') # 返回 API 的响应内容,包括 reasoning_content return { 'reasoning_content': reasoning_content, 'message': content } else: # 如果请求失败,返回错误信息 return {'message': f'API request failed with status code {response.status}'}设置好代码后设置元数据,别忘记保存
输入参数:user_input/api_key
输出参数:reasoning_content/message
图片
这样插件就配置完毕,接下来进行测试,测试完成后就可以发布使用了。
测试代码:
{ 'user_input': '抖音爆款标题怎么写', 'api_key': '这里填写你的api'}
api_key:需要改为你的api
图片
测试完成后点击发布即可
图片
插件制作完毕现在需要搭建Coze工作流进行智能体的配置:
创建一个新的工作流,工作流的搭建很简单:
图片
开始节点
图片
插件节点:
1.需要将自己创建的插件引用到编排中
点击添加插件,在资源库工具中找到自己发布的插件
图片
2.配置输入参数
api_key:填写你的api秘钥
user_input:引用开始节点的input
图片
结束节点:
分别引用前置插件节点的两个输出参数
图片
搭建完成后,点击试运行并发布即可,为了保证输出的稳定性,因为结束节点舰长这里选择的是返回变量的方式。我们需要在制作一个Coze卡片并绑定到工作流上。
图片
直接使用AI创建即可
图片
创建好后直接发布,完成后就是最终智能体的搭建了!
创建一个智能体,并将工作流添加进来:
图片
绑定卡片
图片
选择制作好的卡片,进行数据绑定
因为reasoning_content返回的结果为思考过程,所以卡片绑定这个参数即可。
图片
本次的Deepseek模型部署、插件制作、Coze智能体的搭建教学就到此结束.
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报。