pg电子免费旋转退出后

别再相信本地部属deepseek啦,在扣子(coze)搭建自己专属的deepseek插件它不香吗?手把手教学,快看看
栏目分类
别再相信本地部属deepseek啦,在扣子(coze)搭建自己专属的deepseek插件它不香吗?手把手教学,快看看
发布日期:2025-03-07 13:38    点击次数:120
🎉

      大家好!我是舰长🙏 舰长尝试在Coze上使用Deepseek模型,用了Deepseek模型的智能体能力可以更强,Coze1月中旬就已经推出Deepseek模型,需要登入专业版使用! 

图片

但同样也是很不稳定,舰长已经实测过。 

图片

舰长,找到另一个方法,目可以达到自带思考过程不会直接返回结果效果,也就是Deepseek_R1的深度思考能力。 

图片

     接下来舰长将带大家一步一步制作出这款Deepseek智能体,首先已知Coze官方提供的Deepseek模型不能正常使用的情况下,我们需要另找方法去调用Deepseek模型。 

Deepseek模型是已经开源,是可以进行本地部署的,为什么让大家不用在本地普通电脑上部署Deepseek?舰长这里有一张表,大家可以参考一下: 

图片

部署Deepseek模型最好是选择32B以上的模型,也就是你的电脑配置最少需要4080以上,本地部署的成本可想而知。 

那只能通过另一种方法——云部署采取调用API的方式,使用Deepseek-R1模型,舰长这里找到一个更适合做云部署的方法:硅基流动(SILICONFLOU)这个网站目前是有多款Deepseek模型可以使用,具体的大家可以登入网址查看:

 接下来,进入https://cloud.siliconflow.cn/i/PJIaLykR

图片

点击右上角的按钮进行登入和注册 

图片

进去之后,就是模型广场,可以看到是有很多Deepseek模型,可以直接体验。 

图片

点击左侧栏的API秘钥→进行新建API秘钥 

图片

打开Coze——找到工作空间中的新建插件 

图片

插件信息创建 

插件名称:Deepseek 

插件描述:调用Deepseek 

插件工具创建:在Coze IDE中创建 

IDE运行时:选择Python3 

图片

进去后点击在 IDE中创建 

点击添加工具 

图片

输入工具名称和介绍,如果想直接使用的名称一致喔:deepseek_v3) 

图片

复制舰长提供的代码粘贴到代码中 

第2行的名称和你的工具名称要一致,其余不动即可。 

图片

代码: 

from runtime import Argsfrom typings.deepseek_v3.deepseek_v3 import Input, Outputimport http.clientimport jsondef handler(args: Args[Input]) -> Output:    # 从输入参数中获取用户输入的内容和 API 密钥    user_input = args.input.user_input    api_key = args.input.api_key  # 假设用户输入的 api_key 通过此字段传入    if not api_key:        return {'message': 'API Key is missing. Please provide a valid API Key.'}    # API 请求的 URL 和路径    conn = http.client.HTTPSConnection('api.siliconflow.cn')    payload = json.dumps({        'model': 'deepseek-ai/DeepSeek-R1-Distill-Llama-70B',  # 使用 DeepSeek-R1 模型        'messages': [            {                'role': 'user',                'content': user_input            }        ],        'stream': False,        'max_tokens': 16384,        'stop': ['null'],        'temperature': 0.7,        'top_p': 0.7,        'top_k': 50,        'frequency_penalty': 0.5,        'n': 1,        'response_format': {'type': 'text'},            })    headers = {        'Authorization': f'Bearer {api_key}',  # 使用用户提供的 API Key        'Content-Type': 'application/json'    }    # 发送 POST 请求    conn.request('POST', '/v1/chat/completions', body=payload, headers=headers)    response = conn.getresponse()    # 检查请求是否成功    if response.status == 200:        # 解析响应数据        response_data = json.loads(response.read().decode('utf-8'))                # 提取 content 和 reasoning_content        content = response_data['choices'][0]['message'].get('content', '')        reasoning_content = response_data['choices'][0]['message'].get('reasoning_content', '')        # 返回 API 的响应内容,包括 reasoning_content        return {                      'reasoning_content': reasoning_content,            'message': content        }    else:        # 如果请求失败,返回错误信息        return {'message': f'API request failed with status code {response.status}'}

设置好代码后设置元数据,别忘记保存 

输入参数:user_input/api_key 

输出参数:reasoning_content/message 

图片

这样插件就配置完毕,接下来进行测试,测试完成后就可以发布使用了。 

测试代码: 

{  'user_input': '抖音爆款标题怎么写',  'api_key': '这里填写你的api'}

api_key:需要改为你的api 

图片

测试完成后点击发布即可 

图片

插件制作完毕现在需要搭建Coze工作流进行智能体的配置:

创建一个新的工作流,工作流的搭建很简单: 

图片

开始节点 

图片

插件节点: 

1.需要将自己创建的插件引用到编排中 

点击添加插件,在资源库工具中找到自己发布的插件 

图片

2.配置输入参数 

api_key:填写你的api秘钥 

user_input:引用开始节点的input 

图片

结束节点: 

分别引用前置插件节点的两个输出参数 

图片

搭建完成后,点击试运行并发布即可,为了保证输出的稳定性,因为结束节点舰长这里选择的是返回变量的方式。我们需要在制作一个Coze卡片并绑定到工作流上。 

图片

直接使用AI创建即可 

图片

创建好后直接发布,完成后就是最终智能体的搭建了! 

创建一个智能体,并将工作流添加进来: 

图片

绑定卡片 

图片

选择制作好的卡片,进行数据绑定 

因为reasoning_content返回的结果为思考过程,所以卡片绑定这个参数即可。 

图片

本次的Deepseek模型部署、插件制作、Coze智能体的搭建教学就到此结束.

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报。

  • 上一篇:砚石洗手盆在酒店民宿中成为吸睛之笔
  • 下一篇:没有了