华建通智能体平台用户手册

{{ subMenu.title }}

产品介绍

对于大多数企业而言,基于GPT等大模型落地企业AI应用仍然面临很多挑战,如需求匹配难、落地周期长、ROI评估难等问题。为了解决AI原生应用落地难的问题,需要这样一个平台,提供基于大模型的AI应用构建需要的能力,能够让应用构建者无需深入了解底层技术细节,即可将他们的创意和想象力转化为实际运行的AI应用。 华建通智能体开发平台致力于让每一个应用构建者轻松驾驭大语言模型(LLM),平台将复杂的技术细节隐藏在简洁易用的界面之下,开箱即用的各类开发组件实现LLM应用的高效构建。

一、模型的配置

在知识库、应用开发环节都需要用到各类大模型,所以第一步必须在工作空间里配置好所需的大模型。该功能的操作权限对工作空间的所有者、管理员和开发者开放,并仅对所在工作空间有效。

(一) 模型类型

1.系统推理模型:也就是大语言模型(LLM)。按照能力,分为两类:第一是补全(生成)类模型,主要应用在长文本的生成,第二是对话类模型,主要应用在短文本的对话交流。

2. Text Embedding模型:用于将文本(如单词、短语、句子或段落)转换为固定大小的实数向量,这些向量可以捕获文本中的语义信息,让语义上相似的文本在嵌入空间中具有相似的向量表示。转换后的文本数据能够被计算机理解和处理,从而可以在各种NLP任务中使用。

3. Rerank 模型:该模型通常与Embedding模型结合使用,通过计算文档与查询之间的相关性得分,对初始检索结果进行重新排序,从而提供更精确的检索结果。

4. 语音转文本模型:用于在对话型应用中,将语音转换为文本。

5. 文本转语音(TTS)模型:用于在对话型应用中,将文本转换为语音。

(二) 配置模型

目前平台已支持主流的模型供应商,例如文心一言、通义千问等国内的大模型,以及OpenAI 的 GPT 系列、Anthropic 的 Claude 系列等。不同模型的能力表现、参数类型各不相同,在使用时,可以根据不同场景的应用需求选择适合的模型供应商。在华建通智能体开发平台配置模型之前,需前往模型供应商的官方网站获取模型的 API key。

配置模型的访问路径:点击右上角用户按钮->设置->模型供应商。

百度文心一言配置示例:

1.从官网(https://cloud.baidu.com/wenxin.html)开通服务,选择开通的模型,如大语言模型ERNIE-3.5-8K、ERNIE-4.0-8K。百度也提供文本嵌入、Rerank等小模型服务,如bge-large-zh、bce-reranker-base,在建立和使用知识库都需要使用。

2.开通服务后,获得并保存好API Key和Secret Key。

3.在模型供应商界面,找到文心一言卡片,点击右侧设置按钮,填写API Key和Secret Key。点击保存,系统提示成功即表示配置完成,若提示错误请根据提示修改。

若是自建/自有系统部署开源大模型、微调的专属大模型、文本嵌入模型、语音转文本模型等,如Xorbits inference、OpenLLM、vLLM,可在模型供应商面板的Xorbits inference、OpenLLM或OpenAI-API-compatible配置。

Xorbits inference配置示例:

1.从部署方获取Xorbits inference的baseUrl、模型名称和模型UID。

2.在模型供应商面板的Xorbits inference卡片添加模型,选择模型类型,填写模型名称、服务器URL(baseUrl)、模型UID。系统提示成功即表示配置完成,若提示错误请根据提示修改。

(三) 系统模型设置

系统模型设置,包括推理模型(大模型)、Embedding模型(文本嵌入模型)、Rerank模型、语音转文本模型、文本转语音模型,用于在工作空间内知识库、应用在使用相应模型时的默认值。

一般情况下,系统模型设置不需要人工设置:当某一类模型已经完成配置,该类模型则默认显示首次配置的模型,当该类型模型配置了多个模型时,可再次人工修改模型的设置。

二、知识库的创建和使用

知识库是结构化、非结构化的知识内容数据集,以文本嵌入后的向量化形式,存储在向量数据库,支持一定的语义理解和语义检索。华建通智能体开发平台目前支持各类文本文件导入后创建知识库,暂不支持图片、音频和视频文件。

下面介绍在创建知识库的步骤:

(一) 为知识库选择数据源

点击创建知识库后,首先需要导入所需的文本文件,平台支持txt、markdown、pdf、xlsx、csv、docx、pptx、xml等格式的文件,文件大小默认支持不超过50M。

(二) 文本分段与清洗

1.第二步为文本设置分段和清洗规则,在这里导入了一段投影仪客服QA文本,其中分段设置选择自定义,分段标识符填写为\n。

右侧区域可以预览分段后的文本。一个分段文本即是一个独立、私有的、可被检索的结果信息。

2.索引方式的设置,包括高质量和经济型两种类型,这里推荐高质量方式,文本嵌入模型会对分段文本处理成向量化形式。处理完成后,索引方式不可更改,如需更改索引方式,需要删除已导入的文本后重新导入。

3.知识库的检索设置,包括向量检索、全文检索、混合检索三种方式。其中,向量检索支持一定的语义理解,全文检索是传统的关键字匹配检索,混合检索则综合了向量检索和全文检索两方面的能力。检索方式支持再次修改,在使用知识库进行检索(召回)时,默认使用该环节设置的检索方式,如需更改,可在检索(召回)时,重新设置。

注:由于部分向量数据库不支持全文检索,如设置了全文检索,在使用过程中返回结果会是空。

(三) 使用知识库

使用知识库的方式有两种。

第一种:完成创建知识库后,点击进入该知识库里,点击左侧菜单栏->召回测试,进入测试检索(召回)功能主页,测试检索效果,如下示例:检索“投影仪自动关机“的相关QA条目。

召回测试效果良好的知识库,可在后续的应用开发中嵌入使用。

第二种,通过调用API接口的方式使用知识库。点击某个知识库->设置,进该知识库的设置页面。

先创建知识库的API Key(API密钥),参照接口说明开发调用访问知识库。

生成的知识库,默认开放给本工作空间的所有人使用,可配置改为仅本人使用。

三、智能应用的创建和使用

(一) 应用构建

在 华建通智能体开发平台中,一个“应用”是指基于 GPT 等大型语言模型构建的实际场景应用。通过创建应用,您可以将智能 AI 技术应用于特定的需求。它既包含了开发 AI 应用的工程范式,也包含了具体的交付物

总而言之,一个应用为开发者交付了:

·封装友好的 LLM API,可由后端或前端应用直接调用,通过 Token 鉴权

·开箱即用、美观且托管的 Web App,您可以基于WebApp 的模版进行二次开发

·一套包含 Prompt Engineering、上下文管理、日志分析和标注的易用界面

您可以任选其中之一或全部,来支撑你的 AI 应用开发。

(二) 应用类型

关于应用的构建,平台支持聊天助手、智能体应用、工作流等类型的应用构建方式。点击我的应用->创建应用。

1.聊天助手是侧重于对话型的智能应用。包括两种方式:

·基础编排适合新手快速搭建,生成的应用可以转换成工作流编应用。

·工作流编排适合具有一定编程开发基础的人员搭建复杂的智能应用。

2.智能体侧重于任务型的智能应用,适合新手快速搭建,与聊天助手的基础编排对应。智能体可以帮助我们实现对AI大模型应用的定制化加工。快速产出一个比较个性化的AI服务,比如智能小助理、聊天机器人、绘画写作工具等。

3.工作流适合具有一定编程开发基础的人员搭建复杂的智能应用,与聊天助手的工作流编排对应。

(三) 创建智能体应用

注:

·创建智能体应用前,按需先建立对应的知识库(参见五.附录1智能体应用示例 智能客服.yml 华建通业务QA.txt)。

·在智能体编排中,需要用到AI大模型以及它的相关参数。例如编排一个智能客服应用,需要文心一言的大语言模型,必须提前在系统模型设置中已经添加了该模型。 以下是创建智能体应用的步骤:

1.创建智能体,点击我的应用->创建应用->智能体。编辑智能体的名称、描述以及图标。

同时,平台支持导入已创建好的智能体。点击我的应用->创建应用->导入DSL文件。(参见五.附录1智能体应用示例 智能客服.yml 华建通业务QA.txt

2.编辑智能体 ,进入智能体的编辑页,可以添加知识库和插件(工具),作为AI对话的上下文和模型辅助的检索工具。如需调用插件(工具),需要大模型具有Function Call能力。

3.编辑提示词,提示词用于对智能体的工作做出指示。在提示词里可以插入变量,在每次对话开启前可以动态编辑提示词的内容。

提示词的示例:

## 角色

你是{{productName}}产品的专家客服,你的名字叫小数,基于上下文【华建通业务QA】为用户解答关于该产品的相关使用问题。问答过程中全称保持礼貌的态度,并在适当的时候使用emoji表情与用户互动。

## 技能

(1)不要自行回答。

(2)首先在上下文【华建通业务QA】内容对用户提出问题进行检索,并严格依据检索结果进行回答。

(3)当用户的问题不在上下文内容范围内时,要使用wikipedia_search工具搜索此问题,并严格依据搜索结果进行回答。

## 限制

- 所有回答必须完全基于【华建通业务QA】的内容,不得自行编造。

4.聊天增强功能和工具箱

·对话开场白 :对话开场白是指预先编辑好的一段文本,用于在每一段聊天开始前的引导语、问候语或者开场问题,以增强用户体验,引导推进对话。 效果如:

·下一步问题建议 :开启后,会在每段对话结束后,根据之前的提问内容给出若干下一段问答的建议,引导用户更好的进行对话。

·引用和归属 :开启后,会在对话中显示出答案的出处,比如来自哪个知识库或者使用了哪个插件。

·内容审查:用于审查对话中的内容是否有需要屏蔽的部分,比如敏感信息、隐私、人身攻击或者暴力内容。可以选择AI检索,使用相关API服务屏蔽或者匹配关键词的方式审查敏感词。

·语音转文本:当本工作空间配置语音转文本模型后,可添加此功能,用于用户输入的其中一种方式。同时需要为此应用配置https方式访问,才可通过浏览器打开麦克风功能。

·标注回复:人工标注用户回复,快速响应用户重复提出的问题。

智能体全部配置完成后可以在屏幕右侧展开对话体验和调试应用效果。

5.保存与发布

不同的应用创建方式保存方式也有所不同,其中:

(1)聊天助手->基础编排和智能体:这两种应用创建方式,创建应用后没有单独的保存功能,在应用编辑页点击右上角发布即代表保存,该操作是将编辑后的内容保存到数据库,并且在应用的访问端进行了实时的同步更新。

(2)聊天助手->工作流编排和工作流:

保存:在编排状态对智能体内容做了修改,需要主动”保存”才能将修改保存进数据库。

发布:即将数据库内保存的智能体应用发布给访问者。如果已保存、尚未发布,则应用的访问端未更新。如已保存已发布,则代表应用的访问端已经同步更新。

(四) 创建工作流应用

A.基本介绍:

工作流通过将复杂的任务分解成较小的步骤(节点)降低系统复杂度,减少了对提示词技术和模型推理能力的依赖,提高了 LLM 应用面向复杂任务的性能,提升了系统的可解释性、稳定性和容错性。

华建通智能体开发平台将工作流按应用情景划分为两种类型:

·Chatflow:面向对话类情景,包括客户服务、语义搜索、以及其他需要在构建响应时进行多步逻辑的对话式应用程序。

·Workflow:面向自动化和批处理情景,适合高质量翻译、数据分析、内容生成等应用程序。

为解决自然语言输入中用户意图识别的复杂性,Chatflow 提供了问题理解类节点,如问题分类、问题重写、子问题拆分等节点。相对于 Workflow 增加了 Chatbot 特性的支持,如:对话历史(Memory)、标注回复、Answer 节点等。

为解决自动化和批处理情景中复杂业务逻辑,Workflow 提供了丰富的逻辑节点,如代码节点、IF/ELSE 节点、合并节点、模板转换节点等,除此之外也将提供定时触发和事件触发的能力,方便构建自动化流程。

B.关键概念:

节点是工作流中的关键构成,通过连接不同功能的节点,执行工作流的一系列操作。节点按类型分为:

a)开始节点:

定义一个 workflow 流程启动的初始参数。您可以在开始节点中自定义启动工作流的输入变量。每一个工作流都需要一个开始节点。

在「开始」节点内定义输入变量支持四种类型:文本、段落、下拉选项和数字。

配置完成后,在工作流执行时会要求输入开始节点中定义的变量值。

提示:在 Chatflow 中,开始节点会提供系统内置变量:sys.query 和 sys.files,sys.query 用于对话型应用中的用户问题输入,sys.files 用于对话中上传文件,如上传一张图片用于理解含义,需要配合图像理解模型或者图片输入的工具来使用。

b)LLM节点

LLM 是 Chatflow/Workflow 的核心节点,利用大语言模型的对话/生成/分类/处理等能力,根据给定的提示词处理广泛的任务类型,并能够在工作流的不同环节使用。

·意图识别,在客服对话情景中,对用户问题进行意图识别和分类,导向下游不同的流程。

·文本生成,在文章生成情景中,作为内容生成的节点,根据主题、关键词生成符合的文本内容。

·内容分类,在邮件批处理情景中,对邮件的类型进行自动化分类,如咨询/投诉/垃圾邮件。

·文本转换,在文本翻译情景中,将用户提供的文本内容翻译成指定语言。

·代码生成,在辅助编程情景中,根据用户的要求生成指定的业务代码,编写测试用例。

·RAG,在知识库问答情景中,将检索到的相关知识和用户问题重新组织回复问题。

·图片理解,使用 vision 能力的多模态模型,能对图像内的信息进行理解和问答。

选择合适的模型,编写提示词,您可以在 Chatflow/Workflow 中构建出强大、可靠的解决方案。

配置步骤:

1.选择模型,选择一个模型取决于其推理能力、成本、响应速度、上下文窗口等因素,您需要根据场景需求和任务类型选择合适的模型。

2.配置模型参数,模型参数用于控制模型的生成结果,例如温度、TopP,最大标记、回复格式等。

3.编写提示词,LLM 节点提供了一个易用的提示词编排页面,选择聊天模型或补全模型,会显示不同的提示词编排结构。

4.高级设置,可以开关记忆,设置记忆窗口。

c)知识检索节点:

知识检索节点用于从知识库中检索与用户问题相关的文本内容,可作为下游 LLM 节点的上下文来使用。

配置流程:

1.选择查询变量。查询变量通常代表用户输入的问题,该变量可以作为输入项并检索知识库中的相关文本分段。在常见的对话类应用中一般将开始节点的 sys.query 作为查询变量,知识库所能接受的最大查询内容为 200 字符;

2.选择需要查询的知识库,可选知识库需要在知识库内预先创建;

3.指定召回模式。知识库的召回模式支持多路召回、 N 选 1 召回模式;

4.连接并配置下游节点,一般为 LLM 节点;在常见的对话类应用中,知识库检索的下游节点一般为 LLM 节点,知识检索的输出变量 result 需要配置在 LLM 节点中的上下文变量内关联赋值。关联后您可以在提示词的合适位置插入上下文变量。

d)问题分类节点:

通过定义分类描述,问题分类器能够根据用户输入,使用 LLM 推理与之相匹配的分类并输出分类结果,向下游节点提供更加精确的信息。

配置步骤:

1.选择输入变量,指用于分类的输入内容,支持输入文件变量。例如客服问答场景下一般为用户输入的问题 sys.query;

2.选择推理模型,问题分类器基于大语言模型的自然语言分类和推理能力,选择合适的模型将有助于提升分类效果;

3.编写分类标签/描述,您可以手动添加多个分类,通过编写分类的关键词或者描述语句,让大语言模型更好的理解分类依据;

4.选择分类对应的下游节点,问题分类节点完成分类之后,可以根据分类与下游节点的关系选择后续的流程路径。

高级设置:

1.指令:您可以在 高级设置-指令 里补充附加指令,比如更丰富的分类依据,以增强问题分类器的分类能力;

2.记忆:开启记忆后问题分类器的每次输入将包含对话中的聊天历史,以帮助 LLM 理解上文,提高对话交互中的问题理解能力;

3.图片分析:仅适用于具备图片识别能力的 LLM,允许输入图片变量;

4.记忆窗口:记忆窗口关闭时,系统会根据模型上下文窗口动态过滤聊天历史的传递数量;打开时用户可以精确控制聊天历史的传递数量(对数);

5.输出变量:class_name,即分类之后输出的分类名。您可以在下游节点需要时使用分类结果变量。

e)条件分支节点:

根据 If/else/elif 条件将 Chatflow / Workflow 流程拆分成多个分支。涉及复杂的条件判断时,可以设置多重条件判断,在条件之间设置 AND 或者 OR,即在条件之间取交集或者并集。

节点功能:

条件分支的运行机制包含以下六个路径:

1.IF 条件:选择变量,设置条件和满足条件的值;

2.IF 条件判断为 True,执行 IF 路径;

3.IF 条件判断为 False,执行 ELSE 路径;

4.ELIF 条件判断为 True,执行 ELIF 路径;

5.ELIF 条件判断为 False,继续判断下一个 ELIF 路径或执行最后的 ELSE 路径;

条件类型:

支持设置以下条件类型:

1.包含(Contains)

2.不包含(Not contains)

3.开始是(Start with)

4.结束是(End with)

5.是(Is)

6.不是(Is not)

7.为空(Is empty)

8.不为空(Is not empty)

f)代码执行节点:

代码节点支持运行 Python / NodeJS 代码以在工作流程中执行数据转换。它可以简化您的工作流程,适用于Arithmetic、JSON transform、文本处理等情景。

该节点极大地增强了开发人员的灵活性,使其能够在工作流程中嵌入自定义的 Python 或 Javascript 脚本,并以预设节点无法达到的方式操作变量。通过配置选项,您可以指明所需的输入和输出变量,并撰写相应的执行代码。

g)模板转换节点:

模板转换节点允许您借助 Jinja2 这一强大的 Python 模板语言,在工作流内实现轻量、灵活的数据转换,适用于文本处理、JSON 转换等情景。例如灵活地格式化并合并来自前面步骤的变量,创建出单一的文本输出。这非常适合于将多个数据源的信息汇总成一个特定格式,满足后续步骤的需求。

h)变量赋值节点:

通过变量赋值节点,您可以将会话过程中的上下文、上传至对话框的文件(即将上线)、用户所输入的偏好信息等写入至会话变量,并在后续对话中引用已存储的信息导向不同的处理流程或者进行回复。

i)HTTP请求节点:

HTTP请求节点允许通过 HTTP 协议发送服务器请求,适用于获取外部数据、webhook、生成图片、下载文件等情景。它让你您能够向指定的网络地址发送定制化的 HTTP 请求,实现与各种外部服务的互联互通。

该节点支持常见的 HTTP 请求方法:

1.GET,用于请求服务器发送某个资源。

2.POST,用于向服务器提交数据,通常用于提交表单或上传文件。

3.HEAD,类似于 GET 请求,但服务器不返回请求的资源主体,只返回响应头。

4.PATCH,用于在请求-响应链上的每个节点获取传输路径。

5.PUT,用于向服务器上传资源,通常用于更新已存在的资源或创建新的资源。

6.DELETE,用于请求服务器删除指定的资源。

j)结束节点:

定义一个 workflow 流程结束的最终输出内容。每一个工作流在完整执行后都需要至少一个「结果」节点,用于输出完整执行的最终结果。

「结果」节点为流程终止节点,后面无法再添加其他节点,工作流应用中只有运行到「结果」节点才会输出执行结果。若流程中出现条件分叉,则需要定义多个「结束」节点。

C.创建工作流应用

注:创建工作流应用前,按需先建立对应的知识库(参见五.附录2工作流应用示例 公司信息助手.yml 支持公司清单.txt ),在导入文档时选择自定义规则:分段标识符为\n,预览检查一行作为一个分段。

以下是创建工作流应用的步骤:

1.点击创建应用->导入DSL文件。进入编辑页,在知识检索节点使用的知识库、在LLM节点选择合适的大模型,并检查节点和下游节点使用的输入变量是否正确。

2.修改技巧:

(1)LLM节点(大模型节点):在连续对话环节,如果需要让LLM结合上下文(以前的输入)理解本次输入,需要打开记忆,设置记忆窗口数量——表示记住几个输入。该节点可记住本节点的输入与本节点的输出。但记忆窗口数量不是越大越好,太大时消息量过多容易使LLM混乱,也造成token消耗过大。

(2)每个节点,均可使用工作流中前向节点的输出。

(3)在发布前,通过调试和预览,检查应用工作是否正常。其中内置插件“通过Iframe展示指定网址”,嵌入的网址暂时不支持在调试和预览窗口显示。

(4)在调试和预览窗口,可跟踪查看工作流的运行日志:观察每个节点的输入和输出。

(五) 访问应用

·创建智能体应用前,按需先建立对应的知识库(参见五>更新,即可发布最新版本的应用。

·多种访问方式

发布的智能应用支持页面访问、嵌入组件、API接口三种访问方式。

访问之前,需要先通过API密钥创建API Key,至少创建1个。

1.预览方式一:【页面访问】

上图的预览、高级预览,均是页面访问的方式,需先选择一个API Key,页面样式是系统预置的。通过页面URL参数,可部分调整页面样式,URL参数的具体定义请见“应用文档”。

2.预览方式二:【嵌入组件方式】

该方式是将智能应用作为一个web component嵌入到原有web应用页面中,优点是页面样式可沿用原有的系统风格。

点击“预览嵌入组件”时,平台将打开预置的示例web页,以web component嵌入智能应用到示例web页中。

具体嵌入调用方法:

(1)先获取embed.js,提交到原有web应用系统中。获取方式:http://domain:port/vs/embed/embed.js,其中domain:port为华建通智能体开发平台部署的地址和端口。

(2)在网页添加如下代码(示例):

<llmops-app endpoint="http://domain:port/v1/chat-messages" token="app-eZmJGbEtekEkPKG6zQhgMGOQ" recoding="hold" user="zsrz"></llmops-app>
<script type="module" src="./embed.js"></script>

参数说明:

endpoint:智能应用的API访问网址,必填,可查阅在线的API文档:“访问API”获取。

token:智能应用的API密钥,必填。

recording:当智能应用配置语音转文本输入,且此参数设置为hold时,表示按住按钮一直录音、松开停止录音。选填。

user:调用api的用户标识,选填。用于区分不同调用方,每个调用方仅限一个user名称。

3.预览方式三:【API调用】

在企业原有的业务系统中,可以通过API的方式调用AI应用。注:API调用不同类型的智能应用,其请求的url和响应流式输出的event结构有少量差别,请查阅在线的API文档:“访问API”。

示例:附录3提供了工作流应用流式输出场景的API调用代码示例,分别有 前端JavaPython

【向应用传递参数】

向应用传递参数是典型的应用场景,比如传递userId,从而在应用中可获知是谁在访问,是否有权限访问某些机密数据等。

传递userId的示例:

(1)为应用添加变量userId。是可选还是必填,按应用需要来定。

智能体和聊天助手添加变量userId示意

智能体和聊天助手添加变量userId示意

工作流编排应用添加变量userId示意

工作流编排应用添加变量userId示意

(2)通过预览得到应用的访问url,为该url添加参数userId=xxxxxx。其中url参数userId名称必须与上述变量名称一致。当url带上userId参数和值后,应用的变量userId可自动获得该参数值。

系统支持传递多个参数和变量。

(六) 应用访问数据

查看应用的访问数据有两种方式,点击进入应用的主页,点击左侧菜单栏,找到日志与标注、概览。

·日志与标注:可以查看应用的运行情况,标注用户常问的问题

·概览:用图表和数据直观地分析智能体的使用状况,包括消耗的tokens、会话数量、用户满意度等统计信息。您可以据此持续改进应用运营的经济性。

全部消息数(Total Messages),反映 AI 每天的互动总次数,每回答用户一个问题算一条 Message。提示词编排和调试的会话不计入。

活跃用户数(Active Users),与 AI 有效互动,即有一问一答以上的唯一用户数。提示词编排和调试的会话不计入。

平均会话互动数(Average Session Interactions),反映每个会话用户的持续沟通次数,如果用户与 AI 问答了 10 轮,即为 10。该指标反映了用户粘性。仅在对话型应用提供。

用户满意度(User Satisfaction Rate),每 1000 条消息的点赞数。反应了用户对回答十分满意的比例。

平均响应时间(Average Response Time),衡量 AI 应用处理和回复用户请求所花费的平均时间,单位为毫秒,反映性能和用户体验。仅在文本型应用提供。

费用消耗(Token Usage),反映每日该应用请求语言模型的 Tokens 花费,用于成本控制。

四、添加自定义插件(工具)

插件为智能应用提供大模型之外的能力支持,一个插件相当于调用一个外部服务。例如维基百科插件可以查找维基中的词条,二维码工具插件可以生成给定内容的二维码图片。

华建通智能体开发平台提供了丰富的预置插件。

除此之外,平台也支持用户自定义引入个性化插件。

点击左侧菜单栏插件中心->自定义->创建自定义插件

在自定义插件编辑页中,可以编辑插件的名称、图标,需要按照OpenAPI规范编写一个Schema文本来配置接口的请求方式, OpenAPI规范是一种RESTful API的标准规范。编写Schema的过程类似于把服务提供方的API文档标准化。在Schema中需要定义好插件服务的url、调用方式以及请求参数等信息。定义好的插件可以调用配置好的外部http接口。Schema文本支持json和yaml两种格式。

·Servers:表示请求服务地址。

·Paths:表示请求服务路径,请求方式和参数信息。

·requestBody:描述了请求体信息。

·responses:定义了一个操作预期响应的容器,将HTTP响应代码映射为预期的响应。

·components表示一组可重用的对象,可以在其他地方被调用。可以理解成定义好的公用组件。

·Schema文本示例可参考附录4。( schema-json.txt schema-yaml.txt

更详细的编写规范可以参考https://swagger.io/specification/

下一步编辑调用该插件的鉴权方式。鉴权方式支持各种主流API KEY标准格式。支持修改请求头字段名。允许Basic、Bearer默认前缀以及不添加前缀。

保存成功之后,点击“测试”测试插件的使用情况。

选择鉴权方式,写入参数值,查看调用结果。

五、附录

附录1-智能体应用示例

应用DSL文件: 智能客服.yml 下载

知识库的文档: 华建通业务QA.txt 下载

附录2-工作流应用示例

应用DSL文件: 公司信息助手.yml 下载

知识库的文档: 支持公司清单.txt 下载

附录3-工作流应用流式输出API调用示例

Python代码示例: api_call_by_stream.py 下载

Java代码示例: JavaDemo.java 下载

前端代码示例: JavaScripDemo.js 下载

附录4-自定义插件schema示例

Json格式示例: schema-json.txt 下载

yaml格式示例: schema-yaml.txt 下载