API介绍
我们自己提供的服务
API调试台
登录后,探索更多精彩功能! 点击登录
API列表 (9)
| API描述 | 接口地址 | 请求方法 | 稳定性 | 参数说明 |
|---|---|---|---|---|
Chat(知识库对话) | POST | 稳定 | 查看详情 | |
文档详情 知识库对话,知识库机器人的API Key会自动和后台选择的知识库绑定,使用此类key可以不传kb_id 价格:根据对应的模型收费 https://302.ai/price 请求参数 Header参数Authorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonkb_idinteger可选 知识库id,如果不传则选择和apikey绑定的知识库 model_namestring必需 需要对话使用的模型 querystring必需 当前的对话 streamboolean可选 是否流式相应可,默认流式响应 historyarray[object]可选 历史对话 rolestring可选 contentstring可选 top_kinteger可选 从向量库获取top n来作为上下文对话 score_thresholdinteger可选 过滤权重,只要大于这个值的记录才会被使用 temperaturenumber可选 模型随机性 | ||||
Delete(删除知识库) | DELETE | 稳定 | 查看详情 | |
文档详情 删除指定的知识库 请求参数 Path参数kb_idinteger必需 Header参数Authorizationstring可选 示例值: Bearer {{YOUR_API_KEY}} | ||||
Upload(上传文件到知识库) | POST | 稳定 | 查看详情 | |
文档详情 上传文件到指定的知识库 价格:根据对应的模型收费 https://302.ai/price 请求参数 Header参数Authorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 multipart/form-datafilesstring必需 数组文件列表 kb_idinteger必需 指定要上传的知识库 chunk_sizeinteger可选 知识库中单段文本最大长度 示例值: 250chunk_overlapinteger可选 知识库中相邻文本重合长度 示例值: 50split_modestring可选 指定分词模式,可留空或填jina max_chunk_lengthinteger可选 指定分词模式为jina的时候生效 示例值: 4000 | ||||
Create(创建知识库) | POST | 稳定 | 查看详情 | |
文档详情 创建知识库 model_id: llm_model_id: 价格:免费 请求参数 Header参数Authorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonkb_namestring可选 知识库名称 kb_infostring可选 知识库描述 kb_typestring可选 chatchat或rag_nano chatchat是传统的向量知识库 rag_nano 是基于知识图谱的知识库 model_idinteger可选 embedding数据处理模型,可不填 llm_model_idinteger可选 LLM模型,可不填 | ||||
List(获取知识库列表) | GET | 稳定 | 查看详情 | |
文档详情 获取知识库列表 请求参数 Header参数Authorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Query参数pageinteger可选 示例值: 1page_sizeinteger可选 示例值: 10 | ||||
Info(获取知识库详情) | GET | 稳定 | 查看详情 | |
文档详情 获取知识库详情 请求参数 Path参数kb_idstring必需 示例值: 0Header参数Authorizationstring可选 示例值: Bearer {{YOUR_API_KEY}} | ||||
Chat(知识库对话-OpenAI兼容) | POST | 稳定 | 查看详情 | |
文档详情 API Key需要填对应知识库机器人的key 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring必需 示例值: application/jsonAcceptstring必需 示例值: application/jsonAuthorizationstring必需 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 要使用的模型的 ID。有关哪些模型适用于聊天 API 的详细信息,请参阅模型端点兼容性表。 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Meta-Chunking(文本LLM切片) | POST | 稳定 | 查看详情 | |
文档详情 通过大模型对文本的理解,来进行切片,这样可以确保切片的分段不会丢失连贯的上下文 价格:根据对应的模型收费 https://302.ai/price 请求参数 Header参数Authorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 multipart/form-datatextstring必需 model_namestring可选 meta_chunking切片的llm名称 示例值: gpt-4o-minilanguagestring可选 文件语言,可选zh/en,默认为zh 示例值: zhdynamic_mergestring可选 是否动态合并,可选yes/no,默认为no 示例值: no | ||||
Meta-Chunking(文件LLM切片) | POST | 稳定 | 查看详情 | |
文档详情 通过大模型对文本的理解,来进行切片,这样可以确保切片的分段不会丢失连贯的上下文 价格:根据对应的模型收费 https://302.ai/price 请求参数 Header参数Authorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 multipart/form-datafilesstring必需 上传文件,支持多文件 model_namestring可选 meta_chunking切片的llm名称 示例值: gpt-4o-minilanguagestring可选 文件语言,可选zh/en,默认为zh 示例值: zhdynamic_mergestring可选 是否动态合并,可选yes/no,默认为no 示例值: no | ||||
API价格表
| 模型 | 说明 | 302.AI价格 |
|---|
Chat(with KB) | 知识库对话 |
|
Chat(with KB-OpenAI compatible) | 知识库对话-OpenAI兼容 |
|
Create(Knowledge Base) | 创建知识库 |
|
Delete(Knowledge Base) | 删除知识库 |
|
Upload | 上传文件到知识库 |
|
List(KB) | 获取知识库列表 |
|
Info | 获取知识库详情 |
|
Meta-Chunking(Text LLM slices) | 文本LLM切片 |
|
Meta-Chunking(File LLM slices) | 文件LLM切片 |
|




