API介绍
API调试台
登录后,探索更多精彩功能! 点击登录
API列表 (25)
| API描述 | 接口地址 | 请求方法 | 稳定性 | 参数说明 |
|---|---|---|---|---|
Chat(文心一言) | POST | 稳定 | 查看详情 | |
文档详情 百度最新的AI模型 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring必需 示例值: application/jsonAcceptstring必需 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(通义千问) | POST | 稳定 | 查看详情 | |
文档详情 请求参数 Header参数Content-Typestring必需 示例值: application/jsonAcceptstring必需 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(通义千问-VL) | POST | 稳定 | 查看详情 | |
文档详情 阿里最新的AI模型,多模态 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring必需 示例值: application/jsonAcceptstring必需 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(智谱GLM-4) | POST | 稳定 | 查看详情 | |
文档详情 智谱AI最新AI模型,来自清华大学 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring必需 示例值: application/jsonAcceptstring必需 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelenum<string>必需 AI模型 枚举值: glm-5glm-4.7messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 thinkingobject可选 仅 GLM-4.5 及以上模型支持此参数配置。控制大模型是否开启思维链。 typeenum<string>可选 是否开启思维链(当开启后 GLM-4.5 为模型自动判断是否思考,GLM-4.5V 为强制思考),默认:enabled。 枚举值: enableddisabledtemperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(智谱GLM-4V) | POST | 稳定 | 查看详情 | |
文档详情 智谱AI最新图像识别AI模型,来自清华大学 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring必需 示例值: application/jsonAcceptstring必需 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentarray[object]可选 typestring必需 textstring可选 image_urlobject可选 urlstring必需 | ||||
Chat(百川AI) | POST | 稳定 | 查看详情 | |
文档详情 百川智能的AI模型,来自搜狗创始人王小川 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(月之暗面AI) | POST | 稳定 | 查看详情 | |
文档详情 月之暗面最新的AI模型,也是应用kimi所使用的AI模型 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(月之暗面-Vision) | POST | 稳定 | 查看详情 | |
文档详情 月之暗面最新的AI模型,也是应用kimi所使用的AI模型 支持模型: 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(零一万物) | POST | 稳定 | 查看详情 | |
文档详情 零一万物最新的AI模型,来自于前google副总裁李开复 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(零一万物-VL) | POST | 稳定 | 查看详情 | |
文档详情 零一万物最新的AI模型,来自于前google副总裁李开复 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(深度求索) | POST | 稳定 | 查看详情 | |
文档详情 来自知名私募巨头幻方。 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(字节豆包) | POST | 稳定 | 查看详情 | |
文档详情 字节豆包最新的AI模型 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(字节豆包多模态) | POST | 稳定 | 查看详情 | |
文档详情 字节豆包最新的图像识别模型 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(阶跃星辰多模态) | POST | 稳定 | 查看详情 | |
文档详情 阶跃星辰最新的AI模型 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(讯飞星火) | POST | 稳定 | 查看详情 | |
文档详情 科大讯飞最新的AI模型 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(商汤日日新) | POST | 稳定 | 查看详情 | |
文档详情 商汤日日新最新的AI模型 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(Minimax) | POST | 稳定 | 查看详情 | |
文档详情 Minimax最新的AI模型 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(腾讯混元) | POST | 稳定 | 查看详情 | |
文档详情 腾讯混元大模型 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(通义千问) | POST | 稳定 | 查看详情 | |
文档详情 请求参数 Header参数Content-Typestring必需 示例值: application/jsonAcceptstring必需 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Hunyuan(文字生成视频) | POST | 稳定 | 查看详情 | |
文档详情 来自腾讯开源的视频生成模型 价格:0.6 PTC/次 请求参数 Header参数Authorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Content-Typestring可选 示例值: application/jsonBody参数 application/jsonpromptstring必需 提示词 seedinteger可选 callbackstring可选 回调地址,post向该地址发送数据 | ||||
Hunyuan(获取任务结果) | GET | 稳定 | 查看详情 | |
文档详情 来自腾讯开源的视频生成模型 价格:0 PTC/次 请求参数 Header参数Authorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Content-Typestring可选 示例值: application/jsonQuery参数request_idstring必需 | ||||
Chat(通义千问-OCR) | POST | 稳定 | 查看详情 | |
文档详情 阿里最新的AI模型,即基于Qwen-VL训练的OCR识别大模型。通过统一模型的方式聚合多种图文识别、解析、处理类任务,提供强大的图文识别能力。 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring必需 示例值: application/jsonAcceptstring必需 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
GLM-Zero-Preview | POST | 稳定 | 查看详情 | |
文档详情 智谱AI最新AI模型,来自清华大学 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring必需 示例值: application/jsonAcceptstring必需 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelenum<string>必需 AI模型 枚举值: glm-5glm-4.7messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 thinkingobject可选 仅 GLM-4.5 及以上模型支持此参数配置。控制大模型是否开启思维链。 typeenum<string>可选 是否开启思维链(当开启后 GLM-4.5 为模型自动判断是否思考,GLM-4.5V 为强制思考),默认:enabled。 枚举值: enableddisabledtemperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
QwQ-Plus | POST | 稳定 | 查看详情 | |
文档详情 请求参数 Header参数Content-Typestring必需 示例值: application/jsonAcceptstring必需 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 要使用的模型的 ID。有关哪些模型适用于聊天 API 的详细信息,请参阅模型端点兼容性表。 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
Chat(字节豆包图片生成) | POST | 稳定 | 查看详情 | |
文档详情 我们将doubao的general_v2.1_L和seededit api进行了改造,适配了openAI的格式,可以进行图片生成和图片编辑。 价格请查看:https://302.ai/price 请求参数 Header参数Content-Typestring可选 示例值: application/jsonAcceptstring可选 示例值: application/jsonAuthorizationstring可选 示例值: Bearer {{YOUR_API_KEY}}Body参数 application/jsonmodelstring必需 AI模型 messagesarray[object]必需 以聊天格式生成聊天完成的消息。 rolestring可选 contentstring可选 temperatureinteger可选 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或 top_pinteger可选 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或 ninteger可选 为每个输入消息生成多少个聊天完成选项。 stopstring可选 API 将停止生成更多令牌的最多 4 个序列。 max_tokensinteger可选 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。 presence_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。 frequency_penaltynumber可选 -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。 logit_biasnull可选 修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。 userstring可选 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。 | ||||
API价格表
| 模型 | 说明 | 上下文 | 官网原价 | 302.AI价格 |
|---|
qwen-max | - | 8000 |
|
输入$3.19/ 1M tokens 输出$9.35/ 1M tokens 10% |







