对话
根据聊天会话,模型将返回聊天完成响应。
创建聊天完成
为聊天消息创建完成
请求示例
请求主体
model 字符串 必需 要使用的模型的ID。有关哪些模型适用于Chat API的详细信息,请参见模型端点兼容性表。
messages 数组 必需 要为其生成聊天完成的
temperature: 数字 可选的 默认为1 使用的采样温度,介于0和2之间。较高的值(例如0.8)将使输出更随机,而较低的值(例如0.2)将使其更加集中和确定性。
我们通常建议更改这个或top_p,但不要同时更改两个。
top_p: 数字 可选的 默认为1 与采用温度进行采样的另一种方法称为nucleus采样,其中模型考虑具有top_p概率质量的令牌的结果。因此,0.1表示仅考虑组成前10%概率质量的令牌。
我们通常建议更改这个或temperature,但不要同时更改两个。
n: 整数 可选的 默认为1 为每个输入消息生成多少个聊天完成选项。
stream: 布尔值 可选的 默认为false 如果设置,将发送部分消息增量,就像在ChatGPT中一样。令牌将作为只含数据的服务器推送事件发送,一旦可用,流将由数据:[DONE]消息终止。请参见OpenAI Cookbook的示例代码。
stop: 字符串或数组 可选的 默认为null 最多4个序列,其中API将停止生成更多的令牌。
max_tokens: 整数 可选的 默认为inf 在聊天完成中生成的最大令牌数。
输入令牌和生成令牌的总长度受模型上下文长度的限制。
presence_penalty: 数字 可选的 默认为0 -2.0至2.0之间的数字。正值会根据令牌在迄今为止的文本中是否出现来惩罚新令牌,从而增加模型谈论新主题的可能性。
frequency_penalty: 数字 可选的 默认为0 -2.0至2.0之间的数字。正值会根据令牌在迄今为止的文本中的现有频率来惩罚新令牌,从而降低模型按原样重复相同行的可能性。
logit_bias: 映射 可选的 默认为null 修改完成中指定令牌出现的可能性。
接受将令牌(由其在分词器中的令牌ID指定)映射到从-100到100的相关偏差值的json对象。在数学上,在采样之前,将偏差添加到模型生成的对数概率中。确切的效果将因模型而异,但值在-1和1之间应减少或增加选择的可能性;值如-100或100应导致禁止或独占选择相关令牌。
user: 字符串 可选的 代表您的终端用户的唯一标识符,可帮助OpenAI监视和检测滥用。了解更多。
最后更新于