Run in Apifox
月之暗面最新的AI模型,也是应用kimi所使用的AI模型 Request
示例值: Bearer {{YOUR_API_KEY}}
Body Params application/json
messages
array [object {2}]
必需 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或top_p
但不是两者。
一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或temperature
但不是两者。
如果设置,将发送部分消息增量,就像在 ChatGPT 中一样。当令牌可用时,令牌将作为纯数据服务器发送事件 data: [DONE]
发送,流由消息终止。有关示例代码 ,请参阅 OpenAI Cookbook 。 聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。
修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到 模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。
代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多 。
{
"model" : "kimi-latest" ,
"messages" : [ { "role" : "user" , "content" : "你是谁" } ]
}
Request samples curl --location --request POST 'https://api.302.ai/v1/chat/completions' \
--header 'Accept: application/json' \
--header 'Authorization: Bearer ' \
--header 'Content-Type: application/json' \
--data-raw '{
"model": "kimi-latest",
"messages": [{"role": "user", "content": "你是谁"}]
}'
Responses application/json Generate Code
choices
array [object {3}]
必需
{
"id" : "chatcmpl-123" ,
"object" : "chat.completion" ,
"created" : 1677652288 ,
"choices" : [
{
"index" : 0 ,
"message" : {
"role" : "assistant" ,
"content" : "\n\nHello there, how may I assist you today?"
} ,
"finish_reason" : "stop"
}
] ,
"usage" : {
"prompt_tokens" : 9 ,
"completion_tokens" : 12 ,
"total_tokens" : 21
}
}
Modified at 2025-02-25 21:46:34