Агент - Query
Потоковая передача
Когда потоковая передача включена, конечная точка будет генерировать события «ответ» (ответ модели) и «endpoint_response» (полный ответ конечной точки).
Authorizations
Bearer authentication header of the form Bearer <token>
, where <token>
is your auth token.
Path Parameters
Идентификатор агента
Body
Вопрос, который вы хотите задать своему агенту.
Идентификатор беседы (если не указано, создается новая беседа)
Идентификатор участника, отправляющего запрос (если не указан, создается новый идентификатор)
Температура модели (мин 0,0, макс 1,0)
Включить потоковую передачу
Переопределить модель агента
gpt_3_5_turbo
, gpt_3_5_turbo_16k
, gpt_4
Максимальное количество токенов, которые можно сгенерировать при завершении чата.
Число между -2.0 и 2.0. Положительные значения штрафуют новые токены на основе их появления в тексте до этого, увеличивая вероятность модели говорить о новых темах.
Число между -2.0 и 2.0. Положительные значения штрафуют новые токены на основе их текущей частоты в тексте до этого, уменьшая вероятность модели повторять ту же самую строку дословно.
Альтернатива выборки с температурой - это выборка ядра (nucleus sampling), где модель рассматривает результаты токенов с вероятностью top_p. Таким образом, значение 0.1 означает, что рассматриваются только токены, составляющие верхние 10% вероятностной массы. Обычно мы рекомендуем изменять это значение или температуру, но не оба сразу.
Системный ПРОМТ для агента
Пользовательский ПРОМТ для агента
(УСТАРЕЛО в пользу systemPrompt и userPrompt) Установите тип запроса для этого запроса
raw
, customer_support
(УСТАРЕЛО в пользу systemPrompt и userPrompt) Установите шаблон запроса для этого запроса