LLM модели
Mixtral 8x22B
Mixtral 8x22B — масштабная языковая модель от Mistral AI. Он состоит из 8 экспертов, каждый по 22 миллиарда параметров, причем каждый токен использует одновременно 2 эксперта.
Расход кредитов
2 кредита за запрос
Токены
64к токенов на вход 64к токенов на выход
Поддерживает
Совместимость | Инструмент |
---|---|
✅ Да | Хранилище данных |
❗️ Нет | Формы |
❗️ Нет | HTTP API |
❗️ Нет | Запрос оператора |
❗️ Нет | Отметка решено |