Мы изменили схему расчета стоимости ИИ‑чатов. Теперь она заметно проще и дешевле при работе с длинными диалогами.
Как считалось раньше
Раньше стоимость считалась целиком по длине диалога: бралась полная длина чата и умножалась на цену выбранной модели.
Например, диалог на 10 000 символов при цене модели 5 лимитов стоил 50 лимитов за каждый новый запрос.
Получалось, что даже за короткий ответ вы платили за весь накопленный диалог. Чем дольше вы общались, тем дороже становился каждый следующий вопрос — независимо от того, насколько длинным был ответ нейросети.
Как считается сейчас
Теперь система расчета стоимости учитывает реальные затраты ресурсов. Расчет разделен на две независимые части: контекст и ответ.
Контекст запроса
Это весь предыдущий диалог плюс новое сообщение пользователя. Он считается:
- по объему;
- по отдельной цене контекста модели.
Эта цена от 2 до 10 раз ниже, чем была раньше.
Ответ нейросети
Считается отдельно:
- по количеству токенов;
- по цене выбранной модели.
Эта цена зависит от того, сколько токенов (единиц текста) сгенерировала модель.
Почему мы обновили систему расчета
Обработка контекста (чтение истории диалога) требует меньше вычислительных ресурсов, чем генерация нового текста. Поэтому логично, что контекст стоит дешевле.
Теперь вы платите за то, что реально используете: меньше за чтение истории, больше за создание нового ответа.
Пример расчета (GPT‑5.2)
Возьмем диалог на 10 000 символов:
- контекст: 10 000 символов → около 10 лимитов;
- ответ модели: 1 000 токенов → около 5 лимитов.
Итого: примерно 15 лимитов вместо прежних 50 и более.
Что это дает
- Длинные чаты стали доступнее. Теперь можно спокойно вести продолжительные диалоги, не беспокоясь о том, что каждый новый вопрос будет стоить все дороже.
- Контекст больше не раздувает стоимость. История вашего разговора учитывается, но стоит значительно дешевле, чем раньше.
- Короткие ответы стоят меньше. Если нейросеть дала краткий ответ, вы платите только за него, а не за всю историю диалога.
- Справедливое ценообразование. Стоимость теперь соответствует реальным затратам ресурсов.
Обновленная схема уже работает для всех пользователей. Попробовать работу с ИИ-чатом можно по ссылке.