Калькулятор размера модели
Рассчитайте объём памяти ML-модели по количеству параметров и числовой точности. Планируйте требования к памяти GPU для вывода.
Как использовать калькулятор размера модели
- Введите количество параметров модели в миллионах.
- Выберите числовую точность (FP32, FP16 или INT8).
- Нажмите «Рассчитать».
Примеры использования
- •Планирование требований GPU для развёртывания моделей.
- •Сравнение размеров моделей перед покупкой оборудования.
- •Оценка преимуществ квантования для Edge-развёртывания.
- •Оценка затрат на облачный вывод модели.
Формула
Размер модели (МБ) = Параметры × байт/параметр / 1 048 576. Память для вывода ≈ размер × 1,5.
Часто задаваемые вопросы
Что такое FP16 и INT8?
FP16 использует 2 байта на параметр (полуточность); INT8 — 1 байт (квантование). Оба меньше FP32 (4 байта).
Почему память для вывода больше размера модели?
Тензоры активаций при прямом проходе требуют дополнительной памяти — обычно 30–50% накладных расходов.
Сколько параметров у GPT-2?
GPT-2 Large имеет 774 млн параметров, требуя около 1,5 ГБ в FP16.