Тарификация

Из чего складывается стоимость использования платформы ML Space

При работе с платформой ML Space оплата осуществляется за фактическое использование вычислительных ресурсов.

Примечание

  • Единицы тарификации округляются в большую сторону (Environments, AutoML, Data Catalog). Тарификация Environments. Если объем занятой информации на хранилище составил 900 Мб, то сумма списания будет за 1 ГБ. Пример расчета стоимости Data Catalog.

  • Если на Deployments не выполняются вычисления — под не активен (минимальное количества подов при создании деплоя установлено 0), тарификация не осуществляется. При посекундной тарификации округление в большую не осуществляется. Например, под отработал 11 секунд, то сумма списания будет за 11 секунд. Примеры расчета стоимости Deployments.

  • В AutoML тарификация осуществляется по времени работы модели. Если расчет модели занял 11 минут и 25 секунд, то сумма списания будет за 12 минут. Примеры расчета стоимости AutoML.

В зависимости от модулей используется следующая тарификация:

  • в МБ или ГБ (для Data Catalog);

  • посекундная (для Deployments);

  • поминутная (для Environments, AutoML).

Конкретные условия и тарифы фиксируются в договоре, заключаемом с Cloud. Возможны специальные тарифы, в рамках которых к описанным условиям применяются дополнительные ограничения.

Тарификация Data Catalog

Тарифицируемая функциональность

Единица тарификации

Комментарий

Хранилище S3

1 ГБ/месяц

Тарифицируется хранимый объем в ГБ за расчетный период. Объемом хранимых в течение месяца данных считается среднее значение за месяц. Минимальная единица тарификации — 1 ГБ. Счет выставляется в конце месяца по факту потребления. Цены за ГБ в месяц фиксированы и не зависят от количества дней в месяце.

Быстрое хранилище NFS

1 ГБ

Оплачивается объем хранилища сверх бесплатно предоставляемых 10 ГБ на каждый workspace. Тарификация посуточная, списание с лицевого счета производится в 00 часов по московскому времени. Счет выставляется в конце месяца по факту потребления. Тарификация хранимого объема на NFS (сверх бесплатных 10 ГБ) рассчитывается посуточно. Расчет тарифов приведен в разделе Пример расчета стоимости Data Catalog. Для коротких месяцев цена за день будет выше, для длинных — ниже. При создании в каждый workspace монтируется NFS-volume с лимитом в 10 ГБ. Возможно увеличить лимит самостоятельно или через обращение в техническую поддержку.

Пример расчета стоимости Data Catalog

Data Catalog

Для хранилища S3

Дата

Объем

Расчет

Количество дней хранения

01.01.2021

0,9 ГБ (округляем до 1 ГБ при расчете)

\(1,2 \times 1 \div 31 = 0,039\) (за день)

31

15.01.2021

15 ГБ

\(1,2 \times 15 \div 31 = 0,581\) (за день)

16

31.01.2021

119,6 ГБ (округляем до 120 ГБ при расчете)

\(1,2 \times 120 \div 31 = 4,645\) (за день)

1

Итоговая сумма за месяц: \((1,2 \times 120 \div 31) \times 31 + (1,2 \times 15 \div 31) \times 16 + (1,2 \times 120 \div 31) \times 1 = 15,15\).

Где:

1,2 — стоимость 1 ГБ в примере.

Для хранилища NFS

Дата

Объем

Расчет

Количество дней хранения

01.01.2021

10 ГБ (бесплатный объем)

Бесплатный объем

31

15.01.2021

15 ГБ

\(20 \times 15 \div 31 = 9,677\) (за день)

16

31.01.2021

119,6 ГБ (округляем до 120 ГБ при расчете)

\(20 \times 120 \div 31 = 77,419\) (за день)

1

Итоговая сумма за месяц: \((20 \times 15 \div 31) \times 16 + (20 \times 120 \div 31) \times 1 = 104,096\).

Где:

20 — стоимость 1 ГБ, свыше бесплатных 10 ГБ в примере.

Тарификация Environments

Фактическую стоимость задачи можно посмотреть на вкладке Задачи и окружения.

Тарифицируемая функциональность

Eдиница тарификации

Конфигурации

Комментарий

Jupyter Server с GPU

GPU-минута

Минимальная конфигурация: 1 GPU Tesla V100 32 GB, 3 CPU cores, 94 GB RAM.

Остальные конфигурации = минимальная * N, где N= от 2 до 16 (в рамках одного DGX-2).

CPU и RAM на данный момент выделяются пропорционально количеству используемых GPU.

Обратите внимание на то, что конфигурации с возможностью гибкой настройки количества CPU и RAM будут доступны позднее.

Тариф за GPU-минуту зависит от количества аллоцированных GPU:

Тарификация ресурсов начинается после изменения статуса Jupyter Server на «Подключен».

Задача на N GPU (методы класса job библиотеки client_lib)

GPU-минута

Минимальная конфигурация: 1 GPU Tesla V100 32 GB, 3 CPU cores, 94 GB RAM.

Остальные конфигурации = минимальная * N, где N= от 2 до 1000.

CPU и RAM на данный момент выделяются пропорционально количеству используемых GPU.

Тарификация начинается в момент старта обучения (задача обучения переходит в статус «Running»). Тариф за GPU-минуту зависит от количества аллоцированных GPU:

Задача AutoML на N GPU (методы класса job библиотеки client_lib)

GPU-минута

Минимальная конфигурация: 1 GPU Tesla V100 32 GB, 3 CPU cores, 94 GB RAM.

Остальные конфигурации = минимальная * N, где N= от 2 до 1000.

CPU и RAM на данный момент выделяются пропорционально количеству используемых GPU.

Тарификация начинается в момент старта обучения (задача обучения переходит в статус «Running»). Тариф за GPU-минуту зависит от количества GPU:

Jupyter со Spark

СPU-минута

  • Spark на CPU (cpu-ai-small, 4vCPU, 16 GB)

  • Spark на CPU (cpu-ai-middle, 8vCPU, 32 GB)

  • Spark на CPU (cpu-ai-large, 12 vCPU, 48 GB)

  • Spark на CPU (cpu-ai-giant, 24 vCPU, 96 GB)

Аллоцируемые ресурсы Driver и Executor тарифицируются с момента создания Jupyter Server со Spark (после изменения статуса на «Подключен»). Таким образом, тарификация использования кластера Spark идет с момента, когда все заказанные узлы доступны пользователю.

Кластер Spark тарифицируется все время существования до остановки кластера. Тарифицируется как использование ресурсов, на которых запущен Spark Driver, так и ресурсов, на которых выполняются Spark Executor-ы, стоимость использования которых вычисляется как стоимость использования одного Spark Executor заданной конфигурации * Количество Executor.

Тариф на CPU-минуту зависит от количества аллоцированных CPU.

Примеры расчета стоимости Еnvironments

Еnvironments

Jupyter Server с 8 GPU
Вычислительные ресурсы:

Jupyter Server с GPU (на 8 GPU).

Время выполнения операций:

11 минут 25 секунд (округляется до целого числа минут в большую сторону).

Расчет стоимости (в рублях с учетом НДС):

\(3 \times 8 \times 12=288\)

Где:

  • 3 — стоимость GPU-минуты с учетом НДС в примере.

  • 8 — количество GPU-ядер.

  • 12 — количество минут, которые проработала задача.

Jupyter Server с 10 GPU
Вычислительные ресурсы:

Jupyter Server с 10 GPU.

Время выполнения операций:

11 минут 25 секунд (округляется до целого числа минут в большую сторону).

Расчет стоимости (в рублях с учетом НДС):

\(15 \times 10 \times 12=1800\)

Где:

  • 15 — стоимость GPU-минуты с учетом НДС в примере.

  • 10 — количество GPU-ядер.

  • 12 — количество минут, которые проработала задача.

Jupyter со Spark с CPU (окружение)
Вычислительные ресурсы
Jupyter со Spark с CPU (окружение) состоит из двух частей
  • Ресурсы Driver — cpu-ai-small (4 vCPU, 16 GB);

  • ресурсы Executor (2 единицы) — cpu-ai-middle (8 vCPU, 32 GB).

Время выполнения операций

11 минут 25 секунд (округляется до целого числа минут в большую сторону)

Расчет стоимости (в рублях с учетом НДС):

\((0,14+0,29 \times 2) \times 12=8,64\)

Где:

  • 0,14 — стоимость CPU-минуты с учетом НДС (по тарифу).

  • 0,24 — стоимость CPU-минуты с учетом НДС (по тарифу).

  • 2 — количество Executor.

  • 12 — количество минут, которые проработала задача.

Задача на 2 GPU (методы класса job библиотеки client_lib)
Вычислительные ресурсы:

Задача на 2 GPU (методы класса job библиотеки client_lib).

Время выполнения операций:

11 минут 25 секунд (округляется до целого числа минут в большую сторону).

Расчет стоимости (в рублях с учетом НДС):

\(3 \times 2 \times 12=72\)

Где:

  • 3 — стоимость GPU-минуты с учетом НДС в примере.

  • 2 — количество GPU-ядер.

  • 12 — количество минут, которые проработала задача.

Задача AutoML на 2 GPU (методы класса job библиотеки client_lib)
Вычислительные ресурсы:

Задача на 2 GPU (методы класса job библиотеки client_lib).

Время выполнения операций:

11 минут 25 секунд (округляется до целого числа минут в большую сторону).

Расчет стоимости (в рублях с учетом НДС):

\(3 \times 2 \times 12=72\)

Где:

  • 3 — стоимость GPU-минуты с учетом НДС в примере.

  • 2 — количество GPU-ядер.

  • 12 — количество минут, которые проработала задача.

Примеры расчета стоимости AutoML

AutoML

Задача AutoML на 3 GPU
Вычислительные ресурсы:

3 GPU для задачи AutoML

Время выполнения операций:

11 минут 25 секунд (округляется до целого числа минут в большую сторону).

Расчет стоимости (в рублях с учетом НДС):

\(3 \times 12 \times 3=108\)

Где:

  • 3 — стоимость GPU-минуты с учетом НДС в примере.

  • 12 — количество минут, которые проработала задача.

  • 3 — количество GPU-ядер.

Задача AutoML на 10 GPU
Вычислительные ресурсы:

10 GPU для задачи AutoML

Время выполнения операций:

11 минут 25 секунд (округляется до целого числа минут в большую сторону).

Расчет стоимости (в рублях с учетом НДС):

\(15 \times 12 \times 10=1800\)

Где:

  • 15 — стоимость GPU-минуты с учетом НДС в примере.

  • 12 — количество минут, которые проработала задача.

  • 10 — количество GPU-ядер.

Тарификация Deployments

Тарифицируемая функциональность

Конфигурации (instance_type)

Комментарий

Inference на GPU

Минимальная конфигурация: 1 GPU Tesla V100 32 GB, 3 CPU cores, 94 GB RAM. Остальные конфигурации = минимальная * N * P, где: N — количество экземпляров конфигурации 1 GPU Tesla V100 32 GB, 3 CPU cores, 94 GB RAM, на которых запускается микросервис. N = от 1 до 16, P — количество подов для горизонтального масштабирования экземпляров микросервиса, которые могут динамически изменяться в процессе эксплуатации деплоя. Минимальное количество подов изменяется в интервале от 0 до 100, максимальное — от 1 до 100.

При задании количества подов равным нулю их запуск производится в момент получения запроса к API сервиса. При отсутствии запросов к модели активные поды будут отсутствовать, тарификация не осуществляется.

При задании минимального количества подов (не равного нулю) всегда будет запущено минимальное количество подов, таким образом, тарифицируется время их постоянной работы.

При увеличении количества запущенных подов в случае масштабирования, тарификация осуществляется в соответствии с количеством запущенных подов.

Обратите внимание на то, что если в коде пользователя ошибка, деплой модели упадет с ошибкой. При этом под с моделью не будет остановлен, и тарификация будет идти до момента удаления деплоя пользователем. Эту ситуацию можно отследить в логах.

Inference на CPU (тарификация планируется позже)

Минимальная конфигурация (на выбор):

  • cpu-ai-small - 4 vCPU, 16 GB RAM

  • cpu-ai-middle - 8 vCPU, 32 GB RAM

  • cpu-ai-large - 12 vCPU, 48 GB RAM

  • cpu-ai-giant - 24 vCPU, 96 GB RAM

Остальные конфигурации = минимальная * N * P, где: N — количество экземпляров конфигурации, на которых запускается микросервис, P — количество подов для горизонтального масштабирования экземпляров микросервиса, которые могут динамически изменяться в процессе эксплуатации деплоя. Минимальное количество подов изменяется в интервале от 0 до 100, максимальное — от 1 до 100.

Тарификация осуществляется посекундно.

Тарификация осуществляется за время работы подов.

При задании количества подов равным нулю их запуск производится в момент получения запроса к API сервиса. При отсутствии запросов к модели активные поды будут отсутствовать, тарификация не осуществляется.

При задании минимального количества подов (не равного нулю) всегда будет запущено минимальное количество подов, таким образом, тарифицируется время их постоянной работы.

При увеличении количества запущенных подов в случае масштабирования, тарификация осуществляется в соответствии с количеством запущенных подов.

Обратите внимание на то, что если в коде пользователя ошибка, деплой модели упадет с ошибкой. При этом под с моделью не будет остановлен, и тарификация будет идти до момента удаления деплоя пользователем. Эту ситуацию можно отследить в логах.

Примеры расчета стоимости Deployments

Предупреждение

Особенностью работы автоскейлинга при изменении количества подов в меньшую сторону является остановка ресурсов, которая занимает 5-10 минут. Время остановки тарифицируется.

Deployments

Деплой размером 0-2 пода на 2 GPU
Вычислительные ресурсы:

деплой размером 0-2 пода на 2 GPU.

Время выполнения операций:

11 минут 25 секунд.

Расчет стоимости (в рублях с учетом НДС):

\(0,06 \times 1 \times 2+0,06 \times 2 \times 3=0,48\)

Где:

  • 0,06 — стоимость GPU-секунды с учетом НДС в примере.

  • 1 или 2 — количество задействованных подов.

  • 2 или 3 — время в ходе которого были активными подов.

Деплой размером 1-4 пода на 4 GPU
Вычислительные ресурсы:

деплой размером 1-4 пода на 4 GPU.

Время выполнения операций:

60 минут 00 секунд.

Расчет стоимости (в рублях с учетом НДС):

\((1 \times 2700+2 \times 600+3 \times 300) \times 4 \times 0,06=1152\)

Где:

  • 0,06 — стоимость GPU-секунды с учетом НДС в примере.

  • 4 — количество GPU на один под.

  • 1, 2, 3 — количество задействованных подов.

  • 2700, 600, 300 секунд — время, в ходе которого были активными подами.

Примечание

Часть запросов поступала:

  • последовательно и была обработана постоянно активным первым подом;

  • параллельно и вызвала автомасштабирование до двух, а затем — до трёх подов так, как показано на рисунке.

../_images/s__depl-tarif-logick.png

Конфигурации вычислительных ресурсов (instance_type)

Конфигурации вычислительных ресурсов:

Конфигурации для обучения моделей в регионе Christofari.V100 (dgx2-mt)

Наименование instance_type

Конфигурация вычислительных ресурсов

Регион

free.0gpu

Free(0 GPU, 0.5 vCPU, 3GB RAM)

DGX2-MT

v100.1gpu

1 GPU Tesla V100 32GB, 3 CPU-cores, 92 Gb RAM

DGX2-MT

v100.2gpu

2 GPU Tesla V100 32GB, 6 CPU-cores, 184 Gb RAM

DGX2-MT

v100.3gpu

3 GPU Tesla V100 32GB, 9 CPU-cores, 276 Gb RAM

DGX2-MT

v100.4gpu

4 GPU Tesla V100 32GB, 12 CPU-cores, 368 Gb RAM

DGX2-MT

v100.5gpu

5 GPU Tesla V100 32GB, 15 CPU-cores, 460 Gb RAM

DGX2-MT

v100.6gpu

6 GPU Tesla V100 32GB, 18 CPU-cores, 552 Gb RAM

DGX2-MT

v100.7gpu

7 GPU Tesla V100 32GB, 21 CPU-cores, 644 Gb RAM

DGX2-MT

v100.8gpu

8 GPU Tesla V100 32GB, 24 CPU-cores, 736 Gb RAM

DGX2-MT

v100.9gpu

9 GPU Tesla V100 32GB, 27 CPU-cores, 828 Gb RAM

DGX2-MT

v100.10gpu

10 GPU Tesla V100 32GB, 30 CPU-cores, 920 Gb RAM

DGX2-MT

v100.11gpu

11 GPU Tesla V100 32GB, 33 CPU-cores, 1012 Gb RAM

DGX2-MT

v100.12gpu

12 GPU Tesla V100 32GB, 36 CPU-cores, 1104 Gb RAM

DGX2-MT

v100.13gpu

13 GPU Tesla V100 32GB, 39 CPU-cores, 1196 Gb RAM

DGX2-MT

v100.14gpu

14 GPU Tesla V100 32GB, 42 CPU-cores, 1288 Gb RAM

DGX2-MT

v100.15gpu

15 GPU Tesla V100 32GB, 45 CPU-cores, 1380 Gb RAM

DGX2-MT

v100.16gpu

16 GPU Tesla V100 32GB, 48 CPU-cores, 1472 Gb RAM

DGX2-MT

Конфигурации для обучения моделей в регионе Christofari.A100 (a100-mt)

Наименование instance_type

Конфигурация вычислительных ресурсов

Регион

a100.1gpu

1 GPU Tesla A100 80GB, 16 CPU-cores, 243 Gb RAM

A100-MT

a100.2gpu

2 GPU Tesla A100 80GB, 32 CPU-cores, 486 Gb RAM

A100-MT

a100.3gpu

3 GPU Tesla A100 80GB, 48 CPU-cores, 729 Gb RAM

A100-MT

a100.4gpu

4 GPU Tesla A100 80GB, 64 CPU-cores, 972 Gb RAM

A100-MT

a100.5gpu

5 GPU Tesla A100 80GB, 80 CPU-cores, 1215 Gb RAM

A100-MT

a100.6gpu

6 GPU Tesla A100 80GB, 96 CPU-cores, 1458 Gb RAM

A100-MT

a100.7gpu

7 GPU Tesla A100 80GB, 112 CPU-cores, 1701 Gb RAM

A100-MT

a100.8gpu

8 GPU Tesla A100 80GB, 128 CPU-cores, 1944 Gb RAM

A100-MT

free.0gpu

Free(0 GPU, 0.5 vCPU, 3GB RAM)

A100-MT

Конфигурации для обучения моделей в регионе Cloud.Region.CPU (CPU) (cce-mt)

Наименование instance_type

Конфигурация вычислительных ресурсов

Регион

m3.large.8.linux

0 GPU, 2 vCPU-cores, 16 Gb RAM

CCE-MT

m3.2xlarge.8.linux

0 GPU, 8 vCPU-cores, 64 Gb RAM

CCE-MT

m3.3xlarge.8.linux

0 GPU, 12 vCPU-cores, 96 Gb RAM

CCE-MT

m3.4xlarge.8.linux

0 GPU, 16 vCPU-cores, 128 Gb RAM

CCE-MT

Конфигурации для запуска деплоев в регионе Cloud.Region.CPU (CPU) (cce-inf)

Наименование instance_type

Конфигурация вычислительных ресурсов

Регион

m3.large.8.linux

0 GPU, 2 vCPU-cores, 16 Gb RAM

CCE-INF

m3.2xlarge.8.linux

0 GPU, 8 vCPU-cores, 64 Gb RAM

CCE-INF

m3.3xlarge.8.linux

0 GPU, 12 vCPU-cores, 96 Gb RAM

CCE-INF

m3.4xlarge.8.linux

0 GPU, 16 vCPU-cores, 128 Gb RAM

CCE-INF

Конфигурации для запуска деплоев в регионе Christofari.V100 (dgx2-inf-001)

Наименование instance_type

Конфигурация вычислительных ресурсов

Регион

v100.1gpu

1 GPU Tesla V100 32GB, 3 CPU-cores, 92 Gb RAM

DGX2-INF-001

v100.2gpu

2 GPU Tesla V100 32GB, 6 CPU-cores, 184 Gb RAM

DGX2-INF-001

v100.3gpu

3 GPU Tesla V100 32GB, 9 CPU-cores, 276 Gb RAM

DGX2-INF-001

v100.4gpu

4 GPU Tesla V100 32GB, 12 CPU-cores, 368 Gb RAM

DGX2-INF-001

v100.5gpu

5 GPU Tesla V100 32GB, 15 CPU-cores, 460 Gb RAM

DGX2-INF-001

v100.6gpu

6 GPU Tesla V100 32GB, 18 CPU-cores, 552 Gb RAM

DGX2-INF-001

v100.7gpu

7 GPU Tesla V100 32GB, 21 CPU-cores, 644 Gb RAM

DGX2-INF-001

v100.8gpu

8 GPU Tesla V100 32GB, 24 CPU-cores, 736 Gb RAM

DGX2-INF-001

v100.9gpu

9 GPU Tesla V100 32GB, 27 CPU-cores, 828 Gb RAM

DGX2-INF-001

v100.10gpu

10 GPU Tesla V100 32GB, 30 CPU-cores, 920 Gb RAM

DGX2-INF-001

v100.11gpu

11 GPU Tesla V100 32GB, 33 CPU-cores, 1012 Gb RAM

DGX2-INF-001

v100.12gpu

12 GPU Tesla V100 32GB, 36 CPU-cores, 1104 Gb RAM

DGX2-INF-001

v100.13gpu

13 GPU Tesla V100 32GB, 39 CPU-cores, 1196 Gb RAM

DGX2-INF-001

v100.14gpu

14 GPU Tesla V100 32GB, 42 CPU-cores, 1288 Gb RAM

DGX2-INF-001

v100.15gpu

15 GPU Tesla V100 32GB, 45 CPU-cores, 1380 Gb RAM

DGX2-INF-001

v100.16gpu

16 GPU Tesla V100 32GB, 48 CPU-cores, 1472 Gb RAM

DGX2-INF-001

Пример instance_type
instance_type="a100.1gpu" #При работе через client_lib

"instance_type": "a100.1gpu" #При работе через API