Справочник API

Актуальная спецификация (автодокументация по методам).

Важно

На платформе есть ограничение на количество API запросов управляющему серверу в день. Эти запросы касаются:

  • Запуска задач обучения в регионе.

  • Удаления задач обучения.

  • Большинства операций с деплоями.

  • Просмотра логов.

  • Перемещения и копирования файлов средствами библиотеки client_lib и др.

Ограничение для GET-запросов:

100 в минуту, 10000 в день

Ограничение для POST-запросов:

30 в минуту, 1000 в день

Если лимит на количество запросов превышен, API возвращает код ошибки 429.

Обратите внимание на то, что ограничения на количество API запросов не распространяются на predict (отправка пользователем запросов к модели для предсказания на новых данных). Это, прежде всего, касается обращения к моделям, развернутым в модуле Deployments, и моделям ruGPT-3.

Конфигурации вычислительных ресурсов (instances_types)

Конфигурации вычислительных ресурсов:

Конфигурации для обучения моделей в регионе Christofari.V100 (dgx2-mt)

Наименование instance_type

Конфигурация вычислительных ресурсов

Регион

free.0gpu

Free(0 GPU, 0.5 vCPU, 3GB RAM)

DGX2-MT

v100.1gpu

1 GPU Tesla V100 32GB, 3 CPU-cores, 92 Gb RAM

DGX2-MT

v100.2gpu

2 GPU Tesla V100 32GB, 6 CPU-cores, 184 Gb RAM

DGX2-MT

v100.3gpu

3 GPU Tesla V100 32GB, 9 CPU-cores, 276 Gb RAM

DGX2-MT

v100.4gpu

4 GPU Tesla V100 32GB, 12 CPU-cores, 368 Gb RAM

DGX2-MT

v100.5gpu

5 GPU Tesla V100 32GB, 15 CPU-cores, 460 Gb RAM

DGX2-MT

v100.6gpu

6 GPU Tesla V100 32GB, 18 CPU-cores, 552 Gb RAM

DGX2-MT

v100.7gpu

7 GPU Tesla V100 32GB, 21 CPU-cores, 644 Gb RAM

DGX2-MT

v100.8gpu

8 GPU Tesla V100 32GB, 24 CPU-cores, 736 Gb RAM

DGX2-MT

v100.9gpu

9 GPU Tesla V100 32GB, 27 CPU-cores, 828 Gb RAM

DGX2-MT

v100.10gpu

10 GPU Tesla V100 32GB, 30 CPU-cores, 920 Gb RAM

DGX2-MT

v100.11gpu

11 GPU Tesla V100 32GB, 33 CPU-cores, 1012 Gb RAM

DGX2-MT

v100.12gpu

12 GPU Tesla V100 32GB, 36 CPU-cores, 1104 Gb RAM

DGX2-MT

v100.13gpu

13 GPU Tesla V100 32GB, 39 CPU-cores, 1196 Gb RAM

DGX2-MT

v100.14gpu

14 GPU Tesla V100 32GB, 42 CPU-cores, 1288 Gb RAM

DGX2-MT

v100.15gpu

15 GPU Tesla V100 32GB, 45 CPU-cores, 1380 Gb RAM

DGX2-MT

v100.16gpu

16 GPU Tesla V100 32GB, 48 CPU-cores, 1472 Gb RAM

DGX2-MT

Конфигурации для обучения моделей в регионе Christofari.A100 (a100-mt)

Наименование instance_type

Конфигурация вычислительных ресурсов

Регион

a100.1gpu

1 GPU Tesla A100 80GB, 16 CPU-cores, 243 Gb RAM

A100-MT

a100.2gpu

2 GPU Tesla A100 80GB, 32 CPU-cores, 486 Gb RAM

A100-MT

a100.3gpu

3 GPU Tesla A100 80GB, 48 CPU-cores, 729 Gb RAM

A100-MT

a100.4gpu

4 GPU Tesla A100 80GB, 64 CPU-cores, 972 Gb RAM

A100-MT

a100.5gpu

5 GPU Tesla A100 80GB, 80 CPU-cores, 1215 Gb RAM

A100-MT

a100.6gpu

6 GPU Tesla A100 80GB, 96 CPU-cores, 1458 Gb RAM

A100-MT

a100.7gpu

7 GPU Tesla A100 80GB, 112 CPU-cores, 1701 Gb RAM

A100-MT

a100.8gpu

8 GPU Tesla A100 80GB, 128 CPU-cores, 1944 Gb RAM

A100-MT

free.0gpu

Free(0 GPU, 0.5 vCPU, 3GB RAM)

A100-MT

Конфигурации для обучения моделей в регионе Cloud.Region.CPU (CPU) (cce-mt)

Наименование instance_type

Конфигурация вычислительных ресурсов

Регион

m3.large.8.linux

0 GPU, 2 vCPU-cores, 16 Gb RAM

CCE-MT

m3.2xlarge.8.linux

0 GPU, 8 vCPU-cores, 64 Gb RAM

CCE-MT

m3.3xlarge.8.linux

0 GPU, 12 vCPU-cores, 96 Gb RAM

CCE-MT

m3.4xlarge.8.linux

0 GPU, 16 vCPU-cores, 128 Gb RAM

CCE-MT

Конфигурации для запуска деплоев в регионе Cloud.Region.CPU (CPU) (cce-inf)

Наименование instance_type

Конфигурация вычислительных ресурсов

Регион

m3.large.8.linux

0 GPU, 2 vCPU-cores, 16 Gb RAM

CCE-INF

m3.2xlarge.8.linux

0 GPU, 8 vCPU-cores, 64 Gb RAM

CCE-INF

m3.3xlarge.8.linux

0 GPU, 12 vCPU-cores, 96 Gb RAM

CCE-INF

m3.4xlarge.8.linux

0 GPU, 16 vCPU-cores, 128 Gb RAM

CCE-INF

Конфигурации для запуска деплоев в регионе Christofari.V100 (dgx2-inf-001)

Наименование instance_type

Конфигурация вычислительных ресурсов

Регион

v100.1gpu

1 GPU Tesla V100 32GB, 3 CPU-cores, 92 Gb RAM

DGX2-INF-001

v100.2gpu

2 GPU Tesla V100 32GB, 6 CPU-cores, 184 Gb RAM

DGX2-INF-001

v100.3gpu

3 GPU Tesla V100 32GB, 9 CPU-cores, 276 Gb RAM

DGX2-INF-001

v100.4gpu

4 GPU Tesla V100 32GB, 12 CPU-cores, 368 Gb RAM

DGX2-INF-001

v100.5gpu

5 GPU Tesla V100 32GB, 15 CPU-cores, 460 Gb RAM

DGX2-INF-001

v100.6gpu

6 GPU Tesla V100 32GB, 18 CPU-cores, 552 Gb RAM

DGX2-INF-001

v100.7gpu

7 GPU Tesla V100 32GB, 21 CPU-cores, 644 Gb RAM

DGX2-INF-001

v100.8gpu

8 GPU Tesla V100 32GB, 24 CPU-cores, 736 Gb RAM

DGX2-INF-001

v100.9gpu

9 GPU Tesla V100 32GB, 27 CPU-cores, 828 Gb RAM

DGX2-INF-001

v100.10gpu

10 GPU Tesla V100 32GB, 30 CPU-cores, 920 Gb RAM

DGX2-INF-001

v100.11gpu

11 GPU Tesla V100 32GB, 33 CPU-cores, 1012 Gb RAM

DGX2-INF-001

v100.12gpu

12 GPU Tesla V100 32GB, 36 CPU-cores, 1104 Gb RAM

DGX2-INF-001

v100.13gpu

13 GPU Tesla V100 32GB, 39 CPU-cores, 1196 Gb RAM

DGX2-INF-001

v100.14gpu

14 GPU Tesla V100 32GB, 42 CPU-cores, 1288 Gb RAM

DGX2-INF-001

v100.15gpu

15 GPU Tesla V100 32GB, 45 CPU-cores, 1380 Gb RAM

DGX2-INF-001

v100.16gpu

16 GPU Tesla V100 32GB, 48 CPU-cores, 1472 Gb RAM

DGX2-INF-001

Пример instance_type
instance_type="a100.1gpu" #При работе через client_lib

"instance_type": "a100.1gpu" #При работе через API