«Это очень мало»: российскому ИИ потребуется в семь раз нарастить число GPU-ускорителей к 2030 году

Читать в полной версии

Мощность российских центров обработки данных для систем искусственного интеллекта должна составить свыше 70 тыс. ускорителей вычислений в эквиваленте Nvidia A100 к 2030 году. Об этом пишут «Ведомости» со ссылкой на вице-президента «Ростелекома» Дария Халитова. Он добавил, что имеется ввиду прогнозная совокупная потребность в аппаратных мощностях в FLOPS (Floating Point Operations Per Second), которые могут быть удовлетворены на основе чипов разных вендоров.

Источник изображения: Nvidia

Другой осведомлённый источник в крупном облачном провайдере рассказал, что в IT-сфере наиболее востребованы ускорители Nvidia A100 и H100. Первая модель обеспечивает гибкие возможности масштабирования для вычислительных задач, а вторая — более новая и, по заявлениям производителя, превосходит предшественницу в вычислениях в 3–6 раз. Директор по новым облачным продуктам МТС Web Services Алексей Кузнецов добавил, что крупнейшие мировые IT-компании преимущественно используют для обучения ИИ ускорители Nvidia H100, более новые B200 и более старые A100. Он отметил, что на российском рынке в основном используются A100.

Эксперты считают, что определить точный объём таких ускорителей в отечественных центрах обработки данных достаточно сложно, поскольку ИИ-вычисления преимущественно проводятся внутри собственной инфраструктуры предприятий. По подсчётам ассоциации «Финтех», за последние 10 лет лидеры рынка инвестировали в российский ИИ-рынок не менее 650 млрд рублей, за счёт чего к середине 2023 года 95 % компаний внедрили ИИ-технологии в основные процессы. В ассоциации добавили, что данных об абсолютных объёмах рынка ИИ по итогам 2024 года пока нет, но ожидается, что этот показатель составит не менее 780 млрд рублей при учёте роста не менее 30 %.

В правительстве РФ ранее прогнозировали, что ИИ-рынок в стране достигнет 1 трлн рублей в 2025 году. По оценкам «Ростелекома», рынок ИИ-ускорителей вырастет в 6–7 раз к 2030 году. По мнению экспертов, объём инвестиций в этот объём GPU будет зависеть от того, будут ли ускорители использоваться только в действующих ЦОДах или в том числе будут строиться новые ЦОДы. Для новых объектов определяющим критерием цены станет доля ИИ в планируемой нагрузке и регион размещения. Эксперт считает, что вилку на 70 тыс. ускорителей Nvidia A100 или аналогов при инвестициях в действующие и новые ЦОДы можно оценить в $1,5–2 млрд.

По данным iKS-Consulting, в конце прошлого года количество стойко-мест в российских ЦОДах достигло 82 тыс. В нынешнем году планируется ввести в эксплуатацию от 12 до 15 тыс. стойко-мест. Гендиректор Dbrain Алексей Хахунов напомнил, что ИИ-ускорители массово сейчас выпускают только Nvidia и AMD, а стандартом обучения считаются H200. «Это примерно, как A100, умноженное на 15», — рассказал эксперт, добавив, что 70 тыс. ускорителей A100 в федеральном масштабе — это очень мало. «Tesla имеет у себя около 350 тыс. карт H200, т.е. это почти на два порядка меньше [по вычислительной мощности, — прим. ред.]», — отметил Хахунов. По его сведениям, в настоящее время у российских техногигантов, таких как «Яндекс» и «Сбер», около 10 тыс. таких ускорителей. Официальные данные на сайте «Яндекса» указывают на то, что три суперкомпьютера компании использовали совокупно 3500 ускорителей A100 на конец 2021 года.