реклама
Новости Hardware

AMD опровергла опровержение NVIDIA — ИИ-ускоритель MI300X на 30 % быстрее NVIDIA H100, даже с оптимизациями

Компания AMD ответила на недавнее заявление NVIDIA о том, что ускорители вычислений NVIDIA H100, при использовании оптимизированных библиотек TensorRT-LLM для ИИ-расчётов, быстрее справляются с поставленными задачами, чем новые ускорители AMD Instinct MI300X. По мнению AMD, её ускорители всё равно выигрывают.

 Источник изображения: Wccftech

Источник изображения: Wccftech

Двумя днями ранее компания NVIDIA опубликовала свои результаты тестов специализированных ускорителей вычислений Hopper H100 и заявила, что они значительно быстрее новейших ИИ-ускорителей AMD MI300X, которые были представлены на мероприятии Advancing AI на прошлой неделе. По словам NVIDIA, AMD при сравнении своих MI300X с H100 не использовала для последних специальные оптимизированные программные библиотеки TensorRT-LLM, которые повышают эффективность ИИ-чипов NIVDIA.

NVIDIA опубликовала данные своих тестов с использованием библиотек TensorRT-LLM, которые показали практически 50-процентное преимущество над ускорителями AMD MI300X. AMD решила ответить на это заявление, показав на новых графиках, как MI300X по-прежнему оказывается быстрее ускорителей H100, даже если последние используют оптимизированный под них стек программного обеспечения. По словам AMD, свои данные NVIDIA приводит:

  • на основе тестов H100 с библиотеками TensorRT-LLM вместо библиотек vLLM, которые использовались для тестов ускорителей AMD;
  • сравнивает производительность ускорителей AMD Instinct MI300X в вычислениях на числах FP16, а для тестов своих H100 использует данные типа FP8;
  • в графиках инвертировала данные AMD об относительной задержке в показатель абсолютной пропускной способности.

Согласно новым тестам AMD, её ускорители MI300X, работающие с библиотеками vLLM, на 30 % производительнее ускорителей NVIDIA H100, даже если последние работают с библиотеками TensorRT-LLM. Ниже показан новый график результатов тестов ускорителей H100 и MI300X, предоставленный AMD.

 Источник изображения: Wccftech / AMD

Источник изображения: Wccftech / AMD

Ниже приведено заявление AMD.

  • «Тесты MI300X и H100 с библиотеками vLLM
  • В рамках нашего анонса MI300X в начале декабря, мы сообщили, что наше решение в 1,4 раза производительнее H100 в условиях эквивалентных типов данных и программного обеспечения для расчётов. С нашими последними оптимизациями производительность MI300X оказалась в 2,1 раза выше, чем у конкурента;
  • Мы выбрали vLLM, основываясь на их широком распространении среди пользователей и разработчиков, а также с тем учётом, что эта программная среда поддерживается графическими процессорами AMD и NVIDIA.
  • MI300X с vLLM против H100 с оптимизированными библиотеками TensorRT-LLM
  • Сравнение H100 с оптимизированным ПО TensorRT-LLM с MI300X с vLLM показывает, что MI300X с vLLM обеспечивает в 1,3 более высокую производительность в операциях FP16.
  • Замеры задержки для MI300X с данными типа FP16 против H100 с TensorRT-LLM и типом данных FP8
  • Ускорители MI300X продолжают демонстрировать преимущество в производительности при измерении показателя абсолютной задержки, даже в том случае, когда H100 с TensorRT-LLM работает с типами данных FP8 и сравнение приводится с MI300X, которые работают с более точными типами данных FP16. Мы (AMD) используем FP16 из-за их популярности, кроме того, vLLM не поддерживают операции FP8.
  • Новые результаты снова показывают, что MI300X в работе данными FP16 сравнимы по производительности с H100, для которых используются рекомендованные настройки NVIDIA, учитывающие типы данных FP8 и программную среду TensorRT-LLM».

Публичный спор между AMD и NVIDIA в очередной раз демонстрирует, что в сегменте ИИ-вычислений наблюдается очень высокая конкуренция между производителями аппаратного обеспечения, которые готовы бороться за каждого клиента.

Источники:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме
window-new
Soft
Hard
Тренды 🔥
Tesla открыла 20 вакансий в сфере ИИ с зарплатой до $360 000 в год 2 ч.
Новая статья: Crow Country — для тех, кто помнит. Рецензия 4 ч.
Скорый анонс новой Doom подтвердил надёжный источник — первые подробности Doom: The Dark Ages 8 ч.
«Лучший экшен 2024 года», кроссплей и никаких микротранзакций: новые подробности Warhammer 40,000: Space Marine 2 9 ч.
Исследование: основной целью хакеров при атаках на промышленность является шпионаж 9 ч.
Обойдёмся без Oracle: «Ростелеком» создаст собственную биллинговую систему с СУБД от «СберТеха» 10 ч.
От бега с ножницами до выдуманных фильмов: ИИ Google чудит с ответами прямо в поиске 10 ч.
«Есть куда стремиться»: глава FromSoftware прояснил будущее Armored Core и ответил на вопрос про Bloodborne 2 11 ч.
Angara Security создала ИБ-платформу предиктивной аналитики на основе баз данных угроз ФСТЭК и MITRE 11 ч.
За первые пять месяцев 2024 года игровые компании уволили более 10 тысяч человек — почти столько же, сколько за весь 2023-й 12 ч.
Американские регуляторы решили углубиться в расследование новых инцидентов с прототипами беспилотных такси Waymo 2 мин.
Gunnir выпустила уникальные видеокарты Photon Arc A750 и Arc A770 в стиле Elden Ring: Shadow of the Erdtree 9 ч.
Продажи смартфонов в Европе закончили трёхлетнее падение, но до полного восстановления рынка ещё далеко 10 ч.
SpaceX Starship в следующий раз полетит в космос 5 июня, но это не точно 11 ч.
Банк России зафиксировал всплеск активности россиян на криптовалютном рынке 13 ч.
Китайские батареи для электромобилей будут вдвое дешевле американских, даже с новыми пошлинами США 13 ч.
SpaceX не нуждается в дополнительном капитале — Маск опроверг слухи о грядущей продаже акций компании 13 ч.
«Царь во дворца»: G.Skill представила флагманскую оперативную память Trident Z5 Royal DDR5 13 ч.
Деньги на ветер: Spotify отключит автомобильные проигрыватели Car Thing и не вернёт средства 13 ч.
Micron заплатит $445 млн за воровство технологий компьютерной памяти у Netlist 14 ч.