Еще несколько лет назад флагманские GPU встречались в двух сценариях — дорогостоящее обучение моделей с чистого листа или претрейнинг крупных архитектур. Под такие задачи строили целые кластеры: длинные эпохи, десятки миллиардов параметров, месяцы непрерывных расчетов. Даже для обучения относительно «легких» моделей требовались серверы с 4−8 топовыми GPU. А уже сегодня можно заказать сервер сразу с восемью GPU H200, да еще и в формате SXM.Привет, Хабр! На связи Сергей Ковалёв, менеджер выделенных серверов в Selectel. В этой статье я расскажу, как индустрия оказалась в точке, когда нужны суммарные 1 128 ГБ видеопамяти и куда несется этот «локомотив». Под катом — все подробности. Читать далее