Грязный секрет высокопроизводительных вычислений

Грязный секрет высокопроизводительных вычислений

За десятилетия, прошедшие с тех пор, как Сеймур Крей разработал первый в мире суперкомпьютер CDC 6600 (opens in a new tab), в сообществе высокопроизводительных вычислений (HPC) развернулась гонка вооружений. Цель: повысить производительность всеми средствами, любой ценой.

Благодаря достижениям в области вычислений, хранения данных, сетей и программного обеспечения производительность ведущих систем увеличилась в триллионы раз с момента появления CDC 6600 в 1964 году, с миллионов операций с плавающей запятой в секунду (мегафлопс) до квинтиллионов (экзафлопс).

Нынешний обладатель короны, колоссальный американский суперкомпьютер под названием Frontier, способен достигать производительности 1102 экзафлопс в соответствии с тестом High Performance Linpack (HPL). Но считается, что еще более мощные машины работают в другом месте, за закрытыми дверями.

Ожидается, что появление так называемых экзафлопсных суперкомпьютеров принесет пользу практически всем отраслям — от науки до кибербезопасности, от здравоохранения до финансов — и проложит путь к новым мощным моделям ИИ, на разработку которых в противном случае ушли бы годы.

CDC 6600

CDC 6600 считается первым в мире суперкомпьютером. (Изображение предоставлено: Музей компьютерной истории)

Однако увеличение скорости такого масштаба имеет свою цену: энергопотребление. На полной скорости Frontier потребляет до 40 МВт (opens in a new tab) энергии, что примерно равно 40 миллионам настольных компьютеров.

Суперкомпьютеры всегда стремились раздвинуть границы возможного. Но по мере того, как необходимость минимизировать выбросы становится все более очевидной, а цены на энергоносители продолжают расти, индустрии высокопроизводительных вычислений придется переоценить, стоит ли по-прежнему следовать ее первоначальному руководящему принципу.

производительность по сравнению с Эффективность

Одной из организаций, занимающихся решением этой проблемы, является Кембриджский университет, который в партнерстве с Dell Technologies разработал несколько современных энергоэффективных суперкомпьютеров.

Wilkes3 (открывается в новой вкладке), например, занимает только 100-е место в диаграммах общей производительности (открывается в новой вкладке), но занимает 500-е место в GreenXNUMX (открывается в новой вкладке), классификации систем HPC, основанной на производительности на ватт энергии. потребляемая энергия.

В беседе с TechRadar Pro д-р Пол Кальеха, директор отдела исследовательских вычислительных услуг Кембриджского университета, объяснил, что учреждение гораздо больше занимается созданием высокопроизводительных и эффективных машин, чем чрезвычайно мощных машин.

«Нас не особо интересуют большие системы, потому что это очень специфические точечные решения. Но технологии, развернутые внутри помещений, имеют гораздо более широкое применение и позволят системам работать на порядок медленнее, намного дешевле и энергоэффективнее», — говорит доктор Кальеха.

«Таким образом, он демократизирует доступ к ИТ для большего числа людей. Мы заинтересованы в использовании технологий, разработанных для этих великих старых систем, для создания гораздо более надежных суперкомпьютеров для более широкой аудитории.

Кембриджский университет

Суперкомпьютер Wilkes3, возможно, не самый быстрый в мире, но он является одним из самых энергоэффективных. (Изображение предоставлено Кембриджским университетом)

В ближайшие годы доктор Кальеха также прогнозирует все более активное стремление к энергоэффективности в отрасли высокопроизводительных вычислений и в сообществе центров обработки данных в целом, где потребление энергии составляет более 90% затрат.

Недавние изменения цен на энергоносители, связанные с войной в Украине, также значительно удорожили суперкомпьютеры, особенно в контексте экзафлопсных вычислений, что еще раз демонстрирует важность производительности на ватт.

В контексте Wilkes3 университет обнаружил ряд оптимизаций, которые помогли повысить уровень эффективности. Например, за счет снижения тактовой частоты, на которой работали определенные компоненты, в зависимости от рабочей нагрузки, команда смогла добиться снижения энергопотребления порядка 20-30%.

«В пределах определенного архитектурного семейства тактовая частота имеет линейную зависимость от производительности, но прямоугольную зависимость от энергопотребления. Это убийца», — объяснил доктор Кальеха.

«Уменьшение тактовой частоты снижает энергопотребление гораздо быстрее, чем производительность, но также увеличивает время, необходимое для выполнения задания. Так что мы должны смотреть не на потребление энергии во время бега, а на самом деле энергию, потребляемую работой. Есть идеальное место.

программное обеспечение является королем

Помимо точной настройки аппаратных конфигураций для конкретных рабочих нагрузок, существует также ряд оптимизаций, которые необходимо выполнить в другом месте, в контексте хранения и сети, а также в смежных дисциплинах, таких как охлаждение и проектирование стоек.

Однако, когда его спросили, на что конкретно он хотел бы направить ресурсы для повышения энергоэффективности, д-р Каллеха объяснил, что в первую очередь следует сосредоточить внимание на программном обеспечении.

«Проблема не в оборудовании, а в эффективности приложений. Это будет основным узким местом для продвижения вперед», — сказал он. «Сегодняшние эксафлопсные системы основаны на архитектуре графических процессоров, а количество приложений, которые могут эффективно работать при масштабировании на системах с графическими процессорами, невелико».

«Чтобы по-настоящему воспользоваться преимуществами современных технологий, нам необходимо сосредоточиться на разработке приложений. Жизненный цикл разработки охватывает десятилетия; Программное обеспечение, используемое сегодня, было разработано 20 или 30 лет назад, и это сложно, когда у вас такой длинный код, что его нужно переделывать.

Проблема, однако, в том, что индустрия высокопроизводительных вычислений не имеет привычки в первую очередь думать о программном обеспечении. Исторически аппаратным средствам уделялось гораздо больше внимания, потому что, по словам доктора Каллехи, «это просто; вы только что купили более быстрый чип. Не нужно думать умно».

«Когда у нас действовал закон Мура, когда производительность процессора удваивалась каждые восемнадцать месяцев, вам не нужно было ничего делать для повышения производительности. Но эта эпоха закончилась. Теперь, если мы хотим добиться прогресса, мы должны вернуться назад и переоснастить процессор. программное обеспечение. »

Процессор с контактами вверх упирается в материнскую плату ПК. чип подсвечивается синим светом

По мере того, как закон Мура начинает ослабевать, достижения в архитектуре ЦП больше нельзя полагаться как на источник повышения производительности. (Изображение предоставлено: Alexander_Safonov/Shutterstock)

В этом отношении д-р Кальеха оставил похвалу в адрес Intel. По мере того, как пространство серверного оборудования становится все более разнообразным с точки зрения поставщиков (во многом положительное изменение), совместимость приложений может стать проблемой, но Intel работает над решением.

«Одним отличием, которое я вижу для Intel, является то, что они вкладывают значительные средства в экосистему oneAPI для обеспечения переносимости кода между типами микросхем. Именно эти типы наборов инструментов нам нужны, чтобы приложения завтрашнего дня могли использовать преимущества появляющегося кремния», — говорит он.

Отдельно д-р Каллеха призвал уделять больше внимания «научной необходимости». Слишком часто при переводе что-то идет не так, что приводит к несоответствию между аппаратной и программной архитектурой и реальными потребностями конечного пользователя.

По его словам, более решительный подход к межотраслевому сотрудничеству позволит создать «добродетельный круг» пользователей, поставщиков услуг и поставщиков, обеспечивающий как производительность, так и эффективность.

Будущее масштаба дзетты

Обычно после падения символического ориентира экзамасштаба внимание теперь переключается на следующий: дзеттамасштаб.

«Zettascale — это всего лишь следующий флаг в земле, — сказал д-р Каллеха, — тотемный столб, который подчеркивает технологии, необходимые для достижения следующего этапа вычислительного прогресса, который сегодня недоступен».

«Самые быстрые системы в мире чрезвычайно дороги для того, что вы получаете от них, с точки зрения научной продукции. Но они важны, потому что демонстрируют искусство возможного и двигают отрасль вперед.

Кембриджский университет

Колледж Пембрук, Кембриджский университет, где находится лаборатория Open Zettascale (Изображение предоставлено Кембриджским университетом)

Могут ли системы, способные достичь производительности в зеттафлопс, в тысячу раз более мощной, чем нынешняя культура, быть разработаны таким образом, чтобы соответствовать целям устойчивого развития, будет зависеть от изобретательности отрасли.

Между производительностью и эффективностью энергопотребления нет бинарной зависимости, но для обеспечения необходимого повышения производительности в рамках подходящего диапазона мощности потребуется достаточное количество навыков в каждой поддисциплине.

Теоретически существует золотое соотношение между производительностью и энергопотреблением, поэтому выгоды для общества, создаваемые высокопроизводительными вычислениями, можно считать стоящими затрат на выбросы углерода.

Точная цифра, конечно, останется неуловимой на практике, но следование этой идее по определению является шагом в правильном направлении.