По какому принципу работают суперкомпьютеры кратко

Обновлено: 05.07.2024

Суперкомпью́тер (англ. supercomputer , СуперЭВМ) — вычислительная машина, значительно превосходящая по своим техническим параметрам большинство существующих компьютеров. Как правило, современные суперкомпьютеры представляют собой большое число высокопроизводительных серверных компьютеров, соединённых друг с другом локальной высокоскоростной магистралью для достижения максимальной производительности в рамках подхода распараллеливания вычислительной задачи.

Содержание

Определение понятия суперкомпьютер

Архитектура также не может считаться признаком принадлежности к классу суперкомпьютеров. Ранние компьютеры CDC были обычными машинами, всего лишь оснащёнными быстрыми для своего времени скалярными процессорами, скорость работы которых была в несколько десятков раз выше, чем у компьютеров, предлагаемых другими компаниями.

Большинство суперкомпьютеров 70-х оснащались векторными процессорами, а к началу и середине 80-х небольшое число (от 4 до 16) параллельно работающих векторных процессоров практически стало стандартным суперкомпьютерным решением. Конец 80-х и начало 90-х годов охарактеризовались сменой магистрального направления развития суперкомпьютеров от векторно-конвейерной обработки к большому и сверхбольшому числу параллельно соединённых скалярных процессоров.

Массово-параллельные системы стали объединять в себе сотни и даже тысячи отдельных процессорных элементов, причём ими могли служить не только специально разработанные, но и общеизвестные и доступные в свободной продаже процессоры. Большинство массивно-параллельных компьютеров создавалось на основе мощных процессоров с архитектурой RISC, наподобие PowerPC или PA-RISC.

В конце 90-х годов высокая стоимость специализированных суперкомпьютерных решений и нарастающая потребность разных слоёв общества в доступных вычислительных ресурсах привели к широкому распространению компьютерных кластеров. Эти системы характеризует использование отдельных узлов на основе дешёвых и широко доступных компьютерных комплектующих для серверов и персональных компьютеров и объединённых при помощи мощных коммуникационных систем и специализированных программно-аппаратных решений. Несмотря на кажущуюся простоту, кластеры довольно быстро заняли достаточно большой сегмент суперкомпьютерного рынка, обеспечивая высочайшую производительность при минимальной стоимости решений.

Иногда суперкомпьютеры используются для работы с одним-единственным приложением, использующим всю память и все процессоры системы; в других случаях они обеспечивают выполнение большого числа разнообразных приложений.

Производительность

Производительность суперкомпьютеров чаще всего оценивается и выражается в количестве операций с плавающей точкой в секунду (FLOPS). Это связано с тем, что задачи численного моделирования, под которые и создаются суперкомпьютеры, чаще всего требуют вычислений, связанных с вещественными числами с высокой степенью точности, а не целыми числами. Поэтому для суперкомпьютеров неприменима мера быстродействия обычных компьютерных систем - количество миллионов операций в секунду (MIPS). При всей своей неоднозначности и приблизительности, оценка в флопсах позволяет легко сравнивать суперкомпьютерные системы друг с другом, опираясь на объективный критерий.

Первые суперкомпьютеры имели производительность порядка 1 флопс, т.е. 1000 операций с плавающей точкой в секунду. Компьютер CDC 6600, имевший производительность в 1 миллион флопсов (1 Мфлопс) был создан в 1964 году. Планка в 1 миллиард флопс (1 Гигафлопс) была преодолена суперкомпьютером Cray-2 в 1985 с большим запасом (1.9 Гигафлопс). Граница в 1 триллион флопс (1 Тфлопс) была достигнута в 1996 году суперкомпьютером ASCI Red (англ.). Рубеж 1 квадриллион флопс (1 Пфлопс) был взят в 2008 году суперкомпьютером IBM Roadrunner. Сейчас ведутся работы по созданию к 2016 году экзафлопсных компьютеров, способных выполнять 1 квинтиллион операций с плавающей точкой в секунду.

Программное обеспечение суперкомпьютеров

Наиболее распространёнными программными средствами суперкомпьютеров, также как и параллельных или распределённых компьютерных систем являются интерфейсы программирования приложений (API) на основе MPI и PVM, и решения на базе открытого программного обеспечения, наподобие Beowulf и openMosix, позволяющего создавать виртуальные суперкомпьютеры даже на базе обыкновенных рабочих станций и персональных компьютеров. Для быстрого подключения новых вычислительных узлов в состав узкоспециализированных кластеров применяются технологии наподобие ZeroConf. Примером может служить реализация рендеринга в программном обеспечении Shake, распространяемом компанией Apple. Для объединения ресурсов компьютеров, выполняющих программу Shake, достаточно разместить их в общем сегменте локальной вычислительной сети.

Top500

Начиная с 1993, суперкомпьютеры ранжируют в списке Top500. Список составляется на основе теста LINPACK по решению системы линейных алгебраических уравнений, являющейся общей задачей для численного моделирования.

Фото: Unsplash

Четверть века назад суперкомпьютеры обладали вычислительной мощностью современного смартфона. Объясняем, почему суперкомпьютер — это не просто большая и сверхбыстрая ЭВМ, и каково может быть их будущее развитие

Какой компьютер является мощнейшим на сегодняшний день?

В конце июня 2020 года был опубликован ежегодный рейтинг из 500 самых мощных суперкомпьютеров в мире. Первую строчку в нем занял японский Fugaku. Он в 2,8 раз мощнее, чем прошлогодний лидер — Summit от IBM (он теперь на втором месте). Впервые рейтинг возглавил компьютер на базе процессоров ARM.

Fugaku разработала компания Fujitsu — та самая, что выпускала популярную фото- и видеотехнику Fuji. Разработки велись на базе Института Кобе в составе Института физико-химических исследований (RIKEN). Концепцию придумали еще в 2010 году, а на создание и сборку ушло более шести лет.

Пишут, что Fugaku сможет помочь в борьбе с коронавирусом. Но на самом деле суперкомпьютеры способны решать самые амбициозные задачи, которые приходят нам в голову.

Чем суперкомпьютер отличается от обычного?

Для этого им нужны тысячи супермощных процессоров. В результате вычисления, на которые у мощного игрового компьютера уйдет неделя, суперкомпьютер выполняет за день. Однако важно, чтобы программы работали корректно, с учетом технических особенностей машины. Иначе то, что корректно работает на 100 процессорах, сильно замедлится на 200.

Современные смартфоны работают так же быстро, как самый мощный суперкомпьютер 1994 года.

Суперкомпьютеры работают на специальном ПО. Например, у Fugaku операционная система Red Hat Enterprise Linux 8 c гибридным ядром, состоящим из одновременно работающих ядер Linux и McKernel. В качестве программных средств используют API — то есть интерфейсы или платформы для программирования — и открытое ПО, которое позволяет создавать виртуальные суперкомпьютеры на базе обычных. Часто суперкомпьютер — это несколько высокомощных компьютеров, которые объединены высокоскоростной локальной сетью.

Обычно производительность компьютеров оценивается во флопсах (FLOPS — FLoating-point Operations Per Second) — то есть количестве операций над числами с плавающей точкой в секунду. Для суперкомпьютеров сначала использовали мегафлопсы — MIPS, количество миллионов операций в секунду, а с 2008 года петафлопсы — то есть количество миллионов миллиардов вычислений в секунду. К примеру, у суперкомпьютера Fugaku производительность составляет 415 петафлопс, а у Summit — 148.

Кто придумал суперкомпьютер?

Первой супер-ЭВМ считают Cray-1, созданную в 1974 году. Ее разработал Сеймур Крей — американский инженер в области вычислительной техники и основатель компании Cray Research. Cray-1 выполняла до 180 млн операций в секунду.

За основу Крэй уже имеющиеся разработки — компьютеры CDC 8600 и CDC STAR-100. Он построил процессор, который быстро выполнял и скалярные и векторные вычисления: предшественники хорошо справлялись либо с первыми, либо со вторыми.

Скалярные вычисления — те, где используется одна характеристика, величина и знак. В векторных используют вектора, то есть величину и направление (угол).

Cray-1 впервые презентовали в 1975-м, и за нее тут же начали биться ведущие лаборатории США, занимающиеся сложными вычислениями. В 1977-м компьютер достался Национальному центру атмосферных исследований, где проработал 12 лет. Cray-1 можно было арендовать для работы за $7 500 в час или $210 тыс. в месяц.

В 1980-х годах Крэй выпустил еще две модели суперкомпьютеров нового поколения, включая многопроцессорный Cray X-MP. Начиная с 1990-х лидерство перехватили NEC, Hewlett-Packard и IBM, причем компьютеры последней регулярно занимают верхние строчки того самого ТОП-500.

Где и для чего используют суперкомпьютеры?

Главная задача суперкомпьютеров — выполнять максимум вычислений за минимум времени. Это полезно для многих областей: начиная от создания лекарств и заканчивая разработками новых продуктов и технологий,

Есть суперкомпьютеры, которые работают с одним-единственным приложением, которое задействует всю память. Например, для прогнозирования изменений погоды и климата или моделей ядерных испытаний. В будущем это позволит отказаться от реальных испытаний опасного оружия и исключить риски взрывов или утечек при долгом хранении.

Великобритания выделит $1,6 млрд на создание мощнейшего в мире суперкомпьютера для прогнозирования погоды и климатических изменений.

Министерство энергетики США и Аргоннская национальная лаборатория, совместно с Intel и Cray, обещают в 2021 году представить суперкомпьютер Aurora для исследований в области ядерного оружия. Он будет выполнять 1 квинтиллион операций в секунду и обойдется в $500 млн.

Но суперкомпьютеры не просто вычисляют, а моделируют реальность. То есть просчитывают все возможные варианты развития событий и строят прогнозы. Поэтому с их помощью астрономы и астрофизики воспроизводят самые разные события и процессы во Вселенной.

В марте этого года астрономы из Технологического университета Суинберна (Австралия) и Калифорнийского технологического университета (США) смоделировали на суперкомпьютере эволюцию Млечного Пути. Для этого они использовали все данные о звездных скоплениях в нашей галактике.

Нанокомпьютер, квантовый компьютер и суперкомпьютер: в чем разница?

Все это — вычислительные устройства с выдающимися характеристиками.

Нанокомпьютер — это компьютер микроскопических размеров. Он запрограммирован на определенные химические свойства и поведение. Он может быть очень мощным и высокопроизводительным, но пока что не таким, как суперкомпьютер. В будущем они смогут заменить обычные устройства, так как потребляют намного меньше энергии.

Группа инженеров и ученых из Гарвардского университета и компании Mitre создала простейший нанокомпьютер, который состоит из множества крошечных проводников диаметром 15 нанометров (нанометр = 1 миллиардная метра). Их ядро из германия, а внешняя оболочка — из кремния.

Свой нанокомпьютер есть и у IBM, но уже покрупнее: 1х1 мм. Это полноценный ПК с процессором, памятью и блоком питания. По производительности его можно сравнить с x86-совместимыми процессорами из 1990-х годов. Его можно будет применять для работы с ИИ, сортировки данных, логистики, обнаружения краж.

Квантовый компьютер — это устройство, которое работает по принципам квантовой механики. Он обрабатывает данные не в битах, а в кубитах, которые одновременно равны 0 и 1. В теории, такой компьютер может обрабатывать все возможные состояния одновременно.

Какое будущее ждет суперкомпьютеры?

Очевидно, что производительность суперкомпьютеров будет разгоняться до космических цифр, их размеры — уменьшаться, а потребление энергии — сокращаться. Но самое интересное кроется в задачах, которые они смогут решать.

Эксперты считают, что через 15 лет симуляции отойдут на второй план, а машинное обучение позволит суперкомпьютерам выполнять глубокую аналитику данных. В итоге их будут применять везде: от разработки бесконечных аккумуляторов до лекарства от рака.

Раскройте весь потенциал данных в государственном секторе, научно-образовательной сфере и на предприятиях.

Основные выводы:

Суперкомпьютерные вычисления помогают решать сложные и ресурсоемкие задачи в научно-образовательной сфере, государственном секторе и бизнесе для улучшения качества нашей жизни.

Начиная с 2022 года Аргоннская национальная лаборатория станет домом для суперкомпьютера эксафлопсного класса Aurora, одного из первых суперкомпьютеров в США, способного производить 10¹⁸ вычислений в секунду.

Корпорация Intel будет обеспечивать новые технологии, которые позволят этой трехкомпонентной машине одновременно выполнять моделирование и симуляцию, управлять искусственным интеллектом и машинным обучением, а также работать с большими данными и аналитикой.

Суперкомпьютерные вычисления позволяют государственным, научно-образовательным учреждениям, а также предприятиям решать широкий спектр сложных задач, которые требуют использования больших объемов данных и массивных вычислений. Технологические решения должны иметь возможность оптимизации и гибкой настройки под различные рабочие нагрузки, чтобы исследователи могли трансформировать данные в уникальные знания максимально просто. Ассортимент высокопроизводительных вычислительных систем Intel (HPC) обеспечивает результаты в различных вариантах реальных рабочих нагрузок, — от моделирования и симуляции до визуализации и глубинного обучения — как локально, так и в облаке.

Суперкомпьютерные вычисления позволяют государственным, научно-образовательным учреждениям, а также предприятиям решать широкий спектр сложных задач, которые требуют использования больших объемов данных и массивных вычислений. Технологические решения должны иметь возможность оптимизации и гибкой настройки под различные рабочие нагрузки, чтобы исследователи могли трансформировать данные в уникальные знания максимально просто. Ассортимент высокопроизводительных вычислительных систем Intel (HPC) обеспечивает результаты в различных вариантах реальных рабочих нагрузок, — от моделирования и симуляции до визуализации и глубинного обучения — как локально, так и в облаке.

Обзор суперкомпьютерных и эксафлопсных вычислений

Суперкомпьютеры помогают решать задачи в сфере науки, инженерии и бизнеса, которые делают наш мир лучше — от индивидуальных методов лечения рака до прогнозирования климатических изменений и понимания химических процессов большого взрыва. Решение этих сложных и ресурсоемких задач требует больших вычислительных мощностей. По мере увеличения объемов данных, а также с ростом потребности в скоростных вычислениях высокопроизводительные вычислительные системы переходят от суперкомпьютеров до компьютеров эксафлопсной производительности, таких как компьютер эксафлопсного класса Aurora, который ученые из Аргоннской национальной лаборатории планируют запустить в 2022 году. Лаборатории, такие как Аргоннская национальная лаборатория, Ок-Риджская национальная лаборатория и Ливерморская национальная лаборатория, делают высокопроизводительные вычислительные системы доступными для промышленности и научно-образовательного сектора при условии наличия значительных интеллектуальных и экономических преимуществ государственных инвестиций.

Что такое суперкомпьютер?

Суперкомпьютерные вычисления — это форма высокопроизводительных вычислений с использованием огромных баз данных, высокоскоростных вычислений или и того и другого. Команда Hyperion Research относит к суперкомпьютерам любую систему стоимостью более 500 000 долларов США. Суперкомпьютеры содержат от сотен до тысяч узлов, таких как компьютерные рабочие станции, работающих параллельно. У каждого узла есть много процессоров или ядер, которые выполняют команды. Компьютеры взаимодействуют через сеть для обеспечения синхронной работы. Сегодня самые быстрые суперкомпьютеры решают задачи с петафлопсной производительностью — 10 15 вычислений в секунду (а точнее, операций с плавающей запятой в секунду). Но это изменится с приходом эксафлопсных компьютеров, которые в тысячу раз быстрее. Чтобы получить больше информации о самых быстрых суперкомпьютерах в мире, см. TOP500.

Исторически сложилось, что в круг проблем, которые решались с помощью суперкомпьютерных вычислений, входили моделирование и симуляция. Примеры включают изучение сталкивающихся галактик, субатомных свойств атомов или даже проектирование бутылочек с шампунем, которые не бьются, когда падают. Автомобильные производители использовали суперкомпьютерные вычисления, чтобы сократить длительность расчета срока службы машины с пяти до двух лет, сэкономив миллиарды долларов и годы работы за счет уменьшения количества необходимых попыток аэродинамического моделирования. Но суперкомпьютерные вычисления также затрагивают и новые вопросы и даже обнажают новые проблемы, требующие решения.

Что такое эксафлопсные вычисления?

Эксафлопсные компьютеры способны вычислять минимум 10 18 операций с плавающей запятой в секунду, что равняется одному эксафлопсу. Чтобы понять, насколько быстро будет работать компьютер эксафлопсного класса Aurora, представьте, что каждый из почти восьми миллиардов человек, живущих на планете, будет с помощью калькулятора умножать, скажем, 1056,26 на 784,98 каждые 10 секунд. При таких условиях нам потребуется 40 лет для выполнения вычислений, которые суперкомпьютер эксафлопсного класса делает за одну секунду. Это миллиард миллиардов вычислений в секунду, или квинтиллион, для тех, кто привык мыслить огромным числом нулей.

Тенденции в суперкомпьютерных вычислениях

Одним из способов, используемых в суперкомпьютерах для поиска и генерирования новой информации, является обработка и анализ еще более массивных и ценных наборов данных. Таким образом, главные тенденции современных суперкомпьютерных вычислений заключаются в работе с огромным объемом этих наборов данных при внедрении техник искусственного интеллекта, аналитики больших данных и периферийных вычислений.

Искусственный интеллект. Техники искусственного интеллекта позволяют суперкомпьютерам делать логические выводы путем анализа все более крупных наборов данных. Но для искусственного интеллекта также требуется вычислительная мощность, чтобы анализировать все эти данные с большей эксафлопсной производительностью. Ученые смогут задавать вопросы и получать ответы, которые ранее были невозможны.

Аналитика больших данных. Большие данные стали основной движущей силой новых расширенных систем высокопроизводительных вычислений. Сейчас рабочие нагрузки больших данных высокопроизводительных вычислений чаще всего основаны на традиционной симуляции и моделировании. Но в дальнейшем силы технологий и бизнеса, формирующие большие данные, приведут к новым формам конфигураций высокопроизводительных вычислений для накопления знаний, полученных из невероятно больших наборов данных.

Периферийные вычисления. Периферийные вычисления стали продуктивным источником новых наборов данных. Эти наборы данных поступают как из отдельных инструментов, собирающих огромные объемы данных, так и из миллиардов подключенных устройств, разбросанных по всему миру. Например, лидарный телескоп в Андах и радиотелескоп с антенной решеткой площадью в квадратный километр, работающий в Западной Австралии и Южной Африке, генерируют огромные объемы данных. Аналогичным образом устроены умные города, в которых используются многочисленные датчики и камеры для управления дорожным движением и общественной безопасности. Все эти данные позволяют решить проблемы, для которых требуются высокопроизводительные вычисления.

Проблемы суперкомпьютерных вычислений

Проблемы суперкомпьютерных вычислений, особенно при создании таких суперкомпьютеров эксафлопсного класса как Aurora, сводятся к основным трем аспектам: мощности, масштабированию и гетерогенности.

Мощность. Для работы самого быстрого в мире петафлопсного компьютера требуется 28,3 МВт. 1 Хотя ни одна организация, создающая сегодня суперкомпьютеры эксафлопсного класса, не дала конкретные данные, для их работы требуется мощность от 30 до 50 МВт. Объективно 50 МВт хватило бы на обеспечение электроэнергией жилых домов города с населением от 50 000 до 70000 человек. За год стоимость одного мегаватта электроэнергии приблизительно составляет один миллион долларов, то есть снижение энергопотребления остается важным аспектом. Процессоры на базе инновационных микроархитектур обеспечивают масштабируемую производительность и энергоэффективность.

Масштабирование. За последние 30 лет суперкомпьютеры перешли с уникального процессора с одним потоком на несколько ядер и многопоточности на тысячи узлов, работающих вместе. Сегодня разработчики, которые пишут приложение для эксафлопсных вычислений, должны разбивать проблему на множество составляющих, которые в полной мере используют параллельный характер компьютера и гарантируют синхронизацию потоков.

Гетерогенность. В прошлом разработчики писали код только для одного компонента в компьютере: ядерного процессора. Но сегодня обслуживание рабочих нагрузок для высокопроизводительных вычислений и искусственного интеллекта требует тысяч процессорных узлов, содержащих в 10 раз больше процессорных ядер. Разнообразные архитектуры, сочетающие центральные и графические процессоры, а теперь еще и FPGA и другие типы ускорителей, дают возможность разработчику самостоятельно решать, что лучше всего использовать для каждого типа планируемых вычислений. Разработчики не могут написать код всего один раз, так как каждый процессор требует отдельного кода, который должен работать совместно с другими. Но с усложнением алгоритмов и программного обеспечения усложняются и интегрируемые собственные модели программирования, что приводит к зависимости от поставщиков. Межотраслевое приложение oneAPI, унифицированная модель программирования, основанная на стандартах открытого кода, является отраслевой инициативой для обеспечения общих возможностей разработки, ускоряющих работу приложений, повышающих продуктивность и расширяющих использование инноваций.

В серьезных исследованиях и расчетах не обойтись без специальной вычислительной техники, мощность которой во много раз превосходит обычных домашние ПК. Мы расскажем о самых производительных компьютерах, которые выполняют критически важные задачи и служат во благо науки, прогресса и производства.

5 самых мощных суперкомпьютеров: для чего они нужны?

Модели с огромной производительностью, укомплектованные тысячами процессоров и десятками гигабайт ОЗУ, называются суперкомпьютерами. Самые мощные можно найти в списке TOP500, где первые 5 мест занимают американские модели Summit и Sierra, китайские ЭВМ Sunway TaihuLight и Тяньхэ-2, а также швейцарский Piz Daint.

Что такое суперкомпьютер

СуперЭВМ – название, которое получают специализированные вычислительные машины, превосходящие по характеристикам и скорости вычисления большинство обычных компьютеров.

Суперкомпьютер состоит из большого количества многоядерных систем, объединенных в общую систему для получения высокой производительности. Еще одно отличие от обычных ПК – большие размеры. Техника располагается в нескольких помещениях, занимая целые этажи и здания.

Первым настоящим суперкомпьютером считается собранный в 1974 году в США ПК Cray-1. Благодаря поддержке векторных операций модель выполняла до 180 млн вычислений с плавающей точкой в секунду (флопс). Большая часть суперЭВМ по-прежнему собирается и используется в Соединенных Штатах, следующими по количеству такой техники идут Китай и Япония.

Назначение суперкомпьютеров

Автомобилестроительные компании используют суперкомпьютеры для имитации результатов краш-тестов, экономя средства на настоящих испытаниях. Подходит такая мощная техника и для разработки новых двигателей, позволяя моделировать специальный температурный режим и процессы деформации. С ее же помощью можно прогнозировать метеорологические явления и даже землетрясения.

1. Summit

Суперкомпьютер Summit, созданный американской компанией IBM для Национальной лаборатории в Окридже. Технику ввели в эксплуатацию летом 2018 года, заменив модель Titan, которая считалась самой производительной американской СуперЭВМ. Разработка лучшего современного суперкомпьютера обошлась американскому правительству в 200 млн долларов.

Устройство потребляет около 15 МВт электроэнергии – столько, сколько вырабатывает небольшая ГЭС. Для охлаждения вычислительной системы используется 15,1 кубометра циркулирующей по трубкам воды. Сервера IBM расположены на площади около 930 кв.м – территория, которую занимают 2 баскетбольные площадки. Для работы суперкомпьютера используется 220 км электрокабелей.


Производительность компьютера обеспечивается 9216 процессорами модели IBM POWER9 и 27648 графическими чипами Tesla V100 от Nvidia. Система получила целых 512 Гбайт оперативной и 250 Пбайт постоянной памяти (интерфейс 2,5 Тбайт/с). Максимальная скорость вычислений – 200 Пфлопс, а номинальная производительность – 143,5 Пфлопс.

По словам американских ученых, запуск в работу модели Summit позволил повысить вычислительные мощности в сфере энергетики, экономическую конкурентоспособность и национальную безопасность страны. Среди задач, которые будут решаться с помощью суперкомпьютера, отмечают поиск связи между раковыми заболеваниями и генами живого организма, исследование причин появления зависимости от наркотиков и климатическое моделирование для составления точных прогнозов погоды.

2. Sierra

Второй американский суперкомпьютер Sierra (ATS-2) тоже выпущен в 2018 году и обошелся Соединенным Штатам примерно в 125 миллионов долларов. По производительности он считается вторым, хотя по среднему и максимальному уровню скорости вычислений сравним с китайской моделью Sunway TaihuLight.

Расположена СуперЭВМ на территории Национальной лаборатории имени Э. Лоуренса в Ливерморе. Общая площадь, которую занимает оборудование, составляет около 600 кв.м. Энергопотребление вычислительной системы – 12 МВт. И уже по соотношению производительность к расходу электричества компьютер заметно обогнал конкурента из КНР.


В системе используется 2 вида процессоров – серверные ЦПУ IBM Power 9 и графические Nvidia Volta. Благодаря этим чипам удалось повысить и энергоэффективность, и производительность. 4320 узлов со 190 тысячами ядер обеспечивают вычисления на скорости 94,64 петафлопс. Максимальная производительность – 125,712 Пфлопс или 125 квадриллионов операций с плавающей точкой в секунду.

Новую систему предполагается использовать в научных целях. В первую очередь – для расчетов в области создания ядерного оружия, заменяя вычислениями подземные испытания. Инженерные расчеты с помощью Sierra позволят разобраться и с ключевыми вопросами в области физики, знание которых позволит совершить ряд научных открытий.

3. Sunway TaihuLight

Китайская СуперЭВМ удерживала лидирующую позицию в рейтинге TOP500 с 2016 до 2018 года. В соответствии с тестами LINPACK ее считали самым производительным суперкомпьютером, минимум в полтора раза превосходящим ближайшего конкурента и втрое опережающим самую производительную американскую модель Titan. Разработка и строительство вычислительной системы обошлось в 1,8 млрд. юаней или 270 млн долларов. Инвесторами проекта были правительство Китая, администрация китайской провинции Цзянсу и города Уси.


Суперкомпьютер потребляет 15,3 МВт электроэнергии и занимает площадь 605 кв.м. Расположен он на территории города Уси, в национальном суперкомпьютерном центре. Название модели дали в честь расположенного рядом озера Тайху, третьего по величине пресноводного водоема Китая.

Наличие в конструкции ЭВМ 41 тысячи процессоров SW26010 и 10,6 миллиона ядер позволяет ей проводить расчеты со скоростью 93 Пфлопс. Максимальная производительность – 125 Пфлопс. Переход на чипы китайского производства потребовал от разработчиков создания полностью новой системы. До этого предполагалось в 2 раза повысить производительность другой китайской СуперЭВМ Тяньхэ-2, но эти намерения пришлось изменить из-за проблем с поставками процессоров Intel из США.

4. Тяньхэ-2

Сначала вычислительная система находилась на территории университета, а затем была перемещена в суперкомпьютерный центр в Гуанчжоу. Общая площадь, которую она занимает – около 720 кв. м. Энергопотребление модели составляет 17,8 МВт, что делает ее использование менее выгодным по сравнению с более современными версиями.


Техника построена на базе 80 тысяч ЦПУ Intel Xeon и Xeon Phi. Объем оперативной памяти – 1400 Гбайт, количество вычислительных ядер – больше 3 миллионов. На суперкомпьютере установлена операционная система Kylin Linux. Первые показатели работы системы – 33,8 Пфлопс, современная модификация достигает скорости вычислений 61,4 Пфлопс, максимальная – 100,679 Пфлопс.

СуперЭВМ создали по требованию китайского правительства, его основными задачами являются расчеты для проектов национального масштаба. С помощью системы решаются вопросы безопасности Китая, выполняется моделирование и анализ большого количества научной информации.

5. Piz Daint

Суперкомпьютер Piz Daint достаточно долго (с 2013 до 2018 года) занимал третье место в рейтинге самых мощных вычислительных систем в мире. В то же время он остается самым производительным компьютером Европы. Стоимость проекта составила около 40 млн швейцарских франков.

Модель получила название в честь одноименной территории в Швейцарских Альпах и находится в национальном суперкомпьютерном центре. Оборудование, из которого состоит СуперЭВМ, располагается в 28 стойках. Для работы техники требуется 2,3 МВт электричества, и по этому показателю Piz Daint обеспечивает лучшую удельную производительность – 9,2 Пфлопс/МВт.


В составе ЭВМ есть другой суперкомпьютер Piz Dora, сначала работавший отдельно. После объединения мощностей швейцарские разработчики получили вычислительную систему с 362 тысячами ядер (процессоры Xeon E5-2690v3) номинальной производительностью 21,23 Пфлопс. Максимальная скорость работы – 27 Пфлопс.

Основные задачи суперкомпьютера – расчеты для исследований в области геофизики, метеорологии, физике и климатологии. Одно из приложений для ЭВМ, COSMO, представляет собой метеорологическую модель и используется метеослужбами Германии и Швейцарии для получения высокоточных прогнозов погоды.

Читайте также: