С 1 по 4 апреля в Южно-Уральском национальном исследовательском государственном университете в Челябинске прошла международная научная конференция “Параллельные вычислительные технологии (ПаВТ) 2013”, седьмая в серии ежегодных конференций, посвящённых развитию и применению параллельных вычислительных технологий в различных областях науки и техники. Главная цель конференции – предоставить возможность для обсуждения перспектив развития параллельных вычислительных технологий и представления результатов, полученных ведущими научными группами в использовании суперкомпьютерных технологий для решения задач науки и техники. Тематика конференции покрывает все аспекты применения высокопроизводительных вычислений в науке и технике, включая приложения, аппаратное и программное обеспечение, специализированные языки и пакеты. В работе конференции традиционно принимает участие наш специальный корреспондент.
Одним из наиболее ярких событий конференции стало выступление основателя и куратора рейтинга “ТОП 500 мощнейших суперкомпьютеров мира”, профессор Университета Теннеси Джека Донгарры.
Г-н Донгарра привёл несколько интересных наблюдений.
Все знают о законе Мура, который прогнозирует удвоение средней мощности пользовательских компьютерных систем каждые полтора года. Как отметил г-н Донгарра, производительность суперкомпьютеров тоже растёт в геометрической прогрессии, но её удвоение происходит быстрее – раз в 14 месяцев. Г-н Донгарра объяснил это ускорение принципом распараллеливания вычислений в суперкомпьютинге и ростом количества процессоров на одну систему.
На данный момент самый мощный вычислитель имеет производительность в 17,6 Пфлопс. Если прогнозировать достижение следующего знакового уровня “экзафлоп” – или тысяча петафлопсов – то он должен наступить в 2018-2019 гг.
Стремительность развития технологий – это вообще основной напрашивающийся вывод из статистики рейтинга. Так, компьютер, который сейчас находится на 500-м месте, по своей производительности (76,5 Тфлопс) эквивалентен суммарной производительности всех 500 топовых машин в 2000-2001 гг.
Кстати, в клубе “петафлоп” сегодня 23 суперкомпьютера. 10 из них расположены в США, 4 – в Японии, 2 – в Германии, 2 – в Китае, 2 – в Великобритании, 2 – во Франции и 1 – в Италии. Россия пока не дотянулась до этого элитного клуба, но может попасть туда уже в ближайшие месяцы.
Ещё один момент, который отметил г-н Донгарра, это количество процессорных узлов у лидеров рейтинга: у первого их полмиллиона, у второго – полтора миллиона. Впечатляет. А компьютеры из первых строчек через шесть-восемь лет вообще могут оказаться за пределами рейтинга. И это при том, что создание передовой системы своего времени, по уверению г-на Донгарры, обходится в сумму, эквивалентную сегодняшним $100 миллионов. Соответственно если система изначально не подразумевает возможности апгрейда и масштабирования, то через несколько лет она становится неактуальной, а расход колоссальных средств вряд ли можно назвать эффективным.
Ещё более наглядным доказательством технического прогресса являются сегодняшние персональные устройства. Свою презентацию на конференции г-н Донгарра демонстрировал с ноутбука, чья производительность, высчитанная специальной программой, составляла 170 Гфлопс. Это означает, что совсем недавно – в районе 2001 г. – он мог попасть в Top 500, а в 1993 г. он бы занял в рейтинге первое место и стоил бы вышеупомянутые $100 миллионов. Как отметил г-н Донгарра, 20 лет назад самая мощная система содержала порядка тысячи процессоров, а сегодня на своем лаптопе он всего лишь читает электронную почту.
Кстати, при помощи специального приложения можно так же узнать производительность сверхмодных современных гаджетов. Например, выясняется, что у iPhone 4S и iPad 2 она чуть выше 1 Гфлопс, чего было бы достаточно для попадания в Top 500 в 1995 г.
Г-н Донгарра отметил ещё несколько интересных моментов на пути к экзафлопному компьютеру. Главных проблем будет две (причем, совсем не производительность): первая – это растущее энергопотребление, вторая – это всё большая доля энергопотребления, которая будет уходить не на вычисления, а на передачу данных. Обе проблемы надо будет решать, причем активно. Ещё одна проблема – это отказ вычислительных узлов. Когда их число приближается к миллиону, количество отказов приближается к одному отказу в день. С этим надо как-то справляться.
Именно поэтому надо основное внимание обращать не только и не столько на процессоры и оборудование, а на вычислительные алгоритмы, которые должны будут обеспечить снижение объёма передачи данных.
следующая новость предыдущая новость |
||
|