Суперкомпьютеры входят в нашу жизнь
10 декабря 2008
Рубрика: Новости Intel. Тэги: ,
Автор: .

pic

Суперкомпьютеры сегодня — это кластерные серверы с несколькими десятками, сотнями и даже тысячами процессоров, работа которых строится на одновременном выполнении задач, специально разделенных между собой в общей структуре исполнения программ, поскольку именно это необходимо для повышения быстродействия.

Не так давно высокопроизводительные вычисления преодолели планку производительности в один петафлопс (квадриллион, или 1015 операций с плавающей запятой в секунду). Вычислительная мощь настольных ПК отстает от производительности суперкомпьютеров примерно на 12 лет. Иными словами, по уровню производительности сегодняшние профессиональные ПК практически полностью соответствуют суперкомпьютерам 12-летней давности. Поэтому положение дел с высокопроизводительными вычислениями (High Performance Computing, HPC) определяет ситуацию на рынке персональных систем в следующем десятилетии.

Ведущие страны мира используют и совершенствуют возможности суперкомпьютеров для решения особо сложных задач науки, образования, экономики, для формирования долгосрочных прогнозов, в том числе в области метеорологии и экологии, с целью обеспечения национальной безопасности.

В последнее десятилетие произошли заметные сдвиги в организации научного процесса: вследствие широкого внедрения вычислительной техники заметно усилилось направление компьютерного моделирования и численного эксперимента, что позволяет значительно повысить эффективность процессов научного и технологического поиска. Стало возможным моделировать сложные биологические структуры, имитировать взаимодействия систем, состоящих из колоссального количества микро-, нанообъектов, молекул и атомов, анализировать возможные способы их взаимодействия и результаты таковых, прогнозировать глобальные атмосферные явления и т.д.

Суперкомпьютеры сегодня — это кластерные серверы с несколькими десятками, сотнями и даже тысячами процессоров, работа которых строится на одновременном выполнении задач, специально разделенных между собой в общей структуре исполнения программ, поскольку именно это необходимо для повышения быстродействия при получении итогового результата. Такой способ организации называется параллельными вычислениями. Эта отрасль программирования подразумевает разделение задач (распараллеливание) на множество потоков. Сегодня они актуальны для суперкомпьютеров из списка ТОР500, но уже в недалеком будущем станут рядовым делом для пользователей настольных компьютеров.

Список 500 самых мощных суперкомпьютеров мира два раза в год составляют и публикуют эксперты Джек Донгарра (Jack Dongarra) из университета Теннесси, Эрих Штромайер (Erich Strohmaier) и Хорст Саймон (Horst Simon) из Национального вычислительного центра энергетических исследований (NERSC)/Национальной лаборатории им. Лоуренса в Беркли и Ханс Мойер (Hans Meuer) из Мангеймского университета (Германия). С полным списком можно ознакомиться на сайте www.top500.org

Профессор и писатель Стив Чен (США) попытался рассчитать, какая производительность необходима для решения различных задач будущего. По его мнению, аэродинамике хватит производительности в несколько петафлопс, молекулярной динамике — 20 петафлопс, а космологии — порядка 10 эксафлопс. Квантовая химия и молекулярное моделирование потребуют еще более мощных ресурсов.

По мнению Стива Павловского, генерального директора по технологиям и научного руководителя Intel Digital Enterprise Group, появления компьютеров с производительностью в секстиллион операций в секунду (это тысячи петафлопс) можно ожидать уже к 2029 году.

Комментирует Николай Местер, директор российского представительства Intel по корпоративным проектам:

«Два года назад весь мир перешел на многоядерные CPU, и это кардинальным образом поменяло ситуацию с НРС — до этого рост производительности суперкомпьютеров происходил почти линейно. Но с появлением четырехъядерных процессоров достижение производительности в один терафлоп существенно упростилось: сегодня это можно сделать с помощью одной «корзины» блейд-серверов, что доступно не только крупным, но и средним предприятиям. Однако экономика оказалась не готовой к тому, чтобы эффективно использовать столь высокую вычислительную мощность.

К тому же появилась возможность строить системы, обладающие тысячами и десятками тысяч ядер, и возник вопрос о направлении дальнейшего движения, поскольку ПО стало несостоятельным в решении задач распараллеливания вычислений на столь большое количество процессоров. Это одна из главных проблем, возникшая в связи с появлением суперкомпьютеров с производительностью 0,5–1 петафлоп.
Упомянутая проблема касается ПО всех уровней. Операционные системы должны уметь работать с десятками тысяч ядер, поэтому встал вопрос об архитектурах суперкомпьютеров — программы просто не успевают адаптироваться к скачку производительности. Возникают сомнения: а следует ли продолжать «гонку за петафлопами» или лучше ограничиться системами среднего размера?»

Зачастую люди, далекие от развития современных технологий, задают вопрос: а зачем, собственно, нужны столь мощные суперкомпьютеры? Ответы на этот и другие подобные вопросы можно найти в недавно вышедшем IBM Journal of Research and Development (Volume 52, Number 1/2, 2008), который целиком посвящен различным аспектам использования массово-параллельных высокопроизводительных вычислений. Прежде всего, это области квантовой химии, квантовой молекулярной динамики и все, что с ними связано, начиная от разработки новых лекарственных препаратов до моделирования ферментов и клеточных структур. Сейчас с помощью HPC изучаются механизмы устойчивости различных вирусов к лечебным воздействиям, выявляются причины возникновения аллергических реакций и аутоиммунных заболеваний.

До последнего времени поиск подходящего лекарственного препарата выглядел как экспериментальный отбор (методом проб и ошибок) пригодных соединений из огромного количества синтезированных молекул, которые, как планировали исследователи, должны обладать терапевтическим эффектом. Однако если сократить это количество производимых в пробирке веществ хотя бы в несколько раз, можно сэкономить огромные средства. Именно это и позволяют делать суперкомпьютеры. Моделирование дает возможность отбраковать те структуры, которые теоретически заведомо не подходят для обеспечения нужных химических превращений, причем еще до начала экспериментальных испытаний.

Благодаря суперкомпьютерам стало понятным, что часто учет влияния, казалось бы, малозначимых факторов способен в корне изменить решение задач, скажем, в метеорологии. Например, выяснилось, что «озоновые дыры» над полюсами возникают в результате воздействия некоторых фреонов на поверхности микрочастиц льда с молекулами озона. В результате были предприняты действия по запрету производства и снижению выброса этих веществ.

Безусловно, больших вычислительных ресурсов потребует активно развивающаяся генетика. В частности, успешно разрабатываемые методы исчерпывающего анализа ДНК человека при их широком внедрении могут еще при рождении выявить предрасположенность к возникновению и развитию ряда заболеваний. Однако, получение, обработка и хранение столь обширной информации потребует существенного увеличения вычислительных ресурсов.

Другой важной областью использования петафлопных вычислений является исследование изменения погоды и климата. Для этого требуется моделировать взаимосвязанное поведения атмосферы, воды океанов, льдов с учетом всевозможных процессов тепло- и массообмена. Очевидно, что чем более полны эти модели — тем более точны прогнозы, полученные на их основании. Однако из-за слишком большой сложности учесть все процессы просто невозможно и приходилось отбрасывать детали, которые, как казалось ранее, могут и не являться существенными для формирования моделей картины атмосферных явлений.

Огромную роль играют НРС при разработке и моделировании современных электронных микросхем. Здесь можно выделить несколько уровней моделирования. Первый — расчет характеристик самого транзистора еще до его создания. В самом транзисторе, создаваемом по современным технологическим нормам, вместе с контактами содержится около миллиарда атомов (кстати, это совсем немного), однако размеры всех структур столь малы, что для полного описания его характеристик необходимо использовать сложные квантово-механические расчеты. Полное описание поведения системы, состоящей из миллиарда атомов, — очень важная задача, которая, между прочим, до сих пор не решена в полном объеме.

После того, как станут ясны электрофизические характеристики самого транзистора, возникает следующая задача — моделирование поведения самого процессора. Напомним, что сегодня он состоит из миллиардов логических элементов, причем каждый полевой транзистор моделируется эквивалентной схемой (около 20 элементов).

Таким образом, для описания электрических процессов, протекающих при работе чипа, нам придется учитывать работу 20 млрд. таких элементов, а это невозможно реализовать без использования мощных параллельных вычислительных систем.
Столь же сложные задачи возникают и при размещении различных элементов процессора на кристалле при оптимизации их соединений и анализе всевозможных внешних воздействий, начиная от электростатических полей и кончая естественным радиационным фоном.

После проектирования встает следующая задача — производство. Практически все технологические процессы первоначально моделируются и оптимизируются для создания заданной структуры того элемента микросхемотехники, который мы собираемся изготавливать. Одним из критических процессов современной полупроводниковой технологии, для разработки которых требуются суперкомпьютерные мощности, является литография. Это связано с тем, что даже для 32-нанометрового технологического процесса все еще используется фотолитографический процесс на длине волны 193 нм.

Отметим, что это существенно превышает классический предел оптического разрешения. Разработка маски, которая позволяет создавать мелкие структуры на чипе в результате сложных эффектов дифракции и интерференции лучей, проходящих сквозь ее различные элементы, требует огромных вычислительных затрат даже на самых современных кластерах.

Без НРС нельзя себе представить и усилия ученых по созданию энергоэффективного термоядерного реактора и в исследованиях элементарных частиц на современных ускорителях.

Промышленность все активнее пользуется НРС. Практически все авиастроительные компании проводят комплексное моделирование аэродинамических характеристик планеров, сокращая время и ресурсы, которые требуются для натурных испытаний в аэродинамических трубах. Точно также поступают и все автогиганты при анализе аэродинамических характеристик новых моделей. Многие автомобильные компании сегодня делают существенно меньше натурных «крэш-тестов» (связанных с разрушением автомашин при их столкновении с препятствиями), поскольку эти ситуации моделируются на компьютерах.

Материалы для статьи предоставлены редакции журнала infoCOM.UZ пресс-службой корпорации Intel в странах СНГ.

Orphus system
Подписывайтесь на канал infoCOM.UZ в Telegram, чтобы первыми узнавать об ИКТ новостях Узбекистана
В Telegram
В Одноклассники
ВКонтакте