Аннотация и ключевые слова
Аннотация (русский):
Исследованы архитектурные аспекты вычислительных систем эксафлопной производительности. Оценены параметры вычислительной и коммуникационной сред. Показано, что для достижения эксафлопной производительности необходимы гибридные системы. Процессорные элементы этих систем содержат ядра универсальных процессоров и арифметические ускорители. Они реализуют MIMD и SIMD дисциплины вычислений соответственно. Эффективное задействование эксафлопных гибридных систем требует принципиально нового программного обеспечения и средств архитектурного масштабирования эффективности. Применение перечисленных средств иллюстрируется на примерах тестовых программ молекулярной динамики и NPB LU. В результате достигается динамическая адаптируемость архитектуры к особенностям исполняемой программы, что в свою очередь обеспечивает эффективность применения эксафлопных суперЭВМ.

Ключевые слова:
гибридные архитектуры, архитектурные средства масштабирования эффективности, гибридные реконфигурируемые структуры, минимизация длительности обменов, топологическое резервирование.
Текст

Статья рекомендована к публикации Программным комитетом НСКФ-2012.

Введение

Задача эффективного применения суперЭВМ актуальна в течение всей истории вычислительной техники. Это обусловлено как наличием сложнейших задач, для решения которых собственно и разрабатываются суперЭВМ, так и большими ресурсами, требуемыми для создания последних.

Достижение эффективности требует учета свойств архитектуры вычислительных систем в прикладных программах и реализации в архитектуре средств, позволяющих ускорить выполнение вычислений. На различных этапах эволюции вычислительной техники использовались различные архитектурные средства — от введения КЭШ памяти до создания специализированных вычислителей, аппаратно реализующих алгоритмы [1].

Ниже исследуются архитектурные аспекты, которые с большой вероятностью будут присущи суперЭВМ эксафлопсной производительности, необходимость которой и возможности создания показаны, например, в[2].

Эти аспекты обусловлены объективными факторами – энергопотреблением системы эксафлопсной производительности и количеством задействованных в ней процессорных ядер, определяющим степень параллелизма.

В этой работе:

  • дано обоснование необходимости применения гибридных архитектур для достижения эксафлопной производительности;
  • приведены качественные оценки параметров вычислительной среды и коммуникационной среды; для последней оценены три варианта топологии;
  • изложены архитектурные средства масштабирования эффективности, позволяющие на различных уровнях параллелизма учитывать особенности исполняемых процессов, что при прочих равных условиях позволяет уменьшить длительность вычислений и достигнуть практически приемлемых значений производительности и эффективности.
Список литературы

1. Цилькер Б. Я., Орлов С. А. Организация ЭВМ и систем. С.-Пб., 2004 г.

2. Концепция по развитию технологии высокопроизводительных вычислений на базе суперЭВМ эксафлопного класса на 2012-2020 гг. [Электронный ресурс]. Режим доступа: http://www.rosatom.ru/wps/wcm/connect/rosatom/rosatomsite/aboutcorporation/nauka/

3. SC11 Keynote by Nvidia CEO Jen-Hsun Huang [Электронный ресурс]. Режим доступа: http://blogs.nvidia.com/2011/11/exascale-an-innovator%E2%80%99s-dilemma/

4. Rick Stevens and Andy White. A DOE Laboratory plan for providing exascale applications and technologies for critical DOE mission needs [Электронный ресурс]. Режим доступа: http://computing.ornl.gov/workshops/SCIDAC2010/r_stevens.pdf

5. International Exascale Software Project URL: www.exascale.org

6. [Электронный ресурс]. Режим доступа: http://www.ecmwf.int/newsevents/meetings/workshops/2010/high_performance_computing_14th/presentations/barkai.pdf

7. SC´09 Exascale Panel. Steve Scott. Cray Cheef Technology Of-ficer. Exhibitor Forum, SC’09

8. The Future of GPU Computing [Электронный ресурс]. Режим доступа: http://www.nvidia.com/content/GTC/documents/SC09_Dally.pdf

9. Tomohiro Inoue. Fujutsu Limited. The 6D Mesh/Torus Inter-connect of K Computer. [Электронный ресурс]. Режим доступа: http://www.fujitsu.com/downloads/TC/sc10/interconnect-of-k-computer.pdf

10. Bob Alverson, Edwin Froese, Larry Kaplan and Duncan Roweth. Cray Inc. Cray XC Series Network. [Электронный ресурс]. Режим доступа:: http://www.cray.com

11. Infiniband Roadmap [Электронный ресурс]. Режим доступа: http://www.infinibandta.org/content/pages.php?pg=technology_overview

12. IBM Blue Waters [Электронный ресурс]. Режим доступа: http://www.ncsa.illinois.edu/BlueWaters

13. Cray Titan [Электронный ресурс]. Режим доступа: http://www.knoxnews.com/news/2011/mar/07/oak-ridge-lab-to-add-titanic-supercomputer/

14. Liu N., Carothers C., Cope J. Ross R. Model and Simulation of Exascale Communication Network. [Электронный ресурс]. Режим доступа: http://www.mcs.anl.gov/uploads/cels/papers/P1937-0911.pdf

15. Степаненко С. А. Оценки ускорения вычислений гибридными системами. // Пленарные доклады Пятой международной конференции "Параллельные вычисления и задачи управления" PACO´2010 Москва, 26-28 октября 2010 г. М.: Учреждение Российской академии наук. Институт проблем управления им. В. А. Трапезникова РАН с. 61-71, ISBN 978-5-91450-062-4.

16. Крючков И. А., Степаненко С. А., Рыбкин А. С. Реализация статической маршрутизации и оптимального размещения вычислительных процессов в мультипроцессорных средах. // «Молодежь в науке». Сборник докладов шестой научно-технической конференции. Саров, 2008 г. с. 172-176.

17. Степаненко С. А. Топологическое резервирование мультипроцессорных сред выделенными элементами. // Труды РФЯЦ-ВНИИЭФ №10, 2005 г. с. 50-60.

18. Воронин Б. Л. Ерофеев А. М., Копкин С. В., Крюч-ков И. А., Рыбкин А. С., Степаненко С. А., Южаков В. В. Применение арифметических ускорителей для расчета за-дач молекулярной динамики по программному комплексу МД. // «Вопросы атомной науки и техники». Сер. Математическое моделирование физических процессов. 2009 г., вып. 2.

19. Степаненко С. А. Топологическое резервирование мультипроцессорных сред // Вопросы атомной науки и техники. Сер. Математическое моделирование физических процессов. 2002 г. вып. 4, с. 55-60.

20. NASA, «NAS Parallel Benchmars» [Электронный ресурс]. Режим доступа: http://www.nas.nasa.gov/Resources/Software/npb.html

21. Barrett B., Barrett R., Brandt J. and others. Report of Exper-iments and Evidence for ASC L2 Milestone 4467 - Demon-stration of a Legacy Application’s Path to Exascale; Sandia Report, SAND2012-1750, Printed March 2012.

22. J. T. Daly. A higher order estimate of the optimum checkpoint interval for restart dumps. // Los Alamos National Laborato-ry. M/S, Los Alamos, NM 87545, USA. 28 December 2004. [Электронный ресурс]. Режим доступа: http://www.sciencedirect.com.

23. Hao Yu, I-Hsin Chung, Jose Moreira. Topology Mapping for Blue Gene/L Supercomputer. SC2006 November 2006. [Электронный ресурс]. Режим доступа: http://www.ibm.com

24. Network Resiliency for Cray XETM Systems. [Электронный ресурс]. Режим доступа: http://fs.hlrs.de/projects/craydoc/docs/books/S-0032-3101/html-S-0032-3101/index.html

25. Степаненко С. А. Коммуникационные параметры мультипроцессорных сред. // Сборник докладов IX Международного семинара по супервычислениям и математическому моделированию. Саров, 3-7 октября 2006 г., с. 96.

26. Stepanenko, S. A. 2012. Estimated speedups of hybrid recon-figurable systems. XIV International conference “Supercompu-ting and Mathematical Modeling”. RFNC-VNIIEF, Sarov, Oc-tober 1-5, 2012, p. 120 [in Russian].

Войти или Создать
* Забыли пароль?