🗊Презентация Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования

Категория: Технология
Нажмите для полного просмотра!
Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №1Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №2Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №3Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №4Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №5Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №6Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №7Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №8Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №9Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №10Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №11Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №12Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №13Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №14Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №15Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №16Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №17Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №18Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №19Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №20Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №21Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №22Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №23Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №24Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №25Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №26

Содержание

Вы можете ознакомиться и скачать презентацию на тему Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования. Доклад-сообщение содержит 26 слайдов. Презентации для любого класса можно скачать бесплатно. Если материал и наш сайт презентаций Mypresentation Вам понравились – поделитесь им с друзьями с помощью социальных кнопок и добавьте в закладки в своем браузере.

Слайды и текст этой презентации


Слайд 1






Основы параллельного программирования.
М.А. Сокольская
Описание слайда:
Основы параллельного программирования. М.А. Сокольская

Слайд 2





Гергель В.П. Теория и практика параллельных вычислений. - М.: Интернет-Университет, БИНОМ. Лаборатория знаний, 2007.
Гергель В.П. Теория и практика параллельных вычислений. - М.: Интернет-Университет, БИНОМ. Лаборатория знаний, 2007.
Богачев К.Ю. Основы параллельного программирования. - М.: БИНОМ. Лаборатория знаний, 2003.
Воеводин В.В., Воеводин Вл.В. Параллельные вычисления. - СПб.: БХВ-Петербург, 2002.
Немнюгин С., Стесик О. Параллельное программирование для многопроцессорных вычислительных систем — СПб.: БХВ-Петербург, 2002.
Описание слайда:
Гергель В.П. Теория и практика параллельных вычислений. - М.: Интернет-Университет, БИНОМ. Лаборатория знаний, 2007. Гергель В.П. Теория и практика параллельных вычислений. - М.: Интернет-Университет, БИНОМ. Лаборатория знаний, 2007. Богачев К.Ю. Основы параллельного программирования. - М.: БИНОМ. Лаборатория знаний, 2003. Воеводин В.В., Воеводин Вл.В. Параллельные вычисления. - СПб.: БХВ-Петербург, 2002. Немнюгин С., Стесик О. Параллельное программирование для многопроцессорных вычислительных систем — СПб.: БХВ-Петербург, 2002.

Слайд 3


Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №3
Описание слайда:

Слайд 4


Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №4
Описание слайда:

Слайд 5





Опережение потребности в вычислениях быстродействия существующих компьютерных систем 

Опережение потребности в вычислениях быстродействия существующих компьютерных систем 

Оценка необходимой производительности – 
1018 операций над вещественными числами в секунду (1 Eflops) – 1 квинтиллион операций в секунду. 
Возможно, экзафлоп будет достигнут к 2020-2022 гг.
Описание слайда:
Опережение потребности в вычислениях быстродействия существующих компьютерных систем Опережение потребности в вычислениях быстродействия существующих компьютерных систем Оценка необходимой производительности – 1018 операций над вещественными числами в секунду (1 Eflops) – 1 квинтиллион операций в секунду. Возможно, экзафлоп будет достигнут к 2020-2022 гг.

Слайд 6





Теоретическая ограниченность роста производительности последовательных компьютеров
Теоретическая ограниченность роста производительности последовательных компьютеров
Резкое снижение стоимости многопроцессорных (параллельных) вычислительных систем
1 Cray T90 processor – 1.8 GFlops ($2 500 000),
8 Node IBM SP2 using R6000 - 2.1 GFlops ($500 000)
Смена парадигмы построения высокопроизводительных процессоров - многоядерность
Описание слайда:
Теоретическая ограниченность роста производительности последовательных компьютеров Теоретическая ограниченность роста производительности последовательных компьютеров Резкое снижение стоимости многопроцессорных (параллельных) вычислительных систем 1 Cray T90 processor – 1.8 GFlops ($2 500 000), 8 Node IBM SP2 using R6000 - 2.1 GFlops ($500 000) Смена парадигмы построения высокопроизводительных процессоров - многоядерность

Слайд 7





высокая стоимость параллельных систем – 
в соответствии с законом Гроша (Grosch), производительность компьютера возрастает пропорционально квадрату его стоимости
?! 
высокая стоимость параллельных систем – 
в соответствии с законом Гроша (Grosch), производительность компьютера возрастает пропорционально квадрату его стоимости
?! 
потери производительности для организации параллелизма – согласно гипотезе Минского (Minsky), ускорение, достигаемое при использовании параллельной системы, пропорционально двоичному логарифму от числа процессоров 
?!
Описание слайда:
высокая стоимость параллельных систем – в соответствии с законом Гроша (Grosch), производительность компьютера возрастает пропорционально квадрату его стоимости ?! высокая стоимость параллельных систем – в соответствии с законом Гроша (Grosch), производительность компьютера возрастает пропорционально квадрату его стоимости ?! потери производительности для организации параллелизма – согласно гипотезе Минского (Minsky), ускорение, достигаемое при использовании параллельной системы, пропорционально двоичному логарифму от числа процессоров ?!

Слайд 8





постоянное совершенствование последовательных компьютеров – в соответствии с законом Мура (Moore) мощность последовательных процессоров возрастает практически в два раза каждые 18 месяцев
?! 
постоянное совершенствование последовательных компьютеров – в соответствии с законом Мура (Moore) мощность последовательных процессоров возрастает практически в два раза каждые 18 месяцев
?! 
существование последовательных вычислений – 
в соответствии с законом Амдаля (Amdahl) 
ускорение процесса вычислений при использовании p процессоров ограничивается величиной

                      S  1/(f+(1–f)/p)  1/f,

где f  есть доля последовательных вычислений в применяемом алгоритме обработки данных
?!
Описание слайда:
постоянное совершенствование последовательных компьютеров – в соответствии с законом Мура (Moore) мощность последовательных процессоров возрастает практически в два раза каждые 18 месяцев ?! постоянное совершенствование последовательных компьютеров – в соответствии с законом Мура (Moore) мощность последовательных процессоров возрастает практически в два раза каждые 18 месяцев ?! существование последовательных вычислений – в соответствии с законом Амдаля (Amdahl) ускорение процесса вычислений при использовании p процессоров ограничивается величиной S  1/(f+(1–f)/p)  1/f, где f есть доля последовательных вычислений в применяемом алгоритме обработки данных ?!

Слайд 9





зависимость эффективности параллелизма от учета характерных свойств параллельных систем (отсутствие мобильности для параллельных программ)
?! 
зависимость эффективности параллелизма от учета характерных свойств параллельных систем (отсутствие мобильности для параллельных программ)
?!
Описание слайда:
зависимость эффективности параллелизма от учета характерных свойств параллельных систем (отсутствие мобильности для параллельных программ) ?! зависимость эффективности параллелизма от учета характерных свойств параллельных систем (отсутствие мобильности для параллельных программ) ?!

Слайд 10





Достижение параллелизма возможно только при выполнимости следующих требований:
Достижение параллелизма возможно только при выполнимости следующих требований:
независимость функционирования отдельных устройств ЭВМ (устройства ввода-вывода, обрабатывающие процессоры и устройства памяти),
избыточность элементов вычислительной системы 
использование специализированных устройств (например, отдельные процессоры для целочисленной и вещественной арифметики, устройства многоуровневой памяти),
дублирование устройств ЭВМ (например, использование нескольких однотипных обрабатывающих процессоров или нескольких устройств оперативной памяти),
Дополнительная форма обеспечения параллелизма - конвейерная реализация обрабатывающих устройств
Описание слайда:
Достижение параллелизма возможно только при выполнимости следующих требований: Достижение параллелизма возможно только при выполнимости следующих требований: независимость функционирования отдельных устройств ЭВМ (устройства ввода-вывода, обрабатывающие процессоры и устройства памяти), избыточность элементов вычислительной системы использование специализированных устройств (например, отдельные процессоры для целочисленной и вещественной арифметики, устройства многоуровневой памяти), дублирование устройств ЭВМ (например, использование нескольких однотипных обрабатывающих процессоров или нескольких устройств оперативной памяти), Дополнительная форма обеспечения параллелизма - конвейерная реализация обрабатывающих устройств

Слайд 11





Возможные режимы выполнения независимых частей программы:
Возможные режимы выполнения независимых частей программы:
многозадачный режим (режим разделения времени), при котором для выполнения нескольких процессов используется единственный процессор,
параллельное выполнение, когда в один и тот же момент времени может выполняться несколько команд обработки данных (обеспечивается при наличии нескольких процессоров или при помощи конвейерных и векторных обрабатывающих устройств),
распределенные вычисления, при которых для параллельной обработки данных используется несколько обрабатывающих устройств, достаточно удаленных друг от друга, а передача данных по линиям связи приводит к существенным временным задержкам.
Описание слайда:
Возможные режимы выполнения независимых частей программы: Возможные режимы выполнения независимых частей программы: многозадачный режим (режим разделения времени), при котором для выполнения нескольких процессов используется единственный процессор, параллельное выполнение, когда в один и тот же момент времени может выполняться несколько команд обработки данных (обеспечивается при наличии нескольких процессоров или при помощи конвейерных и векторных обрабатывающих устройств), распределенные вычисления, при которых для параллельной обработки данных используется несколько обрабатывающих устройств, достаточно удаленных друг от друга, а передача данных по линиям связи приводит к существенным временным задержкам.

Слайд 12








Основное внимание будем уделять второму типу организации параллелизма, реализуемому на многопроцессорных вычислительных системах
Описание слайда:
Основное внимание будем уделять второму типу организации параллелизма, реализуемому на многопроцессорных вычислительных системах

Слайд 13





Суперкомпьютеры
Суперкомпьютеры
Существует мировой рейтинг суперкомпьютерных систем: ТОП500.
http://www.top500.org
Рейтинг содержит 500 лучших машин мира, приводит множество их характеристик, позволяет оценить тенденции.
Производительность машин оценивается стандартным тестом LINPACK.
Описание слайда:
Суперкомпьютеры Суперкомпьютеры Существует мировой рейтинг суперкомпьютерных систем: ТОП500. http://www.top500.org Рейтинг содержит 500 лучших машин мира, приводит множество их характеристик, позволяет оценить тенденции. Производительность машин оценивается стандартным тестом LINPACK.

Слайд 14





Суперкомпьютеры. Программа ASCI (США)
Суперкомпьютеры. Программа ASCI (США)
	(Accelerated Strategic Computing Initiative)
1996, система ASCI Red, построенная Intel, производительность 1 TFlops,
1999, ASCI Blue Pacific от IBM и ASCI Blue Mountain от SGI, производительность 3 TFlops,
2000, ASCI White с пиковой производительностью свыше 12 TFlops (реально показанная производительность на тесте LINPACK составила на тот момент 4938 GFlops)
Описание слайда:
Суперкомпьютеры. Программа ASCI (США) Суперкомпьютеры. Программа ASCI (США) (Accelerated Strategic Computing Initiative) 1996, система ASCI Red, построенная Intel, производительность 1 TFlops, 1999, ASCI Blue Pacific от IBM и ASCI Blue Mountain от SGI, производительность 3 TFlops, 2000, ASCI White с пиковой производительностью свыше 12 TFlops (реально показанная производительность на тесте LINPACK составила на тот момент 4938 GFlops)

Слайд 15





Суперкомпьютеры. Система BlueGene
Суперкомпьютеры. Система BlueGene
Первый вариант системы представлен в 2004 г. и сразу занял 1 позицию в списке Top500
Расширенный вариант суперкомпьютера (ноябрь 2007 г.) по прежнему на 1 месте в перечне наиболее быстродействующих вычислительных систем
Сейчас – 22 место в рейтинге
212992 двухядерных 32-битных процессоров PowerPC 440 0.7 GHz, 
пиковая производительность около 600 Tflops, производительность на тесте LINPACK – 478 Tflops
-
Описание слайда:
Суперкомпьютеры. Система BlueGene Суперкомпьютеры. Система BlueGene Первый вариант системы представлен в 2004 г. и сразу занял 1 позицию в списке Top500 Расширенный вариант суперкомпьютера (ноябрь 2007 г.) по прежнему на 1 месте в перечне наиболее быстродействующих вычислительных систем Сейчас – 22 место в рейтинге 212992 двухядерных 32-битных процессоров PowerPC 440 0.7 GHz, пиковая производительность около 600 Tflops, производительность на тесте LINPACK – 478 Tflops -

Слайд 16





Кластеры
Кластеры
Кластер – группа компьютеров, объединенных в локальную вычислительную сеть (ЛВС) и способных работать в качестве единого вычислительного ресурса. 
Предполагает более высокую надежность и эффективность, нежели ЛВС, и существенно более низкую стоимость в сравнении с другими типами параллельных вычислительных систем (за счет использования типовых аппаратных и программных решений).
Описание слайда:
Кластеры Кластеры Кластер – группа компьютеров, объединенных в локальную вычислительную сеть (ЛВС) и способных работать в качестве единого вычислительного ресурса. Предполагает более высокую надежность и эффективность, нежели ЛВС, и существенно более низкую стоимость в сравнении с другими типами параллельных вычислительных систем (за счет использования типовых аппаратных и программных решений).

Слайд 17





Кластеры. Beowulf
Кластеры. Beowulf
В настоящее время под кластером типа “Beowulf” понимается вычислительная система, состоящая из одного серверного узла и одного или более клиентских узлов, соединенных при помощи сети Ethernet или некоторой другой сети передачи данных. Это система, построенная из готовых серийно выпускающихся промышленных компонент, на которых может работать ОС Linux/Windows, стандартных адаптеров Ethernet и коммутаторов.
Описание слайда:
Кластеры. Beowulf Кластеры. Beowulf В настоящее время под кластером типа “Beowulf” понимается вычислительная система, состоящая из одного серверного узла и одного или более клиентских узлов, соединенных при помощи сети Ethernet или некоторой другой сети передачи данных. Это система, построенная из готовых серийно выпускающихся промышленных компонент, на которых может работать ОС Linux/Windows, стандартных адаптеров Ethernet и коммутаторов.

Слайд 18





Кластеры. Beowulf…
Кластеры. Beowulf…
1994, научно-космический центр NASA Goddard Space Flight Center, руководители проекта - Томас Стерлинг и Дон Бекер: 
16 компьютеров на базе процессоров 486DX4, тактовая частота 100 MHz,
16 Mb оперативной памяти на каждом узле,
Три параллельно работающих 10Mbit/s сетевых адаптера,
Операционная система Linux, компилятор GNU, поддержка параллельных программ на основе MPI.
Описание слайда:
Кластеры. Beowulf… Кластеры. Beowulf… 1994, научно-космический центр NASA Goddard Space Flight Center, руководители проекта - Томас Стерлинг и Дон Бекер: 16 компьютеров на базе процессоров 486DX4, тактовая частота 100 MHz, 16 Mb оперативной памяти на каждом узле, Три параллельно работающих 10Mbit/s сетевых адаптера, Операционная система Linux, компилятор GNU, поддержка параллельных программ на основе MPI.

Слайд 19





Кластеры. AC3 Velocity Cluster 
Кластеры. AC3 Velocity Cluster 
2000, Корнельский университет (США), результат совместной работы университета и Advanced Cluster Computing Consortium, образованного компаниями Dell, Intel, Microsoft, Giganet:
64 четырехпроцессорных сервера Dell PowerEdge 6350 на базе Intel Pentium III Xeon 500 MHz, 4 GB RAM, 54 GB HDD, 100 Mbit Ethernet card,
1 восьмипроцессорный сервер Dell PowerEdge 6350 на базе Intel Pentium III Xeon 550 MHz, 8 GB RAM, 36 GB HDD, 100 Mbit Ethernet card,
Операционная система Microsoft Windows NT 4.0 Server Enterprise Edition,
Пиковая производительность AC3 Velocity 122 GFlops, производительность на тесте LINPACK 47 GFlops.
Описание слайда:
Кластеры. AC3 Velocity Cluster Кластеры. AC3 Velocity Cluster 2000, Корнельский университет (США), результат совместной работы университета и Advanced Cluster Computing Consortium, образованного компаниями Dell, Intel, Microsoft, Giganet: 64 четырехпроцессорных сервера Dell PowerEdge 6350 на базе Intel Pentium III Xeon 500 MHz, 4 GB RAM, 54 GB HDD, 100 Mbit Ethernet card, 1 восьмипроцессорный сервер Dell PowerEdge 6350 на базе Intel Pentium III Xeon 550 MHz, 8 GB RAM, 36 GB HDD, 100 Mbit Ethernet card, Операционная система Microsoft Windows NT 4.0 Server Enterprise Edition, Пиковая производительность AC3 Velocity 122 GFlops, производительность на тесте LINPACK 47 GFlops.

Слайд 20





Кластеры. Thunder  
Кластеры. Thunder  
2004, Ливерморская Национальная Лаборатория (США): 
1024 сервера, в каждом по 4 процессора Intel Itanium 
1.4 GHz,
8 Gb оперативной памяти на сервер,
общая емкость дисковой системы 150 Tb,
операционная система CHAOS 2.0,
пиковая производительность 22938 GFlops и максимально показанная на тесте LINPACK 19940 GFlops (5-ая позиция списка Top500 ).
Описание слайда:
Кластеры. Thunder Кластеры. Thunder 2004, Ливерморская Национальная Лаборатория (США): 1024 сервера, в каждом по 4 процессора Intel Itanium 1.4 GHz, 8 Gb оперативной памяти на сервер, общая емкость дисковой системы 150 Tb, операционная система CHAOS 2.0, пиковая производительность 22938 GFlops и максимально показанная на тесте LINPACK 19940 GFlops (5-ая позиция списка Top500 ).

Слайд 21





Кластер. Ломоносов-2
Кластер. Ломоносов-2
	(МГУ им. М.В. Ломоносова)
     2016, 41 место в рейтинге на июнь (недостроенная система)
Пиковая производительность — 1,7 Pфлопс
Производительность на тесте LINPACK – 900 Tflops
Число процессорных ядер – 78660, из них 29820 на ускорителях
Оперативная память — 99489 ГБ 
Объем системы хранения данных около 2000 ТБ
операционная система — Clustrix T-Platforms Edition
Занимаемая площадь — 252 кв.м
Описание слайда:
Кластер. Ломоносов-2 Кластер. Ломоносов-2 (МГУ им. М.В. Ломоносова) 2016, 41 место в рейтинге на июнь (недостроенная система) Пиковая производительность — 1,7 Pфлопс Производительность на тесте LINPACK – 900 Tflops Число процессорных ядер – 78660, из них 29820 на ускорителях Оперативная память — 99489 ГБ Объем системы хранения данных около 2000 ТБ операционная система — Clustrix T-Platforms Edition Занимаемая площадь — 252 кв.м

Слайд 22


Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №22
Описание слайда:

Слайд 23


Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №23
Описание слайда:

Слайд 24


Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №24
Описание слайда:

Слайд 25


Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №25
Описание слайда:

Слайд 26


Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования, слайд №26
Описание слайда:



Похожие презентации
Mypresentation.ru
Загрузить презентацию