🗊Презентация Параллельные вычислительные системы

Категория: Технология
Нажмите для полного просмотра!
Параллельные вычислительные системы, слайд №1Параллельные вычислительные системы, слайд №2Параллельные вычислительные системы, слайд №3Параллельные вычислительные системы, слайд №4Параллельные вычислительные системы, слайд №5Параллельные вычислительные системы, слайд №6Параллельные вычислительные системы, слайд №7Параллельные вычислительные системы, слайд №8Параллельные вычислительные системы, слайд №9Параллельные вычислительные системы, слайд №10Параллельные вычислительные системы, слайд №11Параллельные вычислительные системы, слайд №12Параллельные вычислительные системы, слайд №13Параллельные вычислительные системы, слайд №14Параллельные вычислительные системы, слайд №15Параллельные вычислительные системы, слайд №16Параллельные вычислительные системы, слайд №17Параллельные вычислительные системы, слайд №18Параллельные вычислительные системы, слайд №19Параллельные вычислительные системы, слайд №20Параллельные вычислительные системы, слайд №21Параллельные вычислительные системы, слайд №22Параллельные вычислительные системы, слайд №23Параллельные вычислительные системы, слайд №24Параллельные вычислительные системы, слайд №25Параллельные вычислительные системы, слайд №26Параллельные вычислительные системы, слайд №27Параллельные вычислительные системы, слайд №28Параллельные вычислительные системы, слайд №29Параллельные вычислительные системы, слайд №30Параллельные вычислительные системы, слайд №31Параллельные вычислительные системы, слайд №32Параллельные вычислительные системы, слайд №33Параллельные вычислительные системы, слайд №34Параллельные вычислительные системы, слайд №35Параллельные вычислительные системы, слайд №36Параллельные вычислительные системы, слайд №37Параллельные вычислительные системы, слайд №38Параллельные вычислительные системы, слайд №39Параллельные вычислительные системы, слайд №40Параллельные вычислительные системы, слайд №41Параллельные вычислительные системы, слайд №42Параллельные вычислительные системы, слайд №43Параллельные вычислительные системы, слайд №44Параллельные вычислительные системы, слайд №45Параллельные вычислительные системы, слайд №46Параллельные вычислительные системы, слайд №47Параллельные вычислительные системы, слайд №48Параллельные вычислительные системы, слайд №49Параллельные вычислительные системы, слайд №50Параллельные вычислительные системы, слайд №51Параллельные вычислительные системы, слайд №52Параллельные вычислительные системы, слайд №53Параллельные вычислительные системы, слайд №54Параллельные вычислительные системы, слайд №55Параллельные вычислительные системы, слайд №56Параллельные вычислительные системы, слайд №57Параллельные вычислительные системы, слайд №58Параллельные вычислительные системы, слайд №59Параллельные вычислительные системы, слайд №60Параллельные вычислительные системы, слайд №61Параллельные вычислительные системы, слайд №62Параллельные вычислительные системы, слайд №63Параллельные вычислительные системы, слайд №64Параллельные вычислительные системы, слайд №65Параллельные вычислительные системы, слайд №66Параллельные вычислительные системы, слайд №67Параллельные вычислительные системы, слайд №68Параллельные вычислительные системы, слайд №69Параллельные вычислительные системы, слайд №70Параллельные вычислительные системы, слайд №71Параллельные вычислительные системы, слайд №72Параллельные вычислительные системы, слайд №73Параллельные вычислительные системы, слайд №74Параллельные вычислительные системы, слайд №75Параллельные вычислительные системы, слайд №76Параллельные вычислительные системы, слайд №77Параллельные вычислительные системы, слайд №78Параллельные вычислительные системы, слайд №79Параллельные вычислительные системы, слайд №80Параллельные вычислительные системы, слайд №81Параллельные вычислительные системы, слайд №82Параллельные вычислительные системы, слайд №83Параллельные вычислительные системы, слайд №84Параллельные вычислительные системы, слайд №85Параллельные вычислительные системы, слайд №86Параллельные вычислительные системы, слайд №87Параллельные вычислительные системы, слайд №88Параллельные вычислительные системы, слайд №89Параллельные вычислительные системы, слайд №90Параллельные вычислительные системы, слайд №91Параллельные вычислительные системы, слайд №92Параллельные вычислительные системы, слайд №93Параллельные вычислительные системы, слайд №94Параллельные вычислительные системы, слайд №95Параллельные вычислительные системы, слайд №96Параллельные вычислительные системы, слайд №97Параллельные вычислительные системы, слайд №98Параллельные вычислительные системы, слайд №99Параллельные вычислительные системы, слайд №100Параллельные вычислительные системы, слайд №101Параллельные вычислительные системы, слайд №102Параллельные вычислительные системы, слайд №103Параллельные вычислительные системы, слайд №104Параллельные вычислительные системы, слайд №105Параллельные вычислительные системы, слайд №106Параллельные вычислительные системы, слайд №107Параллельные вычислительные системы, слайд №108Параллельные вычислительные системы, слайд №109Параллельные вычислительные системы, слайд №110Параллельные вычислительные системы, слайд №111Параллельные вычислительные системы, слайд №112Параллельные вычислительные системы, слайд №113Параллельные вычислительные системы, слайд №114Параллельные вычислительные системы, слайд №115Параллельные вычислительные системы, слайд №116Параллельные вычислительные системы, слайд №117Параллельные вычислительные системы, слайд №118Параллельные вычислительные системы, слайд №119Параллельные вычислительные системы, слайд №120Параллельные вычислительные системы, слайд №121Параллельные вычислительные системы, слайд №122Параллельные вычислительные системы, слайд №123Параллельные вычислительные системы, слайд №124Параллельные вычислительные системы, слайд №125Параллельные вычислительные системы, слайд №126Параллельные вычислительные системы, слайд №127Параллельные вычислительные системы, слайд №128Параллельные вычислительные системы, слайд №129Параллельные вычислительные системы, слайд №130Параллельные вычислительные системы, слайд №131Параллельные вычислительные системы, слайд №132Параллельные вычислительные системы, слайд №133Параллельные вычислительные системы, слайд №134Параллельные вычислительные системы, слайд №135Параллельные вычислительные системы, слайд №136Параллельные вычислительные системы, слайд №137Параллельные вычислительные системы, слайд №138Параллельные вычислительные системы, слайд №139Параллельные вычислительные системы, слайд №140Параллельные вычислительные системы, слайд №141Параллельные вычислительные системы, слайд №142Параллельные вычислительные системы, слайд №143Параллельные вычислительные системы, слайд №144Параллельные вычислительные системы, слайд №145Параллельные вычислительные системы, слайд №146Параллельные вычислительные системы, слайд №147Параллельные вычислительные системы, слайд №148Параллельные вычислительные системы, слайд №149Параллельные вычислительные системы, слайд №150Параллельные вычислительные системы, слайд №151Параллельные вычислительные системы, слайд №152Параллельные вычислительные системы, слайд №153Параллельные вычислительные системы, слайд №154Параллельные вычислительные системы, слайд №155Параллельные вычислительные системы, слайд №156Параллельные вычислительные системы, слайд №157Параллельные вычислительные системы, слайд №158Параллельные вычислительные системы, слайд №159Параллельные вычислительные системы, слайд №160Параллельные вычислительные системы, слайд №161Параллельные вычислительные системы, слайд №162Параллельные вычислительные системы, слайд №163Параллельные вычислительные системы, слайд №164Параллельные вычислительные системы, слайд №165Параллельные вычислительные системы, слайд №166Параллельные вычислительные системы, слайд №167Параллельные вычислительные системы, слайд №168Параллельные вычислительные системы, слайд №169Параллельные вычислительные системы, слайд №170Параллельные вычислительные системы, слайд №171Параллельные вычислительные системы, слайд №172Параллельные вычислительные системы, слайд №173Параллельные вычислительные системы, слайд №174Параллельные вычислительные системы, слайд №175Параллельные вычислительные системы, слайд №176

Содержание

Вы можете ознакомиться и скачать презентацию на тему Параллельные вычислительные системы. Доклад-сообщение содержит 176 слайдов. Презентации для любого класса можно скачать бесплатно. Если материал и наш сайт презентаций Mypresentation Вам понравились – поделитесь им с друзьями с помощью социальных кнопок и добавьте в закладки в своем браузере.

Слайды и текст этой презентации


Слайд 1





Параллельные вычислительные системы
	Введение
Описание слайда:
Параллельные вычислительные системы Введение

Слайд 2





Чарльз Бэббидж: 
первое упоминание о параллелизме
" В случае выполнения серии идентичных вычислений,  подобных операции умножения и необходимых для формирования цифровых таблиц, машина может быть введена в действие с целью  выдачи  нескольких  результатов одновременно,  что очень существенно сократит весь объем процессов"
Описание слайда:
Чарльз Бэббидж: первое упоминание о параллелизме " В случае выполнения серии идентичных вычислений, подобных операции умножения и необходимых для формирования цифровых таблиц, машина может быть введена в действие с целью выдачи нескольких результатов одновременно, что очень существенно сократит весь объем процессов"

Слайд 3





Чарльз Бэббидж: 
вычислительная машина
Описание слайда:
Чарльз Бэббидж: вычислительная машина

Слайд 4





Определение параллелизма
А.С. Головкин  
Параллельная вычислительная система   -вычислительная система, у которой имеется по меньшей мере более одного устройства управления или более одного центрального обрабатывающего устройства,  которые работают одновременно.
Описание слайда:
Определение параллелизма А.С. Головкин Параллельная вычислительная система -вычислительная система, у которой имеется по меньшей мере более одного устройства управления или более одного центрального обрабатывающего устройства, которые работают одновременно.

Слайд 5





Определение параллелизма
П.М. Коуги
Параллелизм - воспроизведение в нескольких копиях некоторой аппаратной структуры,  что позволяет достигнуть повышения производительности за счет одновременной работы всех элементов структуры, осуществляющих решение различных частей этой задачи.
Описание слайда:
Определение параллелизма П.М. Коуги Параллелизм - воспроизведение в нескольких копиях некоторой аппаратной структуры, что позволяет достигнуть повышения производительности за счет одновременной работы всех элементов структуры, осуществляющих решение различных частей этой задачи.

Слайд 6





Определение параллелизма
Хокни, Джессхоуп
Параллелизм -  способность  к частичному совмещению или одновременному выполнению операций.
Описание слайда:
Определение параллелизма Хокни, Джессхоуп Параллелизм - способность к частичному совмещению или одновременному выполнению операций.

Слайд 7





	Развитие элементной базы 
	и рост производительности параллельных вычислительных систем
Описание слайда:
Развитие элементной базы и рост производительности параллельных вычислительных систем

Слайд 8





Области применения 
параллельных вычислительных систем
предсказания погоды, климата и глобальных изменений в атмосфере; 
науки о материалах; 
построение полупроводниковых приборов; 
сверхпроводимость; 
структурная биология; 
разработка фармацевтических препаратов; 
генетика;
Описание слайда:
Области применения параллельных вычислительных систем предсказания погоды, климата и глобальных изменений в атмосфере; науки о материалах; построение полупроводниковых приборов; сверхпроводимость; структурная биология; разработка фармацевтических препаратов; генетика;

Слайд 9





Области применения 
параллельных вычислительных систем
квантовая хромодинамика; 
астрономия; 
транспортные задачи; 
гидро- и газодинамика; 
управляемый термоядерный синтез; 
эффективность систем сгорания топлива; 
геоинформационные системы;
Описание слайда:
Области применения параллельных вычислительных систем квантовая хромодинамика; астрономия; транспортные задачи; гидро- и газодинамика; управляемый термоядерный синтез; эффективность систем сгорания топлива; геоинформационные системы;

Слайд 10





Области применения 
параллельных вычислительных систем
разведка недр; 
наука о мировом океане; 
распознавание и синтез речи; 
распознавание изображений;
военные цели.
Ряд областей применения находится на стыках соответствующих наук.
Описание слайда:
Области применения параллельных вычислительных систем разведка недр; наука о мировом океане; распознавание и синтез речи; распознавание изображений; военные цели. Ряд областей применения находится на стыках соответствующих наук.

Слайд 11





Оценка производительности параллельных вычислительных систем
Пиковая производительность - величина, равная произведению пиковой производительности одного процессора на число таких процессоров в данной машине.
Описание слайда:
Оценка производительности параллельных вычислительных систем Пиковая производительность - величина, равная произведению пиковой производительности одного процессора на число таких процессоров в данной машине.

Слайд 12





Параллельные вычислительные системы
	Классификация
Описание слайда:
Параллельные вычислительные системы Классификация

Слайд 13





Классификация Флинна
Основана на том, как в машине увязываются команды с обрабатываемыми данными. 
Поток - последовательность элементов (команд  или данных), выполняемая или обрабатываемая процессором.
Описание слайда:
Классификация Флинна Основана на том, как в машине увязываются команды с обрабатываемыми данными. Поток - последовательность элементов (команд или данных), выполняемая или обрабатываемая процессором.

Слайд 14





Классификация Флинна
ОКОД (SISD) 
	один поток команд, много потоков данных
МКОД (MISD) 
	много потоков команд, один поток данных
ОКМД (SIMD)
	один поток команд, много потоков данных
МКМД (MKMD)
	много потоков команд, много потоков данных
Описание слайда:
Классификация Флинна ОКОД (SISD) один поток команд, много потоков данных МКОД (MISD) много потоков команд, один поток данных ОКМД (SIMD) один поток команд, много потоков данных МКМД (MKMD) много потоков команд, много потоков данных

Слайд 15





МКОД – Конвейерные ПВС
Описание слайда:
МКОД – Конвейерные ПВС

Слайд 16





ОКМД – Процессорные матрицы
Описание слайда:
ОКМД – Процессорные матрицы

Слайд 17





Классификация Флинна - МКМД
SMP – 
	симметричные мультипроцессорные системы
Кластерные вычислительные системы
Специализированные кластеры
Кластеры общего назначения
MPP – 
	массивно-параллельные системы
Описание слайда:
Классификация Флинна - МКМД SMP – симметричные мультипроцессорные системы Кластерные вычислительные системы Специализированные кластеры Кластеры общего назначения MPP – массивно-параллельные системы

Слайд 18





Симметричные мультипроцессоры (SMP)
Симметричные мультипроцессоры (SMP) - состоят из совокупности  процессоров, обладающих одинаковыми возможностями доступа к памяти и внешним устройством  и функционирующих под управлением единой ОС.
Описание слайда:
Симметричные мультипроцессоры (SMP) Симметричные мультипроцессоры (SMP) - состоят из совокупности процессоров, обладающих одинаковыми возможностями доступа к памяти и внешним устройством и функционирующих под управлением единой ОС.

Слайд 19





SMP - симметричные мультипроцессорные системы
Описание слайда:
SMP - симметричные мультипроцессорные системы

Слайд 20





Кластеры
Кластерная система – параллельная вычислительная система, создаваемая  из модулей высокой степени готовности, объединенных стандартной системой связи или разделяемыми устройствами внешней памяти.
Описание слайда:
Кластеры Кластерная система – параллельная вычислительная система, создаваемая из модулей высокой степени готовности, объединенных стандартной системой связи или разделяемыми устройствами внешней памяти.

Слайд 21





Массивно-параллельная система 
МРР
Массивно-параллельная система – высокопроизводительная параллельная вычислительная система,  создаваемая с использованием  специализированных вычислительных модулей и систем связи.
Описание слайда:
Массивно-параллельная система МРР Массивно-параллельная система – высокопроизводительная параллельная вычислительная система, создаваемая с использованием специализированных вычислительных модулей и систем связи.

Слайд 22





Кластеры и  
массивно-параллельные системы (MPP)
Описание слайда:
Кластеры и массивно-параллельные системы (MPP)

Слайд 23





Параллельные вычислительные системы
	Конвейерные ВС
Описание слайда:
Параллельные вычислительные системы Конвейерные ВС

Слайд 24





Конвейерные ВС
Конвейеризация - метод проектирования, в результате применения которого в вычислительной системе обеспечивается совмещение различных действий по вычислению базовых функций  за  счет  их разбиения на подфункции.
Описание слайда:
Конвейерные ВС Конвейеризация - метод проектирования, в результате применения которого в вычислительной системе обеспечивается совмещение различных действий по вычислению базовых функций за счет их разбиения на подфункции.

Слайд 25





Конвейерные ВС – Условия конвейеризации
вычисление базовой функции эквивалентно вычислению некоторой последовательности подфункций;
величины,  являющиеся входными для данной подфункции, являются выходными величинами той подфункции, которая предшествует данной в процессе вычисления; 
никаких других взаимосвязей,  кроме обмена данными, между подфункциями нет;
Описание слайда:
Конвейерные ВС – Условия конвейеризации вычисление базовой функции эквивалентно вычислению некоторой последовательности подфункций; величины, являющиеся входными для данной подфункции, являются выходными величинами той подфункции, которая предшествует данной в процессе вычисления; никаких других взаимосвязей, кроме обмена данными, между подфункциями нет;

Слайд 26





Конвейерные ВС – Условия конвейеризации
каждая подфункция может быть выполнена аппаратными блоками;
времена,  необходимые для реализации аппаратными  блоками своих действий, имеют один порядок величины.
Описание слайда:
Конвейерные ВС – Условия конвейеризации каждая подфункция может быть выполнена аппаратными блоками; времена, необходимые для реализации аппаратными блоками своих действий, имеют один порядок величины.

Слайд 27





Конвейерные ВС - Архитектура
Описание слайда:
Конвейерные ВС - Архитектура

Слайд 28





Конвейерные ВС - Классификация
Описание слайда:
Конвейерные ВС - Классификация

Слайд 29





Конвейерные ВС – Таблица занятости
Описание слайда:
Конвейерные ВС – Таблица занятости

Слайд 30





Конвейерные ВС – Задача управления
обеспечение входного потока данных (заполнение конвейера)
задача диспетчеризации - определение моментов времени, в которые каждый элемент входных данных должен начинать свое прохождение по конвейеру.
Описание слайда:
Конвейерные ВС – Задача управления обеспечение входного потока данных (заполнение конвейера) задача диспетчеризации - определение моментов времени, в которые каждый элемент входных данных должен начинать свое прохождение по конвейеру.

Слайд 31





Конвейерные ВС – Проблемы управления
разный период времени обработки данных на разных ступенях;
обратная связь от текущей ступени к какой-либо из предыдущих;
множественные пути от текущей ступени к последующим;
подача элемента данных более чем на одну ступень  одновременно (элемент распараллеливания обработки);
существование между входными элементами зависимостей,  которые принуждают  к  определенному  упорядочению связанных с ними вычислений;
Описание слайда:
Конвейерные ВС – Проблемы управления разный период времени обработки данных на разных ступенях; обратная связь от текущей ступени к какой-либо из предыдущих; множественные пути от текущей ступени к последующим; подача элемента данных более чем на одну ступень одновременно (элемент распараллеливания обработки); существование между входными элементами зависимостей, которые принуждают к определенному упорядочению связанных с ними вычислений;

Слайд 32





Конвейерные ВС – Стратегия управления 
Стратегия управления - процедура,  которая выбирает последовательность латентностей.
Жадная стратегия  -  выбирает всегда минимально возможную латентность между данной и  следующей инициацией без учета каких бы то ни было следующих инициаций.
Оптимальная стратегия  -  обеспечивает минимальную достижимую среднюю латентность.
Описание слайда:
Конвейерные ВС – Стратегия управления Стратегия управления - процедура, которая выбирает последовательность латентностей. Жадная стратегия - выбирает всегда минимально возможную латентность между данной и следующей инициацией без учета каких бы то ни было следующих инициаций. Оптимальная стратегия - обеспечивает минимальную достижимую среднюю латентность.

Слайд 33





Конвейерные ВС – 
Векторно-конвейерные  процессоры
Вектор -  набор  данных,  которые должны быть обработаны по одному алгоритму.
Векторные команды - команды,  предназначенные для организации эффективной обработки векторных данных. 
Векторные процессоры - процессоры,  предназначенные для реализации  эффективной обработки векторных данных.
Описание слайда:
Конвейерные ВС – Векторно-конвейерные процессоры Вектор - набор данных, которые должны быть обработаны по одному алгоритму. Векторные команды - команды, предназначенные для организации эффективной обработки векторных данных. Векторные процессоры - процессоры, предназначенные для реализации эффективной обработки векторных данных.

Слайд 34





Векторно-конвейерные процессоры - 
Типичная архитектура
Описание слайда:
Векторно-конвейерные процессоры - Типичная архитектура

Слайд 35





Векторно-конвейерные процессоры - 
Cray - 1
Компания Cray Research в 1976г. выпускает первый векторно-конвейерный компьютер CRAY-1: 
время такта 12.5нс, 
12 конвейерных функциональных устройств
пиковая производительность 160 миллионов операций в секунду, 
оперативная память до 1Мслова (слово - 64 разряда), 
цикл памяти 50нс.
Описание слайда:
Векторно-конвейерные процессоры - Cray - 1 Компания Cray Research в 1976г. выпускает первый векторно-конвейерный компьютер CRAY-1: время такта 12.5нс, 12 конвейерных функциональных устройств пиковая производительность 160 миллионов операций в секунду, оперативная память до 1Мслова (слово - 64 разряда), цикл памяти 50нс.

Слайд 36





Развитие векторных процессоров - 
Параллельно-векторные процессоры (PVP)
Архитектура. PVP-системы строятся из векторно-конвейерных процессоров, в которых предусмотрены команды однотипной обработки векторов независимых данных.
Как правило, несколько таких процессоров (1-16) работают одновременно над общей памятью (аналогично SMP) в рамках многопроцессорных конфигураций. Несколько таких узлов могут быть объединены с помощью коммутатора (аналогично MPP).
Описание слайда:
Развитие векторных процессоров - Параллельно-векторные процессоры (PVP) Архитектура. PVP-системы строятся из векторно-конвейерных процессоров, в которых предусмотрены команды однотипной обработки векторов независимых данных. Как правило, несколько таких процессоров (1-16) работают одновременно над общей памятью (аналогично SMP) в рамках многопроцессорных конфигураций. Несколько таких узлов могут быть объединены с помощью коммутатора (аналогично MPP).

Слайд 37





Развитие векторных процессоров - 
Параллельно-векторные процессоры (PVP)
Примеры. NEC SX-4/SX-5, линия векторно-конвейерных компьютеров CRAY: от CRAY-1, CRAY J90/T90, CRAY SV1, CRAY X1, серия Fujitsu VPP. 
Модель программирования. Эффективное программирование подразумевает векторизацию циклов и их распараллеливание (для одновременной загрузки нескольких процессоров одним приложением).
Описание слайда:
Развитие векторных процессоров - Параллельно-векторные процессоры (PVP) Примеры. NEC SX-4/SX-5, линия векторно-конвейерных компьютеров CRAY: от CRAY-1, CRAY J90/T90, CRAY SV1, CRAY X1, серия Fujitsu VPP. Модель программирования. Эффективное программирование подразумевает векторизацию циклов и их распараллеливание (для одновременной загрузки нескольких процессоров одним приложением).

Слайд 38





Параллельные вычислительные системы
	Конвейеризация          однопроцессорных ЭВМ
Описание слайда:
Параллельные вычислительные системы Конвейеризация однопроцессорных ЭВМ

Слайд 39





Конвейеризация однопроцессорных ЭВМ
Конвейеризация - метод проектирования, в результате применения которого в вычислительной системе обеспечивается совмещение различных действий по вычислению базовых функций  за  счет  их разбиения на подфункции.
Описание слайда:
Конвейеризация однопроцессорных ЭВМ Конвейеризация - метод проектирования, в результате применения которого в вычислительной системе обеспечивается совмещение различных действий по вычислению базовых функций за счет их разбиения на подфункции.

Слайд 40





Конвейеризация однопроцессорных ЭВМ БЭСМ-6
Описание слайда:
Конвейеризация однопроцессорных ЭВМ БЭСМ-6

Слайд 41





Конвейеризация однопроцессорных ЭВМ. Первый этап – предварительная выборка
Предварительная (опережающая) выборка команд - выборка следующей команды во время завершения текущей.
Введение модифицированного  метода  предварительной  выборки позволяет повысить  производительность  реальных  ЭВМ в среднем на 24% по сравнению с неконвейеризованными ЭВМ.
Описание слайда:
Конвейеризация однопроцессорных ЭВМ. Первый этап – предварительная выборка Предварительная (опережающая) выборка команд - выборка следующей команды во время завершения текущей. Введение модифицированного метода предварительной выборки позволяет повысить производительность реальных ЭВМ в среднем на 24% по сравнению с неконвейеризованными ЭВМ.

Слайд 42





Конвейеризация однопроцессорных ЭВМ. Второй этап – конвейеризация ЦП.
Описание слайда:
Конвейеризация однопроцессорных ЭВМ. Второй этап – конвейеризация ЦП.

Слайд 43





Конвейеризация однопроцессорных ЭВМ. Второй этап – конвейеризация ЦП.
Описание слайда:
Конвейеризация однопроцессорных ЭВМ. Второй этап – конвейеризация ЦП.

Слайд 44





Конвейеризация однопроцессорных ЭВМ. Второй этап – конвейеризация ЦП.
При проектировании конвейера для процессора машины с  архитектурой ОКОД требуются следующие данные:
разбиения всех типов команд,  включенных в систему команд процессора;
время исполнения каждой  ступенью  конвейера  всех  типов разбиений команд в общих (часто условных) единицах времени;
смесь команд, на которую должен ориентироваться разработчик
Описание слайда:
Конвейеризация однопроцессорных ЭВМ. Второй этап – конвейеризация ЦП. При проектировании конвейера для процессора машины с архитектурой ОКОД требуются следующие данные: разбиения всех типов команд, включенных в систему команд процессора; время исполнения каждой ступенью конвейера всех типов разбиений команд в общих (часто условных) единицах времени; смесь команд, на которую должен ориентироваться разработчик

Слайд 45





Конвейеризация однопроцессорных ЭВМ. Помехи.
Помеха возникает,  когда к одному элементу  данных  (ячейке памяти, регистру,  разряду  слова  состояния) обращаются две или более команд,  которые расположены в программе настолько близко, что при выполнении происходит их перекрытие в конвейере.
Описание слайда:
Конвейеризация однопроцессорных ЭВМ. Помехи. Помеха возникает, когда к одному элементу данных (ячейке памяти, регистру, разряду слова состояния) обращаются две или более команд, которые расположены в программе настолько близко, что при выполнении происходит их перекрытие в конвейере.

Слайд 46





Конвейеризация однопроцессорных ЭВМ. Помехи.
Три класса помех:
чтение после записи (RAW);
запись после чтения (WAR);
запись после записи (WAW).
Описание слайда:
Конвейеризация однопроцессорных ЭВМ. Помехи. Три класса помех: чтение после записи (RAW); запись после чтения (WAR); запись после записи (WAW).

Слайд 47





Конвейеризация однопроцессорных ЭВМ. КЭШ-память.
Введение в систему кэш-памяти можно рассматривать, как еще один вариант конвейеризации с целью повышения быстродействия.
Описание слайда:
Конвейеризация однопроцессорных ЭВМ. КЭШ-память. Введение в систему кэш-памяти можно рассматривать, как еще один вариант конвейеризации с целью повышения быстродействия.

Слайд 48





Параллельные вычислительные системы
	Класс ОКМД
Описание слайда:
Параллельные вычислительные системы Класс ОКМД

Слайд 49





Параллельные ВС класса ОКМД
Один поток команд – много потоков данных, ОКМД  (single instruction – multiple data, SIMD) - в таких системах исполняется один поток команд, распределяемый между несколькими исполняющими устройствами (процессорными элементами).
Описание слайда:
Параллельные ВС класса ОКМД Один поток команд – много потоков данных, ОКМД (single instruction – multiple data, SIMD) - в таких системах исполняется один поток команд, распределяемый между несколькими исполняющими устройствами (процессорными элементами).

Слайд 50





Параллельные ВС класса ОКМД
Описание слайда:
Параллельные ВС класса ОКМД

Слайд 51





ОКМД – Процессорная матрица
Процессорная матрица - группа одинаковых процессорных элементов,  объединенных единой коммутационной сетью, как правило, управляемая единым устройством управления и выполняющая единую программу.
Описание слайда:
ОКМД – Процессорная матрица Процессорная матрица - группа одинаковых процессорных элементов, объединенных единой коммутационной сетью, как правило, управляемая единым устройством управления и выполняющая единую программу.

Слайд 52





ОКМД – Процессорная матрица
ILLIAC - IV
Описание слайда:
ОКМД – Процессорная матрица ILLIAC - IV

Слайд 53





ОКМД – Процессорная матрица
ПС - 2000
Описание слайда:
ОКМД – Процессорная матрица ПС - 2000

Слайд 54





ОКМД – 
Однородная вычислительная среда 
Однородная вычислительная среда - регулярная решетка из однотипных процессорных элементов (ПЭ).
Каждый ПЭ может как обладать алгоритмически полным набором операций, так и реализовывать один вид операций, жестко заданный в структуре микросхемы на этапе проектирования, а также операциями обмена или взаимодействия с другими ПЭ.
Описание слайда:
ОКМД – Однородная вычислительная среда Однородная вычислительная среда - регулярная решетка из однотипных процессорных элементов (ПЭ). Каждый ПЭ может как обладать алгоритмически полным набором операций, так и реализовывать один вид операций, жестко заданный в структуре микросхемы на этапе проектирования, а также операциями обмена или взаимодействия с другими ПЭ.

Слайд 55





ОКМД – 
Однородная вычислительная среда 
Систолическая матрица  - реализация однородной вычислительной среды  на СБИС. 
Систолическая матрица представляет собой регулярный массив процессорных элементов, выполняющих на протяжении каждого такта одинаковые вычислительные операции с  пересылкой результатов  вычислений  своим ближайшим соседям.
Описание слайда:
ОКМД – Однородная вычислительная среда Систолическая матрица - реализация однородной вычислительной среды на СБИС. Систолическая матрица представляет собой регулярный массив процессорных элементов, выполняющих на протяжении каждого такта одинаковые вычислительные операции с пересылкой результатов вычислений своим ближайшим соседям.

Слайд 56





Архитектура ассоциативной ВС
Описание слайда:
Архитектура ассоциативной ВС

Слайд 57





Архитектура ассоциативной ВС
Описание слайда:
Архитектура ассоциативной ВС

Слайд 58





Полностью ассоциативная КЭШ-память
Описание слайда:
Полностью ассоциативная КЭШ-память

Слайд 59





Параллельные вычислительные системы
    Класс МКМД (MIMD)
Мультипроцессоры
Описание слайда:
Параллельные вычислительные системы Класс МКМД (MIMD) Мультипроцессоры

Слайд 60





Параллельные ВС класса МКМД
Один из основных недостатков систематики Флинна - излишняя широта класса МКМД. 
Практически все современные высокопроизводительные вычислительные системы относятся к этому классу.
Описание слайда:
Параллельные ВС класса МКМД Один из основных недостатков систематики Флинна - излишняя широта класса МКМД. Практически все современные высокопроизводительные вычислительные системы относятся к этому классу.

Слайд 61





Параллельные ВС класса МКМД (MIMD)
Описание слайда:
Параллельные ВС класса МКМД (MIMD)

Слайд 62





Параллельные ВС класса МКМД
Симметричные мультипроцессоры - SMP
SMP (Symmetric MultiProcessing) – симметричная многопроцессорная архитектура. Главной особенностью систем с архитектурой SMP является наличие общей физической памяти, разделяемой всеми процессорами.
Описание слайда:
Параллельные ВС класса МКМД Симметричные мультипроцессоры - SMP SMP (Symmetric MultiProcessing) – симметричная многопроцессорная архитектура. Главной особенностью систем с архитектурой SMP является наличие общей физической памяти, разделяемой всеми процессорами.

Слайд 63





Параллельные ВС класса МКМД
Симметричные мультипроцессоры - SMP
Описание слайда:
Параллельные ВС класса МКМД Симметричные мультипроцессоры - SMP

Слайд 64





Параллельные ВС класса МКМД
Симметричные мультипроцессоры - SMP
Примеры.  HP 9000 V-class, N-class; SMP-cервера и рабочие станции на базе процессоров Intel.
Масштабируемость. Наличие общей памяти упрощает взаимодействие процессоров между собой, однако накладывает сильные ограничения на их число - не более 32 в реальных системах.
Описание слайда:
Параллельные ВС класса МКМД Симметричные мультипроцессоры - SMP Примеры. HP 9000 V-class, N-class; SMP-cервера и рабочие станции на базе процессоров Intel. Масштабируемость. Наличие общей памяти упрощает взаимодействие процессоров между собой, однако накладывает сильные ограничения на их число - не более 32 в реальных системах.

Слайд 65





Параллельные ВС класса МКМД
Симметричные мультипроцессоры - SMP
Операционная система. Система работает под управлением единой ОС (обычно UNIX-подобной, но для Intel-платформ поддерживается Windows NT). ОС автоматически распределяет процессы/нити по процессорам; но иногда возможна и явная привязка. 
Модель программирования – с обменом данными через общую память (POSIX threads, OpenMP).
Описание слайда:
Параллельные ВС класса МКМД Симметричные мультипроцессоры - SMP Операционная система. Система работает под управлением единой ОС (обычно UNIX-подобной, но для Intel-платформ поддерживается Windows NT). ОС автоматически распределяет процессы/нити по процессорам; но иногда возможна и явная привязка. Модель программирования – с обменом данными через общую память (POSIX threads, OpenMP).

Слайд 66





МКМД – Мультипроцессоры 
с распределенной памятью (NUMA)
Cache-Only Memory Architecture, COMA - для представления данных используется только локальная кэш-память имеющихся процессоров. 
Cache-Coherent NUMA, CC-NUMA - обеспечивается однозначность локальных кэш-памятей разных процессоров. 
Non-Cache Coherent NUMA, NCC-NUMA  - обеспечивается общий доступ к локальной памяти разных процессоров без поддержки на аппаратном уровне когерентности кэша.
Описание слайда:
МКМД – Мультипроцессоры с распределенной памятью (NUMA) Cache-Only Memory Architecture, COMA - для представления данных используется только локальная кэш-память имеющихся процессоров. Cache-Coherent NUMA, CC-NUMA - обеспечивается однозначность локальных кэш-памятей разных процессоров. Non-Cache Coherent NUMA, NCC-NUMA - обеспечивается общий доступ к локальной памяти разных процессоров без поддержки на аппаратном уровне когерентности кэша.

Слайд 67





Мультипроцессоры с распределенной памятью (NUMA) – схема «Бабочка»
Описание слайда:
Мультипроцессоры с распределенной памятью (NUMA) – схема «Бабочка»

Слайд 68





Параллельные вычислительные системы
    Класс МКМД (MIMD)
Мультипроцессоры
Описание слайда:
Параллельные вычислительные системы Класс МКМД (MIMD) Мультипроцессоры

Слайд 69





Параллельные ВС класса МКМД
Один из основных недостатков систематики Флинна - излишняя широта класса МКМД. 
Практически все современные высокопроизводительные вычислительные системы относятся к этому классу.
Описание слайда:
Параллельные ВС класса МКМД Один из основных недостатков систематики Флинна - излишняя широта класса МКМД. Практически все современные высокопроизводительные вычислительные системы относятся к этому классу.

Слайд 70





Параллельные ВС класса МКМД (MIMD)
Описание слайда:
Параллельные ВС класса МКМД (MIMD)

Слайд 71





Параллельные ВС класса МКМД
Симметричные мультипроцессоры - SMP
SMP (Symmetric MultiProcessing) – симметричная многопроцессорная архитектура. Главной особенностью систем с архитектурой SMP является наличие общей физической памяти, разделяемой всеми процессорами.
Описание слайда:
Параллельные ВС класса МКМД Симметричные мультипроцессоры - SMP SMP (Symmetric MultiProcessing) – симметричная многопроцессорная архитектура. Главной особенностью систем с архитектурой SMP является наличие общей физической памяти, разделяемой всеми процессорами.

Слайд 72





Параллельные ВС класса МКМД
Симметричные мультипроцессоры - SMP
Описание слайда:
Параллельные ВС класса МКМД Симметричные мультипроцессоры - SMP

Слайд 73





Параллельные ВС класса МКМД
Симметричные мультипроцессоры - SMP
Примеры.  HP 9000 V-class, N-class; SMP-cервера и рабочие станции на базе процессоров Intel.
Масштабируемость. Наличие общей памяти упрощает взаимодействие процессоров между собой, однако накладывает сильные ограничения на их число - не более 32 в реальных системах.
Описание слайда:
Параллельные ВС класса МКМД Симметричные мультипроцессоры - SMP Примеры. HP 9000 V-class, N-class; SMP-cервера и рабочие станции на базе процессоров Intel. Масштабируемость. Наличие общей памяти упрощает взаимодействие процессоров между собой, однако накладывает сильные ограничения на их число - не более 32 в реальных системах.

Слайд 74





Параллельные ВС класса МКМД
Симметричные мультипроцессоры - SMP
Операционная система. Система работает под управлением единой ОС (обычно UNIX-подобной, но для Intel-платформ поддерживается Windows NT). ОС автоматически распределяет процессы/нити по процессорам; но иногда возможна и явная привязка. 
Модель программирования – с обменом данными через общую память (POSIX threads, OpenMP).
Описание слайда:
Параллельные ВС класса МКМД Симметричные мультипроцессоры - SMP Операционная система. Система работает под управлением единой ОС (обычно UNIX-подобной, но для Intel-платформ поддерживается Windows NT). ОС автоматически распределяет процессы/нити по процессорам; но иногда возможна и явная привязка. Модель программирования – с обменом данными через общую память (POSIX threads, OpenMP).

Слайд 75





МКМД – Мультипроцессоры 
с распределенной памятью (NUMA)
Cache-Only Memory Architecture, COMA - для представления данных используется только локальная кэш-память имеющихся процессоров. 
Cache-Coherent NUMA, CC-NUMA - обеспечивается однозначность локальных кэш-памятей разных процессоров. 
Non-Cache Coherent NUMA, NCC-NUMA  - обеспечивается общий доступ к локальной памяти разных процессоров без поддержки на аппаратном уровне когерентности кэша.
Описание слайда:
МКМД – Мультипроцессоры с распределенной памятью (NUMA) Cache-Only Memory Architecture, COMA - для представления данных используется только локальная кэш-память имеющихся процессоров. Cache-Coherent NUMA, CC-NUMA - обеспечивается однозначность локальных кэш-памятей разных процессоров. Non-Cache Coherent NUMA, NCC-NUMA - обеспечивается общий доступ к локальной памяти разных процессоров без поддержки на аппаратном уровне когерентности кэша.

Слайд 76





Мультипроцессоры с распределенной памятью (NUMA) – схема «Бабочка»
Описание слайда:
Мультипроцессоры с распределенной памятью (NUMA) – схема «Бабочка»

Слайд 77





Параллельные вычислительные системы
		СуперЭВМ
Описание слайда:
Параллельные вычислительные системы СуперЭВМ

Слайд 78





СуперЭВМ
Впервые термин суперЭВМ был использован в начале 60-х годов, когда группа специалистов Иллинойского университета (США) под руководством доктора Д. Слотника предложила идею реализации первой в мире параллельной вычислительной системы.
Описание слайда:
СуперЭВМ Впервые термин суперЭВМ был использован в начале 60-х годов, когда группа специалистов Иллинойского университета (США) под руководством доктора Д. Слотника предложила идею реализации первой в мире параллельной вычислительной системы.

Слайд 79





Суперкомпьютер – это …
Компьютер с производительностью свыше  10 000 млн. теоретических операций в сек. 
Компьютер стоимостью более 2 млн. долларов.
Штучно или мелкосерийно выпускаемая вычислительная система, производительность которой многократно превосходит производительность массово выпускаемых компьютеров. 
Вычислительная система, сводящая проблему вычислений любого объема к проблеме ввода/вывода.
Описание слайда:
Суперкомпьютер – это … Компьютер с производительностью свыше 10 000 млн. теоретических операций в сек. Компьютер стоимостью более 2 млн. долларов. Штучно или мелкосерийно выпускаемая вычислительная система, производительность которой многократно превосходит производительность массово выпускаемых компьютеров. Вычислительная система, сводящая проблему вычислений любого объема к проблеме ввода/вывода.

Слайд 80





Суперкомпьютеры
29-я редакция Top500 от 27.06.2007

1 - прототип будущего суперкомпьютера IBM BlueGene/L с производительностью на Linpack 280.6 TFlop/s. 
2 - Cray XT4/XT3, установленный в Oak Ridge National Laboratory,  производительность на тесте Linpack составила 101.7 TFlop/s. 
3 - Cray Red Storm с производительностью 101.4 TFlop/s на тесте Linpack.
Описание слайда:
Суперкомпьютеры 29-я редакция Top500 от 27.06.2007 1 - прототип будущего суперкомпьютера IBM BlueGene/L с производительностью на Linpack 280.6 TFlop/s. 2 - Cray XT4/XT3, установленный в Oak Ridge National Laboratory, производительность на тесте Linpack составила 101.7 TFlop/s. 3 - Cray Red Storm с производительностью 101.4 TFlop/s на тесте Linpack.

Слайд 81





Суперкомпьютер Blue Gene
Описание слайда:
Суперкомпьютер Blue Gene

Слайд 82





Суперкомпьютер Blue Gene
Архитектура
Описание слайда:
Суперкомпьютер Blue Gene Архитектура

Слайд 83





Суперкомпьютер Blue Gene
Архитектура
Описание слайда:
Суперкомпьютер Blue Gene Архитектура

Слайд 84





Суперкомпьютер Blue Gene 
Базовый компонент (карта)
Описание слайда:
Суперкомпьютер Blue Gene Базовый компонент (карта)

Слайд 85





Параллельные вычислительные системы
	Элементная база
  Микропроцессоры
Описание слайда:
Параллельные вычислительные системы Элементная база Микропроцессоры

Слайд 86





Элементная база параллельных ВС Микропроцессоры
Основные требования к  микропроцессорам, используемым в  параллельных ВС:
высокая производительность
развитые средства обмена
низкая рассеиваемая мощность
Описание слайда:
Элементная база параллельных ВС Микропроцессоры Основные требования к микропроцессорам, используемым в параллельных ВС: высокая производительность развитые средства обмена низкая рассеиваемая мощность

Слайд 87





Элементная база параллельных ВС
Микропроцессор AMD Opteron
Описание слайда:
Элементная база параллельных ВС Микропроцессор AMD Opteron

Слайд 88





Микропроцессор AMD Opteron Варианты объединения – 2 процессора
Описание слайда:
Микропроцессор AMD Opteron Варианты объединения – 2 процессора

Слайд 89





Микропроцессор AMD Opteron Варианты объединения – 4 процессора
Описание слайда:
Микропроцессор AMD Opteron Варианты объединения – 4 процессора

Слайд 90





Микропроцессор AMD Opteron Варианты объединения – 8 процессоров
Описание слайда:
Микропроцессор AMD Opteron Варианты объединения – 8 процессоров

Слайд 91





Элементная база параллельных ВС Микропроцессор AMD Opteron 
10 сентября 2007 года Компания AMD представила процессор Quad-Core AMD Opteron (ранее известный под кодовым названием Barcelona), по словам производителя, «самый передовой x86-процессор из когда либо созданных и производимых, и первый настоящий четырехъядерный x86-микропроцессор»
Описание слайда:
Элементная база параллельных ВС Микропроцессор AMD Opteron 10 сентября 2007 года Компания AMD представила процессор Quad-Core AMD Opteron (ранее известный под кодовым названием Barcelona), по словам производителя, «самый передовой x86-процессор из когда либо созданных и производимых, и первый настоящий четырехъядерный x86-микропроцессор»

Слайд 92





Элементная база параллельных ВС Микропроцессор IBM Power4
Описание слайда:
Элементная база параллельных ВС Микропроцессор IBM Power4

Слайд 93





Микропроцессор IBM Power4 
Многокристальный модуль – 4 процессора
Описание слайда:
Микропроцессор IBM Power4 Многокристальный модуль – 4 процессора

Слайд 94





Микропроцессор IBM Power4 
Объединение многокристальных модулей
Описание слайда:
Микропроцессор IBM Power4 Объединение многокристальных модулей

Слайд 95





Элементная база параллельных ВС Микропроцессор Intel Core2 Duo
Описание слайда:
Элементная база параллельных ВС Микропроцессор Intel Core2 Duo

Слайд 96





Параллельные вычислительные системы
    Элементная база. Коммутаторы и  					топология
Описание слайда:
Параллельные вычислительные системы Элементная база. Коммутаторы и топология

Слайд 97





Коммутирующие среды параллельных ВС
Простые коммутаторы
Типы простых коммутаторов:
с временным разделением; 
с пространственным разделением.
Описание слайда:
Коммутирующие среды параллельных ВС Простые коммутаторы Типы простых коммутаторов: с временным разделением; с пространственным разделением.

Слайд 98





Простые коммутаторы с временным разделением - шины
Описание слайда:
Простые коммутаторы с временным разделением - шины

Слайд 99





Простые коммутаторы с пространственным разделением
Описание слайда:
Простые коммутаторы с пространственным разделением

Слайд 100





Составные коммутаторы  
Коммутатор Клоза
Описание слайда:
Составные коммутаторы Коммутатор Клоза

Слайд 101






Топологии параллельной ВС
Описание слайда:
Топологии параллельной ВС

Слайд 102





Топологии параллельных ВС
Convex Exemplar SPP1000
Описание слайда:
Топологии параллельных ВС Convex Exemplar SPP1000

Слайд 103





Топологии параллельных ВС
Модуль МВС-100
Описание слайда:
Топологии параллельных ВС Модуль МВС-100

Слайд 104





Топологии параллельных ВС - МВС-100  Варианты соединения модулей
Описание слайда:
Топологии параллельных ВС - МВС-100 Варианты соединения модулей

Слайд 105





Параллельные вычислительные системы
    Элементная база. Коммутирующие 						среды
Описание слайда:
Параллельные вычислительные системы Элементная база. Коммутирующие среды

Слайд 106





Коммутирующие среды параллельных ВС
Myrinet
Достоинства Myrinet:
широкое распространение и высокая надежность; 
небольшое время задержки; 
хорошее соотношение цена/производительность.
Описание слайда:
Коммутирующие среды параллельных ВС Myrinet Достоинства Myrinet: широкое распространение и высокая надежность; небольшое время задержки; хорошее соотношение цена/производительность.

Слайд 107





Коммутирующие среды параллельных ВС
Myrinet
Недостатки Myrinet:
нестандартное решение, поддерживаемое всего одним производителем; 
ограниченная пропускная способность — не более 2 Гбит/с (в ближайшее время ожидается появление варианта 10 Гбит/с); 
сложная структура кабельной проводки при максимуме 256 узлов; 
отсутствие возможности подключения к сетям хранения и глобальным сетям; 
отсутствие систем хранения с поддержкой этой технологии.
Описание слайда:
Коммутирующие среды параллельных ВС Myrinet Недостатки Myrinet: нестандартное решение, поддерживаемое всего одним производителем; ограниченная пропускная способность — не более 2 Гбит/с (в ближайшее время ожидается появление варианта 10 Гбит/с); сложная структура кабельной проводки при максимуме 256 узлов; отсутствие возможности подключения к сетям хранения и глобальным сетям; отсутствие систем хранения с поддержкой этой технологии.

Слайд 108





Коммутирующие среды параллельных ВС Infiniband
Достоинства Infiniband:
стандарт Infiniband Trade Assotiation (IBTA); 
несколько производителей; 
небольшое время задержки; 
пропускная способность 2, 10, 30 Гбит/с; 
поддержка приоритезации Quality of Service; 
наличие сдвоенных адаптеров 2 х 10 Гбит/с.
Описание слайда:
Коммутирующие среды параллельных ВС Infiniband Достоинства Infiniband: стандарт Infiniband Trade Assotiation (IBTA); несколько производителей; небольшое время задержки; пропускная способность 2, 10, 30 Гбит/с; поддержка приоритезации Quality of Service; наличие сдвоенных адаптеров 2 х 10 Гбит/с.

Слайд 109





Коммутирующие среды параллельных ВС Infiniband
Недостатки Infiniband:
сложность изменения физической и логической структуры; 
необходимость применения дополнительного шлюза для подключения к магистральной сети или глобальной сети; 
сложная и дорогостоящая кабельная проводка; 
ограничения на дальность передачи (17 м в случае применения электропроводных кабелей);
Описание слайда:
Коммутирующие среды параллельных ВС Infiniband Недостатки Infiniband: сложность изменения физической и логической структуры; необходимость применения дополнительного шлюза для подключения к магистральной сети или глобальной сети; сложная и дорогостоящая кабельная проводка; ограничения на дальность передачи (17 м в случае применения электропроводных кабелей);

Слайд 110





Коммутирующие среды параллельных ВС Ethernet
Достоинства Ethernet:
наличие развитого инструментария для управления и отладки; 
простая и дешевая кабельная проводка; 
высокая эксплуатационная надежность; 
высокая собственная динамика при построении сетей хранения на базе IP с iSCSI; 
возможность формирования структуры из нескольких удаленных кластеров (Grid); 
низкие вычислительные затраты в случае интеграции сетевого адаптера на системную плату;
Описание слайда:
Коммутирующие среды параллельных ВС Ethernet Достоинства Ethernet: наличие развитого инструментария для управления и отладки; простая и дешевая кабельная проводка; высокая эксплуатационная надежность; высокая собственная динамика при построении сетей хранения на базе IP с iSCSI; возможность формирования структуры из нескольких удаленных кластеров (Grid); низкие вычислительные затраты в случае интеграции сетевого адаптера на системную плату;

Слайд 111





Коммутирующие среды параллельных ВС Ethernet
Недостатки Ethernet:
наличие задержки (сокращение времени задержки за счет применения TOE и RDMA должно получить свое практическое подтверждение); 
высокая стоимость 10-гигабитного интерфейса (в ближайшем будущем ожидается снижение цены).
Описание слайда:
Коммутирующие среды параллельных ВС Ethernet Недостатки Ethernet: наличие задержки (сокращение времени задержки за счет применения TOE и RDMA должно получить свое практическое подтверждение); высокая стоимость 10-гигабитного интерфейса (в ближайшем будущем ожидается снижение цены).

Слайд 112





Параллельные вычислительные системы
    Технологии GRID
Описание слайда:
Параллельные вычислительные системы Технологии GRID

Слайд 113





Параллельные ВС 
GRID
Технология GRID подразумевает слаженное взаимодействие множества ресурсов, гетерогенных по своей природе и расположенных в многочисленных, возможно, географически удаленных административных доменах.
Описание слайда:
Параллельные ВС GRID Технология GRID подразумевает слаженное взаимодействие множества ресурсов, гетерогенных по своей природе и расположенных в многочисленных, возможно, географически удаленных административных доменах.

Слайд 114





Параллельные ВС 
GRID
Описание слайда:
Параллельные ВС GRID

Слайд 115





Параллельные ВС 
GRID – предпосылки возникновения
Необходимость в концентрации огромного количества данных, хранящихся в разных организациях 
Необходимость выполнения очень большого количества вычислений в рамках решения одной задачи. 
Необходимость в совместном использовании больших массивов данных территориально разрозненной рабочей группой,
Описание слайда:
Параллельные ВС GRID – предпосылки возникновения Необходимость в концентрации огромного количества данных, хранящихся в разных организациях Необходимость выполнения очень большого количества вычислений в рамках решения одной задачи. Необходимость в совместном использовании больших массивов данных территориально разрозненной рабочей группой,

Слайд 116





Параллельные ВС 
GRID – предпосылки возникновения
“Вероятно, мы скоро увидим распространение “компьютерных коммунальных услуг”, которые, подобно электричеству и телефону, придут в дома и офисы по всему миру”. 
		Лен Клейнрок, 1969г.
Описание слайда:
Параллельные ВС GRID – предпосылки возникновения “Вероятно, мы скоро увидим распространение “компьютерных коммунальных услуг”, которые, подобно электричеству и телефону, придут в дома и офисы по всему миру”. Лен Клейнрок, 1969г.

Слайд 117





Параллельные ВС 
Метакомпьютинг и GRID
Метакомпьютинг - особый тип распределенного компьютинга, подразумевающего соединение суперкомпьютерных центров высокоскоростными сетями для решения одной задачи.
Описание слайда:
Параллельные ВС Метакомпьютинг и GRID Метакомпьютинг - особый тип распределенного компьютинга, подразумевающего соединение суперкомпьютерных центров высокоскоростными сетями для решения одной задачи.

Слайд 118





Параллельные ВС 
Свойства GRID
масштабы вычислительного ресурса многократно превосходят ресурсы отдельного компьютера (вычислительного комплекса)
гетерогенность среды
пространственное (географическое) распределение информационно-вычислительного ресурса;
объединение ресурсов, которые не могут управляться централизованно (не принадлежат одной организации);
использование стандартных, открытых, общедоступных протоколов и интерфейсов;
обеспечение информационной безопасности.
Описание слайда:
Параллельные ВС Свойства GRID масштабы вычислительного ресурса многократно превосходят ресурсы отдельного компьютера (вычислительного комплекса) гетерогенность среды пространственное (географическое) распределение информационно-вычислительного ресурса; объединение ресурсов, которые не могут управляться централизованно (не принадлежат одной организации); использование стандартных, открытых, общедоступных протоколов и интерфейсов; обеспечение информационной безопасности.

Слайд 119





Параллельные ВС 
Области применения GRID
массовая обработка потоков данных большого объема; 
многопараметрический анализ данных; 
моделирование на удаленных суперкомпьютерах; 
реалистичная визуализация больших наборов данных; 
сложные бизнес-приложения с большими объемами вычислений.
Описание слайда:
Параллельные ВС Области применения GRID массовая обработка потоков данных большого объема; многопараметрический анализ данных; моделирование на удаленных суперкомпьютерах; реалистичная визуализация больших наборов данных; сложные бизнес-приложения с большими объемами вычислений.

Слайд 120





Параллельные ВС 
Архитектура GRID – модель «песочных часов»
Описание слайда:
Параллельные ВС Архитектура GRID – модель «песочных часов»

Слайд 121





Параллельные ВС 
Архитектура протоколов GRID
Описание слайда:
Параллельные ВС Архитектура протоколов GRID

Слайд 122





Параллельные вычислительные системы
    Прикладное 				  программное 				обеспечение
Описание слайда:
Параллельные вычислительные системы Прикладное программное обеспечение

Слайд 123





Параллельные ВС 
Прикладное программное обеспечение
Проблемы разработки параллельного ПО
проблема распараллеливания
проблема отладки и верификации
проблема наращиваемости
проблема переносимости
Описание слайда:
Параллельные ВС Прикладное программное обеспечение Проблемы разработки параллельного ПО проблема распараллеливания проблема отладки и верификации проблема наращиваемости проблема переносимости

Слайд 124





Параллельные ВС 
Прикладное ПО – закон Амдала
S – ускорение программы по сравнению с последовательным выполнением
p – количество процессоров
f – доля последовательного кода в программе (0≤f≤1)
Описание слайда:
Параллельные ВС Прикладное ПО – закон Амдала S – ускорение программы по сравнению с последовательным выполнением p – количество процессоров f – доля последовательного кода в программе (0≤f≤1)

Слайд 125





Параллельные ВС 
Прикладное ПО – подходы к созданию
Написание параллельной программы «с нуля»
Распараллеливание (автоматическое) существующих последовательных программ
Смешанный подход – автоматическое распараллеливание с последующей оптимизацией
Описание слайда:
Параллельные ВС Прикладное ПО – подходы к созданию Написание параллельной программы «с нуля» Распараллеливание (автоматическое) существующих последовательных программ Смешанный подход – автоматическое распараллеливание с последующей оптимизацией

Слайд 126





Параллельные ВС 
Прикладное ПО – подходы к созданию
Написание параллельной программы «с нуля»
Достоинства: 
Возможность получения эффективного кода
Недостатки:
Высокая трудоемкость подхода
Высокие требования к квалификации программиста
Высокая вероятность ошибок в коде, трудность отладки ПО
Описание слайда:
Параллельные ВС Прикладное ПО – подходы к созданию Написание параллельной программы «с нуля» Достоинства: Возможность получения эффективного кода Недостатки: Высокая трудоемкость подхода Высокие требования к квалификации программиста Высокая вероятность ошибок в коде, трудность отладки ПО

Слайд 127





Параллельные ВС 
Прикладное ПО – подходы к созданию
Автоматическое распараллеливание последовательной программы
Достоинства: 
Использование наработанного (последовательного) программного обеспечения
Высокая надежность кода
Недостатки:
Низкая эффективность распараллеливания
Описание слайда:
Параллельные ВС Прикладное ПО – подходы к созданию Автоматическое распараллеливание последовательной программы Достоинства: Использование наработанного (последовательного) программного обеспечения Высокая надежность кода Недостатки: Низкая эффективность распараллеливания

Слайд 128





Параллельные ВС 
Прикладное ПО – подходы к созданию
Смешанный подход – автоматическое распараллеливание с последующей оптимизацией
Этот подход в равной мере обладает и достоинствами, и недостатками обеих методов, описанных ранее.
Его применение требует обширного набора инструментальных программных средств.
Описание слайда:
Параллельные ВС Прикладное ПО – подходы к созданию Смешанный подход – автоматическое распараллеливание с последующей оптимизацией Этот подход в равной мере обладает и достоинствами, и недостатками обеих методов, описанных ранее. Его применение требует обширного набора инструментальных программных средств.

Слайд 129





Параллельные вычислительные системы
   	  Программирование  	параллельных ВС          	  с разделяемой памятью
Описание слайда:
Параллельные вычислительные системы Программирование параллельных ВС с разделяемой памятью

Слайд 130





Параллельные ВС класса МКМД
Системы с разделяемой памятью
Описание слайда:
Параллельные ВС класса МКМД Системы с разделяемой памятью

Слайд 131





Программирование параллельных ВС
Системы с разделяемой памятью
Программирование систем с разделяемой памятью осуществляется согласно модели обмена через общую память
Инструментальные средства: POSIX threads, OpenMP. 
Для подобных систем существуют сравнительно эффективные средства автоматического распараллеливания.
Описание слайда:
Программирование параллельных ВС Системы с разделяемой памятью Программирование систем с разделяемой памятью осуществляется согласно модели обмена через общую память Инструментальные средства: POSIX threads, OpenMP. Для подобных систем существуют сравнительно эффективные средства автоматического распараллеливания.

Слайд 132





Программирование параллельных ВС
OpenMP – структура программы
Описание слайда:
Программирование параллельных ВС OpenMP – структура программы

Слайд 133





Программирование параллельных ВС
OpenMP – структура программы
Основная нить и только она исполняет все последовательные области программы. 
При входе в параллельную область порождаются дополнительные нити. 
После порождения каждая нить получает свой уникальный номер, причем нить-мастер всегда имеет номер 0. 
Все нити исполняют один и тот же код, соответствующий параллельной области. 
При выходе из параллельной области основная нить дожидается завершения остальных нитей, и дальнейшее выполнение программы продолжает только она.
Описание слайда:
Программирование параллельных ВС OpenMP – структура программы Основная нить и только она исполняет все последовательные области программы. При входе в параллельную область порождаются дополнительные нити. После порождения каждая нить получает свой уникальный номер, причем нить-мастер всегда имеет номер 0. Все нити исполняют один и тот же код, соответствующий параллельной области. При выходе из параллельной области основная нить дожидается завершения остальных нитей, и дальнейшее выполнение программы продолжает только она.

Слайд 134





Программирование параллельных ВС
OpenMP – переменные
В параллельной области все переменные программы разделяются общие (SHARED) и локальные (PRIVATE). 
Общая переменная всегда существует в одном экземпляре и доступна всем нитям под одним и тем же именем. 
Объявление локальной переменной вызывает порождение своего экземпляра данной переменной для каждой нити. 
Изменение нитью значения своей локальной переменной никак не влияет на значения этой же локальной переменной в других нитях.
Описание слайда:
Программирование параллельных ВС OpenMP – переменные В параллельной области все переменные программы разделяются общие (SHARED) и локальные (PRIVATE). Общая переменная всегда существует в одном экземпляре и доступна всем нитям под одним и тем же именем. Объявление локальной переменной вызывает порождение своего экземпляра данной переменной для каждой нити. Изменение нитью значения своей локальной переменной никак не влияет на значения этой же локальной переменной в других нитях.

Слайд 135





Параллельные вычислительные системы
   	     Программирование  	кластерных и MPP параллельных ВС
Описание слайда:
Параллельные вычислительные системы Программирование кластерных и MPP параллельных ВС

Слайд 136





Параллельные ВС класса МКМД
Кластерные и массивно-параллельные ВС
Описание слайда:
Параллельные ВС класса МКМД Кластерные и массивно-параллельные ВС

Слайд 137





Программирование параллельных ВС Кластеры и MPP
Программирование кластерных и MPP параллельных ВС осуществляется в рамках модели передачи сообщений.
Инструментальные средства:  MPI, PVM, BSPlib. 
Стандартом, использующимся при разработке программ, основанных на передаче сообщений, является стандарт MPI (Message Passing Interface – Взаимодействие через передачу сообщений).
Описание слайда:
Программирование параллельных ВС Кластеры и MPP Программирование кластерных и MPP параллельных ВС осуществляется в рамках модели передачи сообщений. Инструментальные средства: MPI, PVM, BSPlib. Стандартом, использующимся при разработке программ, основанных на передаче сообщений, является стандарт MPI (Message Passing Interface – Взаимодействие через передачу сообщений).

Слайд 138





Программирование параллельных ВС
MPI
При запуске MPI-программы создается несколько ветвей;
Все ветви программы запускаются загрузчиком одновременно как процессы;
Ветви объединяются в группы - это некое множество взаимодействующих ветвей;
Каждой группе в соответствие ставится область связи;
Каждой области связи в соответствие ставится коммуникатор.
Описание слайда:
Программирование параллельных ВС MPI При запуске MPI-программы создается несколько ветвей; Все ветви программы запускаются загрузчиком одновременно как процессы; Ветви объединяются в группы - это некое множество взаимодействующих ветвей; Каждой группе в соответствие ставится область связи; Каждой области связи в соответствие ставится коммуникатор.

Слайд 139





Программирование параллельных ВС
MPI
Библиотека MPI состоит примерно из 130 функций, в число которых входят:
функции инициализации и закрытия MPI-процессов;
функции, реализующие коммуникационные операции типа точка-точка;
функции, реализующие коллективные операции;
Описание слайда:
Программирование параллельных ВС MPI Библиотека MPI состоит примерно из 130 функций, в число которых входят: функции инициализации и закрытия MPI-процессов; функции, реализующие коммуникационные операции типа точка-точка; функции, реализующие коллективные операции;

Слайд 140





Программирование параллельных ВС
MPI
Библиотека MPI состоит примерно из 130 функций, в число которых входят:
функции для работы с группами процессов и коммуникаторами;
функции для работы со структурами данных;
функции формирования топологии процессов.
Описание слайда:
Программирование параллельных ВС MPI Библиотека MPI состоит примерно из 130 функций, в число которых входят: функции для работы с группами процессов и коммуникаторами; функции для работы со структурами данных; функции формирования топологии процессов.

Слайд 141





MPI - Функции инициализации и завершения
int MPI_Init( int* argc, char*** argv) 
Инициализация параллельной части приложения. Все MPI-процедуры могут быть вызваны только после вызова MPI_Init. Возвращает: в случае успешного выполнения - MPI_SUCCESS, иначе - код ошибки. 
int MPI_Finalize( void ) 	
MPI_Finalize - завершение параллельной части приложения. Все последующие обращения к любым MPI-процедурам, в том числе к MPI_Init, запрещены.
Описание слайда:
MPI - Функции инициализации и завершения int MPI_Init( int* argc, char*** argv) Инициализация параллельной части приложения. Все MPI-процедуры могут быть вызваны только после вызова MPI_Init. Возвращает: в случае успешного выполнения - MPI_SUCCESS, иначе - код ошибки. int MPI_Finalize( void ) MPI_Finalize - завершение параллельной части приложения. Все последующие обращения к любым MPI-процедурам, в том числе к MPI_Init, запрещены.

Слайд 142





MPI – информационные функции
int MPI_Comm_size(MPI_Comm comm, int* size) 
Определение общего числа параллельных процессов в группе comm. 
comm - идентификатор группы 
OUT size - размер группы 
int MPI_Comm_rank(MPI_comm comm, int* rank) 
Определение номера процесса в группе comm. Значение, возвращаемое по адресу &rank, лежит в диапазоне от 0 до size_of_group-1.
Описание слайда:
MPI – информационные функции int MPI_Comm_size(MPI_Comm comm, int* size) Определение общего числа параллельных процессов в группе comm. comm - идентификатор группы OUT size - размер группы int MPI_Comm_rank(MPI_comm comm, int* rank) Определение номера процесса в группе comm. Значение, возвращаемое по адресу &rank, лежит в диапазоне от 0 до size_of_group-1.

Слайд 143





MPI –функции обмена «точка-точка»
int MPI_Send(void* buf, int count, MPI_Datatype datatype, int dest, int msgtag, MPI_Comm comm) 
Блокирующая посылка сообщения.
buf - адрес начала буфера посылки сообщения 
count - число передаваемых элементов в сообщении 
datatype - тип передаваемых элементов 
dest - номер процесса-получателя 
msgtag - идентификатор сообщения 
comm - идентификатор группы
Описание слайда:
MPI –функции обмена «точка-точка» int MPI_Send(void* buf, int count, MPI_Datatype datatype, int dest, int msgtag, MPI_Comm comm) Блокирующая посылка сообщения. buf - адрес начала буфера посылки сообщения count - число передаваемых элементов в сообщении datatype - тип передаваемых элементов dest - номер процесса-получателя msgtag - идентификатор сообщения comm - идентификатор группы

Слайд 144





MPI –функции обмена «точка-точка»
int MPI_Recv(void* buf, int count, MPI_Datatype datatype, int source, int msgtag, MPI_comm comm, MPI_Status *status)
Прием сообщения.
OUT buf - адрес начала буфера приема сообщения 
count - максимальное число элементов в принимаемом сообщении 
datatype - тип элементов принимаемого сообщения 
source - номер процесса-отправителя 
msgtag - идентификатор принимаемого сообщения 
comm - идентификатор группы 
status - параметры принятого сообщения
Описание слайда:
MPI –функции обмена «точка-точка» int MPI_Recv(void* buf, int count, MPI_Datatype datatype, int source, int msgtag, MPI_comm comm, MPI_Status *status) Прием сообщения. OUT buf - адрес начала буфера приема сообщения count - максимальное число элементов в принимаемом сообщении datatype - тип элементов принимаемого сообщения source - номер процесса-отправителя msgtag - идентификатор принимаемого сообщения comm - идентификатор группы status - параметры принятого сообщения

Слайд 145





MPI – аргументы – «джокеры» функций обмена «точка-точка»
MPI_ANY_SOURCE – заменяет аргумент «номер передающего процесса»; признак того, что подходит сообщение от любого процесса. 
MPI_ANY_TAG – заменяет аргумент «идентификатор сообщения»; признак того, что подходит сообщение с любым идентификатором.
Описание слайда:
MPI – аргументы – «джокеры» функций обмена «точка-точка» MPI_ANY_SOURCE – заменяет аргумент «номер передающего процесса»; признак того, что подходит сообщение от любого процесса. MPI_ANY_TAG – заменяет аргумент «идентификатор сообщения»; признак того, что подходит сообщение с любым идентификатором.

Слайд 146





Параллельные вычислительные системы
   	     Программирование  	кластерных и MPP параллельных ВС
Описание слайда:
Параллельные вычислительные системы Программирование кластерных и MPP параллельных ВС

Слайд 147





Параллельные ВС класса МКМД
Кластерные и массивно-параллельные ВС
Описание слайда:
Параллельные ВС класса МКМД Кластерные и массивно-параллельные ВС

Слайд 148





Программирование параллельных ВС
MPI
Библиотека MPI состоит примерно из 130 функций, в число которых входят:
функции инициализации и закрытия MPI-процессов;
функции, реализующие коммуникационные операции типа точка-точка;
функции, реализующие коллективные операции;
Описание слайда:
Программирование параллельных ВС MPI Библиотека MPI состоит примерно из 130 функций, в число которых входят: функции инициализации и закрытия MPI-процессов; функции, реализующие коммуникационные операции типа точка-точка; функции, реализующие коллективные операции;

Слайд 149





Программирование параллельных ВС
MPI
Библиотека MPI состоит примерно из 130 функций, в число которых входят:
функции для работы с группами процессов и коммуникаторами;
функции для работы со структурами данных;
функции формирования топологии процессов.
Описание слайда:
Программирование параллельных ВС MPI Библиотека MPI состоит примерно из 130 функций, в число которых входят: функции для работы с группами процессов и коммуникаторами; функции для работы со структурами данных; функции формирования топологии процессов.

Слайд 150





MPI – коллективные функции
Под термином "коллективные" в MPI подразумеваются три группы функций: 
функции коллективного обмена данными;
барьеры (точки синхронизации);
распределенные операции.
Описание слайда:
MPI – коллективные функции Под термином "коллективные" в MPI подразумеваются три группы функций: функции коллективного обмена данными; барьеры (точки синхронизации); распределенные операции.

Слайд 151





MPI – коллективные функции
int MPI_Barrier( MPI_Comm comm ); 
Останавливает выполнение вызвавшей ее задачи до тех пор, пока не будет вызвана изо всех остальных задач, подсоединенных к указываемому коммуникатору. Гарантирует, что к выполнению следующей за MPI_Barrier инструкции каждая задача приступит одновременно с остальными.
Описание слайда:
MPI – коллективные функции int MPI_Barrier( MPI_Comm comm ); Останавливает выполнение вызвавшей ее задачи до тех пор, пока не будет вызвана изо всех остальных задач, подсоединенных к указываемому коммуникатору. Гарантирует, что к выполнению следующей за MPI_Barrier инструкции каждая задача приступит одновременно с остальными.

Слайд 152





MPI –функции коллективного обмена
Основные особенности и отличия от коммуникаций типа "точка-точка": 
на прием и/или передачу работают все задачи-абоненты указываемого коммуникатора; 
коллективная функция выполняет одновременно и прием, и передачу; она имеет большое количество параметров, часть которых нужна для приема, а часть для передачи; в разных задачах та или иная часть игнорируется; 
как правило, значения параметров (за исключением адресов буферов) должны быть идентичными во всех задачах;
Описание слайда:
MPI –функции коллективного обмена Основные особенности и отличия от коммуникаций типа "точка-точка": на прием и/или передачу работают все задачи-абоненты указываемого коммуникатора; коллективная функция выполняет одновременно и прием, и передачу; она имеет большое количество параметров, часть которых нужна для приема, а часть для передачи; в разных задачах та или иная часть игнорируется; как правило, значения параметров (за исключением адресов буферов) должны быть идентичными во всех задачах;

Слайд 153





MPI –функции коллективного обмена
int MPI_Bcast(void *buf, int count, MPI_Datatype datatype, int source, MPI_Comm comm) 
Рассылка сообщения от процесса source всем процессам, включая рассылающий процесс. 
buf - адрес начала буфера посылки сообщения 
count - число передаваемых элементов в сообщении 
datatype - тип передаваемых элементов 
source - номер рассылающего процесса 
comm - идентификатор группы
Описание слайда:
MPI –функции коллективного обмена int MPI_Bcast(void *buf, int count, MPI_Datatype datatype, int source, MPI_Comm comm) Рассылка сообщения от процесса source всем процессам, включая рассылающий процесс. buf - адрес начала буфера посылки сообщения count - число передаваемых элементов в сообщении datatype - тип передаваемых элементов source - номер рассылающего процесса comm - идентификатор группы

Слайд 154





MPI –функции коллективного обмена
MPI_Gather ("совок") собирает в приемный буфер задачи root передающие буфера остальных задач. 
MPI_Scatter ("разбрызгиватель") : части передающего буфера из задачи root распределяются по приемным буферам всех задач. 
MPI_Allgather аналогична MPI_Gather, но прием осуществляется не в одной задаче, а во ВСЕХ: каждая имеет специфическое содержимое в передающем буфере, и все получают одинаковое содержимое в буфере приемном. 
MPI_Alltoall : каждый процесс нарезает передающий буфер на куски и рассылает куски остальным процессам.
Описание слайда:
MPI –функции коллективного обмена MPI_Gather ("совок") собирает в приемный буфер задачи root передающие буфера остальных задач. MPI_Scatter ("разбрызгиватель") : части передающего буфера из задачи root распределяются по приемным буферам всех задач. MPI_Allgather аналогична MPI_Gather, но прием осуществляется не в одной задаче, а во ВСЕХ: каждая имеет специфическое содержимое в передающем буфере, и все получают одинаковое содержимое в буфере приемном. MPI_Alltoall : каждый процесс нарезает передающий буфер на куски и рассылает куски остальным процессам.

Слайд 155





Параллельные вычислительные системы
	Проектирование кластера
Описание слайда:
Параллельные вычислительные системы Проектирование кластера

Слайд 156





Параллельные ВС класса МКМД:
Кластеры
Описание слайда:
Параллельные ВС класса МКМД: Кластеры

Слайд 157





Параллельные ВС класса МКМД
Кластеры  

Архитектура. Набор элементов высокой степени готовности, рабочих станций или ПК общего назначения, объединяемых при помощи сетевых технологий и используемых в качестве массивно-параллельного компьютера. 
Коммуникационная среда. Стандартные сетевые технологий (Fast/Gigabit Ethernet, Myrinet) на базе шинной архитектуры или коммутатора.
Описание слайда:
Параллельные ВС класса МКМД Кластеры Архитектура. Набор элементов высокой степени готовности, рабочих станций или ПК общего назначения, объединяемых при помощи сетевых технологий и используемых в качестве массивно-параллельного компьютера. Коммуникационная среда. Стандартные сетевые технологий (Fast/Gigabit Ethernet, Myrinet) на базе шинной архитектуры или коммутатора.

Слайд 158





Параллельные ВС класса МКМД
Кластеры  

При объединении в кластер компьютеров разной мощности или разной архитектуры, говорят о гетерогенных (неоднородных) кластерах. 
Узлы кластера могут одновременно использоваться в качестве пользовательских рабочих станций (кластер WOB)
Описание слайда:
Параллельные ВС класса МКМД Кластеры При объединении в кластер компьютеров разной мощности или разной архитектуры, говорят о гетерогенных (неоднородных) кластерах. Узлы кластера могут одновременно использоваться в качестве пользовательских рабочих станций (кластер WOB)

Слайд 159





Параллельные ВС класса МКМД
Кластеры  

Операционная система - стандартные ОС - Linux/FreeBSD, вместе со средствами поддержки параллельного программирования и распределения нагрузки.
Модель программирования - с использованием передачи сообщений (PVM, MPI). 
Основная проблема - большие накладные расходы на взаимодействие параллельных процессов между собой, что сильно сужает потенциальный класс решаемых задач.
Описание слайда:
Параллельные ВС класса МКМД Кластеры Операционная система - стандартные ОС - Linux/FreeBSD, вместе со средствами поддержки параллельного программирования и распределения нагрузки. Модель программирования - с использованием передачи сообщений (PVM, MPI). Основная проблема - большие накладные расходы на взаимодействие параллельных процессов между собой, что сильно сужает потенциальный класс решаемых задач.

Слайд 160





Кластеры  высокой надежности
в случае сбоя ПО на одном из  узлов  приложение  продолжает  функционировать или автоматически перезапускается на других узлах кластера;
выход из строя одного из узлов (или нескольких) не  приведет  к  краху  всей кластерной системы;
профилактические  и  ремонтные  работы,  реконфигурацию  или  смену   версий программного обеспечения можно осуществлять в  узлах  кластера поочередно, не прерывая работы других узлов.
Описание слайда:
Кластеры высокой надежности в случае сбоя ПО на одном из узлов приложение продолжает функционировать или автоматически перезапускается на других узлах кластера; выход из строя одного из узлов (или нескольких) не приведет к краху всей кластерной системы; профилактические и ремонтные работы, реконфигурацию или смену версий программного обеспечения можно осуществлять в узлах кластера поочередно, не прерывая работы других узлов.

Слайд 161





Кластеры  высокой надежности VAX/VMS кластер
Описание слайда:
Кластеры высокой надежности VAX/VMS кластер

Слайд 162





Кластеры  высокой надежности
Switchover/UX компании Hewlett Packard
Описание слайда:
Кластеры высокой надежности Switchover/UX компании Hewlett Packard

Слайд 163





Высокопроизводительные кластеры
Высокопроизводительный кластер -  
параллельная вычислительная система с распределенной памятью;
построенная из компонент общего назначения;
с единой точкой доступа;
 однородными вычислительными узлами;
специализированной сетью, обеспечивающей эффективный обмен данными.
Описание слайда:
Высокопроизводительные кластеры Высокопроизводительный кластер - параллельная вычислительная система с распределенной памятью; построенная из компонент общего назначения; с единой точкой доступа; однородными вычислительными узлами; специализированной сетью, обеспечивающей эффективный обмен данными.

Слайд 164





Высокопроизводительные кластеры
Описание слайда:
Высокопроизводительные кластеры

Слайд 165





Характеристики коммутирующих сред
Описание слайда:
Характеристики коммутирующих сред

Слайд 166





Кластеры на основе локальной сети (Cluster Of Workstations – COW)
Описание слайда:
Кластеры на основе локальной сети (Cluster Of Workstations – COW)

Слайд 167





Параллельные вычислительные системы
	Системное ПО кластера
Описание слайда:
Параллельные вычислительные системы Системное ПО кластера

Слайд 168





Кластеры - Системное ПО
 Windows Compute Cluster Server 2003
Упрощенная настройка параметров безопасности и проверки подлинности за счет использования существующих экземпляров Active Directory.
Управление обновлениями для узлов с помощью Microsoft Systems Management Server (SMS).
Управление системой и заданиями с помощью Microsoft Operations Manager (MOM).
Использование оснасток из состава консоли управления Майкрософт (MMC).
CCS совместим с ведущими приложениями в каждой из целевых групп. Это позволяет развертывать серийные приложения, пользуясь разнообразными вариантами поддержки.
Описание слайда:
Кластеры - Системное ПО Windows Compute Cluster Server 2003 Упрощенная настройка параметров безопасности и проверки подлинности за счет использования существующих экземпляров Active Directory. Управление обновлениями для узлов с помощью Microsoft Systems Management Server (SMS). Управление системой и заданиями с помощью Microsoft Operations Manager (MOM). Использование оснасток из состава консоли управления Майкрософт (MMC). CCS совместим с ведущими приложениями в каждой из целевых групп. Это позволяет развертывать серийные приложения, пользуясь разнообразными вариантами поддержки.

Слайд 169





Кластеры - Системное ПО
 Solaris (Sun Microsystems)
Коммерческая верся UNIX. 
поддержка до 1 млн. одновременно работающих процессов; 
до 128 процессоров в одной системе и до 848 процессоров в кластере;
до 576 Гбайт физической оперативной памяти; 
поддержка файловых систем размером до 252 Тбайт;
наличие средств управления конфигурациями и изменениями;
встроенная совместимость с Linux.
Описание слайда:
Кластеры - Системное ПО Solaris (Sun Microsystems) Коммерческая верся UNIX. поддержка до 1 млн. одновременно работающих процессов; до 128 процессоров в одной системе и до 848 процессоров в кластере; до 576 Гбайт физической оперативной памяти; поддержка файловых систем размером до 252 Тбайт; наличие средств управления конфигурациями и изменениями; встроенная совместимость с Linux.

Слайд 170





Кластеры - Системное ПО
 HP-UX (Hewlett-Packard)
Потомок AT&T System V. 
поддерживает до 256 процессоров; 
поддерживает кластеры размером до 128 узлов;
подключение и отключение дополнительных процессоров, замену аппаратного обеспечения, динамическую настройку и обновление операционной системы без перезагрузки;
резервное копирование в режиме on-line и дефрагментацию дисков без выключения системы.
Описание слайда:
Кластеры - Системное ПО HP-UX (Hewlett-Packard) Потомок AT&T System V. поддерживает до 256 процессоров; поддерживает кластеры размером до 128 узлов; подключение и отключение дополнительных процессоров, замену аппаратного обеспечения, динамическую настройку и обновление операционной системы без перезагрузки; резервное копирование в режиме on-line и дефрагментацию дисков без выключения системы.

Слайд 171





Параллельные вычислительные системы
	Кластер на основе локальной сети
Описание слайда:
Параллельные вычислительные системы Кластер на основе локальной сети

Слайд 172





Параллельные ВС класса МКМД:
Кластеры
Описание слайда:
Параллельные ВС класса МКМД: Кластеры

Слайд 173





Кластеры на основе 
локальной (корпоративной) сети  
При объединении в кластер компьютеров разной мощности или разной архитектуры, говорят о гетерогенных (неоднородных) кластерах. 
Узлы кластера могут одновременно использоваться в качестве пользовательских рабочих станций (кластер WOB)
Описание слайда:
Кластеры на основе локальной (корпоративной) сети При объединении в кластер компьютеров разной мощности или разной архитектуры, говорят о гетерогенных (неоднородных) кластерах. Узлы кластера могут одновременно использоваться в качестве пользовательских рабочих станций (кластер WOB)

Слайд 174





Кластеры на основе 
локальной (корпоративной) сети  
Операционная система - стандартные ОС - вместе со средствами поддержки параллельного программирования и распределения нагрузки.
Модель программирования - с использованием передачи сообщений (PVM, MPI). 
Основная проблема - большие накладные расходы на взаимодействие параллельных процессов между собой, что сильно сужает потенциальный класс решаемых задач.
Описание слайда:
Кластеры на основе локальной (корпоративной) сети Операционная система - стандартные ОС - вместе со средствами поддержки параллельного программирования и распределения нагрузки. Модель программирования - с использованием передачи сообщений (PVM, MPI). Основная проблема - большие накладные расходы на взаимодействие параллельных процессов между собой, что сильно сужает потенциальный класс решаемых задач.

Слайд 175





Кластер COW
Описание слайда:
Кластер COW

Слайд 176





Кластеры на основе локальной сети (Cluster Of Workstations – COW)
Описание слайда:
Кластеры на основе локальной сети (Cluster Of Workstations – COW)



Похожие презентации
Mypresentation.ru
Загрузить презентацию