🗊Презентация Параллельные вычисления

Категория: Технология
Нажмите для полного просмотра!
Параллельные вычисления, слайд №1Параллельные вычисления, слайд №2Параллельные вычисления, слайд №3Параллельные вычисления, слайд №4Параллельные вычисления, слайд №5Параллельные вычисления, слайд №6Параллельные вычисления, слайд №7Параллельные вычисления, слайд №8Параллельные вычисления, слайд №9Параллельные вычисления, слайд №10Параллельные вычисления, слайд №11Параллельные вычисления, слайд №12Параллельные вычисления, слайд №13Параллельные вычисления, слайд №14Параллельные вычисления, слайд №15Параллельные вычисления, слайд №16Параллельные вычисления, слайд №17Параллельные вычисления, слайд №18Параллельные вычисления, слайд №19Параллельные вычисления, слайд №20Параллельные вычисления, слайд №21Параллельные вычисления, слайд №22Параллельные вычисления, слайд №23Параллельные вычисления, слайд №24Параллельные вычисления, слайд №25Параллельные вычисления, слайд №26Параллельные вычисления, слайд №27Параллельные вычисления, слайд №28Параллельные вычисления, слайд №29Параллельные вычисления, слайд №30Параллельные вычисления, слайд №31

Содержание

Вы можете ознакомиться и скачать презентацию на тему Параллельные вычисления. Доклад-сообщение содержит 31 слайдов. Презентации для любого класса можно скачать бесплатно. Если материал и наш сайт презентаций Mypresentation Вам понравились – поделитесь им с друзьями с помощью социальных кнопок и добавьте в закладки в своем браузере.

Слайды и текст этой презентации


Слайд 1





Параллельные вычисления
Учебный год – 2016, весенний семестр
Группы P4110, P4114

Лекция 1
Преподаватели:
Балáкшин Павел Валерьевич
(pvbalakshin@gmail.com),
Соснѝн Владимир Валерьевич
(vsosnin@gmail.com)
Описание слайда:
Параллельные вычисления Учебный год – 2016, весенний семестр Группы P4110, P4114 Лекция 1 Преподаватели: Балáкшин Павел Валерьевич (pvbalakshin@gmail.com), Соснѝн Владимир Валерьевич (vsosnin@gmail.com)

Слайд 2





Структура курса
7 лекций
7 лабораторных работ по следующим темам:
 Автоматическое распараллеливание
 Использование параллельных библиотек 
 OpenMP
 PTHREADS
 OpenCL
26 консультаций в а.369а 
(каждая пятница 12:00-13:30)
Рубежный контроль (тестирование)
Описание слайда:
Структура курса 7 лекций 7 лабораторных работ по следующим темам: Автоматическое распараллеливание Использование параллельных библиотек OpenMP PTHREADS OpenCL 26 консультаций в а.369а (каждая пятница 12:00-13:30) Рубежный контроль (тестирование)

Слайд 3


Параллельные вычисления, слайд №3
Описание слайда:

Слайд 4





Орг. вопросы
vk.com/club31201840
Анкета: 
ФИО
вуз 
тема бакалаврской работы
телефон 
работа (где и кем) 
был ли подобный курс
Описание слайда:
Орг. вопросы vk.com/club31201840 Анкета: ФИО вуз тема бакалаврской работы телефон работа (где и кем) был ли подобный курс

Слайд 5





Почему С/С++
Описание слайда:
Почему С/С++

Слайд 6





Почему С/С++ (продолжение)
Описание слайда:
Почему С/С++ (продолжение)

Слайд 7





Выбор языка технологии параллельного программирования
Описание слайда:
Выбор языка технологии параллельного программирования

Слайд 8





Выбор языка технологии программирования (2)
Описание слайда:
Выбор языка технологии программирования (2)

Слайд 9





Определения
Параллельные вычисления – 
способ организации вычислений, при котором программа представляет из себя набор взаимодействующих модулей, работающих одновременно.
≠ конвейерная обработка (суперскалярность) 
≠ SIMD-расширения (MMX, SSE)
≠ вытесняющая многозадачность
= многоядерное программирование
= распределённые вычисления
 «За время существование вычислительной техники скорость срабатывания элементов возросла в 106 раз, а быстродействие вычислений увеличилось в 109 раз».
 «С 1986 до 2002 производительность однопроцессорных систем увеличивалась в 1.5 раза ежегодно. С 2002 – только 1.2 раза.»
Описание слайда:
Определения Параллельные вычисления – способ организации вычислений, при котором программа представляет из себя набор взаимодействующих модулей, работающих одновременно. ≠ конвейерная обработка (суперскалярность) ≠ SIMD-расширения (MMX, SSE) ≠ вытесняющая многозадачность = многоядерное программирование = распределённые вычисления «За время существование вычислительной техники скорость срабатывания элементов возросла в 106 раз, а быстродействие вычислений увеличилось в 109 раз». «С 1986 до 2002 производительность однопроцессорных систем увеличивалась в 1.5 раза ежегодно. С 2002 – только 1.2 раза.»

Слайд 10





Зачем нужны параллельные вычисления
1. Для решение Problems of Grand Challenge (быстродействия существующих вычислительных систем не хватает > 1 Tflops) :
моделирование климата;
генная инженерия;
проектирование интегральных схем;
анализ загрязнения окружающей среды;
создание лекарственных препаратов

2. В повседневной жизни программиста будущего (одноядерные смартфоны и ПК уже почти не продаются).
Описание слайда:
Зачем нужны параллельные вычисления 1. Для решение Problems of Grand Challenge (быстродействия существующих вычислительных систем не хватает > 1 Tflops) : моделирование климата; генная инженерия; проектирование интегральных схем; анализ загрязнения окружающей среды; создание лекарственных препаратов 2. В повседневной жизни программиста будущего (одноядерные смартфоны и ПК уже почти не продаются).

Слайд 11





Классификация параллельных систем (архитектур)
SMP (Shared Memory Parallelism, Symmetric MultiProcessor system) – 
многопроцессорность, многоядерность, GPGPU. 
MPP (Massively Parallel Processing) – 
кластерные системы, GRID (распределенные вычисления)
Описание слайда:
Классификация параллельных систем (архитектур) SMP (Shared Memory Parallelism, Symmetric MultiProcessor system) – многопроцессорность, многоядерность, GPGPU. MPP (Massively Parallel Processing) – кластерные системы, GRID (распределенные вычисления)

Слайд 12





Архитектура SMP
Описание слайда:
Архитектура SMP

Слайд 13





Архитектура MPP
Описание слайда:
Архитектура MPP

Слайд 14





Формы параллелизма
Описание слайда:
Формы параллелизма

Слайд 15





История развития SMP-систем
Описание слайда:
История развития SMP-систем

Слайд 16





Что способствует развитию параллельных вычислений
Ограниченность роста производительности непараллельных компьютеров
Снижение стоимости многопроцессорных вычислительных систем
Cray T90: 1.8 GFlops  ($2,5 млн.),
8 х IBM SP2: 2.1 GFlops ($0.5 млн.)
Появление парадигмы многоядерного построения процессоров.
Описание слайда:
Что способствует развитию параллельных вычислений Ограниченность роста производительности непараллельных компьютеров Снижение стоимости многопроцессорных вычислительных систем Cray T90: 1.8 GFlops ($2,5 млн.), 8 х IBM SP2: 2.1 GFlops ($0.5 млн.) Появление парадигмы многоядерного построения процессоров.

Слайд 17





Что замедляет развитие параллельных вычислений (1)
Гипотеза Минского (Minsky): ускорение, параллельной системы пропорционально двоичному логарифму от числа процессоров.
Закон Мура (Moore): мощность последовательных процессоров удваивается каждые 18 месяцев.
Закон Гроша (Grosch): производительность компьютера возрастает пропорционально квадрату его стоимости.
Сложность освоения принципов параллельного программирования.
Описание слайда:
Что замедляет развитие параллельных вычислений (1) Гипотеза Минского (Minsky): ускорение, параллельной системы пропорционально двоичному логарифму от числа процессоров. Закон Мура (Moore): мощность последовательных процессоров удваивается каждые 18 месяцев. Закон Гроша (Grosch): производительность компьютера возрастает пропорционально квадрату его стоимости. Сложность освоения принципов параллельного программирования.

Слайд 18





Что замедляет развитие параллельных вычислений (2)
Описание слайда:
Что замедляет развитие параллельных вычислений (2)

Слайд 19





Последовательное и каскадное суммирование
Описание слайда:
Последовательное и каскадное суммирование

Слайд 20





Пример распараллеливания алгоритма (2)
Поиск максимального элемента массива
Описание слайда:
Пример распараллеливания алгоритма (2) Поиск максимального элемента массива

Слайд 21





Пример распараллеливания алгоритма (3)
Описание слайда:
Пример распараллеливания алгоритма (3)

Слайд 22





Показатели эффективности параллельных программ
Описание слайда:
Показатели эффективности параллельных программ

Слайд 23





Закон Амдала
Описание слайда:
Закон Амдала

Слайд 24





Закон Густавсона-Барсиса
Описание слайда:
Закон Густавсона-Барсиса

Слайд 25





Модификация закона Амдала 
(по проф. Бухановскому)
Описание слайда:
Модификация закона Амдала (по проф. Бухановскому)

Слайд 26





Сравнение с законом Амдала
Описание слайда:
Сравнение с законом Амдала

Слайд 27





Ключевая проблема параллельного программирования
Описание слайда:
Ключевая проблема параллельного программирования

Слайд 28





Наинеприятнейшая проблема параллельного программирования
Описание слайда:
Наинеприятнейшая проблема параллельного программирования

Слайд 29





Домашнее задание №1
Описание слайда:
Домашнее задание №1

Слайд 30





Виды автоматического распараллеливания
Автоматический 
(компилятору подаётся ключ вида «распараллель всё сам»).
Полуавтоматический 
(распараллеливающие флаги компилятора могут иметь параметры, которые программист должен установить).
Автоматизированный
(ручное распараллеливание по подсказкам профилировщика или статического анализатора кода).
Описание слайда:
Виды автоматического распараллеливания Автоматический (компилятору подаётся ключ вида «распараллель всё сам»). Полуавтоматический (распараллеливающие флаги компилятора могут иметь параметры, которые программист должен установить). Автоматизированный (ручное распараллеливание по подсказкам профилировщика или статического анализатора кода).

Слайд 31





Слабые стороны автоматического распараллеливания
Возможно ошибочное изменение логики программы.
Возможно понижение скорости вместо повышения.
Отсутствие гибкости ручного распараллеливания.
Эффективно распараллеливаются только циклы.
Невозможность распараллелить программы со сложным алгоритмом работы.
Описание слайда:
Слабые стороны автоматического распараллеливания Возможно ошибочное изменение логики программы. Возможно понижение скорости вместо повышения. Отсутствие гибкости ручного распараллеливания. Эффективно распараллеливаются только циклы. Невозможность распараллелить программы со сложным алгоритмом работы.



Похожие презентации
Mypresentation.ru
Загрузить презентацию