Автор: Александр Антонов | Лаборатория Параллельных информационных технологий НИВЦ МГУ
Форма обучения:
дистанционная
Стоимость самостоятельного обучения:
бесплатно
Доступ:
свободный
Документ об окончании:
Вам нравится? Нравится 9 студентам
Уровень:
Специалист
Длительность:
8:05:00
Студентов:
1176
Выпускников:
410
Качество курса:
4.30 | 4.19
Технология MPI является основным средством программирования для кластерных систем и компьютеров с распределенной памятью, но может применяться также и на вычислительных системах других типов.
Курс включает в себя описание большинства основных процедур стандарта MPI-1.1 с примерами их применения и практические сведения, которые могут потребоваться при написании реальных программ. Основное описание ведется с использованием вызовов процедур MPI из программ на языке Фортран, однако указаны также основные отличия в использовании вызовов аналогичных функций из программ на языке Си.
Специальности: Программист
Теги: datatype, dimmed, mpi, ranking, группа процессов, интерфейсы, коммуникатор, программирование, производный тип данных, процедуры, ранг, стандарты, топология, тупик, тупиковая ситуация, элементы
План занятий
Занятие
Заголовок <<
Дата изучения
Лекция 1
15 минут
Основные понятия
В данной лекции можно познакомиться в общих чертах с наиболее распространенной технологией программирования для параллельных компьютеров с распределенной памятью
Оглавление
-
Лекция 2
13 минут
Общие процедуры MPI
В данной лекции остановимся на общих процедурах MPI, не связанных с пересылкой данных. Большинство процедур, описанных в этой лекции, необходимы практически в каждой содержательной параллельной программе
Оглавление
-
Лекция 3
1 час 13 минут
Передача/прием сообщений между отдельными процессами
Практически все программы, написанные с использованием коммуникационной технологии MPI, должны содержать средства для взаимодействия запущенных процессов между собой, которое осуществляется посредством явной посылки сообщений. Об этом подробнее поговорим в этой лекции
Оглавление
-
Лекция 4
38 минут
Коллективные взаимодействия процессов
В данной лекции поговорим о коллективных взаимодействиях процессов, а также рассмотрим какие операции используются для коллективного взаимодействия процессов и в каких случаях
Оглавление
-
Лекция 5
29 минут
Группы и коммуникаторы
В MPI существуют широкие возможности для операций над группами процессов и коммуникаторов. В каком случае могут быть применимы данные операции? Какие операции можно совершать над группами процессов, а какие над коммуникаторами? Об этом поговорим в этой лекции
Оглавление
-
Лекция 6
29 минут
Виртуальные топологии
В этой лекции мы рассмотрим механизм сопоставления процессам некоторого коммуникатора альтернативной схемы адресации, либо виртуальные топологии.Какие типы топологий предусмотрены в MPI, в каких случаях они используются и т.д
Оглавление
-
Лекция 7
27 минут
Пересылка разнотипных данных
Часто в программах требуются пересылки более сложных объектов данных,состоящих из разнотипных элементов. Возможна ли пересылка разнотипных данных в MPI, какие способы используются для пересылки таких данных, с помощью каких процедур это возможно?
Оглавление
-