тесты по пар. выч. ,без ответов1


[q]3:1: Когда была создана первая супер ЭВМ?
[a] в середине 70-х
+[a] в середине 60-х
[a] в начале 80-х
[a] в начале 80-х
[a] в конце 70-х
[q]3:1: Кем была разработана первая супер-ЭВМ?
[a] Джоном фон Нейманом
+[a] Сеймуром Крэем[a] Томасом Стерлингом
[a] Доном Беккером
[a] Биллом Гейтсом
[q]3:1: Укажите неправильное утверждение.
[a] SISD - это обычные последовательные компьютеры
[a] SIMD - большинство современных ЭВМ относятся к этой категории
[a] MISD - вычислительных машин такого класса мало
[a] MIMD -это реализация нескольких потоков команд и потоков данных
[a] MIMD -это реализация нескольких потоков команд и одного потока данных
[q]3:1: Для конвейерной обработки присуще:
[a] загрузка операндов в векторные регистры
[a] операции с матрицами
[a] выделение отдельных этапов выполнения общей операции
[a] сложение 2-х операндов одновременным сложением всех их двоичных разрядов
[a] выполнение сразу нескольких операций
[q]3:1: Приоритет - это...
[a] описание алгоритма на некотором формализованном языке
+[a] число, приписанное ОС каждому процессу или задаче
[a] отдельный этап выполнения общей операции
[a] оповещение со стороны ОС о той или иной форме взаимодействия
[a] начало выполнения программы
[q]3:1: Стек - это...
+[a] "память", в адресном пространстве которой работает процесс
[a] тот или иной способ передачи инструкции из одного процесса в другой
[a] область памяти для локальных переменных, аргументов и возвращаемых функциями значений
[a] организация доступа двух или более процессов к одному и тому же блоку памяти
[a] память типа FIFO
[q]3:1: Кластер (в контексте параллельного программирования)- это...
[a] область оперативной памяти
[a] управляющее устройство, выполненное на одном или более кристаллах
[a] 2 или более узлов, соединенных при помощи локальной сети
[a] раздел жесткого диска
[a] суперкомпьютер для выполнения особых задач
[q]3:1: Процесс - это...
[a] сетевой интерфейс контроллера блочных передач
[a] число, приписанное операционной системой каждой задаче
[a] динамическая сущность программы, ее код в процессе своего выполнения
[a] система, выполняющая повторяющуюся операцию
[a] очередная команда для выполнения
[q]3:1: Выберите шаг, не присущий для цикла выполнения команды:
[a] запись результата в память
[a] выборка команды
[a] кэширование следующей команды
[a] выполнение команды
[a] декодирование команды, вычисление адреса операнда и его выборка
[q]3:1: Ресурс - это...
[a] объект, необходимый для работы процессу или задаче
[a] сообщение, доставляемое процессу посредством ОС
[a] процесс превращения скомпилированного кода в программу
[a] число, приписанное ОС каждому процессу и задаче
[a] команда для выполнения
[q]3:1: Выберите верное утверждение.
Активные ресурсы...
[a] используют взаимные исключения
[a] могут быть использованы одновременно несколькими процессами
[a] способны изменять информацию в памяти[a] используются только одним процессором, пока тот не завершит работу с ресурсом
[a] изменяют структуру программы
[q]3:1: Функцией мьютекса является:
[a] регистрация обработчика сообщения в операционной системе
[a] распределение квантов времени в системе между выполняющимися процессами
[a] способ синхронизации параллельны процессов через разделяемый критический ресурс
[a] способ обмена данными процессорами через разделяемую память или коммутируемый канал
[a] объединение двух потоков
[q]3:1: Процесс имеет:
[a] собственное состояние
[a] собственный процессор
[a] собственную систему
[a] собственный семафор
[a] собственное место в ОП
[q]3:1: MPI - это ...
[a] модуль параллельной обработки в системе
[a] специальная ОС для параллельного программирования
[a] интерфейс, содержащий набор функций, типов и констант для параллельного программирования
[a] организация, координирующая разработку параллельных интерфейсов
[a] СУБД
[q]3:1: Конвейерная технология предполагает
[a] последовательную обработку команд
[a] обработку команд, удовлетворяющих определенным критериям
[a] обработку несколько команд одновременно
[a] общий доступ команд к памяти
[a] обработку нескольких потоков одновременно
[q]3:1: Система, главной особенностью является наличие общей физической памяти, разделяемой всеми процессорами называется ...
[a] NUMА
+[a] SMP
[a] MPP
[a] PVP
[a] МРА
[q]3:1: Главная особенность архитектуры NUMA
+[a] неоднородный доступ к памяти
[a] сверхвысокая производительность
[a] наличие векторно-конвейерных процессоров
[a] наличие общей физической памяти, разделяемой всеми процессорами
[a] однородный доступ к памяти
[q]3:1: Вычислительные машины с какой архитектурой наиболее дешевы?
[a] симметричная многопроцессорная обработка
[a] параллельная архитектура с векторными процессорами
[a] кластерные системы
[a] массивно-параллельная архитектура
[a] суперкомпьютеры
[q]3:1: Пиковая производительность системы определяется в:
[a] Мегагерц
+[a] MIPS
[a] МFlops
[a] MByte[a] bite
[q]3:1: Пиковая производительность системы определяется:
+---------[a] временем выполнения реальных задач
[a] произведением производительности одного процессора на число процессоров в системе
[a] временем выполнения тестовых задач
[a] количеством переданной информации
[a] производительностью одного процессора
[q]3:1: Производительность многопроцессорной вычислительной системы характеризуется:
[a] количеством операций, производимых за единицу времени
[a] количеством байт информации, переданных в единицу времени
[a] числом импульсов, генерируемых в единицу времени
[a] объемом располагаемой для вычислений памяти
[a] временем выполнения программы
[q]3:1: Какое понятие характеризует возрастание сложности соединений при добавлении в конфигурацию новых узлов.
[a] масштабируемость
[a] ускорение
[a] эффективность
[a] пиковая производительность
[a] объем памяти
[q]3:1: Найдите неверное утверждение.
По способу взаимодействия процессоров с оперативной памятью архитектуры бывают:
[a] с распределенно-разделяемой памятью
[a] с разделяемой памятью
[a] с распределенной памятью
[a] с когерентной кэш-памятью
[a] с постоянной памятью
[q]3:1: Укажите наиболее быструю организацию сети для кластера.
[a] Gigabit Ethernet
[a] Myrinet+----[a] Infinyband[a] Ethernet
[a] Интернет
[q]3:1: Закон Амдаля рассчитывает:
[a] время, затрачиваемое на вычисления
[a] количество вложенных операций
[a] глубину конвейера
+[a] ускорение при расчетах на нескольких процессорах
[a] временя выполнения программы
[q]3:1: Барьер - это...
[a] подпрограмма, определяющая факт прихода сообщения
[a] место в программе, где процесс ожидает подхода к нему остальных процессов
[a] блокировка процесса до тех пор, пока все операции обмена не будут завершены
[a] ожидание завершения асинхронных процедур, ассоциированных с идентификатором
[a] место выхода из цикла
[q]3:1: Семафор - это ...
[a] аппаратный коммутатор
[a] устройство синхронизации для параллельных ЭВМ
[a] программный механизм синхронизации в виде переменной в общей памяти
[a] оператор передачи управления
[a] коммуникатор
[q]3:1: Без наличия какой функции не возможна работа любой MPI программы?
[a] MPI_Barrier( )
[a] MPI_Comm_rank ( )
[a] MPI_Init ( )
[a] MPI_Reduce ( )
[a] MPI_Pass ( )[q]3:1: Коммуникатор - это ...
[a] то же, что и коммутатор
[a] переговорное устройство в параллельной системе
[a] идентификатор группы процессов
[a] имитатор связи в кластере
[a]подпрограмма
[q]3:1: Какую стратегию использования памяти предполагает MPI?
[a] Разделяемую
[a] Распределенную
[a] Удаленную
[a] Локальную
[a] Выборочную
[q]3:1: Параллельная программа – это…
[a] программа, работающая одновременно на нескольких компьютерах
[a] программа, обрабатывающая большой объем данных
[a] программа, осуществляющая обмен сообщениями в сети
[a] программа, содержащая несколько процессов, работающих совместно
[a] программа, работающая на одном компьютере
[q]3:1: Асинхронная модель параллельных вычислений имеет следующие особенности:
[a] все процессы выполняют одни и те же действия с собственными данными
[a] различные процессы решают разные задачи
[a] все процессы используют общую память
[a] все процессы выполняются в своих критических секциях
[a] все процессы выполняются в одной секции
[q]3:1: Синхронная модель параллельных вычислений имеет следующие особенности:
[a] все процессы выполняют одни и те же действия с собственными данными
[a] различные процессы решают разные задачи
[a] все процессы используют общую память
[a] все процессы выполняются в своих критических секциях
[a] все процессы выполняют одни и те же действия с одними и теми же данными
[q]3:1: Две операции называются независимыми если
[a] множество чтения одной не пересекается с множеством чтения другой
[a] множество чтения одной не пересекается с множеством записи другой
[a] множество чтения одной пересекается с множеством записи другой
[a] множество чтения одной пересекается с множеством чтения другой
[a] они выполняются одновременно
[q]3:1: Какие операции могут выполняться параллельно?
[a] независимые
[a] зависимые
[a] элементарные
[a] неделимые
[a] логические
[q]3:1: Какой процесс называется потребителем?
[a] Процесс, передающий данные
[a] Процесс, получающий данные
[a] Процесс, вводящий данные
[a] Процесс, выводящий данные
[a] Процесс, обрабатывающий данные
[q]3:1: Какой процесс называется производителем?
[a] Процесс, передающий данные
[a] Процесс, получающий данные
[a] Процесс, вводящий данные
[a] Процесс, выводящий данные
[a] Процесс, обрабатывающий данные
[q]3:1: Что такое конвейеризация?
[a] Исполнение нескольких команд одновременно
[a] Параллельное выполнение различных частей команд
[a] Сохранение данных в сверхбыстрой памяти
[a] Обработка данных большого размера
[a] Одновременное выполнение различных частей команд
[q]3:1: Что такое суперскалярность?
[a] Исполнение нескольких команд одновременно
[a] Параллельное выполнение различных частей команд
[a] Сохранение данных в сверхбыстрой памяти
[a] Обработка данных большого размера
[a] Последовательное выполнение различных команд
[q]3:1: К какому классу относятся многоядерные системы?
[a] Матричные процессоры
[a] Распределенные системы
[a] Кластеры
[a] Системы с общей памятью
[a] суперкомпьютеры
[q]3:1: К какому классу относятся кластерные системы?
[a]Матричные процессоры
[a]Распределенные системы
[a] Симметричные мультипроцессоры
[a] Системы с общей памятью
[a] суперкомпьютеры
[q]3:1: Какие сущности имеют общую память?
[a] Два процесса
[a] Два потока
[a] Поток и процесс
[a] Вычислительные узлы кластера
[a] устройства ввода - вывода
[q]3:1: Что имеет собственную память для данных?
[a] Процесс
[a] Поток
[a] И процесс, и поток
[a] Коммуникатор
[a] Команда
[q]3:1: Какие общие ресурсы есть у процессов?
[a] Память
[a] Стек
[a] Отображение виртуальной памяти на реальную[a] Все перечисленное
[a] Ничего из перечисленного
[q]3:1: Чем характеризуется состояние параллельной программы?
[a] адресами выполняемых команд
[a] последовательностью состояний s0->s1->…->sn.
[a] значениями переменных в некоторый момент времени
[a] объемом занимаемой оперативной памяти
[a] объемом памяти на диске
[q]3:1: Чем характеризуется история параллельной программы?
[a] значением переменных в некоторый момент времени
[a] последовательностью состояний s0->s1->…->sn.
[a] адресами выполняемых команд
[a] объемом занимаемой оперативной памяти
[a] объемом памяти на диске
[q]3:1: Цель синхронизации процессов
[a] исключить нежелательные истории
[a] обеспечить одновременное выполнение
[a] исключить зацикливание программы
[a] обеспечить быстродействие
[a] разрешить коллизии
[q]3:1:Взаимное исключение состоит в…
[a] обеспечение совместного доступа к общей памяти
[a] ожидании в одном процессе окончания выполнения другого
[a] задержке процесса, пока не выполнится некоторое условие
[a] выделении в процессах критических секций, которые не прерываются другими процессами, использующими те же переменные
[a] в исключении доступа всех процессов к общей памяти
[q]3:1: Условная синхронизация заключается в …
[a] обеспечение совместного доступа к общей памяти
[a] ожидании в одном процессе окончания выполнения другого
[a] задержке процесса, пока не выполнится некоторое условие
[a] выделении в процессах критических секций, которые не прерываются другими процессами, использующими те же переменные
[a] выделении общей памяти
[q]3:1: Пример правильной эффективной параллельной программы поиска максимального элемента в массиве
[a] int m=0;
parallel for (i=0; i<n; i++)
if (a[i] > m) m = a[i];
[a] int m=0;
parallel for (i=0; i<n; i++)
<if (a[i] > m) m = a[i]; >
[a] int m=0;
parallel for (i=0; i<n; i++)
if (a[i] > m) < m = a[i]; >
[a] int m=0;
parallel for (i=0; i<n; i++)
if (a[i] > m)
<if (a[i] > m) m = a[i]; >
[a]int m=0;
for (i=0; i<n; i++)
if (a[i] >m) <m = a[i]; >
[q]3:1: Пример неэффективной правильной параллельной программы поиска максимального элемента в массиве
[a] int m=0;
parallel for (i=0; i<n; i++)
if (a[i] > m) m = a[i];
[a]int m=0;
parallel for (i=0; i<n; i++)
<if (a[i] > m) m = a[i]; >
[a] int m=0;
parallel for (i=0; i<n; i++)
if (a[i] > m) < m = a[i]; >
[a] int m=0;
parallel for (i=0; i<n; i++)
if (a[i] > m)
<if (a[i] > m) m = a[i]; >
[a] int m=0;
for (i=0; i>n; i++)
if (a[i] > m)
<if (a[i] > m) m = a[i]; >
[q]3:1: Какие из приведенных условий относятся к свойствам живучести?
[a] Взаимное исключение. В любой момент только один процесс может выполнять свою критическую секцию
[a] Отсутствие взаимной блокировки. Если несколько процессов пытаются войти в свои критические секции, хотя бы один сделает это.
[a] Если процесс пытается войти в критическую секцию, а другие выполняют некритические секции, то ему разрешается вход
[a] Процесс, который пытается войти в критическую секцию, когда-нибудь это сделает
[a] Все процессы одновременно входят в критическую секцию
[q]3:1: Что представляет из себя справедливая стратегия?
[a] дать возможность каждому процессу попасть в критическую секцию
[a] дать возможность некоторым процессам попасть в критическую секцию
[a] дать возможность процессам попасть в критическую секцию в порядке очереди
[a] дать возможность каждому процессу выйти из критической секции
[a] не дать возможность ни одному процессу войти в критическую секцию
[q]3:1: Недостатком алгоритма разрыва узла (Питерсона) является
[a] сложно обобщается на случай более двух процессов
[a] сложность, отсутствие грани между переменными синхронизации и другими переменными,
[a] неэффективность (ожидающие процессы постоянно проверяют переменные, что занимает время процессора)
[a] уменьшение быстродействия
[a] увеличение объема требуемой памяти
[q]3:1: Алгоритм билета основан на том, что
[a] обеспечивает поочередный вход двух процессов в критическую секцию
[a] каждый процесс, который пытается войти в CS получает номер, который больше номера любого из ранее вошедших[a] каждый процесс запоминает номер выполняющегося процесса
[a] все процессы получают доступ в критическую секцию
[a] никакой процесс не может попасть в критическую секцию
[q]3:1: В чем отличие мьютекса от критической секции?
[a] Критическая секция может находиться только в двух состояниях, а мьютекс – в нескольких
[a] Критическая секция должна быть описана в программе, а мьютекс – нет.
[a] Критическая секция действует в пределах одного процесса, а мьютекс может использоваться для взаимодействия разных процессов
[a] Мьютекс действует в пределах одного процесса, а критическая секция может использоваться для взаимодействия разных процессов
[a] Критическая секция может находиться только в одном состоянии, а мьютекс – в двух
[q]3:1: Семафор - это
[a] Процедура
[a] Объект
[a] Специальная системная переменная
[a] Класс
[a] Функция
[q]3:1: Какая операция с семафором может привести к приостановке процесса?
[a] Открыть
[a] Увеличить
[a] Уменьшить
[a] Закрыть
[a] Приостановить
[q]3:1: Что такое барьерная синхронизация?
[a] взаимное исключение нескольких процессов
[a] синхронизация по времени окончания операций в разных процессах
[a] обеспечение общего доступа к данным
[a] исключение взаимоблокировок
[a] обеспечение доступа к разным сегментам памяти
[q]3:1: Основное требование, предъявляемое к барьерной синхронизации?
[a] ни один из процессов не должен перейти барьер, пока к нему не подошли все процессы
[a] ни один процесс не должен войти в секцию, если в нее вошел другой процесс
[a] ни один процесс не может получить доступ к общим данным
[a] ни один процесс не должен блокировать другие процессы
[a] все процессы должны перейти барьер одновременно
[q]3:1: В решении какой задачи используется метод передачи эстафеты?
[a] Об обедающих философах
[a] О производителе и потребителе
[a] О писателях и читателях
[a] О критической секции
[a] О днях рождения
[q]3:1: Какая функция в Windows соответствует операции P для семафора
[a] ReleaseSemaphore[a] WaitForSingleObject[a] CreateSemaphore[a] OpenSemaphore[a] CloseSemaphore[q]3:1:КакаяфункциявWindowsсоответствуетоперацииVдлясемафора[a] ReleaseSemaphore[a] WaitForSingleObject[a] CreateSemaphore[a] OpenSemaphore[a] CloseSemaphore[q]3:1: Как моделируются вилки в задаче об обедающих философах?
[a] Каждая вилка – это процесс
[a] Каждая вилка – это поток
[a] Каждая вилка – это семафор
[a] Каждая вилка – это массив мьютексов[a] Каждая вилка – это объект
[q]3:1: Какая функция в Unixклонирует текущий процесс?
[a] fork
[a] execl, execv[a] waitpid[a] kill
[a] signal
[q]3:1: Какая функция в Unix позволяют заменить текущий процесс новым?
[a] fork
[a] execl, execv[a] waitpid[a] kill
[a] signal
[q]3:1: Какая функция в Unixпозволяет ожидать окончания порожденного процесса?
[a] fork
[a] execl, execv[a] waitpid[a] kill
[a] signal
[q]3:1: Какая функция в Unixпосылает сигнал процессу?
[a] fork
[a] execl, execv[a] waitpid[a] kill
[a] signal
[q]3:1: Какая функция в Unixпозволяет указать функцию, выполняющуюся при получении сигнала?
[a] fork
[a] execl, execv[a] waitpid[a] kill
[a] signal
[q]3:1:Какая библиотека в Unix используется для реализации многопоточности?
[a] MPI
[a] OPENMP
[a] THREADING
[a] PTHREAD
[a] MTHREAD
[q]3:1:Какие бъекты синхронизации нереализованы в библиотекеPTHREAD?
[a] Семафоры
[a] Критические секции
[a] Мьютексы[a] Условные переменные
[a] Потоки
[a] Процессы
[q]3:1: Как называется наиболее популярная модель параллельных вычислений
[a] Граф «операции-операнды»
[a] Граф «потоки-данные»
[a] Граф «чтение – запись»
[a] Граф «переменные – алгоритмы»
[a] Граф «переменные –функции»
[q]3:1: Какие операции в модели параллельных вычислений могут выполняться параллельно?
[a] Смежные в графе «операции-операнды»
[a] Связанные путем в графе «операции-операнды»
[a] Не связанные путем в графе «операции-операнды»
[a] Не смежные в графе «операции-операнды»
[a] Входящие в один цикл
[q]3:1:T∞ = D(G) (D(G) – ___________________в графе G).
[a] Длина максимального пути в графе
[a] Максимальный поток
[a] Максимальный поток минимальной стоимости
[a] Длина максимального цикла
[a] Длина минимального цикла
[q]3:1: Что такое ускорение параллельной программы?
[a] Отношение времени работы параллельной программы к времени работы последовательной программы
[a] Отношение времени работы последовательной программы ко времени работы параллельной программы
[a] Отношение времени работы самого медленного процесса к времени работы самого быстрого
[a] Отношение времени работы самого быстрого процесса к времени работы самого медленного
[a] Отношение среднего времени работы одного процесса параллельной программы к среднему времени работы одного процесса последовательной программы
[q]3:1: Что такое эффективность параллельной программы?
[a] Отношение времени работы параллельной программы к времени работы последовательной программы
[a] Отношение времени работы последовательной программы ко времени работы параллельной программы
[a] Отношение количества процессоров к ускорению программы
[a] Отношение ускорения параллельной программы к количеству процессоров
[a] Отношение времени работы параллельной программы к количеству процессоров
[q]3:1: Что такое стоимость вычислений по параллельной программе?
[a] Наибольшее время выполнения параллельных процессов
[a] Наименьшее время выполнения параллельных процессов
[a] Полное время выполнения всех параллельных процессов
[a] Эффективность, умноженная на количество процессоров
[a] Затраты на разработку программы
[q]3:1: Что такое сверхлинейное ускорение?
[a] Когда ускорение равно количеству процессоров
[a] Когда ускорение меньше количества процессоров
[a] Когда эффективность больше единицы
[a] Когда эффективность меньше единицы
[a] Когда эффективность равна единице
[q]3:1: Когда возможно сверхлинейное ускорение?
[a] При эффективной реализации параллельного алгоритма
[a] При грамотном распределении данных
[a] При нелинейной сложности алгоритма
[a] При увеличении количества процессоров
[a] При увеличении тактовой частоты
[q]3:1: Пусть f – доля последовательных вычислений в алгоритме. Сформулируйте закон Амдаля[a] Sp> 1/(f + (1-f)/p)
[a] Sp ≤ 1/(f + (1-f)/p)
[a] Sp ≤ 1/(f - (1+f)/p)
[a] Sp> 1/(f + (1+f)/p)
[a] Sp+ 1/(f + (1+f))
[q]3:1: Масштабируемость алгоритма определяет
[a] степень сохранения эффективности при уменьшении количества процессоров.
[a] степень сохранения эффективности при росте количества процессоров
[a] степень увеличения ускорения при росте количества процессоров.
[a] степень увеличения стоимости при росте количества процессоров
[a] степень уменьшения стоимости при уменьшении количества процессоров
[q]3:1: Для сохранения эффективности обычно требуется
[a] Увеличивать объем обрабатываемой информации.
[a]Уменьшать объем обрабатываемой информации.
[a]Увеличивать количество процессоров
[a]Уменьшать количество процессоров
[a] Уменьшить сложность алгоритма
[q]3:1: Интерфейс OpenMP задуман как стандарт параллельного программирования для[a]многопроцессорных систем с общей памятью
[a]многопроцессорных систем с разделенной памятью
[a]кластерных систем
[a]матричных систем
[a] конвейерных систем
[q]3:1: При появлении директивы #parallel происходит
[a]синхронизация, все потоки, кроме главного, уничтожаются
[a]продолжается последовательное выполнение кода (до очередного появления директивы #parallel)
[a]создание “команды” (team) потоков для параллельного выполнения вычислений
[a] заканчивается параллельная часть программы
[a] начинается последовательная часть программы
[q]3:1: После выхода из области действия директивы #parallel происходит
[a]синхронизация, все потоки, кроме master, уничтожаются
[a]продолжается последовательное выполнение кода (до очередного появления директивы #parallel)
[a]создание “команды” (team) потоков для параллельного выполнения вычислений
[a] заканчивается последовательная часть программы
[a] начинается параллельная часть программы
[q]3:1: Параметр shared определяет список переменных, которые
[a]будут общими для всех потоков параллельной области: правильность использования таких переменных должна обеспечиваться программистом
[a]будут локальными для каждого потока; переменные создаются в момент [a]формирования потоков параллельной области; начальное значение переменных является неопределенным
[a]перед использованием инициализируются значениями исходных переменных
[a]запоминаются в исходных переменных после завершения параллельной области (используются значения потока, выполнившего последнюю итерацию цикла или последнюю секцию)
[q]3:1: Параметр private определяет список переменных, которые
[a] будут общими для всех потоков параллельной области правильность использования таких переменных должна обеспечиваться программистом
[a]будут локальными для каждого потока; переменные создаются в момент формирования потоков параллельной области; начальное значение переменных является неопределенным
[a] перед использованием инициализируются значениями исходных переменных
[a]запоминаются в исходных переменных после завершения параллельной области (используются значения потока, выполнившего последнюю итерацию цикла или последнюю секцию)
[a] будут использоваться один раз
[q]3:1: Параметр firstprivate позволяет создать локальные переменные потоков, которые
[a] будут общими для всех потоков параллельной области правильность использования таких переменных должна обеспечиваться программистом
[a] будут локальными для каждого потока; переменные создаются в момент формирования потоков параллельной области; начальное значение переменных является неопределенным
[a]перед использованием инициализируются значениями исходных переменных
[a]запоминаются в исходных переменных после завершения параллельной области (используются значения потока, выполнившего последнюю итерацию цикла или последнюю секцию)
[a] после завершения параллельной области нигде не запоминаются
[q]3:1:. Параметр lastprivate позволяет создать локальные переменные потоков, значения которых
[a]будут общими для всех потоков параллельной области правильность использования таких переменных должна обеспечиваться программистом
[a]будут локальными для каждого потока; переменные создаются в момент формирования потоков параллельной области; начальное значение переменных является неопределенным
[a]перед использованием инициализируются значениями исходных переменных
[a]запоминаются в исходных переменных после завершения параллельной области (используются значения потока, выполнившего последнюю итерацию цикла или последнюю секцию)
[a] после завершения параллельной области нигде не запоминаются
[q]3:1: Распределение итераций в директиве for регулируется параметром (clause) schedulestatic[a]итерации делятся на блоки по chunk итераций и статически разделяются между потоками; если параметр chunk не определен, итерации делятся между потоками равномерно и непрерывно
[a] распределение итерационных блоков осуществляется динамически (по умолчанию chunk=1)
[a] размер итерационного блока уменьшается экспоненциально при каждом распределении; chunk определяет минимальный размер блока (по умолчанию chunk=1)
[a] правило распределения определяется переменной OMP_SCHEDULE (при использовании runtime параметр chunk задаваться не должен)
[a] размер итерационного блока уменьшается в два раза при каждом распределении
[q]3:1:. Распределение итераций в директиве for регулируется параметром (clause) scheduledynamic[a]итерации делятся на блоки по chunk итераций и статически разделяются между потоками; если параметр chunk не определен, итерации делятся между потоками равномерно и непрерывно
[a]распределение итерационных блоков осуществляется динамически (по умолчанию chunk=1)
[a] размер итерационного блока уменьшается экспоненциально при каждом распределении; chunk определяет минимальный размер блока (по умолчанию chunk=1)
[a] правило распределения определяется переменной OMP_SCHEDULE (при использовании runtime параметр chunk задаваться не должен)
[a] размер итерационного блока уменьшается в два раза при каждом распределении
[q]3:1: Распределение итераций в директиве for регулируется параметром (clause) scheduleguided
[a] итерации делятся на блоки по chunk итераций и статически разделяются между потоками; если параметр chunk не определен, итерации делятся между потоками равномерно и непрерывно
[a] распределение итерационных блоков осуществляется динамически (по умолчанию chunk=1)
[a]размер итерационного блока уменьшается экспоненциально при каждом распределении; chunk определяет минимальный размер блока (по умолчанию chunk=1)
[a] правило распределения определяется переменной OMP_SCHEDULE (при использовании runtime параметр chunk задаваться не должен)
[a] размер итерационного блока уменьшается в два раза при каждом распределении
[q]3:1: Распределение итераций в директиве for регулируется параметром (clause) scheduleruntime
[a] итерации делятся на блоки по chunk итераций и статически разделяются между потоками; если параметр chunk не определен, итерации делятся между потоками равномерно и непрерывно
[a] распределение итерационных блоков осуществляется динамически (по умолчанию chunk=1)
[a] размер итерационного блока уменьшается экспоненциально при каждом распределении; chunk определяет минимальный размер блока (по умолчанию chunk=1)
[a]правило распределения определяется переменной OMP_SCHEDULE (при использовании runtime параметр chunk задаваться не должен[a] размер итерационного блока уменьшается в два раза при каждом распределении
[q]3:1: Директива barrier – определяет
[a]точку синхронизации, которую должны достигнуть все процессы для продолжения вычислений (директива должны быть вложена в блок)
[a] переменную, доступ к которой (чтение/запись) должна быть выполнена как неделимая операция
[a] точку синхронизации, в которой системой должно быть обеспечено единое для всех процессов состояние памяти
[a] прекращение работы программы
[a] точку выхода из параллельного процесса
[q]3:1: Директива atomic – определяет
[a]точку синхронизации, которую должны достигнуть все процессы для продолжения вычислений (директива должны быть вложена в блок)
[a]переменную, доступ к которой (чтение/запись) должна быть выполнена как неделимая операция
[a]точку синхронизации, в которой системой должно быть обеспечено единое для всех процессов состояние памяти (т.е. если потоком какое-либо значение извлекалось из памяти для модификации, измененное значение обязательно должно быть записано в общую память[a] прекращение работы программы
[a] точку выхода из параллельного процесса
[q]3:1: Директива flush – определяет
[a]точку синхронизации, в которой системой должно быть обеспечено единое для всех процессов состояние памяти (т.е. если потоком какое-либо значение извлекалось из памяти для модификации, измененное значение обязательно должно быть записано в общую память)
[a]точку синхронизации, которую должны достигнуть все процессы для продолжения вычислений (директива должны быть вложена в блок)
[a]переменную, доступ к которой (чтение/запись) должна быть выполнена как неделимая операция
[a] прекращение работы программы
[a] точку выхода из параллельного процесса
[q]3:1: Канал - это
[a] связь между процессорами
[a] участок локальной сети
[a]очередь для обмена сообщениями
[a] механизм синхронизации процессов
[a] область оперативной памяти
[q]3:1: Укажите особенность удаленного вызова процедур
[a] Вызов происходит всегда синхронно
[a]При вызове создается новый процесс
[a] В процедуре может быть несколько точек входа
[a] Нельзя вызывать методы объектов
[a]При вызове уничтожается старый процесс
[q]3:1: Укажите элементарные операции, на которых основан обмен информацией в MPI
[a]Прием и передача сообщений
[a] Удаленный вызов процедур
[a] Обращение к области общей памяти
[a] Чтение и запись семафоров.
[a] Создание коммуникаторов
[q]3:1: По какой технологии создается программа при использовании MPI 1.0?
[a]SSPD
[a] SPMD
[a]MPSD
[a] MPMD
[a] SPSD
[q]3:1: Технология SPM означает
[a] Все процессы имеют общую память.
[a] Каждый из процессов выполняет свою задачу обработки информации.
[a] Все процессы работают одновременно.
[a]Все процессы выполняют одну и ту же программу
[a]Каждый из процессов выполняет разные действия
[q]3:1: Типичная роль у процесса с номером 0 при использовании MPI
[a] Запуск остальных процессов
[a] Обеспечение синхронизации процессов
[a] Поддержка общей памяти
[a]Распределение исходных данных и сбор результатов
[a] Набор управляющих комментариев.
[q]3:1: Обмен данными между разными MPI-программами производится
[a] С помощью обмена сообщениями
[a] С помощью общей памяти
[a] С помощью средств синхронизации
[a]Обмен данными невозможен
[a] С помощью обмена потоками
[q]3:1: Как определяется количество процессов в MPIпрограмме?
[a] Определяется автоматически исходя из количества вычислительных узлов
[a] Устанавливается программистом из самой программы.
[a]Устанавливается в конфигурационных файлах при запуске программы
[a] Определяется исходя из размера задачи.
[a] Исходя из затраченного на обработку времени
[q]3:1:В началеMPI-программы необходимо вызвать функцию
[a]MPI_Create[a]MPI_Run[a]MPI_Start[a]MPI_Init[a]MPIBegin
[q]3:1: Коммуникатор в MPI - это
[a] Идентификатор группы процессов.
[a] Процесс, распределяющий данные другим процессам
[a]Механизм синхронизации программ
[a] Инфраструктура передачи сообщений.
[a] Общая область памяти
[q]3:1: Уникальный номер процесса в MPI называется
[a] Порядок.
[a]Ранг
[a] Идентификатор
[a] Степень
[a] Классификатор
[q]3:1: Функция MPI_Sendзавершает свою работу
[a]Когда можно повторно использовать буфер отправки
[a] Когда сообщение поступило получателю
[a] Немедленно
[a] Когда сообщение попало в очередь на отправку
[a] Через определенное заранее установленное время
[q]3:1: Для отправки сообщения всем процессам нужно
[a] Указать в качестве номера получателя MPI_ANY_SOURCE
[a] Указать в качестве номера получателя 0
[a]Использовать функцию MPI_Bcast[a] Подождать выхода новой версии MPI
[a] Указать номер каждого получателя
[q]3:1: Асинхронную отправку сообщения осуществляет функция
[a] MPI_Isend[a]MPI_Send[a]MPI_Ssend[a]MPI_Bsend[a] MPI_Pass
[q]3:1: Функция, гарантирующая отсутствие взаимоблокировок
[a] MPI_Isend[a]MPI_Ssend
[a]MPI_Sendrecv
[a]MPI_Bsend
[a] MPI_Pass
[q]3:1:ФункцииMPIвозвращают
[a] Количество принятых или переданных данных
[a] Информацию о статусе пересылки
[a] Информацию о процессах
[a] Код ошибки
[a] Информацию о коммуникаторах
[q]3:1: Идентифицируют процесс
[a]Номер процесса в группе, имя коммуникатора
[a] Уникальное имя процесса, номер коммуникатора
[a] Уникальное имя процесса, номер компьютера
[a] Уникальное имя компьютера, уникальное имя процесса
[a] Номер компьютера, номер коммуникатора
[q]3:1: Разослать данные из каждого процесса на все остальныепозволяет функция
[a]MPI_Bcast[a]MPI_Alltoall[a]MPI_Scatter[a]MPI_Allscatter[a]MPI_Cast
[q]3:1: Коллективные операции работают с процессами
[a] С процессами, номера которых указаны при вызове функций
[a] Со всеми процессами в параллельной программе
[a]С процессами, входящими в заданную группу
[a] С процессами, имеющими одинаковые номера
[a]С процессами, не входящими в заданную группу
[q]3:1: Может ли один процесс принадлежать разным коммуникаторам?
[a]Да, может
[a] Нет, не может
[a] Может только процесс с номером ноль
[a] В программе не может быть больше одного коммуникатора
[a] Может только процесс с номером один
[q]3:1: Рандеву используются в языке программирования
[a] Фортран
[a]Оккам
[a] Джава
[a]Ада
[a] Си
[q]3:1: Операторы передачи сообщений есть в языке
[a]Фортран
[a] Оккам
[a]Джава
[a] Ада
[a] Паскаль
[q]3:1: Транспьютеры- это
[a] Кластерные системы
[a] Многоядерные системы
[a]Многопроцессорные системы, образующие двумерную решетку
[a] Многопроцессорные системы, образующие гиперкуб
[a] Векторно- конвейерные компьютеры

Приложенные файлы

  • docx 26599746
    Размер файла: 58 kB Загрузок: 0

Добавить комментарий