Смекни!
smekni.com

1. 1 "Фон-Неймановские" и "не-Фон-Неймановские" архитектуры (стр. 1 из 10)

Содержание

Введение……………………………………………………………………………….2

1. Классификация архитектур вычислительных систем……………………….6

1.1 "Фон-Неймановские" и "не-Фон-Неймановские" архитектуры…………….6

1.2 Классификация параллельных ВС…………………………………………....8

1.3 Системы с общей и распределенной памятью………………………….…..13

1.4 Способы межмодульного соединения (комплексирования)…………….....14

2. Микропроцессорные системы и способы распараллеливания………….....15

2.1 Мультимикропроцессорные вычислительные системы……………………15

2.2 Направление "мини-супер" для персональных компьютеров……………..18

3. Распараллеливание в ВС на уровне исполнительных устройств…………21

3.1 Конвейеры операций…………………………………………………………….21

3.2 Векторные конвейеры. "Зацепление" векторов………………………….....22

3.3 Выполнение операций на стеке……………………………………………...24

4. Вычислительные системы нетрадиционной архитектуры………………...26

4.1 Однородные вычислительные структуры (среды)…………………………26

4.2 Ассоциативные вычисления и ВС…………………………………………...29

4.3 ВС Connection Machine……………………………………………………….33

4.4 Нейронные сети и нейрокомпьютеры……………………………………….35

5. Системы с массовым параллелизмом (МРР)………………………………....38

Список литературы…………………………………………………………………41

Введение

Развитие вычислительных технологий и средств сопровождалось пониманием того, что работы надо делить между многими исполнительными устройствами. Распараллеливание — естественный жизненный принцип, основанный на утверждении, что коллектив сильнее одиночки. Основной критерий эффективности распараллеливания заключается в минимизации времени выполнения работы. Однако действенен и другой критерий — выбор системы исполнителей, обладающей минимальной стоимостью и способной закончить работу не позже указанного срока.

Вычислительные системы с особой остротой на реальном техническом уровне вобрали в себя принцип распараллеливания, развив его в самом широком многообразии применения. Наступила пора разрушить монополию, систематизировать и обобщить методы и технологии распараллеливания, обеспечить их эффективное применение во всех областях хозяйственной деятельности человека.

Можно представить следующие направления развития параллельных технологий.

Параллельные структуры отображают организацию и взаимодействие исполнителей сложного комплекса взаимосвязанных работ. В вычислительной технике — это проблема параллельного выполнения отдельных программ и целых программных комплексов, отображенная выбором архитектуры процессоров и многопроцессорных вычислительных систем. Взаимодействие исполнительных устройств должно минимизировать "накладные расходы" на организацию их взаимодействия.

Параллельное программирование объединяет проблемы оптимального статического и динамического планирования выполнения комплексов взаимосвязанных работ при заданном составе и структуре взаимодействия исполнителей. В абстрактной постановке, где достаточно слова "вычислительная система" заменить словами "комплекс исполнителей", проблема статического планирования также изложена. Динамическое планирование параллельного процесса представлено схемами таких процессов и диспетчерами распараллеливания.

Параллельные алгоритмы являются естественным результатом оптимального решения задач распараллеливания. Применение многопроцессорных вычислительных систем, а, в особенности, бурно развивающиеся сетевые технологии для решения задач высокой сложности - оптимизационных, моделирования — стимулировали критический подход к тем методам вычислений, которые были разработаны для математика-вычислителя, крутящего ручку арифмометра. Изменился критерий оптимизации вычислительного процесса: не количество выполняемых операций стало определяющим, а "длина критического пути". Указанное направление также рассматривается в книге.

Книга рассчитана на студентов старших курсов технических и экономических вузов, аспирантов, инженеров-исследователей в области современных информационных технологий решения задач планирования и управления.

Необходимый объем предварительных знаний базируется на стандартах курсов по информатике и основам ЭВМ.

Со временем пришло понимание того, что только структурными методами можно добиться необходимой производительности вычислительных средств. Таким основным структурным методом является распараллеливание вычислений.

Сначала стало ясно, что вместо одной ЭВМ в систему управления необходимо встраивать несколько, решающих единый набор функционально связанных задач. Такой коллектив ЭВМ получил название вычислительного комплекса (ВК). Информационная взаимосвязанность задач потребовала применения средств оперативного обмена данными внутри ВК и средств синхронизации. Однако временные затраты на организацию взаимодействия ЭВМ в ВК (накладные расходы) оказались весьма высоки. Возникла идея использования взамен разделенной оперативной памяти (ОП), реализованной в ВК, общей (разделяемой) ОП, которая связывает несколько центральных процессоров. Проблема затрат времени на обмен оказалась решенной. Так зародилось понятие параллельной вычислительной системы (ВС).

Впоследствии принципы распараллеливания стали применяться на всех уровнях разработки ВС: и отдельных устройств, и процессоров. Отметим, что такой способ распараллеливания, как конвейерный, использовался на раннем этапе создания ЭВМ и используется сейчас.

Приоритет в создании ВС на общей памяти принадлежит С. Крею, признанному "отцу супер-ЭВМ", главному конструктору системы CDC 6600, разработанной в 1963 году. Однако условия соперничества и сокрытия информации определили независимость отечественных разработок.

Универсальным критерием, используемым при решении задач распараллеливания, является минимум времени выполнения совокупности работ, распределяемых между процессорами.

Если несколько процессоров составляют ВС, то важной характеристикой ее эффективности (основные составляющие эффективности — производительность, надежность, стоимость) при специализированном использовании (например, в составе автоматизированной системы управления, АСУ) является коэффициент полезной загрузки k3. Для его определения находят коэффициенты загрузки процессоров:

где Ti, i = 1, ..., n, — суммарное время занятости каждого процессора решением задачи на всем отрезке полного решения задачи, длиной Tреш (рис.1). Тогда

Если P0 — производительность одного процессора, то реальная производительность PBC ВС, состоящей из n процессоров, при решении данной задачи (!) находится:

где P0 определяется классом решаемых задач.

Рис. 1. Диаграмма параллельного выполнения информационно взаимосвязанных работ в ВС

Основное предположение об эффективности совместной работы нескольких процессоров при решении множества задач (функциональных модулей) управляющей системы основывалось на возможности усреднения нагрузки при динамическом распределении работ между процессорами. Такое усреднение позволяет сгладить пиковую нагрузку на отдельные процессоры, а, следовательно, снизить требования к их производительности. Конечно, это справедливо в том случае, если увеличивающиеся накладные расходы, связанные с организацией динамического управления вычислительным процессом (диспетчированием), оправдывают эти затраты.

Пусть управляющая система обслуживает несколько объектов, каждый из которых требует затраты производительности P, в соответствии со стадией обслуживания, как показано временными диаграммами на рис.2. Начала обслуживания, а также длительность стадий обслуживания, случайно распределены во времени. На каждой стадии обслуживания используется общее для всех объектов подмножество программ — функциональных модулей. Тогда видно, что если за объектами жестко закреплять процессоры ВС, то их производительность должна удовлетворять самой напряженной последней стадии обслуживания. Если же в соответствии со случайным взаимным смещением этой стадии все множество функциональных модулей, требуемых для всех объектов, динамически распределять между процессорами, то такой пиковой нагрузки на один процессор в среднем можно избежать. То есть можно руководствоваться результирующей диаграммой на основе суммирования тех, что изображены на рисунке.

Конечно, такое допущение должно подтверждаться на основе моделирования реальных ситуаций, требований к эффективности управляющей системы и на основе разработок оперативных диспетчеров распараллеливания.

Рис.2. Затраты производительности при обслуживании нескольких объектов

Разработки в области ВС не могли не повлиять на практику параллельного планирования в широком диапазоне применения. Ведь задачи оптимального распараллеливания входят в класс задач исследования операций, и это определяет контекст их исследования. Суть этих задач - в минимизации времени выполнения статически заданного или динамически формируемого частично упорядоченного множества заданий на выполнение работ, а также в минимальном по стоимости наборе исполнителей, достаточном для выполнения множества таких заданий за ограниченное время.