Параллельные системы

Автор: Пользователь скрыл имя, 03 Марта 2015 в 17:17, курсовая работа

Краткое описание

Простые расчеты показывают, что конфигурации подобных систем могут стоить не один миллион долларов США - ради интереса прикиньте, сколько стоят, скажем, лишь 4 Тбайта оперативной памяти? Возникает целый ряд естественных вопросов: какие задачи настолько важны, что требуются компьютеры стоимостью несколько миллионов долларов? Или, какие задачи настолько сложны, что хорошего Пентиума не достаточно? На эти и подобные им вопросы хотелось бы найти разумные ответы.

Оглавление

Введение
1. Классификация параллельных вычислительных систем
2. Системы с разделяемой и локальной памятью
Заключение
Глоссарий
Список использованных источников

Файлы: 1 файл

Параллельные системы.doc

— 350.00 Кб (Скачать)

Попробуем разобраться, какой из этих факторов оказывается решающим для достижения рекордной производительности. Обратимся к известным историческим фактам. На одном из первых компьютеров мира - EDSAC, появившемся в 1949 году в Кембридже и имевшем время такта 2 микросекунды (2*10-6 секунды), можно было выполнить 2*n арифметических операций за 18*n миллисекунд, то есть в среднем 100 арифметических операций в секунду. Сравним с одним вычислительным узлом современного суперкомпьютера Hewlett-Packard V2600: время такта приблизительно 1.8 наносекунды (1.8*10-9 секунд), а пиковая производительность около 77 миллиардов арифметических операций в секунду.

Что же получается? За полвека производительность компьютеров выросла более чем в семьсот миллионов раз. При этом выигрыш в быстродействии, связанный с уменьшением времени такта с 2 микросекунд до 1.8 наносекунд, составляет лишь около 1000 раз. Откуда же взялось остальное? Ответ очевиден - использование новых решений в архитектуре компьютеров. Основное место среди них занимает принцип параллельной обработки данных, воплощающий идею одновременного (параллельного) выполнения нескольких действий.

К сожалению, чудеса в нашей жизни совершаются редко. Гигантская производительность параллельных компьютеров и суперЭВМ с лихвой компенсируется стоимостью и сложностью их использования. Но даже вопросы, возникающие вокруг суперкомпьютеров, ставят в тупик. Например, простой пример и жизни: землекоп выкопает яму за один час. Как вы думаете, 60 землекопов выкопают яму за одну минуту? Так и в компьютере: начиная с некоторого момента, они будут просто мешать друг другу, не ускоряя, а замедляя работу.

Но все вопросы, сопровождающие суперкомпьютер, конечно же, решаются. Да, использовать суперкомпьютер сложнее, чем PC: нужны дополнительные знания и технологии, высококвалифицированные специалисты, более сложная структура информации. Написать эффективную параллельную программу сложнее, чем последовательную, да и вообще создание параллельного программного обеспечения для параллельных компьютеров - основная проблема суперкомпьютерных вычислений. Но без суперЭВМ сегодня не обойтись, и отрадно, что в нашей стране есть понимание необходимости развития этих технологий. В ноябре 2000 года в Президиуме РАН состоялось открытие межведомственного суперкомпьютерного центра. В процессе становления суперкомпьютерные центры в Дубне, Черноголовке, Институте прикладной математики им. М.В. Келдыша и т.п.

Создана и развивается линия отечественных суперкомпьютеров МВС-100. За рубежом также происходит интенсивное развитие суперкомпьютеров всех типов (векторные, кластерные и т.п.), и использование их практически во всех отраслях человеческой жизни. А иначе и нельзя, так как параллельные компьютеры и вычисления - не будущее, а реальность.

 

Глоссарий

 

Понятие

Определение

Архитектура вычислительной машины

концептуальная структура вычислительной машины, определяющая проведение обработки информации и включающая методы преобразования информации в данные и принципы взаимодействия технических средств и программного обеспечения.

Кластер

группа компьютеров, объединённых высокоскоростными каналами связи и представляющая с точки зрения пользователя единый аппаратный ресурс.

Когерентность кэша

свойство кэшей, означающее целостность данных, хранящихся в локальных кэшах для разделяемого ресурса.

Компьютерная память

устройство хранения информации, запоминающее устройство - часть вычислительной машины, физическое устройство или среда для хранения данных, используемых в вычислениях, в течение определённого времени.

Многопроцессорность

мультипроцессорность, многопроцессорная обработка, - использование пары или большего количества физических процессоров в одной компьютерной системе.

Оперативная память

энергозависимая часть системы компьютерной памяти, в которой временно хранятся данные и команды, необходимые процессору для выполнения им операции.

Параллельные вычисления

такой способ организации компьютерных вычислений, при котором программы разрабатываются как набор взаимодействующих вычислительных процессов, работающих параллельно.

Параллельные вычислительные системы

это физические компьютерные, а также программные системы, реализующие тем или иным способом параллельную обработку данных на многих вычислительных узлах.

Сеть передачи данных

совокупность оконечных устройств (терминалов) связи, объединённых каналами передачи данных и коммутирующими устройствами (узлами сети), обеспечивающими обмен сообщениями между всеми оконечными устройствами.

Суперкомпьютер

вычислительная машина, значительно превосходящая по своим техническим параметрам большинство существующих компьютеров.

Центральный процессор

электронный блок либо микросхема - исполнитель машинных инструкций (кода программ), главная часть аппаратного обеспечения компьютера или программируемого логического контроллера.


 

 

 

Список использованных источников

 

1. Антонов А.С. Введение в параллельные вычисления, М.: Изд-во МГУ, 2002, 346 с.

2. Борисов М. UNIX-кластеры // М.: Открытые системы, 2005г, 237 с.

. Вычислительная техника и программирование / Под ред. А.В. Петрова - М.: Высшая школа, 2003, 385 с.

. Демьяненко В.Ю. Программные средства создания и ведения баз данных. - М.: Финансы и статистика, 2001, 316 с.

. Кузьминский М. Векторно-параллельные суперкомпьютеры NEC // М.: Открытые системы, 2003 г, 246 с.

. Кузьминский М. Архитектура S2MP - свежий взгляд на cc-NUMA // М.: Открытые системы, 2007г, 357 с.

. Локальные вычислительные сети: Справочник. В 3-х кн. / Под. ред. С.В. Назарова - М.: Финансы и статистика, 1994. - Т. Кн.1. - 208 с.

. Ляхович В.Ф. Основы информатики. - Ростов-на-Дону: Феникс, 2006, 278 с.

. Моначов В. Язык программирования Java и среда NetBeans. - 2-е изд. - СПб.: БХВ-Петербург, 2009. - 720 с.

. Мячев А.А. Спецификация многопроцессорных систем компании Intel // М.: Открытые системы, 2005, 336 с.

. Олифер В.Г., Олифер Н.А. Компьютерные сети. Принципы, технологии, протоколы: Учебник для вузов.3-е изд. - СПб.: Питер, 2006 359 с.

. Самойленко В.В. Локальные сети. Полное руководство. - К., 2002, 569 с.


Информация о работе Параллельные системы