Федеральное агентство по образованию
Государственное образовательное учреждение высшего профессионального образования
«Удмуртский университет»
РЕФЕРАТ
На тему: перспективы и темпы развития информационных компьютерных систем – нанотехнологии.
Выполнила:
Проверил:
Ижевск 2010
Оглавление:
1. Вступление 3стр.
2. История появления нанотехнологий 4стр.
3. Компьютеры будущего – основные концепты 5стр.
3.1 Новые алгоритмы для старых электронов 5стр.
3.2 Компьютеры нового тысячелетия 6стр.
3.3 Проблема создания квантового компьютера 8стр.
4. Перспективы информационных компьютерных систем в нанотехно — логиях 10стр.
4.2 Intel представит чипы следующего поколения 11стр.
4.5 Харддиски заменят нанопроволокой 13стр.
5. Список литературы 15стр.
1. Вступление
Мы уже давно существуем как механистическая цивилизация. Почти вся наша жизнь зависит от приборов и механизмов, которые окружают нас повсюду. Но большинство из этих механизмов довольно грубые - особенно с точки зрения потребления ресурсов для их работы. То количество топлива, металлов и других природных богатств, которое мы используем, чрезмерно велико. Наша задача - работать как можно тоньше, создавать механизмы как можно более энергоэкономные, чтобы тратить меньше невосполнимых ресурсов.
В последние годы темпы научно-технического прогресса стали зависеть от использования искусственно созданных объектов нанометровых размеров (1 нанометр (нм) равен одной миллиардной доле метра или, что то же самое, одной миллионной доле миллиметра). Созданные на их основе вещества называют наноматериалами, а способы их производства и применения - нанотехнологиями. Невооруженным глазом человек способен увидеть предмет, диаметром примерно 10 тыс. нанометров.
Нанотехнологиями как манипуляциями с отдельными молекулами вещества (по определению японского физика Норио Танигучи) ученые занимаются уже несколько десятилетий. Но сейчас создание нанотехнологий становится одной из ведущих научных областей. Кафедры со специальностью <нано> организовываются во многих ведущих вузах страны на физических, химических, биологических и других факультетах. Из области чисто научных интересов внимание к нанотехнологиям переместилось в область государственных приоритетов. И, похоже, не только государственных, но и гуманитарных в целом. Во всяком случае, во время недавнего открытия выставки по нанотехнологиям в Российский научный центр «Курчатовский институт» его президент Евгений Велихов подчеркнул, что без развития нанотехнологий человечеству уже не выжить.
2. История появления нанотехнологий.
Историк науки Ричард Букер\Richard D. Booker отмечает, что историю нанотехнологий создать крайне сложно по двум причинам - во-первых, "размытости" самого этого понятия. Например, нанотехнологии часто не являются "технологиями" в привычном смысле этого слова. Во-вторых, человечество всегда пыталось экспериментировать с нанотехнологиями, даже и не подозревая об этом.
Отцом нанотехнологии можно считать греческого философа Демокрита. Примерно в 400 г. до н.э. он впервые использовал слово "атом", что в переводе с греческого означает "нераскалываемый", для описания самой малой частицы вещества. В 1661 году Ирландский химик Роберт Бойл\Robert Boуle опубликовал статью, в которой раскритиковал утверждение Аристотеля, согласно которому все на Земле состоит из четырех элементов - воды, земли, огня и воздуха (философская основа основ тогдашней алхимии, химии и физики). Бойл утверждал, что все состоит из "корпускулов" - сверхмалых деталей, которые в разных сочетаниях образуют различные вещества и предметы. Впоследствии идеи Демокрита и Бойла были приняты научным сообществом.
3. Компьютеры будущего – основные концепты.
Современные компьютеры работают все медленнее, не справляясь с задачами, которые ставит перед ними человек. Ученые уже разрабатывают вероятностные процессоры, молекулярные, биологические, оптические и квантовые компьютеры, которые придут устаревшим машинам на смену.
Главную роль в устройстве компьютера играют электроны. Оседая в ячейках памяти и регистрах процессора, они формируют информацию, с которой работает пользователь. Но скорость электронов конечна и не очень велика. И время, которое необходимо электрону для прохождения по системе, становится решающей преградой в дальнейшем повышении производительности. Выход можно найти либо в уменьшении размеров систем, либо в новом подходе к их устройству. И поскольку бесконечно уменьшать размеры нельзя, в ход идут новые алгоритмы работы и попытки заменить электроны другими частицами.
3.1 Новые алгоритмы для старых электронов
Для задач, связанных с вычислением вероятностей, инженеры американской компании Lyric Semiconductor предлагают использовать процессоры, основанные на принципах байесовской вероятности. Они могут применяться в поисковых системах, системах финансового моделирования и биржевого прогнозирования, обработки биологических и медицинских данных. Такой подход позволяет распределить нагрузку между узлами системы, увеличить производительность и сократить время выполнения поставленных задач.
Принцип распределения нагрузки используют при обработке больших массивов данных. При таком подходе множество компьютеров, связанных между собой, работают как единая система. Например, самый «шустрый» процессор на сегодня имеет пиковую производительность в 24 TFlop/s, в то время как распределенная система научно-исследовательского вычислительного центра МГУ имеет пиковую производительность 420 TFlop/s.
Также для повышения скорости вычислений все больше начинают использовать процессоры видеокарт. Преимущество в скорости графическим процессорам дает архитектура, разработанная именно для вычислительных операций. Используя специальное ПО, можно перенаправить основную вычислительную нагрузку с CPU на GPU.
Тем не менее все ближе тот момент, когда кремниевые процессоры не смогут справляться с поставленными задачами, даже с учетом распределения нагрузок и использования архитектур графических и дополнительных процессоров. Выход может быть найден в концептуально новых системах, не ограниченных скоростью электронов.
3.2 Компьютеры нового тысячелетия
На данный момент активно ведутся разработки молекулярных, оптических и квантовых устройств, а также ДНК-компьютеров. Сложность разработки таких систем заключается в необходимости перестроения всех основных узлов: центрального процессора, элементов памяти, устройств ввода/вывода.
В основе молекулярных компьютеров лежат бистабильные молекулы, которые могут находится в двух устойчивых термодинамических состояниях. Каждое такое состояние характеризуется своими химическими и физическими свойствами. Переводить молекулы из одного состояния в другое можно с помощью света, тепла, химических агентов, электрических и магнитных полей. По сути, эти молекулы являются транзисторами размером в несколько нанометров.
Благодаря малым размерам бистабильных молекул можно увеличить количество элементов на единицу площади. Другим достоинством молекул является малое время отклика, которое составляет порядка 10–15 с. Сами бистабильные переключатели управляются световыми, электрическими импульсами или электрохимическими реакциями. Соединяют функциональные элементы нанотрубки или сопряженные полимеры.
Другой тип компьютеров нового поколения также основан на молекулах, но уже молекулах ДНК. Впервые ДНК–вычисления были проведены в 1994 г. Леонардом Эдлеманом (Leonard Adleman), профессором Университета Южной Калифорнии, для решения задачи коммивояжера. В ДНК–компьютерах роль логических вентилей играют подборки цепочек ДНК, которые образуют друг с другом прочные соединения. Для наблюдения состояния всей системы в последовательность внедрялись флуоресцирующие молекулы. При определенных сочетаниях свечения молекул подавляли друг друга, что соответствовало нулю в двоичной системе. Единице же соответствовало усиленное свечение флюоресцентов. Возможно строить последовательности цепочек, в которых выходной сигнал одной цепочки служит входным сигналом другой.
Главное достоинство такого компьютера – работоспособность внутри тела человека, что дает возможность, например, осуществлять подачу лекарства там, где это необходимо. Также такие компьютеры позволят моментально производить идентификацию заболеваний в организме.
Еще два варианта компьютера будущего – фотонный и квантовый компьютеры. Первый работает на оптических процессах, и все операции в нем выполняются посредством манипуляции оптическим потоком. Преимущества такого компьютера заключаются в свойствах световых потоков.
Скорость их распространения выше, чем у электронов, к тому же взаимодействие световых потоков с нелинейными средами не локализовано, а распределено по всей среде, что дает новые степени свободы (по сравнению с электронными системами) в организации связей и создании параллельных архитектур. Производительность оптического процессора может составлять 1013 – 1015 операций в секунду. На сегодняшний день есть прототипы оптических процессоров, способные выполнять элементарные операции, но полноценных и готовых к производству компьютеров нет.
Квантовый компьютер основан на законах квантовой механики. Для выполнения операций квантовый компьютер использует не биты, а кубиты – квантовые аналоги битов. В отличие от битов, кубиты могут одновременно находится в нескольких состояниях. Такое свойство кубитов позволяет квантовому компьютеру за единицу времени проводить больше вычислений. Область применения квантового компьютера – переборные задачи с большим числом итераций.