Смекни!
smekni.com

Есть ли пределы развития и миниатюризации компьютеров?” (стр. 3 из 5)

1.4 Есть ли у молекулярных компьютеров будущее ?

Хотя теоретические основы молетроники уже достаточно хорошо разработаны и созданы прототипы практически всех элементов логических схем, однако на пути реального построения молекулярного компьютера встают значительные сложности. Внешне очевидная возможность использования отдельных молекул в качестве логических элементов электронных устройств оказывается весьма проблематичной из-за специфических свойств молекулярных систем и требований, предъявляемых к логическим элементам.

В первую очередь логический элемент должен обладать высокой надежностью срабатывания при подаче управляющего воздействия. Если рассматривать оптическую связь между элементами, то в системе одна молекула - один фотон надежность переключения будет невелика из-за относительно малой вероятности перехода молекулы в возбужденное состояние. Можно пытаться преодолеть эту трудность, используя одновременно большое число квантов. Но это противоречит другому важному требованию: КПД преобразования сигнала отдельным элементом должен быть близок к 1, то есть средняя мощность реакции должна быть соизмерима со средней мощностью воздействия. В противном случае при объединении элементов в цепь вероятность их срабатывания будет уменьшаться по мере удаления от начала цепи. Кроме того, элемент должен однозначно переключаться в требуемое состояние и находиться в нем достаточно долго – до следующего воздействия. Для сравнительно простых молекул это требование, как правило, не выполняется : если переходом в возбужденное состояние можно управлять, то обратный переход может происходить спонтанно.

Однако не все так плохо. Использование больших органических молекул или их комплексов позволяет, в принципе, обойти перечисленные трудности. Например, в некоторых белках КПД электронно – оптического преобразования близок к 1. К тому же, для большинства биологических молекул время жизни возбужденного состояния достиает нескольких секунд.

Но даже в том случае, если отдельный молекулярный вычислительный элемент и не будет обладать надежностью своих кремниевых предшественников, эффективной работы будущего компьютера можно достичь, комбинируя принципы молетроники и комбинированных вычислений, применяемых в суперкомпьютерах. Для этого надо заставить несколько молекулярных логических элементов работать параллельно. Тогда неправильное срабатывание одного их них не приведет к заметному сбою в вычислениях. Современный суперкомпьютер, работающий по принципу массивного параллелелизма и имеющий многие сотни процессоров, может сохранить высокую производительность даже в том случае, если 75% из них выйдет из строя. Практически все живые системы используют принцип параллелелизма. Поэтому несовершенство организмов на уровне отдельных клеток или генов не мешает им эффективно функционировать.

Сегодня в мире существует уже более десятка научно-технологических центров, занимающихся разработкой устройств молекулярной электроники. Ежегодно конференции (в 2000 году прошла уже 14 такая конференция) собирают сотни специалистов в этой области. [7]

Большой интерес к молетронике вызван не только перспективами построения компьютера, но и широкими возможностями развития новых технологий. Благодаря высокой чувствительности электронных молекулярных устройств к свету их можно использовать для создания эффективных преобразователей солнечной энергии, моделирования процессов фотосинтеза, разработки нового класса приемников изображения, принцип действия которых будет напоминать работу человеческого глаза. Молекулярные устройства можно использовать также в качестве селективных сенсоров, реагирующих только на определенный тип молекул. Такие сенсоры необходимы в экологии, промышленности, медицине. Сенсор из органических молекул значительно легче вживляется в организм человека с целью контроля за его состоянием.

Для решения стоящих перед молекулярной электроникой проблем нужны усилия широкого круга ученых, работающих в области академических знаний от коллоидной химии и биологии до теоретической физики, а также в области высоких технологий. Кроме того, требуются значительные финансовые вложения.

Глава 2

Квантовые компьютеры – миф или грядущая реальность ?

2.1 История развития теории квантовых

вычислительных устройств

Только к середине 1990-х годов теория квантовых компьютеров и квантовых вычислений (*) утвердилась в качестве новой области науки.[2] Как это часто бывает с великими идеями, сложно выделить первооткрывателя. По-видимому, первым обратил внимание на возможность разработки квантовой логики венгерский математик И. фон Нейман [1]. Однако в то время еще не были созданы не то что квантовые, но и обычные, классические, компьютеры. А с появлением последних основные усилия ученых оказались направлены в первую очередь на поиск и разработку для них новых элементов (транзисторов, а затем и интегральных схем), а не на создание принципиально других вычислительных устройств.

* Теория квантовых компьютеров – одна из современных ветвей квантовой механики и теории квантовых вычислений. Квантовая механика – теория, устанавливающая способ описания и законы движения микрочастиц (элементарных частиц,атомов,молекул,атомных ядер ) и их систем,а также связь величин, характеризующих частицы и системы, c физическими величинами, непосредственно измеряемых в макроскопических опытах. Законы квантовой механики составляют фундамент изучения строения вещества. Они позволили выяснить строение атомов, установить природу химической связи, объяснить периодическую систему элементов, понять строение атомных ядер, изучать свойства элементарных частиц.

Ряд крупнейших технических достижений 20 в. основан на специфических законах квантовой механики, которая, в частности, создала фундамент для такой бурно развивающейся области физики как квантовая электроника и заложила основы для формирования теории квантовых вычислений.

В 1960-е годы американский физик Р.Ландауэр, работавший в корпорации IBM, пытался обратить внимание научного мира на то, что вычисления – это всегда некоторый физический процесс, а значит, невозможно понять пределы наших вычислительных возможностей, не уточнив, какой физической реализации они соответствуют [2].

К сожалению, в то время среди ученых господствовал взгляд на вычисление как на некую абстрактную логическую процедуру, изучать которую следует математикам, а не физикам.

По мере распространения компьютеров ученые, занимавшиеся квантовыми объектами, пришли в выводу о практической невозможности напрямую рассчитать состояние эволюционирующей системы, состоящей всего лишь из нескольких десятков взаимодействующих частиц, например молекулы метана (CH4). Объясняется это тем, что для полного описания сложной системы необходимо держать в памяти компьютера экспоненциально большое (по числу частиц) количество переменных, так называемых квантовых амплитуд. Возникла парадоксальная ситуация : зная уравнение эволюции, зная с достаточной точностью все потенциалы взаимодействия частиц друг с другом и начальное состояние системы,

практически невозможно вычислить ее будущее, даже если система состоит из 30 электронов в потенциальной яме, а в распоряжении имеется суперкомпьютер с оперативной памятью, число битов которой равно числу атомов в видимой области Вселенной (!). И в то же время для исследования динамики такой системы можно просто поставить эксперимент с 30 электронами, поместив их в заданный потенциал и начальное состояние. На это, в частности, обратил внимание русский математик Ю.И.Манин, указавший в 1980 году на необходимость разработки теории квантовых вычислительных устройств.[1] В 1980-е годы эту же проблему изучал американский физик П.Бенев, явно показавший, что квантовая система может производить вычисления, а также английский ученый Д.Дойч, теоретически разработавший универсальный квантовый компьютер, превосходящий классический аналог. [1]

Большое внимание к проблеме разработки квантовых компьютеров привлек лауреат Нобелевской премии по физике Р.Фейнман. Благодаря его авторитетному призыву число специалистов, обративших внимание на квантовые вычисления, увеличилось во много раз.

И все же долгое время оставалось неясным, можно ли использовать гипотетическую вычислительную мощь квантового компьютера для ускорения решения практических задач. Но вот в 1994 году американский математик, сотрудник фирмы Lucent Technologies (США) П.Шор ошеломил научный мир, предложив квантовый алгоритм, позволяющий проводить быструю факторизацию больших чисел. По сравнению с лучшим из известных на сегодняшний день классических методов квантовый алгоритм Шора дает многократное ускорение вычислений, причем, чем длиннее факторизуемое число, тем значительней выигрыш в скорости. Алгоритм быстрой факторизации представляет огромный практический интерес для различных спецслужб, накопивших банки нерасшифрованных сообщений.

В 1996 году коллега Шора по работе в Lucent Technologies Л.Гровер предложил квантовый алгоритм быстрого поиска в неупорядоченной базе данных. (Пример такой базы данных – телефонная книга, в которой фамилии абонентов расположены не по алфавиту, а произвольным образом.) Задача поиска, выбора оптимального элемента среди многочисленных вариантов очень часто встречается в экономических, военных, инженерных задачах, в компьютерных играх. Алгоритм Гровера позволяет не только ускорить процесс поиска, но и увеличить примерно в два раза число параметров, учитываемых при выборе оптимума. Реальному созданию квантовых компьютеров препятствовала, по существу, единственная серьезная проблема – ошибки, или помехи. Дело в том, что один и тот же уровень помех гораздо интенсивнее портит процесс квантовых вычислений, чем классических. Пути решения этой проблемы наметил в 1995 году П.Шор, разработав схему кодирования квантовых состояний и коррекций в них ошибок.