Прогнозируемый выход в 2010-2015 гг. элементной базы вычислительной техники в нанометровый диапазон ставит две взаимозависимые и принципиально новые научно-технические задачи:
В исследованиях нанометровой "элементной базы" можно выделить четыре основных направления (рис. 7.1):
Первые два направления исследований ориентированы на булево представление решаемой задачи, а два других направления - на операторное ее представление.
Современные интегрированные инструментальные платформы, ядро которых сосредоточено в кремниевых компиляторах, способны сохранить свой облик только в SET -электронике [92], где основные изменения должны произойти в технологическом, контрольно-измерительном и испытательном оборудовании, которое слабо влияет на формально-логические, системо- и схемотехнические принципы и методы декомпозиции решаемых задач до их булева представления, хотя гиперрост размерности самих задач декомпозиции и эволюция "системы ценностей" должны отразиться на алгоритмах, критериях и ограничениях оптимальной декомпозиции.
В идеале квантовые и супрамолекулярные ( СМК ) компьютеры по принципам работы можно отнести к изделиям функциональной электроники, где задачи пользователя можно решить в операционном базисе физико-технических и/или (био)молекулярных процессов, которые не вырождены до переключательных функций. Поэтому в таких компьютерах задачи пользователя в конечном счете можно представить в базисе функций Шредингера, но в СМК они интегрированы в операционный базис (био)макромолекул, которые, в частности, можно использовать и как SET- электронные изделия [92].
В результате программные инструментальные платформы КК и СМК окажутся необходимыми только для того, чтобы разложить решаемую задачу до операторов языка высокого уровня. Прямая аппаратная реализация таких операторов выполняется фиксированными (что более характерно для КК ) или адаптивными (что более характерно для СМК ) пространственно-временными квантовыми структурами, служащими "рабочим телом" нанометровых вычислителей, воспроизводимым методами и средствами инструктированного синтеза или самоорганизации [176].
Тем не менее, современные исследования в области КК и СМК [94] в основном сконцентрированы на аппаратной поддержке булевых представлений решаемой задачи [177, 178]. Это можно объяснить тем, что авторами КК являлись физики, которые не вмешивались в прерогативы специалистов по вычислительной технике и поэтому оставили неизменными принципы и методы работы классических ЭВМ. Однако это не упростило решение кардинальной для КК проблемы декогерентизации [94], конечное время которой приводит к необходимости восстановления условий правильной работы КК либо за счет регенерации его "рабочего тела", либо за счет создания условий релаксации "рабочего тела" в исходное базисное состояние.
В результате операционные устройства КК и СМК имеют ограниченное время жизни, что вынуждает использовать в них базовый для МКМД-
бит-потоковых технологий [138] принцип "один поток-оператор - один поток-процессор". Разнятся КК и СМК тем, что глобальное управление CМК относительно проще осуществить методами структурной адаптации макромолекул [101, 130], что автоматически приводит к совмещению по времени и пространству процессов их "конструирования", "производства" и эксплуатации, так как текущую пространственно-временную и функциональную структуру таких вычислителей можно определить и реализовать только после инициализации соответствующего поток-оператора решаемой задачи, то есть в режиме интерпретации программ пользователя. КК ориентированы на традиционные методы параметрической адаптации "рабочего тела", функции которого изменяются под воздействием управл яющих сигналов, как правило, отличных по физической модальности от информационных сигналов.
Третье направление исследований в области создания перспективной элементной базы и компьютеров на их основе относится к наноэлек-тронике [95], которое является прямым наследником микроэлектронных приборов, которые приблизились к естественному физико-техническому пределу принципов и методов их создания и работы. Увеличение уровня микроминиатюризации современных полупроводниковых приборов ограничено следующими основными факторами: разрешающей способностью устройств литографии, с помощью которых осуществляется инструктированный синтез гетерогенных полупроводниковых структур, и законами квантовой механики, которым подчинено взаимодействие элементарных частиц в нанометровом диапазоне.
К началу 90-х годов темп снижения линейных топологических размеров вырос в 2 раза и достиг 10-кратного уменьшения в течение 5 лет (см. табл. 1.3). При сохранении этой тенденции, для чего на Западе имеются достаточные физико-технические и технологические предпосылки, теоретический предел (2x10-4 мкм) рентгенолитографии будет достигнут уже к 2025 г. Технический предел такой литографии (5x10-2 мкм), согласно данным японской организации ASET (Advanced Semiconductor Equipment Technology), будет достигнут в 2010 г. (см. табл. 1.4). В результате промышленно освоенная элементная база вычислительной техники перейдет в нанометровую область.
В современной классификации [95] к наночастицам относят образования из связанных атомов или молекул с размером < 100 нм (1 нм = 10-9 м = 10 Е). С формальных физических позиций кластер радиусом 1 нм содержит примерно 25 атомов, большинство из которых находится на поверхности кластера. Молекулы содержат более 25 атомов, особенно это относится к биополимерам, где достаточно простые молекулы включают порядка 100 атомов. Тем не менее, между нано- и супрамолекулярной электроникой нет четкой границы. Здесь важны используемые свойства
физических процессов, которые определяются некоторым критическим расстоянием или критической длиной, например тепловой диффузии или рассеяния. Такие расстояния называют средней длиной свободного пробега или характерной длиной рассеяния, и большинство физических свойств определяется соотношением размеров используемых частиц и критических расстояний, определяемых условиями и "конструкцией среды" взаимодействия этих частиц. Отсюда, наночастицей можно считать (рис. 7.2) любой агрегат атомов с размерами от 1 до 100 нм, составляющий часть объемного материала, но с размерами меньше некоторой характерной длины, от которой зависят используемые физико-химические свойства.
В каждом из рассмотренных диапазонов физические процессы имеют свои специфические особенности, но объединяет их одно - взаимодействие между такими структурами осуществляется по законам квантовой механики, где любое полимодальное взаимодействие, включая и синтез самой структуры, изменяет состояние всех компонент системы. При этом и составляющие "элементарные структуры", и созданные на их основе законченные изделия представляют собой случайные динамические системы, состояние которых постоянно изменяется и в пространстве и во времени.
Квантовые эффекты в нанометровом диапазоне (туннелирование тока через диэлектрики толщиной порядка единиц нанометров, высокое паразитное сопротивление истока и стока и т. п.) таковы, что, по оценкам специалистов фирмы IBM, критическим размером для традиционных полупроводниковых вентилей можно считать 20-50 нм. Промышленных технологий такого уровня пока нет, но маршрутная карта SIA, которой следует вся полупроводниковая промышленность США, должна была вступить в силу в 2002-2003 гг., а начало производства по такой технологии должно быть развернуто в 2005-2008 гг. [179].
Таким образом, ожидается, что к 2010 году и по физическим принципам работы, и по технологическим принципам изготовления традиционная твердотельная микроэлектроника исчерпает свои ресурсы практически одновременно.
В силу этих обстоятельств США и страны НАТО развернули широкомасштабные и имеющие четко выраженный прикладной характер исследования в следующих направлениях:
Масштабы этих исследований можно оценить на примере Германии, которая не является мировым лидером в области электроники. Тем не менее в ней уже сформирована сеть нанотехнологических центров с годовым бюджетом 90 млн. долл., которые призваны поддержать конкурентоспособность Германии на мировом уровне в этой динамично развивающейся области, причем одна из основных функций центров - консультации правительства по вопросам нанотехнологий.
Кроме этого, необходимо учитывать:
В итоге следует ожидать, что ежегодное финансирование с 2004 г. нанотехнологий в Германии составляет порядка 500-1000 млн. долл. и это притом, что страна уже владеет промышленно освоенным микроэлектронным производством в субмикронном диапазоне.
В каждый центр входит по 25-100 групп представителей университетов, исследовательских центров и промышленности, которые перекрывают следующие направления исследований: ультратонкие функциональные слои (Дрезден), приложение наноструктур в оптоэлектронике (Берлин), латеральные наноструктуры (Аахен), химическая функционализация наноструктур, в частности прививка функциональных групп (Тюбинген), сверхпрецизионные измерения на поверхности (Брауншвейг), методы анализа наноструктур (Мюнхен).
К сказанному следует добавить, что НАТО еще в 1994 г. было озабочено гигантской скоростью накопления фундаментальных знаний в области наноструктур при низкой эффективности приложений. В итоге было выработано решение об отработке производственного процесса для мас-
сового изготовления наноприборов на основе сканирующих туннельных микроскопов (СТМ), обеспечивающих поточную, а не поштучную обработку, как это имело место в оптической литографии и что было потеряно в электроннолучевой литографии.
При этом все исследования в области наноприборов и кластеров были сгруппированы по двум направлениям: "сверху-вниз" и "снизу-вверх". В первом случае основная ставка делается на возможности зондо-вой микроскопии, обеспечивающей создание одноэлектронных транзисторов и схем, разрабатываемых по технологии кремниевой компиляции. Во втором случае главная ставка делается на жидкофазный синтез органических сверхмолекул и полупроводниковых наноструктур на основе процессов самоорганизации молекул.
Для сравнения, в бюджете США на 2001 г. [181] сформирована новая программа "Нанотехнологическая инициатива ( NNI )", на которую предусмотрено было затратить 497 млн. долл., что на 227 млн. долл. превышает госзатраты на нанотехнику в 2000 г. В рамках NNI представлены следующие направления исследований:
Включение в программу отработки и развития правовых, социальных и этических вопросов говорит о том, что нанотехнологии в США планируется широко использовать в генной инженерии и в инструктированном синтезе материалов с заранее заданными физико-химическими и молекулярно-биологическими свойствами, способными оказать решающее влияние на дальнейшую эволюцию человечества.
Современные прикладные исследования в области наноэлектронных транзисторов сконцентрированы на создании (рис. 7.3 [182]) полевых транзисторов, резонансно-туннельных диодов и транзисторов, одноэлектронных транзисторов и транзисторов на основе квантовой интерференции электронов.
В большинстве этих исследований сохраняется традиционный подход к синтезу схем из булевых вентилей. Поэтому основные усилия исследователей направлены на преодоление ограничений законов квантовой механики нанометрового диапазона. В первую очередь это относится:
В результате практически вся современная наноэлектроника остается низкотемпературной ( \[ Т \approx1,8\,К \] ), быстродействие находится на уровне десятков миллисекунд или единиц секунд, а их надежное срабатывание обеспечивается потоком не менее чем 100-150 электронов.
Для сравнения, К.К. Лихарев [180] совместно с State University of New York получил устойчиво работающий делитель частоты с \[ f = 750\, ГГц \] при рассеиваемой мощности 10 мкВт ( \[ Т = 1,8\, К \] ). На одном чипе реализовано 8 делителей, каждый из которых содержит 68 джозефсоновских переходов с площадью 0,25 мкм2 и толщиной электрода ~150 нм. Из приведенных данных видно, что переход в SET- электронику снизит линейные размеры элементов в 102-103 раз, а тактовую частоту работы в 106-108 раз, в то время как в традиционной электронике снижение линейных размеров элементной базы всегда приводило к росту тактовой частоты.
Последовательным сторонником самосборки молекулярного уровня является фирма IBM Research [183], которая исходит из того, что биоэлектроника позволит создать материалы и приборы XXI века. В частности, Zurich Lab. (Швейцарский центр IBM) занимается выращиванием легко связываемых молекул с \[ d \approx 1,5\,нм \] на основе сканирующего туннельного
микроскопа (СТМ) фирмы Watson Res. Center (США), который работает на 1,6 нм углеродных нанотрубках с изменяемой формой и ориентацией. Физическая основа процесса - это самосборка в микроскопических магнитных средах, которые можно уже использовать для хранения информации (достижимая плотность записи - 80 Гбит/см2).
Для сравнения, отечественный нанотехнологический комплекс [184] НК-100-1В на основе СТМ (Институт нанотехнологий международного фонда конверсии) обеспечивал разрешающую способность вплоть до атомарной с диапазоном сканирования от десятков ангстрем до 30 мкм.
Изделия наноэлектроники, КК и СМК объединяет полимодальный характер взаимодействий составляющих элементов по принципу "каждый с каждым". В таких условиях приходится не столько создавать, сколько использовать закономерности микромира, с тем чтобы избирательно усиливать функционально важные и блокировать (купировать) паразитные взаимодействия, которые уже существуют в квантовом "рабочем теле". Полимодальный характер только электромагнитных взаимодействий иллюстрирует рис. 7.4 [182], из которого видно, что в наноэлектронике даже внутренние "короткие" и "длинные" связи между компонентами системы осуществляются на разных физических принципах, начиная от туннельных взаимодействий (в области 1-2 нм) и заканчивая электромагнитными волнами (10-20 мкм). Такие полимодальные физико-технические эффекты необходимо использовать как в системе пр ямого функционального взаимодействия нанокластеров, кубитов КК или атомов и молекул СМК, так и в системе контроля и диагностики их состояния. Под кубитом понимается [94] двухуровневый квантовый элемент ( quantum bit ).
Одна из центральных и еще не решенных системотехнических проблем создания компьютеров нанометрового диапазона состоит в том, что их операционное ядро функционирует по законам квантовой механики, где диссипация энергии приводит к потере когерентности и, как следствие, к неправильной работе квантового "рабочего тела". При этом входные и выходные интерфейсы таких компьютеров должны функционировать по законам классической физики, где доставка, распределение и рассеяние энергии в пространстве представляют собой естественную схемотехническую и конструктивно-технологическую задачу. Поэтому нанометровые и супрамолекулярные изделия являются зеркально симметричными по отношению к традиционным изделиям опто- и микроэлектроники в том смысле, что продолжительное функционирование в них возможно только за счет перераспределения в пространстве и во времени энергии, в то время как в опто- и микроэлектронике любой переходный процесс сопровождается расходом энергии. Более того, в нанометровом диапазоне для организации правильной работы необходимо не только создать условия для реализации переходных процессов, но и избирательно подавить "тиранию" квантовых полимодальных связей (взаимодействий), и сделать это необходимо без выделения тепла, которое непрогнозируемым образом изменяет состояние всей квантовой системы.
МКМД-бит-потоковые вычислительные технологии вносят системотехнический вклад в решение проблемы подавления внутренних паразитных полимодальных взаимодействий, так как в FIFO- регистровых каналах передача информации осуществляется по принципу "близко-действия". В этом случае допускается использование только одного типа взаимодействия, например туннелирования, которое можно купировать
в пространстве, и распространение информации осуществлять передачей возмущения от одной локальной материальной гетероструктуры к другой.
Кроме проблемы создания устойчивых квантовых структур, реализующих с вероятностью "единица" требуемые и изменяемые во времени вычислительные функции, необходимо решить проблему интерфейсов с внешней средой, то есть проблему устойчивого перехода от макро- к микросистемам и обратно, причем в широком диапазоне отображений и внешних воздействующих факторов.
Другая достаточно сложная системотехническая проблема, которую предстоит решить при создании вычислителей нанометрового диапазона, вызвана тем, что переход на атомарные или супрамолекулярные структуры пока сопровождается катастрофическим падением быстродействия. Компьютеры нанометрового диапазона способны достичь быстродействия свыше 100 ГГц [92], но пока оно находится на уровне единиц Гц [185] в SET- электронике и десятков Гц в КК [186]. В то же время темпы роста требуемой производительности составляют 3-4 порядка за 10 лет, что вынуждает на начальном этапе становления нанометровых вычислителей добиваться гипервысоких коэффициентов распараллеливания вычислений, чтобы такие вычислители смогли составить конкуренцию субмикронным компьютерам. В частности, уже сейчас актуальны задачи, требующие производительности \[ \approx \] 1015-1016 операций/с [89], для достижения которой средствами современной твердотельной электроники с быстродействием порядка 750 ГГц на вентиль [180] необходимы гипербольшие коэффициенты распараллеливания ( \[ \approx \] 106).
В алгоритмически ориентированных опто- и микроэлектронных систолических [70] и бит-матричных [139] вычислительных структурах с микронными топологическими нормами оказался достижим только сверхвысокий коэффициент распараллеливания вычислений (порядка 103-105), причем не за счет эффективных процедур параллельной компиляции программ, а за счет (полу)прямого отображения на специфические аппаратные средства алгоритмов решения задач с явно выраженным параллелизмом на бит-, слов- и поток-процессорном уровнях векторно-конвейерной организации вычислений.
Наиболее остро проблема гиперпараллельной компиляции (свыше 106 активных операционных устройств, реализующих, вообще говоря, различные инструкции программы) встанет в SET- электронных компьютерах, так как в КК и в СМК в одном цикле работы потенциально можно реализовать достаточно "сложную" вычислительную функцию, требующую в фон-неймановском (скалярном) эквиваленте до 106-1010 различных операций. Поэтому и в SET- электронике более эффективными могут оказаться не методы традиционной компиляции, "подстраивающие" требуемый операционный ресурс под возможности существующего и строго
фиксированного, а методы (полу)прямого отображения алгоритмов на гипербольшие коллективы относительно примитивных вычислителей, где информационное взаимодействие подчинено принципу "близкодействия" [187], а существующий однородный аппаратный ресурс "перемещаем" как между устройствами разного функционального назначения, так и между активно используемым и резервным, что приводит к качественно новым методам парирования отказов [188], используемым в рамках МКМД-бит-потоковых вычислительных технологий.
Однако как показал опыт проектирования и использования бит-потоковых субпроцессоров [138, 139], системные аппаратно-временные издержки на динамичное (полу)прямое отображение алгоритмов на аппаратуру окупаются только при потоковой организации вычислений, где инициализируемой единицей служат не отдельные инструкции и операнды, а потоки инструкций и данных. Поэтому для скалярных SET- электронных компьютеров проблема гиперпараллельной компиляции сохраняет свою актуальность.
Рассмотренные методы "погружения" решаемых задач до уровня аппаратной или физико-технической реализации объединяет то, что они исходят из аналитической формы представления задачи пользователя, получение которой требует фундаментальных дорогостоящих и продолжительных исследований предметной области. В результате темпы развития алгоритмического и программного обеспечения современных компьютеров отстают на 3-6 порядков от темпов роста функциональной интеграции их элементной базы [189].
Поэтому кроме развития инструментальных средств экспериментальных и модельных исследований предметной области, а также интеллектуальных оболочек, формирующих алгоритмические и программные модели, необходимо развивать нейрокомпьютерные технологии [87-89, 179, 190]. В этих технологиях предметную область можно представить обучающей (табличной, экспериментальной или модельной) выборкой и на ее основе синтезировать нейросеть, решающую задачу пользователя в "произвольном" операционном базисе, реализуемом элементной базой нанометрового диапазона [88]. Это вынуждает определить сходства и отличия традиционной опто- и микроэлектронной схемо- и системотехники от нанометровой и на этой основе сформулировать формальнологические и системные требования к нейрокомпиляторам перспективных (нейро)вычислителей.
Из приведенных данных можно заключить:
Компенсировать отсталость технологического оборудования можно: