Опубликован: 03.04.2013 | Доступ: свободный | Студентов: 354 / 30 | Длительность: 34:17:00
Специальности: Разработчик аппаратуры
Лекция 1:

Введение

Лекция 1: 12 || Лекция 2 >

Термин "технология" традиционно ассоциируется с операционной картой, регламентирующей действия персонала с оборудованием и оснасткой в процессе производства материальных продуктов. Словосочетание "информационные технологии" указывает на то, что объектом производства является нематериальный продукт, "карта" которого ограничена тремя типами операций: хранение, передача и преобразование информации, включая ее кодирование. Поэтому вторая специфическая особенность информационных технологий состоит в том, что в них "информация" выступает и как исходное сырье, и как конечный продукт. В результате в информационных технологиях весьма спорными остаются ответы на вопросы о качестве и количестве "произведенного продукта", что требует привлечения не только алгоритмических, вероятностных ил и статистических, но и семантических и/или прагматических методов и средств оценки.

Тем не менее, термин " информационные технологии " прочно укрепился в науке и обществе, и к нему прибегают, когда требуется описать хранение, передачу и преобразование информации и используемые при этом вычислительные ресурсы ЭВМ: память, операционные, интерфейсные, адресные, коммутационные и управляющие устройства.

В научных и прикладных разработках информационных технологий можно выделить два взаимно обусловленных направления, одно из которых занимается созданием аппаратных средств и инструментальных платформ их использования, а другое - собственно применением вычислительной техники в конкретных прикладных областях деятельности человека. На начальном этапе развития кибернетики и вычислительной техники доминировало первое направление исследований, но уже с середины 80-х годов прошлого столетия вопросы информационных технологий "собственных нужд" стали уделом "элитарного круга" специалистов высокоразвитых стран. Этот круг был очерчен во многом благодаря успехам кремниевой компиляции, которые привели к повышению качества сквозного, "однопроходного", бездефектного проектирования СБИС и, как следствие, к сокращению сроков разработки и повышению процента выхода годных устройств, что резко удешевило радиоэлектронную и вычислительную аппаратуру, сделав ее массово доступ ной.

Однако невиданная по масштабам коммерциализация информационных технологий не обошлась без жертв и уже к середине 90-х годов прошлого столетия привела к гипертрофированному дисбалансу между аппаратно-временными затратами, расходуемыми на системные и пользовательские функции. В результате системные функции, связанные с управлением вычислительными ресурсами непосредственно во время вычис-

лений, и особенно так называемый "дружественный интерфейс" стали основными "пожирателями" этих же ресурсов. В таких условиях оказались несостоятельными устоявшиеся оценки эффективности работы вычислительной техники, прямо или контекстно учитывающие некоторый коэффициент полезного действия.

Ситуация в этой области еще больше усложнилась, когда в тот же период времени были развернуты широкомасштабные прикладные исследования элементной базы нанометрового и супрамолекулярного диапазона, где на первое место вышли вопросы сохранения условий правильной работы (когерентности) на интервалах времени и в диапазонах изменения внешних условий, сопоставимых с возможностями современной (суб) микронной элементной базы.

При этом задним числом обратили внимание на тот факт, что при переходе от "навесной" электроники к интегральной микроэлектронике перераспределились функции в "иерархии" разработчиков средств вычислительной техники, что неминуемо привело к изменению показателей оценки качества создаваемых изделий. Действительно, в "навесной" электронике состав элементной базы, узлов и блоков диктовался разработчиками ЭВМ, а схема считалась тем лучше, чем меньше в ней активных элементов. В микроэлектронике состав блоков и устройств процессора стал определяться разработчиком СБИС, а лучшей стала считаться схема, которая занимает меньшую площадь и по максимуму использует "короткие" однородные связи. В итоге все без исключения производители микропроцессоров безоговорочно стали использовать внутренние микроконвейеры, а в процессоры RISC-архитектуры стали включать только те операционные блоки, а с ними и ассемблерные инструкции, которые удовлетворяют условиям эффекти вной микроэлектронной реализации.

Одновременно с переходом к микроэлектронным изделиям ультрабольшой (свыше 1 млн. транзисторов) степени интеграции даже в массово доступных процессорах развернулась борьба за повышение не только тактовой частоты, но и функциональной насыщенности каждого такта за счет векторно-конвейерного распараллеливания вычислений как на одном кристалле, так и в вычислительной системе в целом.

До этого методы и средства распараллеливания вычислений исследовались и использовались в рамках вычислительных систем, ориентированных на решение задач с " критическими " требованиями к производительности, пропускной способности, точности и отказоустойчивости, которые не менее чем на порядок превосходили физические возможности аппаратуры. Такие задачи ставились и решались в основном разработчиками систем управления в реальном времени локальными и глобальными военными комплексами, объектами атомной энергетики, опасными химическими и биологическими производствами и т. п.

Военно-политическая составляющая таких задач объективно возлагала на военные бюджеты высокоразвитых стран консолидирующую роль в создании и продвижении на рынок новых информационных технологий и программно-аппаратных платформ их поддержки. Наиболее четко эта тенденция проявилась в США и СССР как главных участниках гонки вооружений. Показательно, что "кремниевая долина" США вышла на самоокупаемость только в начале 90-х годов прошлого столетия, а в основе ее технического перевооружения даже в субмикронной области по-прежнему лежат миллиардные военные контракты.

СССР в силу целого ряда объективных и субъективных причин отставал по технологическому уровню микроэлектронного производства от США. Поэтому в развитии информационных технологий "собственных нужд" он вынужден был делать основную ставку на распараллеливание вычислений, которое невозможно было реализовать без глубоких знаний предметной области, а значит, и без теснейшего взаимодействия с информационными технологиями, отработанными специалистами предметной области.

В итоге такого взаимодействия к середине 80-х годов прошлого столетия у нас в стране сформировалась бит-потоковая вычислительная технология сквозного системного проектирования проблемно- и алгоритмически ориентированных субпроцессорных трактов, в рамках которой:

  • комплексно решались все вопросы от выбора физико-технических процессов работы элементной базы и до потоковых алгоритмов обработки данных;
  • разработчик прикладных задач получил доступ к микрокомандному уровню управления (сверх)большим коллективом элементарных вычислителей, что обеспечило достижение предельно возможных (по алгоритму и аппаратуре) коэффициентов векторно-конвейерного распараллеливания и требуемой для этого пропускной способности по потокам данных;
  • заданные показатели отказоустойчивости аппаратуры оказались достижимы при некратном ее резервировании, а негативное влияние распараллеливания вычислений на вычислительную устойчивость алгоритмов компенсировалось высокой адаптивностью разрядной сетки при обработке и передаче промежуточных данных. Теоретическую базу данной технологии составили работы по однородным вычислительным средам и структурам наших отечественных ученых Э.В. Евреинова, Ю.Т. Косарева, А.В. Каляева, И.В. Прангишвили и ряда других авторов, которые своими исследованиями предопределили необходимость объединения в одной вычислительной технологии сверхмассового микрокомандного параллелизма с потоковой и ассоциативной организацией вычислений. В связи с распадом СССР данная технология

не получила широкого распространения даже у нас в стране, но обнародованные результаты натурных исследований успели остудить горячие головы по обе стороны "железного занавеса", которые рвались к развертыванию ударных космических группировок, запланированному не по нашей инициативе на 1995 год.

Стратегический характер данной разработки, а также реальные ограничения на все виды материальных, финансовых, интеллектуальных и других видов ресурсов вынудили проводить ее с учетом 40-летнего прогноза развития электроники и вычислительной техники. Простейший линейный прогноз с экспертным замедлением темпов снижения топологических норм микроэлектроники показал, что к 2015-2020 годам микроминиатюризация может достичь своих физических пределов. В результате процессы производства и функционирования элементной базы должны были оказаться в прямой зависимости от законов квантовой механики. Поэтому базовые положения и программные инструментальные платформы бит-потоковой технологии с микрокомандным уровнем доступа разрабатывались с учетом выхода аппаратных платформ на уровень прямых квантовых взаимодействий.

Прогноз оказался достаточно удачным, и человечество действительно стоит на рубеже освоения нанотехнологий, способных кардинально изменить его взаимоотношения с внешней средой и внутри себя. Учитывая реальность такой перспективы, авторы работы поставили перед собой задачу передать следующему поколению информационных технологов "собственных нужд" достигнутые в области бит-потоковых технологий результаты, сопоставив их с достижениями в других направлениях развития вычислительной техники.

Одним из адресатов книги является менеджерский корпус, от успешной работы которого зависит качество однопроходного, бездефектного, сквозного системного проектирования и запуска информационной технологии "собственных нужд". Управляемость такой разработки, а с ней и успех возглавляемого менеджерами проекта "собственных нужд" определяется уровнем их собственных знаний "болевых" точек и законов их взаимодействия в рамках создаваемой технологии.

Сами "болевые" точки и особенно закономерности их взаимодействия наиболее четко проявляются при решении "критических" задач предметной области, удовлетворение требований которых вынуждает ставить во главу угла всего проекта забытую уже оценку соотношения между аппаратно-временными затратами, расходуемыми на реализацию функций пользователя и функций управления системой. В силу этих причин основу предметной области составили задачи аэрокосмических систем двойного назначения, от решения которых по объективным причинам невозможно отказаться ни в военном, ни в гражданском применении,

несмотря на запредельные и противоречивые требования, одновременно предъявляемые ими к производительности, точности и отказоустойчивости поддерживающих их вычислительных систем.

В "лекции 1" показан междисциплинарный характер всех без исключения компьютерных проектов, начиная с работ основоположников кибернетики и вычислительной техники в лице Н. Винера и Дж. фон Неймана, которые интегрировали достижения науки и техники того периода в таких областях, как (нейро)физиология и психология, статистическая физика и фундаментальная математика, электротехника, техника связи, радиотехника и т. д. Показано, что междисциплинарный характер современных компьютерных проектов только усилился. Это наиболее четко проявляется при создании современных аэрокосмических летательных аппаратов, которые представляют собой сложные технотронные комплексы, - их эксплуатация и (боевое) применение в принципе невозможны без использования компьютерных технологий. Благодаря этой особенности именно в авиационно-космическом приборостроении США зародилась и продолжает развиваться проектная технология прототипирования, в рамках которой информационная технология "собственных нужд" адаптируется под требования технологии управления и эксплуатации создаваемого летательного аппарата, который по объективным причинам необходимо рассматривать как открытую систему. Открытость авиационно-космической техники проявляется в том, что за "время жизни" (порядка 10-20 лет) ее бортовое оборудование постоянно модифицируется как по составу, так и по показателям качества. Главная опасность такой модификации состоит в том, что на таком интервале времени может измениться не одно поколение разработчиков. В результате может потеряться "системотехнический контекст" всего проекта, так как согласно Дж. фон Нейману "…сложную систему проще сделать, чем описать…". Потеря такого контекста чревата возникновением конфликт-индуцированных ситуаций как между операторами технотронных комплексов, так и между оборудованием и оператором, что грозит потерей контроля над управляемыми объектами и процессами. Потенциальные источники таких опасностей показаны в разделе 1.3 и должны учитываться разработчиками технотронных комплексов как на этапе их создания, так и на этапах модификации. Опыт консолидации финансовых, экономических, интеллектуальных и технических ресурсов общества для решения задач прорывных научных исследований проанализирован в разделе 1.4 на примере американской программы, получившей название СОИ, и на примере японской программы ERATO, ориентированной на формирование менеджерского корпуса для прорывных научных и технологических проектов XXI века. В завершение лекции показана взаимосвязь

между комплексом интенсивных и экстенсивных физико-технических, схемо- и системотехнических факторов, определяющих развитие средств вычислительной техники.

В "лекции 2" раскрыт эволюционный характер становления технологии прототипирования при создании боевых летательных аппаратов F-22 и F 35, что, в частности, подтверждает консолидирующее влияние военного бюджета в прорывных проектных технологиях, которые невозможно реализовать только силами даже таких мощных корпораций как Boeing, McDonnell Douglas, Lockheed, Martin Marietta и т. д.

Необходимость освоения технологии прототипирования вызвана тем фактом, что развитие бортового электронного оборудования (БЭО) авиации США ориентировано на переход от прямого к директивному, а впоследствии и к декларативному управлению сложными технотронными комплексами, в рамках которого пилот задает только цели и режимы функционирования бортовых систем и всего летательного аппарата (ЛА). В таких условиях реализация поставленных целей и оптимизация режимов работы систем ЛА полностью возлагается на его бортовую вычислительную систему (БВС), которая и призвана решить "критические" задачи управления, вплоть до непрерывной оценки технического состояния ЛА и всего БЭО с использованием методов и средств искусственного интеллекта. Стратегический характер задач технологии прототипирования проявляется в стремлении высокоразвитых стран к завоеванию "экономического господства в воздухе", которое неминуемо должно привести к мировому распределению труда, а с ним и доходов от производства и эксплуатации ЛА, стоимостные характеристики которых уже сейчас приближаются к миллиарду долларов на 1 самолет. Механизм реализации этой стратегии закладывается в процедуры и нормы сертификации ЛА и их БЭО, которые лоббируются через международную организацию гражданской авиации ICAO и которые кардинальным образом перераспределяют задачи обеспечения безопасности полетов между наземными и бортовыми комплексами в пользу последних (стратегия автономизации всех функций управления ЛА). В рамках такой стратегии получает мощный импульс развития беспилотная авиация (в основном военного назначения), которая призвана снизить собственные потери живой силы в локальных военных конфликтах со слаборазвитыми в техническом и экономическом отношениях странами. Показано также, что даже такая технологически развитая страна как США не способна удовлетворить требования "критических" задач управления ЛА на основе одной аппаратной платфор мы. Поэтому в БВС ЛА 5-го поколения планируется использовать RISC -процессоры, цифровые процессоры обработки сигналов и FPGA- матрицы, из которых только последние ориентированы на решение "критических" задач управления ЛА, связанных с обработкой

в реальном времени изображений и поддержкой механизмов "виртуальной реальности". ( FPGA- матрица - это Field Programmable Gate Array, или программируемая пользователем вентильная матрица). В итоге можно утверждать, что целевая функция построения и работы БВС за последние 25-30 лет фактически не изменилась и разработчики по-прежнему ориентированы на создание открытых, многоуровневых, неоднородных, распределенных, (сверх)параллельных, защищенных от несанкционированного доступа БВС повышенной живучести.

В "лекции 3" показана общность традиционных компьютерных технологий, в основе которых лежит теория алгоритмов и машины Тьюринга, с нейрокомпьютерными технологиями, для реализации которых достаточно "нечисленного" операционного базиса в виде "ассоциативной выборки" и "подстановки" (замещения) символов. При этом первичность нейроком-пьютерных технологий по отношению к компьютерным предопределяет сама логика формализации: от эмпирической таблицы к аналитическому или алгоритмическому представлению. Поэтому разница между компьютерными и нейрокомпьютерными технологиями в конечном счете состоит в уровне доступности пользователя к операционному базису. В ней-рокомпьютерных технологиях пользователю доступны "элементарные операции" сетевого уровня управления. В традиционных вычислительных технологиях уровень "элементарных операций" (микрокоманд) доступен только производителю процессора - он формирует ассемблерные команды, которые для разработчика прикладных программ уже являются "неделимой единицей проекта" и поддерживаются практически независимыми микроэлектронными аппаратными блоками.

В итоге в нейрокомпьютерных технологиях любое задание можно представить тривиальной таблицей соответствия между входными воздействиями и требуемыми реакциями. В традиционных вычислительных технологиях требуется не только формализованное представление задания, но и алгоритм, регламентирующий последовательность выполнения ассемблерных команд. Показано также, что фундаментальной основой экстенсиональной эквивалентности традиционных и нейроподобных ЭВМ служит сводимость вычислительных по Тьюрингу процедур к перечислимым по Тьюрингу процедурам, первые из которых составляют операционный базис ЭВМ одной из традиционных архитектур, а вторые - одной из нейрокомпьютерных архитектур. Поэтому имеются достаточные и формально доказанные основания утверждать, что любой нейро-ЭВМ можно поставить в соответствие классическую ЭВМ, эквивалентную по вычисляемой функции, и наоборот. ( Экстенсиональная эквивалентность означает эквивалентность по конечному эффекту, а не по процедуре его достижения.) Отталкиваясь от результатов А.Н. Колмогорова в области

алгоритмической меры информации, показано, что оценку алгоритмической сложности реальных (нейро)компьютерных реализаций можно провести только с определенной погрешностью и при достаточно жестких ограничениях на используемые вычислительные и/или перечислительные алгоритмы, что характерно для алгоритмически ориентированных областей применения традиционных вычислителей и "дочерних" нейро-ЭВМ, а не для машин общего назначения.

Лекция 1: 12 || Лекция 2 >