Опубликован: 29.10.2019 | Доступ: свободный | Студентов: 844 / 117 | Длительность: 17:21:00
Лекция 6:

Десять задач искусственного интеллекта по Д.А. Поспелову и возможности логических нейронных сетей

< Лекция 5 || Лекция 6: 1234 || Лекция 7 >
Аннотация: Излагается точка зрения Д.А. Поспелова на основные задачи искусственного интеллекта. Рассматриваются возможности решения этих задач с помощью логических нейронных сетей, реализующих принцип ассоциативного мышления.

... и написал на скрижалях слова завета, десятословие.

Ветхий Завет. Исход

Переход к аргументации

В начальный период развития ИИ предполагалось, что все, или почти все задачи, претендующие на интеллектуальность, можно решать путём построения некоторого логического вывода. Такое предположение породило многочисленные работы в области автоматического доказательства теорем, разработки языков представления знаний логического типа, в частности, хорошо известного языка ПРОЛОГ. Значительные усилия были затрачены на создание методов вывода в исчислении предикатов, которое различным образом модифицировалось, чтобы адаптировать его для нужд искусственного интеллекта.

Классический подход в ИИ, реализующийся под явным давлением логических моделей в представлении знаний, породил экспертные системы, основанные на продукционных правилах, теорию реляционных баз данных, теорию решателей и планировщиков.

Но уже к середине 70-х годов постепенно выясняется, что классических логических моделей и схем вывода явно не хватает для того, чтобы строить достаточно богатые и практически значимые интеллектуальные системы. Принципы, опирающиеся на классическое понимание формальной системы дедуктивного вывода, стали слишком узкими для решения задач ИИ. Возникло нечто вроде кризиса в физике, ярко проявившегося в начале ХХ-го века. В чём же состояла основная проблема?

Д.А. Поспелов

Д.А. Поспелов

Логический подход в его классической форме требовал для каждой предметной области, для которой применялись методы ИИ, наличия полного перечня исходных положений, которые можно было бы считать аксиомами этой предметной области. Их существование (сюда естественно включаются и априорно задаваемые правила вывода) обеспечивало замкнутость используемых моделей, позволяло ставить и решать круг проблем, связанных с полнотой, результативностью и непротиворечивостью используемых моделей и процедур.

Однако различные приложения, к которым стремился искусственный интеллект, оправдывая свою практическую значимость, в подавляющем большинстве случаев не давали возможностей построения аксиоматических систем. Знания о предметных областях, как правило, были неполными, неточными и лишь правдоподобными, что приводило к эффектам фальсификации ранее полученных утверждений, получаемых в результате последовательного (даже при так называемых параллельных модификациях) процесса логического вывода.

Так возникла проблема замены формальной системы с присущими ей процедурами дедуктивного вывода иной, столь же мощной моделью, где отражались бы основные особенности поиска решения в плохо определённых, постоянно уточняющихся предметных областях, которые описываются как открытые системы с обновляемыми знаниями об их строении и функционировании. Это потребовало перехода в нечёткую логику, где классические методы логического вывода были бы щедро "разбавлены" вероятностным подходом.

С конца 70-х годов ХХ-го века подход, опирающийся на идею строгого логического вывода, начинает постепенно сменяться новым подходом, провозглашающим, что основной операцией при поиске решения должна быть правдоподобная аргументация. Работа с аргументами "за" и "против", снабжённых соответствующими весами, приводит к процедурам с этими весами. Это обстоятельство оказалось решающим для перехода к аргументации в интеллектуальных системах.

Здесь-то мы и наблюдаем требование совершенствования искусственного аппарата мышления, перехода к логическим нейронным сетям, как к средству воплощения этого аппарата, в большей степени адекватного "мозговым" процессам.

Таким образом, справедливы следующие доводы в пользу применения логических нейронных сетей.

1. При "чисто логическом" подходе предполагается точное знание логических функций fj, определяющих аксиоматику СПР. В общем случае, практически, существует лишь далеко не исчерпывающий опыт, на абстрактном уровне образующий таблицы для ассоциативного поиска решений. (Как мы доходим до полного автоматизма при действии с рулевым колесом автомобиля, выбирая угол поворота? Ведь, первый раз сев за руль, мы сразу же въехали в бордюр.) Имея в виду сложные системы принятия решений (СПР), приходится немедленно сталкиваться с трудно формализуемыми задачами. Именно для их решения привлекаются средства ИИ. Знание логических функций, формально описывающих причинно-следственные связи, это проблема из области теории познания, как известно, не имеющая отношения к прикладному уровню оперативного мышления. Тем не менее, такие функции могут быть построены приближённо на основе указанных выше таблиц дедуктивного вывода. Но для этого необходимо решить проблему моделирования индуктивного вывода на основе анализа и абстрактного обобщения связей в таких таблицах.

2. Неопределённость исходной информации о ситуациях исключает точный ответ на вопрос о наличии или отсутствии события и делает неправомерным использование исключительно булевых переменных. Высказывания в действительности не бывают истинными или ложными, с вероятностью 1 или 0, как это предполагается в математической логике. Высказывания обладают степенью достоверности, а достоверность принимает действительное значение на отрезке [0, 1] и подчиняется известным положениям теории вероятности.

3. Медицинские исследования человеческого мыслительного аппарата – мозга исключают наличие под черепной коробкой таких приборов, как конъюнкторы и дизъюнкторы. Вместо этого обнаружено до 100 млрд. (называют уже и большее число) унифицированных и стандартных нейронов, объединённых в сеть локально-случайной и глобально-детерминированной конфигурации, со слабой подверженностью генетической преемственности. Нейроны реализуют пороговую функцию активации, монотонно возрастающую, в области преодоления порога, от каждого из до 10 000 входных возбуждений и формирующих возбуждение на единственном ветвящемся выходе. Веса входных связей нейронов, способные к изменению, обеспечивают направленное распространение возбуждения в нейронной сети. Это позволяет создавать и запоминать схемы, фиксирующие причинно-следственные связи, подобные электронным.

Проблема оправдания

При заполнении памяти интеллектуальных систем знаниями, полученными от экспертов, хорошо знающих данную предметную область и способы решения возникающих в ней задач, инженеры по знаниям столкнулись с одной весьма любопытной особенностью. При объединении баз знаний, сформированных различными экспертами, каждая из которых в отдельности довольно успешно решала тестовые задачи, возникала противоречивая база знаний. Если это были базы, в которых знания фиксировались в виде продукционных правил, то возникали правила с одинаковыми левыми частями и противоречащими друг другу правыми частями.

Как скоро стало очевидным, явление это объяснилось тем, что эксперты погружали свои профессиональные знания в некоторые концептуальные модели предметных областей, которые могли не совпадать у разных экспертов. Если, например, речь шла об извлечения знаний из области онкологических заболеваний, то в качестве таких различных моделей могли выступать вирусная или генетическая модель порождения злокачественных опухолей. Если же речь шла о добыче нефти и поиске наиболее перспективных мест её разведки, то альтернативными концептуальными моделями оказывались модели органического и неорганического происхождения нефти. Приверженцы той или иной концептуальной модели сознательно (а иногда подсознательно) отбирали только те знания, которые согласовывались с принятой концептуальной моделью, отвергая те знания, которые ей противоречили (или, приуменьшая их вес правдоподобия). Другими словами, использовался своеобразный механизм "психологической защиты" от знаний, разрушающих принятую концептуальную модель, которая оправдывалась принятой системой знаний.

Ясно, что механизмы оправдания, связанные с искажением весов правдоподобия, накопленных в данной предметной области знаний (включая и отторжение некоторых знаний), нужно изучать и учитывать при заполнении баз знаний и их объединении. Но как это делать?

По-видимому, в этой "горячей точке" (по выражению Д.А. Поспелова) можно сделать лишь пессимистический прогноз.

Дело в том, что помимо разнящихся предметных областей следует учесть, что искусственный интеллект является моделью "естественного". А любое моделирование немыслимо без анализа целевой (критериальной) функции. Для чего создаётся система ИИ? Что она отображает, а главное, - что должна оптимизировать? Повышать достоверность вывода (Р_\text{вывода} \to 1)? Сокращать время принятия решения (Т_\text{решения} \to \text{min})? Или задача является многокритериальной?

Поэтому механическое объединение разных баз знаний, без согласования целевой функции ничего не даёт, пока неизвестно, что оно должно дать в результате.

Целевая функция существенно влияет на всю модель, на обоснование и выбор факторов (образующего множества событий) факторного пространства. И здесь не поможет даже общность предметной области. Если один банк существует для централизации прибыльных инвестиций, а другой – для валютных спекуляций, то объединение плута и мошенника уже представляется весьма трудной задачей. Им надо согласовать общую цель, определить общие показатели, создать их приоритетный ряд и т.д.

Различие целевых функций даже в одной предметной области может приводить к несовместимости баз знаний. Например, в политике отсутствие определений принимается по определению, - для обслуживания и оправдания интересов, демагогии, передёргивания фактов, оглупления народных масс и т.д. В математике, в том числе в математической логике, основой рассуждения являются строгие, непротиворечивые, исчерпывающие определения. Разумный математик не возьмётся автоматизировать принятие политических решений. Для этого их лживость должна стать очевидной. А кому это нужно? Хотя где-то в промежуточной области социологических исследований такое сотрудничество возможно.

Напоминая о том, что ИИ является моделью интеллекта естественного, следует не забывать, что человек – общественное животное, призванное на базе взаимного обучения и компромиссов строить "светлое будущее". И можно только мечтать о том, чтобы его борьба за мир во всём мире проводилась не силовыми методами.

Таким образом, несовместимость баз знаний (которую можно отнести к свойству Природы) следует считать закономерной и, прежде всего, – исходящей из различия целевых функций.

< Лекция 5 || Лекция 6: 1234 || Лекция 7 >