Опубликован: 26.07.2006 | Уровень: специалист | Доступ: свободно
Лекция 13:

Алгоритмы нечеткой оптимизации

< Лекция 12 || Лекция 13: 1234 || Лекция 14 >

Модели нечеткой ожидаемой полезности

При описании индивидуального принятия решения в рамках классического подхода, наряду с моделями математического программирования, широко применяются теория статистических решений и теория ожидаемой полезности. Последняя предназначена для анализа решений, когда неопределенность обусловлена отсутствием объективной физической шкалы для оценки предпочтительности альтернатив. В этих случаях используется субъективная шкала полезности лица, принимающего решение (ЛПР). В реальных ситуациях исходы, соответствующие принятым решениям (состояниям системы), являются подчас неточными, что влечет за собой размытость соответствующих им оценок функции полезности. Размытый вариант ожидаемой полезности формулируется, например, в модели, где выделяются и одновременно учитываются как случайные, так и нечеткие составляющие неопределенности. Выбор происходит на основе максимизации нечеткой ожидаемой полезности

ER_j  = \sum\limits_{i = 1}^n {\tilde p_i F(s_i ,a_j ,b_k
)} ,
где \(\tilde p_i\) — размытая вероятность состояния s_{i} из множества состояний мира \(S,\;F:\quad S \times A \times B \to \wp (R)\), A=\{a\} — множество альтернатив, B=\{b\} — множество критериев, R — множество оценок, а \(\wp (R) = \{ \mu _R \;|\;\mu _R :\;R \to [0,1]\}\)класс всех нечетких подмножеств на множестве оценок R.

Существуют модели, в которых описываются нечеткие лотереи, нечеткие деревья предпочтения, нечеткие байесовские оценки и т.п., где неполнота информации о законе распределения вероятности моделируется с использованием нечетких чисел и лингвистических вероятностей.

Например, задача анализа решений формулируется следующим образом. Пусть имеются две обычные вероятности лотереи: A = \left[ {pu_{A_1 } ,\;(1 - p)u_{A_2 } } \right], где pвероятность исхода с ожидаемой полезностью \(u_{A_1 }\) и (1-p)вероятность исхода с ожидаемой полезностью \(u_{A_2 }\), а \(B = \left[ {qu_{B_1 } ,\;(1 - q)u_{B_2 } } \right]\), где qвероятность исхода с ожидаемой полезностью \(u_{B_1 }\), (1-q)вероятность исхода с ожидаемой полезностью \(u_{B_2 }\). Из теории ожидаемой полезности следует, что \(A \succ B\), если

pu_{A_1 } , + (1 - p)u_{A_2 }  > qu_{B_1 }  + \;(1 -
q)u_{B_2 } .

Будем считать, что вероятности p и q и ожидаемые полезности \(u_{A_1 } ,\;u_{A_2 } ,\;u_{B_1 } ,\;u_{B_2 }\) точно не известны, т.е. введем

\mu _P :\;P \to [0,1],\quad \mu _Q :\;Q \to [0,1],\quad \mu
_U :\;U \to [0,1].

Тогда, в соответствии с принципом обобщения, степени принадлежности альтернатив a и b множествам нечетких ожидаемых полезностей в нечетких лотереях A и B соответственно вычисляются

\begin{gathered}
  \mu _A (a) = \mathop {\max }\limits_{pu_{A1}  + (1 - p)u_{A2}  = a} \;\left[
{\min \{ \mu _P (p),\;\mu _{A_1 } (u_{A_1 } ),\;\mu _{A_2 } (u_{A_2 } )\} }
\right], \\
  \mu _B (b) = \mathop {\max }\limits_{qu_{B1}  + (1 - q)u_{B2}  = b} \;\left[
{\min \{ \mu _P (p),\;\mu _{B_1 } (u_{B_1 } ),\;\mu _{B_2 } (u_{B_2 } )\} }
\right]. \\
\end{gathered}

В случае лотереи с n исходами также для каждого ребра дерева решений подсчитывается значение нечеткой ожидаемой полезности.

< Лекция 12 || Лекция 13: 1234 || Лекция 14 >
Владимир Власов
Владимир Власов

Зачем необходимы треугольные нормы и конормы? Как их использовать? Имеется ввиду, на практике.
 

Тимур Швецов
Тимур Швецов
Казахстан