Зачем необходимы треугольные нормы и конормы? Как их использовать? Имеется ввиду, на практике. |
Алгоритмы нечеткой оптимизации
Модели нечеткой ожидаемой полезности
При описании индивидуального принятия решения в рамках классического подхода, наряду с моделями математического программирования, широко применяются теория статистических решений и теория ожидаемой полезности. Последняя предназначена для анализа решений, когда неопределенность обусловлена отсутствием объективной физической шкалы для оценки предпочтительности альтернатив. В этих случаях используется субъективная шкала полезности лица, принимающего решение (ЛПР). В реальных ситуациях исходы, соответствующие принятым решениям (состояниям системы), являются подчас неточными, что влечет за собой размытость соответствующих им оценок функции полезности. Размытый вариант ожидаемой полезности формулируется, например, в модели, где выделяются и одновременно учитываются как случайные, так и нечеткие составляющие неопределенности. Выбор происходит на основе максимизации нечеткой ожидаемой полезности
![ER_j = \sum\limits_{i = 1}^n {\tilde p_i F(s_i ,a_j ,b_k
)} ,](/sites/default/files/tex_cache/16ed406a6da0eb9dd1b4f1e0d26a1253.png)
![\(\tilde p_i\)](/sites/default/files/tex_cache/aab37faada1bcc47c370eb4c5864552f.png)
![s_{i}](/sites/default/files/tex_cache/e5a7472d780a5a032c7775cc5e3ce901.png)
![\(S,\;F:\quad S \times A \times B \to \wp (R)\)](/sites/default/files/tex_cache/cc76fee93131e6519121e6d3823ce9fd.png)
![A=\{a\}](/sites/default/files/tex_cache/18e49a1ffc292dff314b58a3bc71cd78.png)
![B=\{b\}](/sites/default/files/tex_cache/e9376eab76f48e84498a23a9298d5025.png)
![R](/sites/default/files/tex_cache/e1e1d3d40573127e9ee0480caf1283d6.png)
![\(\wp (R) = \{ \mu _R \;|\;\mu _R :\;R \to [0,1]\}\)](/sites/default/files/tex_cache/5f177e097732b49e24bd94e3b39c8c99.png)
![R](/sites/default/files/tex_cache/e1e1d3d40573127e9ee0480caf1283d6.png)
Существуют модели, в которых описываются нечеткие лотереи, нечеткие деревья предпочтения, нечеткие байесовские оценки и т.п., где неполнота информации о законе распределения вероятности моделируется с использованием нечетких чисел и лингвистических вероятностей.
Например, задача анализа решений формулируется следующим образом.
Пусть имеются две обычные вероятности лотереи: , где
—
вероятность исхода с ожидаемой полезностью
и
—
вероятность исхода с ожидаемой полезностью
,
а
, где
—
вероятность исхода с ожидаемой полезностью
,
—
вероятность исхода с ожидаемой полезностью
. Из теории
ожидаемой полезности следует, что
, если
![pu_{A_1 } , + (1 - p)u_{A_2 } > qu_{B_1 } + \;(1 -
q)u_{B_2 } .](/sites/default/files/tex_cache/f1d88898677098189bc0d41b8cb6fb30.png)
Будем считать, что вероятности и
и ожидаемые
полезности
точно
не известны, т.е. введем
![\mu _P :\;P \to [0,1],\quad \mu _Q :\;Q \to [0,1],\quad \mu
_U :\;U \to [0,1].](/sites/default/files/tex_cache/8d04aab1b3a3aed4286d1da1880d53ae.png)
Тогда, в соответствии с принципом обобщения, степени принадлежности
альтернатив и
множествам нечетких ожидаемых
полезностей в нечетких
лотереях
и
соответственно вычисляются
![\begin{gathered}
\mu _A (a) = \mathop {\max }\limits_{pu_{A1} + (1 - p)u_{A2} = a} \;\left[
{\min \{ \mu _P (p),\;\mu _{A_1 } (u_{A_1 } ),\;\mu _{A_2 } (u_{A_2 } )\} }
\right], \\
\mu _B (b) = \mathop {\max }\limits_{qu_{B1} + (1 - q)u_{B2} = b} \;\left[
{\min \{ \mu _P (p),\;\mu _{B_1 } (u_{B_1 } ),\;\mu _{B_2 } (u_{B_2 } )\} }
\right]. \\
\end{gathered}](/sites/default/files/tex_cache/032866a4b87058e8bb5cc5fbd37e9109.png)
В случае лотереи с исходами также для каждого ребра дерева
решений подсчитывается значение нечеткой ожидаемой полезности.