Алгоритмы вычисления оценок

Справочные данные не проверены и ожидают проверку. Если вы заметили какую то ошибку, напишите пожалуйста в комментариях.

Справочник требует, расстановки ссылок на лица.


Алгоритмы вычисления оценок (АВО) были предложены академиком РАН Ю.И. Журавлевым в начале 70х годов прошлого века. В их описании были отражены передовые концепции решения задач распознавания.


Принципы, использованные в модели АВО.

  • Решение о классификации объекта принимается с помощью анализа оценок близости объекта к классам. За какой класс оценка близости выше — к тому классу и относят объект. Оценки вычисляет распознающий оператор. Классифицирует объекты на основе оценок их близостей к классам решающее правило.
  • При вычислении оценок близости к классам учитывают близость/дальность объекта к эталонным объектам. Близость — схожесть описаний, малое расстояние между значениями признаков. При этом оценка близости объекта к классу тем выше, чем ближе он к эталонным объектам данного класса и дальше от эталонных объектов других классов.
  • Близость распознаваемого объекта S к эталонному S^t определяется на основе расстояний {\rho }_i\left(a_i\left(S\right),a_i\left(S^t\right)\right),\ \ i=1,2,\dots ,n, и формализуется понятием функция близости.

Определение модели АВО.

В этой модели алгоритм распознавания представляется в виде суперпозиции распознающего оператора (РО) B и решающего правила (РП) C: A=B\cdot C. Пусть необходимо классифицировать набор \widetilde{S_q.}\Распознающий оператор B вычисляет оценки принадлежности объекта S_i к классу K_i по формуле

G_{ij}\left[B\right]={{x_1}\over {N_1(j)}}\sum_{\Omega \in {\Omega }_A}{\sum_{S^t\in \widetilde{K^1_j}}{w^tw\left(\Omega \right)B^{\tilde{e}}_{\Omega }\left(S^t,S_i\right)+}}{{x_0}\over {N_0(j)}}\sum_{\Omega \in {\Omega }_A}{\sum_{S^t\in \widetilde{K^0_j}}{w^tw\left(\Omega \right){[1-B}^{\tilde{e}}_{\Omega }\left(S^t,S_i\right)],}} где x_0,x_1\in \left\{0,1\right\};\ \ N_0\left(j\right),N_1\left(j\right)-некоторые нормирующие множители,

\ {\Omega }_A – множество подмножеств множества 1,2,\dots ,n(система опорных множеств, СОМ), \widetilde{K^1_j}=\widetilde{S^m}\cap K_j,\widetilde{{\ \ K}^0_j}=\widetilde{S^m}\backslash K_j,\ w^t\in Q^+\ при t\in {1,2,\dots ,m}(вес t-го объекта),

w\left(\Omega \right)\in Q^+\ при \Omega \in{\Omega }_A(вес опорного множества),

 Q^+-множество неотрицательных рациональных чисел, {B}^{\widetilde{e}}_{\Omega }\left(S^t,S_i\right)-бинарная функция с параметрами \tilde{e}, которая зависит от значений признаков из \Omega на объектах S^{{\rm t}},S_i. \Существуют параметры функции близости (задающие «чувствуемую» степень похожести описаний объектов) \widetilde{e_1}=\widetilde{e_1}\left(\widetilde{S^m},\widetilde{S_q}\right)такие, что

B^{\widetilde{e_1}}_{\Omega }\left(S^t,S_i\right)=1\ \forall S^t\in \widetilde{S^m}, \forall S_i\in \ \widetilde{S_q},\ \forall \Omega \in {\Omega }_A, и параметры \widetilde{e_0}=\widetilde{e_0}\left(\widetilde{S^m},\widetilde{S_q}\right)\ при \widetilde{S^m}\cap \widetilde{S_q}=\emptyset такие, что B^{\widetilde{e_0}}_{\Omega }\left(S^t,S_i\right)=0\ \forall S^t\in \widetilde{S^m},\forall S_i\in \ \widetilde{S_q},\ \forall \Omega \in {\Omega }_A.{\rm \ }

 

Источник

comments powered by HyperComments

Посмотрите также

процедура последовательного построения композиции алгоритмов машинного обучения

Бустинг

Бустинг (англ. boosting — улучшение) — это процедура последовательного построения композиции алгоритмов машинного обучения, когда …