Марковская схема и закрепление успешных маршрутов.
Сценарии по типу вероятностного выыбора подразделяются на:
-- алгоритмические Сценарии
-- вероятностные Сценарии
-- марковские Сценарии
Допустим при тренинге на вход поступило несколько маршрутов поведения. Разновидности Сценариев определяются тем, как аппроксимирует обобщенный Сценарий это множество маршрутов.
1. На каждом этапе детерминированно берется точка маршрута с
максимальной вероятностью, при неуспехе детермининрованно
перебираются точки меньших вероятностей
2. На каждом этапе случайно с эмпирическим распределением
вероятностей выбирается точка маршрута, при неудаче
случайным образом по тому же эмпирическому распределению
вероятностей берется следующая точка и т.д. Распределения
вероятностей для смежных этапов независмы.
3. Во всем аналогично 2., но распределения вероятностей на
смежных этапах зависимы по марковскому закону, т.е. задана
эмпирическая переходная матрица вероятностей. Этот метод
лучше всего работает для малых выборок маршрутов.
Аппроксимирующий обобщенный марковский Сценарий может
реализовать даже в точности всю тренинговую группу
маршрутов не добавляя излишних. Это говорит о его высокой
разрешающей способности при сохранении случайности.
Возможны следующие уточнения марковских Сценариев, если учитывать зависимости вероятностных распределений для трех смежных этапов. Имеется теорема, сводящая такие процессы снова к марковским.
Идеальной схемой организации обобщенного Сценария была бы та, которая генерировала бы случайный маршрут с эмпирическим распределением вероятности в классе выборки маршрутов тренинга.