Добавить в цитаты Настройки чтения

Страница 20 из 23

Расчет элементов матрицы представления преемника более сложен для понимания, однако, так же легко реализуется программно:

– инициализируется (заполняется нулями) квадратная матрица М, чьи размерности соответствуют количеству областей интереса;

– по очереди перебираются элементы последовательности посещенных областей интереса (исключая последнюю) – фиксируется текущий элемент последовательности (номер посещенной зоны, обозначаемый как О и последующий элемент (номер зоны, в которую совершен переход, обозначаемый как;'), a i-я строка матрицы М обновляется по следующему правилу:

где I – единичная матрица того же порядка, что и М, а – параметр скорости обучения, (0<а<1), у – временной весовой коэффициент, (0<у<1).

Таким образом, при наблюдении перемещения из области интереса i в область; набор ожидаемых преемников для «отправителя» i (строка Мi) обновляется так, чтобы учесть переход в «преемника» j, а также в предполагаемые (с учетом предыстории процесса) преемники посещаемой области; (столбец М), но с уменьшенным влиянием на результат (для этого производится умножение на понижающий временной коэффициент у). В итоге мы учитываем не только сам факт перемещения из области i в область l, но и предысторию перемещения из области j в другие области.

Оценка SR-матрицы, построенная по заданной последовательности посещенных областей интереса, содержит сумму взвешенных по удаленности во времени будущих попаданий в некоторую область интереса, определяемую заданным столбцом при условии, что в данный момент посещена область, определяемая строкой. Заметим, что получаемая матрица не является стохастической (т. е. ее элементы не представляют собой оценки вероятностей). Поэтому сумма всех значений столбца SR-матрицы может превышать единицу. Для корректного сопоставления SR-матриц, полученных для записей различной длительности, необходимо эти матрицы нормировать (делить каждый элемент на сумму элементов матрицы). Однако нормирование может и не проводиться, если исследователя интересует, в частности, вариация длительностей траекторий взора.

Стоит заметить, что относительно недавно была продемонстрирована формальная связь концепции представления преемника и модели эпизодической и семантической памяти (Howard, Kahana, 2002; Sederberg et al, 2008).

Важным отличием между матрицей представления преемника и матрицей вероятностей переходов является то, что последняя отражает закономерности только первого порядка (касающиеся переходов между смежными элементами последовательности), в то время как первая настраивается для предсказания будущих посещений в рамках временного окна, чья эффективная ширина зависит от коэффициента у (Gershman et al., 2012).

Пусть дана следующая последовательность номеров посещенных областей интереса: [1, 2, 4, 2, 4, 1, 4, 2, 3, 1, 3, 2, 1, 3, 1, 2, 4, 1, 3, 1, 3]. По заданной последовательности вычислены матрица вероятностей переходов и нормированная SR-матрица, представленные в таблицах 1 и 2.

Приведенный пример матриц демонстрирует, например, что оценка вероятности переходов из области № 4 в область № 3 является нулевой, поскольку прямых переходов из области № 4 в область № 3 в последовательности не наблюдается. При этом матрица представления преемника отражает взвешенное по временной удаленности нормированное количество будущих пребываний в области № 3 после пребывания в области № 4 (ячейка № 3.4), а также указывает, например, на то, что ближайшие по времени будущие попадания в область № 3 после пребывания в ней же более вероятны (ячейка № 3.3), нежели будущие попадания в область № 4.



Сокращение размерности пространства переменных и анализ выделенных компонент или факторов. Рассчитав значения традиционных интегральных показателей и дополнительные информативные признаки, для сокращения размерности пространства анализируемых переменных можно с помощью соответствующего метода выделять скрытые главные компоненты или факторы, объясняющие высокую долю суммарной дисперсии полученного набора переменных. Важным аспектом при выборе компоненты/фактора является как доля описываемой дисперсии, так и возможность интерпретации новой переменной по величинам компонентных нагрузок наблюдаемых переменных (частных корреляций переменных и компонент). Примеры двух главных компонент, описывающих 19,5 % доли суммарной дисперсии элементов SR-матриц, построенных по последовательностям фиксаций взора в областях интереса, выделенных на стимульном материале теста Равена, приведены на рисунках 3 и 4. Номера столбцов и строк данных матриц совпадают с номерами областей интереса, выделенных в стимульном материале заданий теста Равена (1, 2, 3 – верхняя строка элементов матрицы задания; 4, 5, 6 – средняя строка; 7, 8, 9 – нижняя строка; 10 – область альтернатив ответа).

Рис. 3. Цветовые матрицы, отражающие величину нагрузок первой главной компоненты, описывающей 12,5 % суммарной дисперсии элементов SR-матриц: слева приведена матрица для положительных нагрузок (диапазон значений нагрузок – от 0 до 0,4), а справа – для отрицательных (диапазон – от -0,4 до 0)

Рис. 4. Цветовые матрицы, отражающие величину нагрузок второй главной компоненты, описывающей 7 % суммарной дисперсии элементов SR-матриц: слева приведена матрица для положительных нагрузок (диапазон значений нагрузок – от 0 до 0,4), а справа – для отрицательных (диапазон – от -0,4 до 0)

Приведенные матрицы позволяют интерпретировать компоненты как индикаторы использования определенных пространственных стратегий, которые используются испытуемыми в разной степени. Первая компонента может быть интерпретирована как показатель приверженности стратегии «не использовать горизонтальные переходы и использовать вертикальные». Вторая компонента – как показатель приверженности стратегии «использовать вертикальные переходы в правой нижней части матрицы Равена».

Обучение модели представления закономерностей. Значения выделенных факторов и значения целевых переменных, чья взаимная изменчивость является предметом анализа и интерпретации, используются для обучения модели распознавания образов (модели-классификатора или модели регрессии).

Обучение модели заключается в настройке ее параметров таким образом, чтобы получаемые предсказания значений целевой переменной отличались от реальных измеренных значений как можно меньше в терминах используемой меры ошибки. Освещение тех или иных алгоритмов обучения предсказательных моделей, равно как и подходов к оценке ее обобщающей (предсказательной) способности (напр., методика скользящего контроля), подробности методов распознавания образов и такого научного направления, как машинное обучение, можно уточнить, например, в соответствующих изданиях (Воронцов, 2007; Лепский, Броневич, 2009; Alpaydin, 2010).

Обученная модель в случае высокой степени ее предсказательной способности может успешно использоваться для предсказания значений целевых переменных: как дискретных категорий испытуемых (таких как, напр., индикатор правильности выполненного задания теста способностей, пол испытуемого, уровень навыка чтения), так и соответствующих им непрерывных случайных величин (таких, напр., как возраст, итоговый балл по тесту).

Интерпретация модели. Обученная и надежная модель представления закономерностей часто может быть легко интерпретирована путем определения входных переменных, учитываемых при принятии решения в первую очередь (или с большим весом). Например, такие модели, как деревья решений, обобщенная линейная модель или дискриминантная модель, не только способны решать задачу предсказания значения целевой переменной, но и позволяют трактовать прогноз в терминах предметной области путем анализа структуры модели и ее идентифицированных параметров.