Информационный Коэффициент Корреляции
- мера зависимости между двумя случайными величинами Xи У, определяемая как функция от величины количества информации в одной случайной величине относительно другой. где I(X, Y)- информации количество. Свойства И. К. К. R(X, Y )как меры зависимости полностью определяются свойствами величины I(X, Y), к-рая сама служит характеристикой зависимости случайных величин Xи Y. Однако использование И. К. К. Rв качестве самостоятельной меры зависимости как информационного аналога обычного коэффициента корреляции r оправдано тем, что для произвольных случайных величин И. К. К. Имеет преимущество перед r, так как в силу свойств информации R = 0 тогда и только тогда, когда X и Y независимы. Если X и Y имеют совместное нормальное распределение, то эти два коэффициента совпадают, так как в этом случае Практическое исследование зависимости с помощью И.
К. К. Равносильно анализу количества информации в таблицах типа таблиц сопряженности признаков. Выборочным аналогом Rслужит коэффициент вычисляемый через информационную статистику I. где п- число наблюдений, s и t- числа классов группировки по двум признакам, nij - число наблюдений в классе (i, j),Таким образом, вопрос о распределении выборочного И. К. К. Сводится к вопросу о распределении выборочной информации. Анализ выборочной информации как меры зависимости затрудняется тем, что сильно зависит от группировки наблюдений. Лит.:[1] Linfооt E., "Information and Control", 1957, v. 1, № 1, 85-89. [2] Кульбак С, Теория информации и статистика, пер. С англ., М., 1967. А. В. Прохоров..
Дополнительный поиск Информационный Коэффициент Корреляции
На нашем сайте Вы найдете значение "Информационный Коэффициент Корреляции" в словаре Математическая энциклопедия, подробное описание, примеры использования, словосочетания с выражением Информационный Коэффициент Корреляции, различные варианты толкований, скрытый смысл.
Первая буква "И". Общая длина 37 символа