Энтропия в теории информации
(см. Энтропия) — по Шеннону, мера неопределенности ситуации (случайной величины) с конечным или с четным числом исходов, например, опыт, до проведения которого результат в точности неизвестен..
Дополнительный поиск Энтропия в теории информации
На нашем сайте Вы найдете значение "Энтропия в теории информации" в словаре Начала современного естествознания, подробное описание, примеры использования, словосочетания с выражением Энтропия в теории информации, различные варианты толкований, скрытый смысл.
Первая буква "Э". Общая длина 28 символа