мера неопределённости это



Автор Nijat задал вопрос в разделе Другие языки и технологии

Дайте определение меры неопределенности. Проиллюстрируйте это понятие. и получил лучший ответ

Ответ от Ёергей Шманев[мастер]
Энтропия (от греч. ἐντροπία — поворот, превращение) в естественных науках — мера порядка системы, состоящей из единого элемента. В частности, в статистической физике — мера вероятности осуществления конкретного макроскопического состояния; в теории информации — мера конкретизации какого-либо опыта (испытания) , который должен иметь разные исходы, а значит и качество информации; в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса) .
Информационная энтропия — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.
Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии n-ого порядка, см. ниже) встречаются очень редко, то неопределённость ещё более уменьшается.
Для иллюстрации понятия информационной энтропии можно также прибегнуть к примеру из области термодинамической энтропии, получившему название демона Максвелла. Концепции информации и энтропии имеют глубокие связи друг с другом, но, несмотря на это, разработка теорий в статистической механике и теории информации заняла много лет, чтобы сделать их соответствующими друг другу.
Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.
Источник: википедия)

Ответ от 3 ответа[гуру]
Привет! Вот подборка тем с ответами на Ваш вопрос: Дайте определение меры неопределенности. Проиллюстрируйте это понятие.
спросили в Нола Ноль
Ноль - это начало, предел, или точка перехода?
В любом случае, это сингулярная точка. То есть это точка, обладающая "особыми" свойствами. А вот
подробнее...
спросили в Общество
Энтропия - это по простому что такое? А то пугают ею, не знаю, что и делать...
ЭНТРОПИЯ - природное свойство упорядоченной материи, ее стремление к деструктуризации и хаосу со
подробнее...

что означает термин "энтропия" с точки зрения теории информации?
Информационная энтропия, как определено Шенноном и добавлено другими физиками близко, соотносится с
подробнее...

Что такое энтропия?
Ответы тяжелые, бронебойные. Но энтропия не мера беспорядка, а мера вероятности протекания
подробнее...
спросили в Энтропия
Что такое "энтропия" в информатике?
Информационная энтропи́я — мера хаотичности информации, неопределённость появления какого-либо
подробнее...
Ответ от 3 ответа[гуру]
Привет! Вот еще темы с похожими вопросами:

Что такое энтропия? и попроще желательно
Мера беспорядка.
Представь себе стеклянную бутылку - это система, с постоянной энтропией.подробнее...

Объясните, чем отличается понятие ЭНТРОПИЯ в физике и теории информации?
Из многочисленных определений энтропии мне ближе всего определение, что энтропия является мерой
подробнее...

Что такое принцип неопределенности по Гейзенбергу?
Принцип неопределённостей Гейзенберга устанавливает пределы точности измерения импульса и
подробнее...

Что такое ИНФОРМАЦИЯ?
Информа́цией (от лат. informatio — «научение» , «сведение» , «оповещение» ) называется
подробнее...
Неопределённость на Википедии
Посмотрите статью на википедии про Неопределённость
 

Ответить на вопрос:

Имя*

E-mail:*

Текст ответа:*
Проверочный код(введите 22):*