энтропия



что такое энтропия

Автор Ўниор задал вопрос в разделе Естественные науки

Что такое энтропия? и получил лучший ответ

Ответ от Арсен Люпен[гуру]
Ответы тяжелые, бронебойные. Но энтропия не мера беспорядка, а мера вероятности протекания самопроизвольного процесса в изолированной термодинамической системе. Процесс же наиболее вероятен тогда, когда все молекулы вещества, или элементы системы занимают или займут в результате процесса РАВНОЕ (одинаковое) энергетическое состояние, при этом станет невозможен никакой дальнейший процесс то есть система станет термодинамически устойчива. Такое состояние не всегда совпадает с наибольшим беспорядком (хаосом) и напротив хаос сам по себе не является устойчивым состоянием он так сказать несёт потенцию - либо достижения ещё большего хаоса либо увеличения энтальпии то есть порядка в системе. В не изолированных (закрытых) , а тем более открытых системах всё ещё сложнее и понятие энтропии там несколько условно. Это изначально феноменологическая функция употребляемая нами в зависимости от краевых начальных и граничных условий без которых, она (эта функция) -есть фикция. Энтропия - мера экстенсивности термодинамической системы при данном интенсивном факторе которым выступает температура, произведение энтропии на ИЗМЕНЕНИЕ температуры и есть изменение энергии системы. Энтропия может и не меняться тогда как энергия системы изменяться будет. При изотермических процессах составляющая энергии системы в которую входит энтропия равна нолю. Да здесь я только пытаюсь изложить физическое понимание энтропии, применительно к информационным системам смысл энтропии как экстенсивного фактора видимо сохраняется.

Ответ от Evgeniy Bahmisov[активный]
Функция состояния системы.

Ответ от Александр Терентьев[новичек]
Энтропия - это разложение вещей, переход от упорядоченных структур к хаосу.
Энтропия - необратимое рассеивание энергии. (физика, термодинамика)

Ответ от Alexei[активный]
Энтропия это свойство состояния изолированной (или принимаемой за таковую) физической системы, характеризуемое количеством самопроизвольного изменения, на которое она способна.
Пример энтропии
В качестве традиционного примера обычно приводят чашку кофе. Исключено, что кофе разогреется сам собой или самопроизвольно отделится от растворенного в нем сахара (он может лишь остыть и остаться сладким). Согласно второму принципу термодинамики, в закрытой системе энтропия может лишь увеличиваться, из чего следует, что ее беспорядочность будет стремиться к максимуму.
Источник: ссылка .

Ответ от Muriam[гуру]
энтропия - это мера неопределенности

Ответ от Zhantore Баданов[новичек]
Энтропи?я (от др. -греч. ???????? «поворот», «превращение») — широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы, определяющая меру необратимого рассеивания энергии. В статистической физике энтропия характеризует вероятность осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике.
Энтропия может интерпретироваться как мера неопределённости (неупорядоченности) некоторой системы, например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации [1][2]. Таким образом, другой интерпретацией энтропии является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации (Клод Шеннон) сначала хотел назвать эту величину информацией.
Понятие информационной энтропии применяется как в теории информации и математической статистике, так и в статистической физике (энтропия Гиббса и её упрощённый вариант — энтропия Больцмана) [3][4]. Математический смысл информационной энтропии — это логарифм числа доступных состояний системы (основание логарифма может быть различным, оно определяет единицу измерения энтропии) [5]. Такая функция от числа состояний обеспечивает свойство аддитивности энтропии для независимых систем. Причём, если состояния различаются по степени доступности (то есть не равновероятны), под числом состояний системы нужно понимать их эффективное количество, которое определяется следующим образом. Пусть состояния системы равновероятны и имеют вероятность {displaystyle p} p, тогда число состояний {displaystyle N=1/p} {displaystyle N=1/p}, а {displaystyle log N=log(1/p).} {displaystyle log N=log(1/p).}
В случае разных вероятностей состояний {displaystyle p_{i}} p_{i} рассмотрим средневзвешенную величину {displaystyle log {overline {N}}=sum _{i=1}^{N}p_{i}log(1/p_{i}),} {displaystyle log {overline {N}}=sum _{i=1}^{N}p_{i}log(1/p_{i}),} где {displaystyle {overline {N}}} {displaystyle {overline {N}}} — эффективное количество состояний. Из данной интерпретации непосредственно вытекает выражение для информационной энтропии Шеннона
{displaystyle H=log {overline {N}}=-sum _{i=1}^{N}p_{i}log p_{i}.} {displaystyle H=log {overline {N}}=-sum _{i=1}^{N}p_{i}log p_{i}.}
Подобная интерпретация справедлива и для энтропии Реньи, которая является одним из обобщений понятия информационная энтропия, но в этом случае иначе определяется эффективное количество состояний системы (можно показать, что энтропии Реньи соответствует эффективное количество состояний, определяемое как среднее степенное взвешенное с параметром {displaystyle qleq 1} {displaystyle qleq 1} от величин {displaystyle 1/p_{i}} {displaystyle 1/p_{i}})[6].
Следует заметить, что интерпретация формулы Шеннона на основе взвешенного среднего не является её обоснованием. Строгий вывод этой формулы может быть получен из комбинаторных соображений с помощью асимптотической формулы Стирлинга и заключается в том, что комбинаторность распределения (т. е. число способов, которыми оно может быть реализовано) после взятия логарифма и нормировки асимптотически совпадает с выражением для энтропии в виде, предложенном Шенноном. [7]
В широком смысле, в каком слово часто употребляется в быту, энтропия означает меру неупорядоченности или хаотичности системы: чем меньше элементы системы подчинены какому-либо порядку, тем выше энтропия.
Величина, противоположная энтропии, именуется негэнтропией или, реже, экстропией.

Ответ от Ёитам Зоиров[новичек]
Энтропия-это мера беспорядка

Ответ от Ura popov[новичек]
Энтропия - это разложение вещей, переход от упорядоченных структур к хаосу

Ответ от V.V. ***[гуру]
Все правы))

Ответ от Ник Верн[активный]
эра энтропии пришла в наше сознание..

Ответ от Александр Бадин[новичек]
Энтропия - это мера спокойствия, равновесия системы, когда потенциальная энергия составляющих элементов, наименьшая или равна нулю, энтропия имеет наибольшее значение. Всякое движение уменьшает энтропию. Наибольшее значение энтропия в закрытой системе достигает при температуре Абсолютного нуля. В момент сотворения Мира энтропия была наивысшей.

Ответ от ***[гуру]
пока есть некий порядок - он будет деградировать. Тепло перемещаться в холодные области; белковые организмы - умирать; социумы - распадаться. Мера хаоса и есть энтропия. Более-менее серьезно узучена (с т. зр. фундаментальной науки) - термодинамическая энтропия.

Ответ от Evgeny M.[гуру]
Что-то слишком заумные и тяжелые ответы.. .
Всё гораздо проще.
Энтропия это мера беспорядка. Чем она больше, тем больше беспорядка. Если она растет, то значит беспорядок увеличивается. И не важно где, в термодинамике или в теории информации или в теории структур.
Вот и всё!

Ответ от Ёветлана Десятнюк[новичек]
понятие, впервые введённое в термодинамике для определения меры необратимого рассеивания энергии. Термин широко применяется и в других областях знания: в статистической физике — как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределённости какого-либо опыта (испытания) , который может иметь разные исходы; в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса).

Ответ от Spheinx[гуру]
П... ц. Когда наступит полная э... я, Вы не будете задавать подобные вопросы.

Ответ от Ваня НЕважно[новичек]
Энтропи́я (от греч. ἐντροπία — поворот, превращение) — понятие, впервые введённое в термодинамике для определения меры необратимого рассеивания энергии. Термин широко применяется и в других областях знания: в статистической физике — как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределённости какого-либо опыта (испытания) , который может иметь разные исходы; в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса) . Для более основательного понимания этого термина, применительно к конкретному контексту, следует обратиться к статье о понятии "энтропия" в соответствующей научной дисциплине:
Термодинамическая энтропия — функция состояния термодинамической системы.
Информационная энтропия — мера неопределённости источника сообщений, определяемая вероятностями появления тех или иных символов при их передаче.
Энтропия динамической системы — в теории динамических систем, мера хаотичности в поведении траекторий системы.
Энтропия отражения — часть информации о дискретной системе, которая не воспроизводится при отражении системы через совокупность своих частей.
Культурная энтропия — это часть энергии, направленная на ссоры, интриги, переживания обид и шуточки над коллегами.
Номера энтропии используются в математической теории метрических пространств для измерения размеров наборов (и, частично, фракталов) .
Энтропия в теории управления — мера неопределённости состояния или поведения системы в данных условиях.
Энтропия (настольная игра) — одна из двух настольных игр, известных под именем Entropy, созданных Эриком Соломоном (Eric Solomon) в 1977 г. или Августином Каррено (Augustine Carreno) в 1994 г.
Энтропия (сеть) — децентрализованная пиринговая сеть, разработанная с целью быть стойкой к цензуре.
Энтропия в биологической экологии — единица измерения биологической вариативности.
Журнал «Энтропия» — международный междисциплинарный журнал на английском языке об исследованиях энтропии и информации.
Энтропия — функция состояния системы, равная в равновесном процессе количеству теплоты сообщённой системе или отведённой от системы, Термодинамической температуре системы
Энтропия — связь между макро и микро состояниями, единственная функция в физике, которая показывает направленность процессов. Функция состояния системы, которая не зависит от перехода из одного состояния в другое, а зависит только от начального и конечного положения системы.

Ответ от Araucaria-2[гуру]
поворот, превращение. Это вы не из песни Летова случайно слово выдернули?

Ответ от ALEXANDRA[гуру]
Энтропи́я (от греч. ἐντροπία — поворот, превращение) — понятие, впервые введённое в термодинамике для определения меры необратимого рассеивания энергии. Термин широко применяется и в других областях знания: в статистической физике — как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределённости какого-либо опыта (испытания) , который может иметь разные исходы; в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса) . Для более основательного понимания этого термина, применительно к конкретному контексту, следует обратиться к статье о понятии "энтропия" в соответствующей научной дисциплине:

Ответ от 3 ответа[гуру]
Привет! Вот подборка тем с ответами на Ваш вопрос: Что такое энтропия?
спросили в Техника
Что такое энтропия?
Энтропия это мера беспорядка, мера хаоса. Чем система менее структурирована, тем больше энтропия.
подробнее...

Энтропия, источник энтропии. Что это?
Энтропия — это производное понятие от понятия “состояние объекта” или “фазовое пространство
подробнее...

Что такое температура?
Температу́ра (от лат. temperatura — надлежащее смешение, нормальное состояние) — физическая
подробнее...

Второй закон термодинамики. Объясните пожалуйста.
Второй Закон Термодинамики

Второй Закон Термодинамики, как и Первый (Закон сохранения
подробнее...

А что такое "Гравитационное отталкивание"?
К такому выводу можно прийти, рассматривая второй закон термодинамики. На основании этого закона
подробнее...
Ответ от 3 ответа[гуру]
Привет! Вот еще темы с похожими вопросами:

Что такое жизнь?


Жизнь — способ бытия сущностей (живых организмов) , наделенных внутренней активностью,
подробнее...
спросили в Больцано
Что такое фрактал?
Фрактал - это математическое понятие многолокального и многоуровнего подобия самому себе. В
подробнее...

Кто знает - что такое слава?
Ступеньки к славе, призрачная вечность.
                    В начале кажется, уходят в
подробнее...
спросили в Му и Рана
1-й и 2-й законы термодинамики Объясните пожалуйста понятным языком эти законы.
1 За все надо платить
2 Чтобы навести порядок на рабочем столе, надо затратить энергию. А
подробнее...

Применение 1 закона термодинамики в быту и хозяйстве расскажите кто что знает
1.
Применение первого закона термодинамики к изопроцессам :: Фестиваль «Открытый...
Для
подробнее...
спросили в 943 год 961 год
что такое энтропия растёт
Энтропи́я (от греч. ἐντροπία — поворот, превращение)
подробнее...
спросили в Музыка
что такое энтропия?
Энтропия - процесс вырождения энергии, переход одного вида энегрии в другой. Например электрическая
подробнее...
спросили в Энтропия
в процессе кристализации вещества из расплава энтропия...
...уменьшается.
И вообще, от газа к твёрдому телу энтропия уменьшается. У вас пяток вопросов
подробнее...
ABN AMRO на Википедии
Посмотрите статью на википедии про ABN AMRO
Энтропия на Википедии
Посмотрите статью на википедии про Энтропия
Эффект Доплера на Википедии
Посмотрите статью на википедии про Эффект Доплера
Эффект замещения на Википедии
Посмотрите статью на википедии про Эффект замещения
 

Ответить на вопрос:

Имя*

E-mail:*

Текст ответа:*
Проверочный код(введите 22):*