энтропия что это такое
Автор Муди Блюз задал вопрос в разделе Музыка
что такое энтропия? и получил лучший ответ
Ответ от Breslove[гуру]
Энтропия - процесс вырождения энергии, переход одного вида энегрии в другой. Например электрическая - в тепловую!
Ответ от Дмитрий[гуру]
Энтропия (от греч. ἐντροπία — поворот, превращение) — понятие, впервые введенное в термодинамике для определения меры необратимого рассеивания энергии. Термин широко применяется и в других областях знания: в статистической физике как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределенности какого-либо опыта (испытания) , который может иметь разные исходы, в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса) . * Термодинамическая энтропия — функция состояния термодинамической системы. * Информационная энтропия — мера хаотичности информации, связана с вероятностью появления тех или иных символов при передаче сообщений. * Номера энтропии используются в математической теории метрических пространств для измерения размеров наборов (и, частично, фракталов) . * Энтропия в теории управления — мера неопределенности состояния или поведения системы в данных условиях. * Энтропия (настольная игра) — одна из двух настольных игр, известных под именем Entropy, созданных Эриком Соломоном (Eric Solomon) в 1977 г. или Августином Каррено (Augustine Carreno) в 1994 г. * Энтропия (сеть) — децентрализованная пиринговая сеть, разработанная с целью быть стойкой к цензуре. * Энтропия в биологической экологии — единица измерения биологической вариативности. * Журнал «Энтропия» — международный междисциплинарный журнал на английском языке об исследованиях энтропии и информации.
Энтропия (от греч. ἐντροπία — поворот, превращение) — понятие, впервые введенное в термодинамике для определения меры необратимого рассеивания энергии. Термин широко применяется и в других областях знания: в статистической физике как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределенности какого-либо опыта (испытания) , который может иметь разные исходы, в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса) . * Термодинамическая энтропия — функция состояния термодинамической системы. * Информационная энтропия — мера хаотичности информации, связана с вероятностью появления тех или иных символов при передаче сообщений. * Номера энтропии используются в математической теории метрических пространств для измерения размеров наборов (и, частично, фракталов) . * Энтропия в теории управления — мера неопределенности состояния или поведения системы в данных условиях. * Энтропия (настольная игра) — одна из двух настольных игр, известных под именем Entropy, созданных Эриком Соломоном (Eric Solomon) в 1977 г. или Августином Каррено (Augustine Carreno) в 1994 г. * Энтропия (сеть) — децентрализованная пиринговая сеть, разработанная с целью быть стойкой к цензуре. * Энтропия в биологической экологии — единица измерения биологической вариативности. * Журнал «Энтропия» — международный междисциплинарный журнал на английском языке об исследованиях энтропии и информации.
Ответ от Џна Шумилова[гуру]
Энтропия(от греч. entropía - поворот, превращение) , понятие, впервые введенное в термодинамике для определения меры необратимого рассеяния энергии. Э. широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределенности какого-либо опыта (испытания) , который может иметь разные исходы. Эти трактовки Э. имеют глубокую внутреннюю связь. Например, на основе представлений об информационной Э. можно вывести все важнейшие положения статистической физики.
Энтропия(от греч. entropía - поворот, превращение) , понятие, впервые введенное в термодинамике для определения меры необратимого рассеяния энергии. Э. широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределенности какого-либо опыта (испытания) , который может иметь разные исходы. Эти трактовки Э. имеют глубокую внутреннюю связь. Например, на основе представлений об информационной Э. можно вывести все важнейшие положения статистической физики.
Ответ от Ёолныффко Позитифф[гуру]
От греческого entropia -- поворот, превращение. Понятие энтропии впервые было введено в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого -- либо макроскопического состояния; в теории информации -- мера неопределенности какого-либо опыта (испытания) , который может иметь разные исходы. Все эти трактовки энтропии имеют глубокую внутреннюю связь. Энтропия -- это функция состояния, то есть любому состоянию можно сопоставить вполне определенное (с точность до константы -- эта неопределенность убирается по договоренности, что при абсолютном нуле энтропия тоже равна нулю) значение энтропии. Для обратимых (равновесных) процессов выполняется следующее математическое равенство (следствие так называемого равенства Клаузиуса) , где -- подведенная теплота, --температура, и -- состояния, и -- энтропия, соответствующая этим состояниям (здесь рассматривается процесс перехода из состояния в состояние ). Для необратимых процессов выполняется неравенство, вытекающее из так называемого неравенства Клаузиуса , где -- подведенная теплота, --температура, и -- состояния, и -- энтропия, соответствующая этим состояниям. Поэтому энтропия адиабатически изолированной (нет подвода или отвода тепла) системы при необратимых процессах может только возрастать. Используя понятие энтропии Клаузиус (1876) дал наиболее общую формулировку 2-го начала термодинамики: при реальных (необратимых) адиабатических процессах энтропия возрастает, достигая максимального значения в состоянии равновесия (2-ое начало термодинамики не является абсолютным, оно нарушается при флуктуациях) . Подводим итог: Что бы мы не делали -- энтропия увеличивается, следовательно любыми своими действиями мы увеличиваем хаос, и, следовательно, приближаем "конец света". Вероятно, можно точно подсчитать, когда он, то есть "конец света", наступит, но я думаю, что ближайшие несколько миллиардов лет можно об этом не беспокоиться.
От греческого entropia -- поворот, превращение. Понятие энтропии впервые было введено в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого -- либо макроскопического состояния; в теории информации -- мера неопределенности какого-либо опыта (испытания) , который может иметь разные исходы. Все эти трактовки энтропии имеют глубокую внутреннюю связь. Энтропия -- это функция состояния, то есть любому состоянию можно сопоставить вполне определенное (с точность до константы -- эта неопределенность убирается по договоренности, что при абсолютном нуле энтропия тоже равна нулю) значение энтропии. Для обратимых (равновесных) процессов выполняется следующее математическое равенство (следствие так называемого равенства Клаузиуса) , где -- подведенная теплота, --температура, и -- состояния, и -- энтропия, соответствующая этим состояниям (здесь рассматривается процесс перехода из состояния в состояние ). Для необратимых процессов выполняется неравенство, вытекающее из так называемого неравенства Клаузиуса , где -- подведенная теплота, --температура, и -- состояния, и -- энтропия, соответствующая этим состояниям. Поэтому энтропия адиабатически изолированной (нет подвода или отвода тепла) системы при необратимых процессах может только возрастать. Используя понятие энтропии Клаузиус (1876) дал наиболее общую формулировку 2-го начала термодинамики: при реальных (необратимых) адиабатических процессах энтропия возрастает, достигая максимального значения в состоянии равновесия (2-ое начало термодинамики не является абсолютным, оно нарушается при флуктуациях) . Подводим итог: Что бы мы не делали -- энтропия увеличивается, следовательно любыми своими действиями мы увеличиваем хаос, и, следовательно, приближаем "конец света". Вероятно, можно точно подсчитать, когда он, то есть "конец света", наступит, но я думаю, что ближайшие несколько миллиардов лет можно об этом не беспокоиться.
Ответ от 3 ответа[гуру]
Привет! Вот подборка тем с похожими вопросами и ответами на Ваш вопрос: что такое энтропия?