энтропия в экономике



Автор Костя задал вопрос в разделе Естественные науки

Скажите попонятнее - Что такое энтропия ??? и получил лучший ответ

Ответ от Ёергей Гизело[гуру]
Если попонятнее и покороче - то "любая система стремится к хаосу".
Отличный пример - шнуры от зарядников, USB-шнуры и т. д. Все лежат в одном месте, вроде складываешь аккуратно, но попытайся достать свою зарядку - обязательно все шнуры поперепутанные. И так всегда :)) Типичный пример энтропии системы...

Ответ от Барс[гуру]
1. Энтропия это мера беспорядка, однако так как в любом беспорядке есть определенный порядок то ???
2. Энтропия это количество микросостояний на данное макросостояние однако так как разделение на микро- и макросостояния условно то ???
3. Энтропия это следствие второго закона термодинамики, по которому тепло не может передаватся от холодного тела к горячему. Однако если представить что в какой-то момент времени все молекулы двух тел начали двигаться в противоположных направлениях, то тепло начнет передаватся от холодного тела к горячему... ?
4. В живых организмах происходит увеличение упорядоченности, и следовательно уменьшение энтропии, живые организмы это не беспорядочный набор молекул, в них каждая молекула имеет свою функцию, следовательно к живым организмам понятие энтропия неприменимо ???
5. Как можно меру беспорядка измерять в джоулях??? ?
1+2+3....Если нет ответов на эти вопросы то энтропия это заблуждение, несуществующая абстракция.

Ответ от Михаил Бармин[гуру]
Мера беспорядка

Ответ от Владимир Степашкин[активный]
Понятие энтропии вводится для характеристики количества информации о состоянии той или иной системы (теория инфомации) ; или, например как мера вероятности осуществления какого-либо макроскопического состояния (в статистической физике) .
Существует достаточно простая формула для ее формального расчета. См. , например, Викпедию. Часто довольно удачно, с моей точки зрения, под энтропией понимают количественную меру неопределенности состояния системы. Конечно, понятие "состояние системы" при этом должно быть специально оговорено.
Например, понятие энтропии может использоваться (и используется) при оценке эффективности выполнения дистанционного зондирования Земли с аэрокосмических платформ. При этом сравнивают энтропию применительно к участку земной поверхности до и после выполнения аэрокосмических съемок. Под неопределенностью состояния "системы" при этом может, в зависимости от задачи, пониматься состояние отдельных разрешаемых элементов местности (в терминах спектральной яркости или некоторых предметно-специфических характеристик- содержание влаги, гумуса в почве, степени поражения растительности, с/х посевов и др.) . Это просто пример применения понятия энтропия.
Так вот. Обычно интересует не абсолютное значение энтропии, а её изменение. Часто, оценивая изменение энтропии, формально оценивают прирост информации о системе или, наоборот, ее уменьшение вследствие каких-то процессов. Получается так: уменьшилось значене энтропии - возросла информация (степень определенности) и наоборот. Конечно, здесь возникают вопросы о том, а как понять, много или мало информации приходится на некую дельту энтропии. Этих вопросов можно избежать путем сопоставления приращений энтропии в нескольких рассматриваемых альтернативных ситуациях. Например.
Применительно к приведенному выше примеру с дистанионным зондированием. Если производить съемку земной поверхности несколькими вариантами съемочной аппаратуры, то приращение энтропии оказывается разным. Поэтому практическая ценность данного понятия применительно к этому примеру в том, что выбор того или иного набора аппаратуры приозводится на основе сопоставления приращений энтропии. При этом ни абсолютные значения энтропии ни приращения ее, взятые в отдельности в анализе не участвуют.

Ответ от Владимир Павлек[гуру]
Энтропия это мера хаоса, или точнее мера распада сложного на простое.
Если взять изолированную систему то состоянию с максимальной энтропией будет соответствовать случай, когда все вещество разделиться на простейшие элементы, например, на атомы и равномерно и хаотично заполнит весь объем. То есть в этой системе не будет никаких упорядочных структур.
Вообще это слово пришло из термодинамики, где есть теорема, что энтропия любой изолированной системы постоянно возрастает со временем, то есть система стает все менее и менее упорядочной.
Сейчас это слово чаще всего употребляют когда рассуждают о будущем нашей Вселенной. Можно ли эту теорему из термодинамики обобщить на все Вселенной? Если да, то это означает, что все тела во Вселенной (звезды, планеты, люди и т. д. ) должны распасться на атомы и хаотичным образом заполнить Вселенную. Вот про это и говорят, что энтропия Вселенной постоянно возрастает, то есть все стремиться к распаду и хаотичному распределению.
В общем, понимайте это так:
Если есть порядок, сложные структуры, какая-то внутренняя логика - то энтропия маленькая, а если все распалось на простые элементы и образовало беспорядочную смесь - энтропия большая.

Ответ от I S[гуру]
энтропия - хаос беспорядок, только умными словами

Ответ от Гарри Антикапусин[мастер]
представь, что чайник - пространственная система со своими собствеными свойствами.
и ты нагреваешь чайник на 10 градусов.. .
Энтропия (S) - это постоянная величина, которая характеризует этот чайник как систему.
Энтропия - отношение количества теплоты, которое передано чайнику, к разности конечной и начальной температуры чайника.
. .Q
S = -------
. .T2 - T1
Если чайник будет изолирован от окружающего пространства, то энтропия чайника будет постоянной величиной.
Сегодня понятие энтропии стали применять не только в термодинамике, но и в информационных технологиях.
Например, есть система - книга, в ней 1000 слов (буквосочетаний- Б) . Если мы добавим в эту систему 10 буковок, то количество слов (буквосочетаний) , которое может быть в этой книге тоже увеличится! причём, отношение добавленых буковок к разности буквосочетаний в первом и во втором случае будет величиной постояной
. .10
S = ------
. .Б2 - Б1
И чтобы человеку было бы понятно - сколько усилий он должен затратить, чтобы вытащить из книги (обнаружить) нужное ему буквосочетание, употребляют понятие высокая или низкая энтропия книги-системы.

Ответ от Fenix[активный]
(Для блондинок) Как мне химик в институте объяснил - хаотическое движение молекул. (Хаос) Нарисуй две вертикальные полоски. От балды надолби точек, это и будет энтропия (для внутреннего понимания процсса) . Не для объяснения на занятиях.

Ответ от Ёветлана Ильина[активный]
Физическая величина, характеризующая тепловое состояние тела или системы тел и возможные изменения этих состояний; мера внутренней неупорядоченности систем (в термодинамике) . II Мера неопределенности какого-либо опыта, который может иметь разные исходы.

Ответ от Alex**[гуру]
От греческого entropia -- поворот, превращение. Понятие энтропии впервые было введено в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого -- либо макроскопического состояния; в теории информации -- мера неопределенности какого-либо опыта (испытания) , который может иметь разные исходы.

Ответ от 3 ответа[гуру]
Привет! Вот подборка тем с похожими вопросами и ответами на Ваш вопрос: Скажите попонятнее - Что такое энтропия ???
Эффект замещения на Википедии
Посмотрите статью на википедии про Эффект замещения
 

Ответить на вопрос:

Имя*

E-mail:*

Текст ответа:*
Проверочный код(введите 22):*