yoginka (yoginka) wrote,
yoginka
yoginka

Leonard Susskind: The Black Hole War

Закончила читать. Сасскинд - гениальный популяризатор.

Краткий обзор об информации и энтропии по книге, с очень небольшими добавками того, что еще раньше вынесла из его лекций (http://theoreticalminimum.com/).
**********************************************************
Информация, энтропия и энергия - три неразделимых понятия. Энергия существует в разных формах, в том числе и как скрытая в любой массе. Особого внимания заслуживает тепловая форма энергии (см. ниже).

Энтропия.
Информация и связанная с ней энтропия - понятия субъективные, относительные. В этом случае подразумевается наличие неких смыслов и интерпретаций в головах субъектов или в технических устройствах. Субъектом в данном случае может быть и человек, и та или иная область науки или техники со своими определениями для информации и энтропии. Определения зависят от того, что интересует субъекта и что ему доступно для наблюдения и учета.

С самом общем, абстрактном виде можно определить энтропию через меру для числа различимых конфигураций системы. Максимально возможная энтропии для данной системы соответствует числу всех возможных различимых конфигураций. Если о системе абсолютно ничего не известно, кроме числа этих конфигураций, то ее энтропия максимальна и зависит от этого числа. Если точно известно, что система находится в одной определенной конфигурации, то ее энтропия равна нулю. В остальных случаях ее энтропия зависит от вероятностей пребывания системы в разных состояниях, т.е. зависит от знаний о системе. Чем равномернее распределены вероятности, тем больше энтропия (меньше знаний о системе, о том, в каком состоянии она находится). Чем ярче выражены пики вероятностей, тем меньше энтропия (больше знаний о системе).

Если известна максимально возможная энтропия системы и ее настоящая энтропия, то информация - это просто разность между ними. То есть информация - это мера знания о возможности нахождения системы в том или ином состоянии.

Второй закон термодинамики, говорящий об увеличении энтропии - всего лишь способ выражения того факта, что есть тенденция со временем терять информацию о системе, если специальными усилиями (извне) не препятствовать этому.

Однако, это потеря информации не абсолютна. Информация переходит на другие уровни, выходящие за пределы различимости. Поэтому энтропию называют также скрытой информацией. В большинстве случаев информация скрыта, потому что она касается слишком мелких объектов и/или слишком многочисленных, так, что нет возможности их отслеживать на данном уровне рассмотрения. На другом, более детальном уровне, информация может быть обнаружена. Но это уже будет и другая область науки со своим определением различимых конфигураций, энтропии и информации.

Энтропия и тепло.
Тепло - это энергия случайного хаотического движения, а энтропия - это количество скрытой макроскопической информации. То есть одна из форм энергии тесно связана с энтропией.
**********************************************************
Tags: наука
Subscribe
  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 7 comments