yoginka (yoginka) wrote,
yoginka
yoginka

Leonard Susskind: The Black Hole War

Закончила читать. Сасскинд - гениальный популяризатор.

Краткий обзор об информации и энтропии по книге, с очень небольшими добавками того, что еще раньше вынесла из его лекций (http://theoreticalminimum.com/).
**********************************************************
Информация, энтропия и энергия - три неразделимых понятия. Энергия существует в разных формах, в том числе и как скрытая в любой массе. Особого внимания заслуживает тепловая форма энергии (см. ниже).

Энтропия.
Информация и связанная с ней энтропия - понятия субъективные, относительные. В этом случае подразумевается наличие неких смыслов и интерпретаций в головах субъектов или в технических устройствах. Субъектом в данном случае может быть и человек, и та или иная область науки или техники со своими определениями для информации и энтропии. Определения зависят от того, что интересует субъекта и что ему доступно для наблюдения и учета.

С самом общем, абстрактном виде можно определить энтропию через меру для числа различимых конфигураций системы. Максимально возможная энтропии для данной системы соответствует числу всех возможных различимых конфигураций. Если о системе абсолютно ничего не известно, кроме числа этих конфигураций, то ее энтропия максимальна и зависит от этого числа. Если точно известно, что система находится в одной определенной конфигурации, то ее энтропия равна нулю. В остальных случаях ее энтропия зависит от вероятностей пребывания системы в разных состояниях, т.е. зависит от знаний о системе. Чем равномернее распределены вероятности, тем больше энтропия (меньше знаний о системе, о том, в каком состоянии она находится). Чем ярче выражены пики вероятностей, тем меньше энтропия (больше знаний о системе).

Если известна максимально возможная энтропия системы и ее настоящая энтропия, то информация - это просто разность между ними. То есть информация - это мера знания о возможности нахождения системы в том или ином состоянии.

Второй закон термодинамики, говорящий об увеличении энтропии - всего лишь способ выражения того факта, что есть тенденция со временем терять информацию о системе, если специальными усилиями (извне) не препятствовать этому.

Однако, это потеря информации не абсолютна. Информация переходит на другие уровни, выходящие за пределы различимости. Поэтому энтропию называют также скрытой информацией. В большинстве случаев информация скрыта, потому что она касается слишком мелких объектов и/или слишком многочисленных, так, что нет возможности их отслеживать на данном уровне рассмотрения. На другом, более детальном уровне, информация может быть обнаружена. Но это уже будет и другая область науки со своим определением различимых конфигураций, энтропии и информации.

Энтропия и тепло.
Тепло - это энергия случайного хаотического движения, а энтропия - это количество скрытой макроскопической информации. То есть одна из форм энергии тесно связана с энтропией.
**********************************************************
Tags: наука
Subscribe
  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 7 comments