имя существительное [физика] энтропия
энтропия (от греч. en - в, внутрь и troph - поворот, превращение) функция состояния термодинамической системы; понятие величины энтропии отсутствует, поддается определению только величина её изменения. В физике - это мера беспорядка или случайности в системе. В сжатии данных - количество неизбыточных и несжимаемых (неодинаковых) данных в объекте. В шифровании - количество специально добавляемой беспорядочной и/или случайной информации. В программировании - неупорядоченность (разбросанность) кода, возникающая в результате многократного внесения изменений в программу Смотри также: entropy coding, software entropy
имя существительное 1) физика, методология науки энтропия (понятие в термодинамике для обозначения необратимого рассеяния энергии; в широком смысле означает меру упорядоченности системы; чем больше элементы системы подчинены какому-нибудь порядку, тем выше энтропия; считается, что любая система, предоставленная сама себе, движется в сторону увеличения энтропии, для структурирования системы необходимы затраты энергии) 2) социология = social enthropy
энтропия; неопределённость Например: of equal entropy — изоэнтропийный
энтропия
noun (plural -pies) Etymology: International Scientific Vocabulary 2en- + Greek tropē change, literally, turn, from trepein to turn 1. a measure of the unavailable energy in a closed thermodynamic system that is also usually considered to be a measure of the system's disorder, that is a property of the system's state, and that varies directly with any reversible change in heat in the system and inversely with the temperature of the system; broadly the degree of disorder or uncertainty in a system 2. a. the degradation of the matter and energy in the universe to an ultimate state of inert uniformity b. a process of degradation or running down or a trend to disorder 3. chaos, disorganization, randomness • entropic adjective • entropically adverb
A measure of the disorder of a system. Systems tend to go from a state of order (low entropy) to a state of maximum disorder (high entropy). The entropy of a system is related to the amount of information it contains. A highly ordered system can be described using fewer bits of information than a disordered one. For example, a string containing one million "0"s can be described using run-length encoding as [("0", 1000000)] whereas a string of random symbols (e.g. bits, or characters) will be much harder, if not impossible, to compress in this way. Shannon's formula gives the entropy H(M) of a message M in bits: H(M) = -log2 p(M) Where p(M) is the probability of message M.