Entropy (information theory)

Entropy (information theory)

История цены История цены
 
998 Р
27332153
В наличии
30/06/2015
 
High Quality Content by WIKIPEDIA articles! In information theory, entropy is a measure of the uncertainty in a random variable. In this context, the term usually refers to the Shannon entropy, which quantifies the expected value of the information contained in a message. Entropy is typically measured in bits, nats, or bans. Данное издание представляет собой компиляцию сведений, находящихся в свободном доступе в среде Интернет в целом, и в информационном сетевом ресурсе "Википедия" в частности. Собранная по частотным запросам указанной тематики, данная компиляция построена по принципу подбора близких информационных ссылок, не имеет самостоятельного сюжета, не содержит никаких аналитических материалов, выводов, оценок морального, этического, политического, религиозного и мировоззренческого характера в отношении главной тематики, представляя собой исключительно фактологический материал.