УЧЕБНИКИ
ДЛЯ ВУЗОВ

   
Точное логическое определение понятий - условие истинного знания.
Сократ

Учебники для вузов: Новинки



Для связи: info@vuz-uchebniki.ru




высшее образование / учебники для вузов / литература для студентов и педагогов / литература для аспирантов


Jesse Russell

Entropy (information theory)




   
Книга по Требованию, 2013
Страниц: 100
High Quality Content by WIKIPEDIA articles! In information theory, entropy is a measure of the uncertainty in a random variable. In this context, the term usually refers to the Shannon entropy, which quantifies the expected value of the information contained in a message. Entropy is typically measured in bits, nats, or bans. Данное издание представляет собой компиляцию сведений, находящихся в свободном доступе в среде Интернет в целом, и в информационном сетевом ресурсе "Википедия" в частности. Собранная по частотным запросам указанной тематики, данная компиляция построена по принципу подбора близких информационных ссылок, не имеет самостоятельного сюжета, не содержит никаких аналитических материалов, выводов, оценок морального, этического, политического, религиозного и мировоззренческого характера в отношении главной тематики, представляя собой исключительно фактологический материал.
Категории каталога:
Основы информатики






Студенту на заметку:
Школьников, испытывающих трудности со счетом, приглашают к участию в программе [Калькулярисk
Подать заявку на обучение можно до 30 мая


Школьников приглашают к участию в экологическом конкурсе [7Яk
Конкурс посвящен вторичному использованию техники