Форум программистов, компьютерный форум CyberForum.ru

С++ для начинающих

Войти
Регистрация
Восстановить пароль
 
Invader_Zim
Twilight Parasite
153 / 149 / 2
Регистрация: 21.07.2011
Сообщений: 907
#1

Задача на энтропию - C++

30.09.2012, 22:51. Просмотров 585. Ответов 0
Метки нет (Все метки)

Условие: Оценить энтропию информации:
угадывании месяца или дня рождения трех незнакомых вам студентов

Если можно, в развернутом виде, пожалуйста.
Заранее спасибо.
Similar
Эксперт
41792 / 34177 / 6122
Регистрация: 12.04.2006
Сообщений: 57,940
30.09.2012, 22:51     Задача на энтропию
Посмотрите здесь:

Рассчитать энтропию - C++
Вообщем дан файл в котором 256 строчек с цифрами след. формата: 0.0 5.004132579488561E-6 1.0842287255558548E-5 ...

Вычислить стандартную энтропию - Химия
Изменение энтропии при стандартных условиях для реакции 2H2S(г)+3О2(г)=2SO2(г)+2Н2О(ж) равно -390,28 Дж/К. Вычислить стандартную энтропию...

Определить энтропию системы... - Pascal
Буду очень признателен за помощь! Задача: Определить энтропию системы, состоящая из 5 подсистем, каждая из которых может иметь с...

Найти энтропию слова - C#
Само задание:Слово из m символов, каждый символ может быть одной из 2 букв, значения которых заданы в таблицы. Определите энтропию этого...

Найти энтропию непрерывного сообщения - Теория вероятностей
Определить значение энтропии H(x) по заданному аналитическому выражению плотности вероятностей W(x) для закона распределения Симпсона: ...

Теория вероятностей: задачи на энтропию - MathCAD
Крайне требуется ваша помошь) 1. В каком случае менее предсказуем исход: в том, когда подбрасываем монету, или в том, когда угадываем пол...

Найти энтропию дискретной случайной величины - Теория вероятностей
идеальная кость подбрасывается один раз. случайная величина А равна 1, если выпавшее число делится на 3, и равно 0 в противном случае....

Нужно посчитать энтропию распределения Пуассона - Теория вероятностей
Нужно посчитать энтропию распределения Пуассона! чем подробнее,тем лучше! Заранее спасибо! Добавлено через 5 часов 55 минут с...

Имеются три дискретных источника информации, вычислить энтропию - Теория вероятностей
Имеются три дискретных источника информации Х=(x1,x2,x3), Y=(y1,y2), Z=(z1,z2). Вероятности появления их сообщений P(X)=\left(1-...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
После регистрации реклама в сообщениях будет скрыта и будут доступны все возможности форума.
Ответ Создать тему
Опции темы

КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin® Version 3.8.9
Copyright ©2000 - 2017, vBulletin Solutions, Inc.
Рейтинг@Mail.ru