Форум программистов, компьютерный форум, киберфорум
Информатика
Войти
Регистрация
Восстановить пароль
Карта форума Темы раздела Блоги Сообщество Поиск Заказать работу  
 
Рейтинг 4.92/12: Рейтинг темы: голосов - 12, средняя оценка - 4.92
5 / 6 / 4
Регистрация: 18.11.2009
Сообщений: 661
1

Мера неопределенности

19.11.2018, 04:23. Показов 2295. Ответов 3
Метки нет (Все метки)

Author24 — интернет-сервис помощи студентам
Вопрос может глупый. Но
Пусть например надо угадать натуральное число в диапазоне 1..N О загаданном числе ничего не известно
Энтропия (Неопределенность) по Хартли H=LOG2(N) Например при N=16 H=4бит
Действительно можно угадать число методом деления интервала его нахождения пополам задав 4 вопроса
Хорошо, а что будет если мы сознательно откажемся от этого метода а используем метод случайного выбора (метод тыка)?
Количество вопросов будет случайной величиной X
Прн этом X=1 c вероятностью P1=1/N
Если при 1 попытки не угадали, то вероятность угадывания при 2-й попытке P2= (N-1)/N *1/(N-1)=1/N
и т.д Т.е количество попыток угадвания равномерно распределенная дискретн случайная величина с матожиданием
K=1*P1+2*P2+...N*Pn=(1+2+...N)/N=N*(N-1)/(2*N)=(N-1)/2
даже в случае ошибки этих рассуждений неопределенность будет грубо равна половине N а не логарифму.

Что здесь ошибка? Неопределенность зависит от метода угадывания или не зависит и строго соответствует двоичному поиску?
--------------------------------------------------------------------------------------

Мне не нравятся задачи скажем ЕГ по информатике где тупо предлагают оценить информационный объем сообщения в отрыве от неопределенности
Как быть с тем что информация это разность неопределенностей до и после опыта (априорной и апостериорной)
0
Лучшие ответы (1)
Programming
Эксперт
94731 / 64177 / 26122
Регистрация: 12.04.2006
Сообщений: 116,782
19.11.2018, 04:23
Ответы с готовыми решениями:

Мера Лебега
Добрый день, помогите пожалуйста с заданием. Как из свойства непрерывности меры следует, что мера...

Мера Лебега
Пусть m - мера Лебега на R, E=. Является ли последовательность функций сходящейся равномерно,...

Косинусная мера
По алгоритму косинусная мера создать сортированный список похожих на магнит файл прилагается...

Мера Лебега
Как теоретически обосновать , что мера Q\bigcap =0

3
Эксперт по математике/физике
3390 / 1913 / 571
Регистрация: 09.04.2015
Сообщений: 5,365
19.11.2018, 15:35 2
Лучший ответ Сообщение было отмечено eugrita как решение

Решение

Цитата Сообщение от eugrita Посмотреть сообщение
а используем метод случайного выбора (метод тыка)?
А почему Вы использовали метод "тыка" без возврата, ведь можно еще и порассуждать о методе "тыка" с возвратом.
Когда берется N карточек, случайным образом извлекается одна и задается вопрос "Это правильное число?", если ответ нет то карточка возвращается в общую кучу, куча перемешивается и делается следующая попытка угадать. И используя такой подход можно не угадать и с 2*N попыток, и даже с 3*N попыток.

Но исходная задача ведь поставлена совсем иначе. Необходимо определить с какого минимального числа попыток можно гарантированно определить загаданное число, при условии что можно задавать любой вопрос, но в качестве ответа Вы получаете всего один бит информации (то есть ответ только Да/Нет).
0
Платежеспособный зверь
8926 / 4354 / 1642
Регистрация: 28.10.2009
Сообщений: 11,568
20.11.2018, 20:19 3
Цитата Сообщение от eugrita Посмотреть сообщение
Мне не нравятся задачи скажем ЕГ по информатике где тупо предлагают оценить информационный объем сообщения в отрыве от неопределенности
Как быть с тем что информация это разность неопределенностей до и после опыта (априорной и апостериорной)
У Вас каша в голове, вы путаете божий дар с яичницей, это следствие поверхностного изучения информатики.
Если бы Вы удосужились посерьёзнее почитать учебники, то узнали бы, что существует ДВА!!! подхода к измерению информации:
1) вероятностный, о котором вы тут говорили
2) алфавитно-цифровой, в котором допускается, что все символы алфавита встречаются в тексте с одинаковой частотой (равновероятно), и количество информации, которое несет каждый символ, вычисляется по формуле Хартли.
а Вы попытались свалить всё в одну кучу, выставив себя полным профаном.
0
5 / 6 / 4
Регистрация: 18.11.2009
Сообщений: 661
21.11.2018, 01:00  [ТС] 4
Я естественно имею представление о вероятностном подходе - формуле Шеннона и даже более сложных ее модификациях - взаимной энтропии, Энтропии выраженной в терминах непрерывного распределения, т.е. через интегралы.
Я только заметил (легко проверить сайт https://inf-ege.sdamgia.ru или купите Сборник по ЕГ информатика)
Что задачи алфавитного подхода там есть, а задач вероятностного подхода там нет. Хотя в инете немало презентаций и выложенных задач школьных учителей именно на вероятностный подход.

Я бы сказал что каша не у меня в голове, а скорее в учебниках информатики, напр. Макаровой.
Где приводится классификация подходов к измерению информации как алфавитный (объемный), семантическая мера и -прагматическая мера. А дальше тупо дают задний ход почти не уточняя и не приводя количественные меры
Интересно как со всем этим соотнести вероятностный подход где информация - мера уменьшения неопределенности знаний?
Каких знаний? Конкретного человека? -они неполны, субъективны или может быть объективных знаний? Когда угадываем число в диапазоне - все понимают одинаково, А скажем, знают физику все по разному.Одни хуже, другие лучше, разные разделы. В зависимости неопределенность от каких знаний -опять скатываемся к прагматической или тезаурусной мере/

Добавлено через 7 минут
Задавая 1-й вопрос я догадывался об ответе, но к сожалению в материалах где я читал не было акцента или вовсе об МИНИМАЛЬНОМ числе вопросов-попыток

Добавлено через 18 минут
А в качестве примера неопределенности измерений какого-то параметра можно взять доверительный интервал, скажем с 95% надежностью нахожления с.в. в нем. Что, тогда мера неопределенности H=log(1/p)=log(1/095)=log(1,05)=0.05
( равенство- приближенное). А уточнение(уменьшение доверительного интервала в результате дополнительных измерений тоже можно трактовать как уменьшение неопределенности?

Я не хочу оправдываться в своей безграмотности. Возможно я виноват, возможно нечеткая терминология в литературе, приводящая к путанице. Я попытался на тему подходов к информации и ее измерению написать обзор (вроде краткого реферата). Желающие могут скачать вложение и прочитать и сделать замечания
0
21.11.2018, 01:00
IT_Exp
Эксперт
87844 / 49110 / 22898
Регистрация: 17.06.2006
Сообщений: 92,604
21.11.2018, 01:00
Помогаю со студенческими работами здесь

Массив и мера близости.
Здравствуйте форумчани, нужна ваша помощь. Знаю Паскаль, а с Бейсиком(как это не смешно)...

Мера зависимости величин
Хай, форум! Где-то когда-то слышал, что существуют специальные тесты, определяющие степень...

ТФДП: Мера множеств
Прошу помощи. Вопрос такой: Верно ли утверждение: "Если |А|=|В|, С содержится в А, С содержится в...

Английская мера длины
Привет! Мозг уже не хочет со мной работать. Подскажите пожалуйста, как можно рассчитать среднее...

Мера Жордана ,Лебега
Когда граница множества может иметь меру Лебега или Жордана не нуль ?

Раскрытие неопределенности
Добрый вечер. Подскажите пожалуйста, вот у меня есть пример Limx->0 X*ln^3X. Нужно раскрыть...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
4
Ответ Создать тему
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2024, CyberForum.ru