🗊Презентация Теорема Шеннона

Категория: Математика
Нажмите для полного просмотра!
Теорема Шеннона, слайд №1Теорема Шеннона, слайд №2Теорема Шеннона, слайд №3Теорема Шеннона, слайд №4Теорема Шеннона, слайд №5Теорема Шеннона, слайд №6Теорема Шеннона, слайд №7Теорема Шеннона, слайд №8

Вы можете ознакомиться и скачать презентацию на тему Теорема Шеннона. Доклад-сообщение содержит 8 слайдов. Презентации для любого класса можно скачать бесплатно. Если материал и наш сайт презентаций Mypresentation Вам понравились – поделитесь им с друзьями с помощью социальных кнопок и добавьте в закладки в своем браузере.

Слайды и текст этой презентации


Слайд 1





Презентация по теме: «Формула Шеннона. Использование формулы Шеннона»
Подготовил студент группы 13Т
Приказчик
Никита
Описание слайда:
Презентация по теме: «Формула Шеннона. Использование формулы Шеннона» Подготовил студент группы 13Т Приказчик Никита

Слайд 2






Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например, если монета несимметрична (одна сторона тяжелее другой), то при ее бросании вероятности выпадения "орла" и "решки" будут различаться.
Формулу для вычисления количества информации в случае различных вероятностей событий предложил К. Шеннон в 1948 году. В этом случае количество информации определяется по формуле:
I - количество информации;
N - количество возможных событий;
рi - вероятность i-го события.
Описание слайда:
Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например, если монета несимметрична (одна сторона тяжелее другой), то при ее бросании вероятности выпадения "орла" и "решки" будут различаться. Формулу для вычисления количества информации в случае различных вероятностей событий предложил К. Шеннон в 1948 году. В этом случае количество информации определяется по формуле: I - количество информации; N - количество возможных событий; рi - вероятность i-го события.

Слайд 3






Например, пусть при бросании несимметричной четырехгранной пирамидки вероятности отдельных событий будут равны:Р1 = 1/2, р2 = 1/4, р3 = 1/8, р4 = 1/8.
Тогда количество информации, которое мы получим после реализации одного из них, можно рассчитать по формуле:I = -(l/2 log2l/2 + l/4 log2l/4 + l/8 log2l/8 + l/8 log2l/8) = (1/2 + 2/4 + 3/8 + 3/8) битов = 14/8 битов = 1,75 бита.
Этот подход к определению количества информации называется вероятностным.
Для частного, но широко распространенного и рассмотренного выше случая, когда события равновероятны (pi= 1/N), величину количества информации I можно рассчитать по формуле:
Описание слайда:
Например, пусть при бросании несимметричной четырехгранной пирамидки вероятности отдельных событий будут равны:Р1 = 1/2, р2 = 1/4, р3 = 1/8, р4 = 1/8. Тогда количество информации, которое мы получим после реализации одного из них, можно рассчитать по формуле:I = -(l/2 log2l/2 + l/4 log2l/4 + l/8 log2l/8 + l/8 log2l/8) = (1/2 + 2/4 + 3/8 + 3/8) битов = 14/8 битов = 1,75 бита. Этот подход к определению количества информации называется вероятностным. Для частного, но широко распространенного и рассмотренного выше случая, когда события равновероятны (pi= 1/N), величину количества информации I можно рассчитать по формуле:

Слайд 4






По формуле можно определить, например, количество информации, которое мы получим при бросании симметричной и однородной четырехгранной пирамидки:
I = log24 = 2 бита. Таким образом, при бросании симметричной пирамидки, когда события равновероятны, мы получим большее количество информации (2 бита), чем при бросании несимметричной (1,75 бита), когда события неравновероятны.
Количество информации, которое мы получаем, достигает максимального значения, если события равновероятны.
Описание слайда:
По формуле можно определить, например, количество информации, которое мы получим при бросании симметричной и однородной четырехгранной пирамидки: I = log24 = 2 бита. Таким образом, при бросании симметричной пирамидки, когда события равновероятны, мы получим большее количество информации (2 бита), чем при бросании несимметричной (1,75 бита), когда события неравновероятны. Количество информации, которое мы получаем, достигает максимального значения, если события равновероятны.

Слайд 5






Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить так: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.
Формула Шеннона совпала по форме с формулой Больцмана, полученной на 70 лет ранее для измерения термодинамической энтропии идеального газа. Эта связь между количеством информации и термодинамической энтропией послужила сначала причиной горячих дискуссий, а затем – ключом к решению ряда научных проблем. В самом общем случае энтропия понимается как мера неупорядоченности, неорганизованности материальных систем.
Описание слайда:
Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить так: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии. Формула Шеннона совпала по форме с формулой Больцмана, полученной на 70 лет ранее для измерения термодинамической энтропии идеального газа. Эта связь между количеством информации и термодинамической энтропией послужила сначала причиной горячих дискуссий, а затем – ключом к решению ряда научных проблем. В самом общем случае энтропия понимается как мера неупорядоченности, неорганизованности материальных систем.

Слайд 6






В 1948 году, исследуя проблему рациональной передачи информации через зашумлённый коммуникационный канал, Клод Шеннон предложил революционный вероятностный подход к пониманию коммуникаций и создал первую, истинно математическую, теорию энтропии. Его сенсационные идеи быстро послужили основой разработки двух основных направлений: теории информации, которая использует понятие вероятности и эргодическую теорию для изучения статистических характеристик данных и коммуникационных систем, и теории кодирования, в которой используются главным образом алгебраические и геометрические инструменты для разработки эффективных кодов.
Понятие энтропии, как меры случайности, введено Шенноном в его статье «Математическая теория связи» (англ. A Mathematical Theory of Communication), опубликованной в двух частях в Bell System Technical Journal в 1948 году.
Описание слайда:
В 1948 году, исследуя проблему рациональной передачи информации через зашумлённый коммуникационный канал, Клод Шеннон предложил революционный вероятностный подход к пониманию коммуникаций и создал первую, истинно математическую, теорию энтропии. Его сенсационные идеи быстро послужили основой разработки двух основных направлений: теории информации, которая использует понятие вероятности и эргодическую теорию для изучения статистических характеристик данных и коммуникационных систем, и теории кодирования, в которой используются главным образом алгебраические и геометрические инструменты для разработки эффективных кодов. Понятие энтропии, как меры случайности, введено Шенноном в его статье «Математическая теория связи» (англ. A Mathematical Theory of Communication), опубликованной в двух частях в Bell System Technical Journal в 1948 году.

Слайд 7






Задача.
 В озере обитает 12500 окуней, 25000 пескарей, а карасей и щук по 6250. Какое количество информации несет сообщение о ловле рыбы каждого вида. Сколько информации мы получим, когда поймаем какую-нибудь рыбу?
Дано: Ко=12500; Кп=25000; Кк= Кщ=6250
Найти: Iо, Iп, Iк, Iщ, I
Решение: Найдем общее количество рыбы: N= Ко+Кп+Кк+Кщ. Найдем вероятность ловли каждого вида рыбы: pо= Ко/N; pп= Кп/N; pк= pщ= Кк/N. Найдем количество информации о ловле рыбы каждого вида: Iо= log2( 1/pо); Iп=log2 (1/pп ); Iк= Iщ= log2 (1/pк ) Найдем количество информации о ловле рыбы любого вида: I= pо∙log2pо+ pп∙log2pп +pк∙log2pк +pщ∙log2pщ
Описание слайда:
Задача. В озере обитает 12500 окуней, 25000 пескарей, а карасей и щук по 6250. Какое количество информации несет сообщение о ловле рыбы каждого вида. Сколько информации мы получим, когда поймаем какую-нибудь рыбу? Дано: Ко=12500; Кп=25000; Кк= Кщ=6250 Найти: Iо, Iп, Iк, Iщ, I Решение: Найдем общее количество рыбы: N= Ко+Кп+Кк+Кщ. Найдем вероятность ловли каждого вида рыбы: pо= Ко/N; pп= Кп/N; pк= pщ= Кк/N. Найдем количество информации о ловле рыбы каждого вида: Iо= log2( 1/pо); Iп=log2 (1/pп ); Iк= Iщ= log2 (1/pк ) Найдем количество информации о ловле рыбы любого вида: I= pо∙log2pо+ pп∙log2pп +pк∙log2pк +pщ∙log2pщ

Слайд 8





Вопросы:
1.Формула Шеннона.
2.Для чего используется Формула Шеннона?
3.
Описание слайда:
Вопросы: 1.Формула Шеннона. 2.Для чего используется Формула Шеннона? 3.



Похожие презентации
Mypresentation.ru
Загрузить презентацию