🗊Презентация Байесовы сети. Вероятностное моделирование в Байесовых сетях

Категория: Математика
Нажмите для полного просмотра!
Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №1Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №2Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №3Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №4Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №5Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №6Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №7Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №8Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №9Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №10Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №11Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №12Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №13Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №14Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №15Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №16Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №17Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №18Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №19Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №20Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №21Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №22Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №23Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №24Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №25Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №26Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №27Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №28Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №29Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №30Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №31Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №32Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №33Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №34Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №35Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №36Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №37Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №38Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №39Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №40Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №41Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №42Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №43Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №44Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №45Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №46Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №47Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №48Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №49Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №50Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №51Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №52Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №53Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №54Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №55Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №56Байесовы сети. Вероятностное моделирование в Байесовых сетях, слайд №57

Содержание

Вы можете ознакомиться и скачать презентацию на тему Байесовы сети. Вероятностное моделирование в Байесовых сетях. Доклад-сообщение содержит 57 слайдов. Презентации для любого класса можно скачать бесплатно. Если материал и наш сайт презентаций Mypresentation Вам понравились – поделитесь им с друзьями с помощью социальных кнопок и добавьте в закладки в своем браузере.

Слайды и текст этой презентации


Слайд 1





Байесовы сети
Вероятностное моделирование в Байесовых сетях
Описание слайда:
Байесовы сети Вероятностное моделирование в Байесовых сетях

Слайд 2





Вероятностная трактовка данных
Процесс измерения сопряжен с экспериментальными погрешностями;
Изучаемая система является сложной, т.е. несводимой к сумме свойств отдельных компонент, и наблюдаемое многообразие данных может быть равновероятно объяснено великим множеством структурных описаний, при этом нельзя достоверно предпочесть ни одно из них;
Объем измерений конечен и не может считаться исчерпывающим описанием системы.
Описание слайда:
Вероятностная трактовка данных Процесс измерения сопряжен с экспериментальными погрешностями; Изучаемая система является сложной, т.е. несводимой к сумме свойств отдельных компонент, и наблюдаемое многообразие данных может быть равновероятно объяснено великим множеством структурных описаний, при этом нельзя достоверно предпочесть ни одно из них; Объем измерений конечен и не может считаться исчерпывающим описанием системы.

Слайд 3





Частотные (экспериментальные) вероятности
Предельный результат «бесконечного» числа испытаний в повторяющихся условиях;
Пример:
«Вероятность выпадения орла при бросании этой монеты равна 0.52»;
Вычисляется как доля «орлов» в пределе неограниченного числа попыток.
Описание слайда:
Частотные (экспериментальные) вероятности Предельный результат «бесконечного» числа испытаний в повторяющихся условиях; Пример: «Вероятность выпадения орла при бросании этой монеты равна 0.52»; Вычисляется как доля «орлов» в пределе неограниченного числа попыток.

Слайд 4





Байесовы вероятности (ожидания)
Количественное выражение степени ожиданий;
Пример:
«Вероятность того, что завтра будет дождь есть 0.3»;
«Завтра» нельзя повторить;
Ожидания субъективны и зависят от (индивидуальной) априорной информации;
Частотные распределения наблюдений являются частным случаем.
Описание слайда:
Байесовы вероятности (ожидания) Количественное выражение степени ожиданий; Пример: «Вероятность того, что завтра будет дождь есть 0.3»; «Завтра» нельзя повторить; Ожидания субъективны и зависят от (индивидуальной) априорной информации; Частотные распределения наблюдений являются частным случаем.

Слайд 5





Субъективные ожидания
Требуется оценить вероятность положительного исхода в каждой из трех ситуаций: 
Знатная леди утверждает, что она может отличить на вкус, был ли чай налит в сливки или наоборот – сливки в чай. Ей удалось это проделать 10 раз в течение бала;
Азартный игрок утверждает, что он может предсказать, орлом или решкой выпадет монета (которую вы ему дадите). Он смог выиграть такое пари уже 10 раз за этот вечер, ни разу не проиграв;
Эксперт в классической музыке декларирует, что он в состоянии различить творения Гайдна и Моцарта лишь по одной странице партитуры. Он уверенно проделал это 10 раз в музыкальной библиотеке.
Описание слайда:
Субъективные ожидания Требуется оценить вероятность положительного исхода в каждой из трех ситуаций: Знатная леди утверждает, что она может отличить на вкус, был ли чай налит в сливки или наоборот – сливки в чай. Ей удалось это проделать 10 раз в течение бала; Азартный игрок утверждает, что он может предсказать, орлом или решкой выпадет монета (которую вы ему дадите). Он смог выиграть такое пари уже 10 раз за этот вечер, ни разу не проиграв; Эксперт в классической музыке декларирует, что он в состоянии различить творения Гайдна и Моцарта лишь по одной странице партитуры. Он уверенно проделал это 10 раз в музыкальной библиотеке.

Слайд 6





О повторяемости условий 
случайных событий
Серия экспериментов с бросанием кубика, сделанного из сахара, на влажную поверхность стола. 
Вероятности исходов последующих испытаний зависят от относительной частоты исходов предыдущих испытаний, при этом исследуемая система каждый раз необратимо изменяется в результате каждого эксперимента.
Описание слайда:
О повторяемости условий случайных событий Серия экспериментов с бросанием кубика, сделанного из сахара, на влажную поверхность стола. Вероятности исходов последующих испытаний зависят от относительной частоты исходов предыдущих испытаний, при этом исследуемая система каждый раз необратимо изменяется в результате каждого эксперимента.

Слайд 7





Графы и вероятности: Байесовы сети
Случайные переменные – узлы ориентированного графа
Отношения прямой зависимости – ребра графа
Каждая переменная может зависеть только от некоторого множества своих соседей
Плотность совместной вероятности значений всех переменных редуцируется до произведения локальных условных плотностей
Описание слайда:
Графы и вероятности: Байесовы сети Случайные переменные – узлы ориентированного графа Отношения прямой зависимости – ребра графа Каждая переменная может зависеть только от некоторого множества своих соседей Плотность совместной вероятности значений всех переменных редуцируется до произведения локальных условных плотностей

Слайд 8





Преподобный Томас Байес
Преп. Томас Байес, математик, впервые использовавший вероятность в индуктивном смысле, и установивший основы вероятностного рассуждения и вывода.
Какова вероятность события в будущих испытаниях, основываясь на числе предыдущих испытаний, в которых это событие не произошло? Теорема Байеса связывает априорные и апостериорные вероятности причин после наблюдения следствий.
Труд «Essay Towards Solving a Problem in the Doctrine of Chances», Philosophical Transactions of the Royal Society of London (1763). 
Томас Байес похоронен на Bunhill Fields в центре Лондона (сейчас это парк).
Описание слайда:
Преподобный Томас Байес Преп. Томас Байес, математик, впервые использовавший вероятность в индуктивном смысле, и установивший основы вероятностного рассуждения и вывода. Какова вероятность события в будущих испытаниях, основываясь на числе предыдущих испытаний, в которых это событие не произошло? Теорема Байеса связывает априорные и апостериорные вероятности причин после наблюдения следствий. Труд «Essay Towards Solving a Problem in the Doctrine of Chances», Philosophical Transactions of the Royal Society of London (1763). Томас Байес похоронен на Bunhill Fields в центре Лондона (сейчас это парк).

Слайд 9





Эксперты и экспертные системы
«Логика» действий эксперта: 
Получение информации о состоянии окружающего мира
Принятие решения,  выбор действий, по поводу которых имеются определенные ожидания последствий 
Приобретение опыта путем сопоставления результатов действий и ожиданий и возврат к первому этапу.
Описание слайда:
Эксперты и экспертные системы «Логика» действий эксперта: Получение информации о состоянии окружающего мира Принятие решения, выбор действий, по поводу которых имеются определенные ожидания последствий Приобретение опыта путем сопоставления результатов действий и ожиданий и возврат к первому этапу.

Слайд 10





Особенности вывода суждений в условиях неопределенности
Суть приобретаемого знания в условиях неопределенности состоит в понимании, влияет ли полученная информация на наши ожидания относительно других событий. Основная причина трудностей при использовании систем, основанных на правилах, состоит в учете "сторонних", "косвенных" последствий наблюдаемых событий;
Сложности с интуитивным пониманием независимости: условная независимость, индуцированная зависимость, «попутное» объяснение.
Описание слайда:
Особенности вывода суждений в условиях неопределенности Суть приобретаемого знания в условиях неопределенности состоит в понимании, влияет ли полученная информация на наши ожидания относительно других событий. Основная причина трудностей при использовании систем, основанных на правилах, состоит в учете "сторонних", "косвенных" последствий наблюдаемых событий; Сложности с интуитивным пониманием независимости: условная независимость, индуцированная зависимость, «попутное» объяснение.

Слайд 11





Задача о траве Шерлока Холмса
Шерлок Холмс вышел из дома утром и заметил, что трава вокруг влажная. Он рассудил: «Я думаю, что ночью был дождь. Следовательно, трава возле дома моего соседа, доктора Ватсона, вероятно, также влажная». Таким образом, информация о состоянии травы у дома Холмса повлияла на его ожидания относительно влажности травы у дома Ватсона. 
Холмс проверил состояние сборника дождевой воды и обнаружил, что тот - сухой. В результате Холмс вынужден изменить ход своих рассуждений, и состояние травы возле его дома перестает влиять на ожидания по поводу травы у соседа. 
Помимо дождя, Холмс мог просто забыть выключить поливальную установку накануне. Допустим, на следующее утро Холмс снова обнаруживает, что трава влажная. Это повышает его субъективные вероятности и для прошедшего дождя, и по поводу забытой дождевальной установки. Затем Холмс замечает, что трава у дома Ватсона также влажная, и заключает, что ночью был дождь.
Описание слайда:
Задача о траве Шерлока Холмса Шерлок Холмс вышел из дома утром и заметил, что трава вокруг влажная. Он рассудил: «Я думаю, что ночью был дождь. Следовательно, трава возле дома моего соседа, доктора Ватсона, вероятно, также влажная». Таким образом, информация о состоянии травы у дома Холмса повлияла на его ожидания относительно влажности травы у дома Ватсона. Холмс проверил состояние сборника дождевой воды и обнаружил, что тот - сухой. В результате Холмс вынужден изменить ход своих рассуждений, и состояние травы возле его дома перестает влиять на ожидания по поводу травы у соседа. Помимо дождя, Холмс мог просто забыть выключить поливальную установку накануне. Допустим, на следующее утро Холмс снова обнаруживает, что трава влажная. Это повышает его субъективные вероятности и для прошедшего дождя, и по поводу забытой дождевальной установки. Затем Холмс замечает, что трава у дома Ватсона также влажная, и заключает, что ночью был дождь.

Слайд 12





Попутное объяснение (редукция причины, explaining away)
Влажность травы у дома Холмса объясняется дождем, и следовательно нет оснований продолжать ожидать, что была забыта включенной поливальная машина. Следовательно, возросшая, было, субъективная вероятность относительно забытой поливальной машины уменьшается до (практически) исходного значения, имевшего место до выхода Холмса из дома.
Описание слайда:
Попутное объяснение (редукция причины, explaining away) Влажность травы у дома Холмса объясняется дождем, и следовательно нет оснований продолжать ожидать, что была забыта включенной поливальная машина. Следовательно, возросшая, было, субъективная вероятность относительно забытой поливальной машины уменьшается до (практически) исходного значения, имевшего место до выхода Холмса из дома.

Слайд 13





Задача о траве Шерлока Холмса
Задача описывается Байесовой сетью с 4 переменными;
Причины влажности травы у дома Холмса – дождь и/или поливальная установка; 
Как меняются вероятности этих причин после поступления информации о сборнике дождевой воды и о влажности травы возле дома Ватсона?
Описание слайда:
Задача о траве Шерлока Холмса Задача описывается Байесовой сетью с 4 переменными; Причины влажности травы у дома Холмса – дождь и/или поливальная установка; Как меняются вероятности этих причин после поступления информации о сборнике дождевой воды и о влажности травы возле дома Ватсона?

Слайд 14





Отношения между переменными в Байесовых сетях
Последовательное соединение (a)
Влияние может распространяться от A к C и обратно, пока B не конкретизировано. 
Дивергентное соединение (b) 
Влияние может распространяться между потомками узла A, пока его значение не конкретизировано.
Конвергентное соединение (c) 
Если об A ничего не известно, кроме того, что может быть выведено из информации о его предках B,C,…,E, то эти переменные предки являются разделенными. При уточнении A открывается канал взаимного влияния между его предками.
Описание слайда:
Отношения между переменными в Байесовых сетях Последовательное соединение (a) Влияние может распространяться от A к C и обратно, пока B не конкретизировано. Дивергентное соединение (b) Влияние может распространяться между потомками узла A, пока его значение не конкретизировано. Конвергентное соединение (c) Если об A ничего не известно, кроме того, что может быть выведено из информации о его предках B,C,…,E, то эти переменные предки являются разделенными. При уточнении A открывается канал взаимного влияния между его предками.

Слайд 15





Индуцированная зависимость 
в конвергентных соединениях
Две переменные соответствуют независимым подбрасываниям двух разных монет;
Эти две переменные являются причинами для 3-й переменной-индикатора;
Если известно значение 3-й переменной, то первые две переменные становятся зависимыми: знание одной полностью определяет другую.
Описание слайда:
Индуцированная зависимость в конвергентных соединениях Две переменные соответствуют независимым подбрасываниям двух разных монет; Эти две переменные являются причинами для 3-й переменной-индикатора; Если известно значение 3-й переменной, то первые две переменные становятся зависимыми: знание одной полностью определяет другую.

Слайд 16





Сложности с интуитивным пониманием независимости
Индуцированная зависимость в конвергентных соединениях.
Explaining away – “попутное объяснение”.
Условная зависимость – мысленное выделение группы фактов, для которых значение обуславливающей переменной определено.
«Парадоксы»:
Доход, пол и возраст в обществе
Умственные и физические способности студентов колледжа
Описание слайда:
Сложности с интуитивным пониманием независимости Индуцированная зависимость в конвергентных соединениях. Explaining away – “попутное объяснение”. Условная зависимость – мысленное выделение группы фактов, для которых значение обуславливающей переменной определено. «Парадоксы»: Доход, пол и возраст в обществе Умственные и физические способности студентов колледжа

Слайд 17





Формализация понятия независимости: d-разделимость
Определение (d-разделимость). Две переменные A и B в Байесовой сети являются d-разделенными, если на каждом пути, соединяющем эти две вершины на графе, найдется промежуточная переменная V, такая что:
Соединение с V последовательное или дивергентное, и значение V известно, либо
Соединение конвергентное, и нет свидетельств ни о значении V, ни о каждом из ее потомков.
Описание слайда:
Формализация понятия независимости: d-разделимость Определение (d-разделимость). Две переменные A и B в Байесовой сети являются d-разделенными, если на каждом пути, соединяющем эти две вершины на графе, найдется промежуточная переменная V, такая что: Соединение с V последовательное или дивергентное, и значение V известно, либо Соединение конвергентное, и нет свидетельств ни о значении V, ни о каждом из ее потомков.

Слайд 18





Вероятности отдельных переменных
Условная вероятность – вероятность появления A при условии B («после» B)
Формула полной вероятности
Теорема Байеса
Описание слайда:
Вероятности отдельных переменных Условная вероятность – вероятность появления A при условии B («после» B) Формула полной вероятности Теорема Байеса

Слайд 19





Пример рассуждений на основе теоремы Байеса
Факт: в водоеме обнаружено загрязнение с превышением ПДК. 
Потенциальные источники - два предприятия, причем выбросы на первом происходят в 9 раз чаще, чем на втором. 
Только 15% сбросов первого предприятия превышают ПДК. Для второго предприятия эта вероятность равна 92%
Кто виноват?!
Описание слайда:
Пример рассуждений на основе теоремы Байеса Факт: в водоеме обнаружено загрязнение с превышением ПДК. Потенциальные источники - два предприятия, причем выбросы на первом происходят в 9 раз чаще, чем на втором. Только 15% сбросов первого предприятия превышают ПДК. Для второго предприятия эта вероятность равна 92% Кто виноват?!

Слайд 20





Байесова сеть
Байесова сеть состоит из следующих понятий и компонент:
Множество случайных переменных и направленных связей между переменными;
Каждая переменная может принимать одно из конечного множества взаимоисключающих значений;
Переменные вместе со связями образуют ориентированный граф без циклов; 
К каждой переменной-потомку A с переменными-предками B1,…,Bn приписывается таблица условных вероятностей 
P(A| B1,…,Bn)
Описание слайда:
Байесова сеть Байесова сеть состоит из следующих понятий и компонент: Множество случайных переменных и направленных связей между переменными; Каждая переменная может принимать одно из конечного множества взаимоисключающих значений; Переменные вместе со связями образуют ориентированный граф без циклов; К каждой переменной-потомку A с переменными-предками B1,…,Bn приписывается таблица условных вероятностей P(A| B1,…,Bn)

Слайд 21





Редукция полной вероятности в Байесовой сети
Редукция совместной вероятности распределения нескольких случайных переменных в Байесовой сети:


              - состояния всех переменных – предков для переменной Aj. Это выражение носит название цепного правила для полной вероятности.
Пример редукции вероятности в задаче Холмса:
4D


2D
Описание слайда:
Редукция полной вероятности в Байесовой сети Редукция совместной вероятности распределения нескольких случайных переменных в Байесовой сети: - состояния всех переменных – предков для переменной Aj. Это выражение носит название цепного правила для полной вероятности. Пример редукции вероятности в задаче Холмса: 4D 2D

Слайд 22





Вычисления в задаче Холмса
Описание слайда:
Вычисления в задаче Холмса

Слайд 23





Вычисления в задаче Холмса (продолжение)
Полные вероятности событий: 1) трава у дома Холмса оказалась влажной, 2) у дома Ватсона наблюдается то же самое.
Описание слайда:
Вычисления в задаче Холмса (продолжение) Полные вероятности событий: 1) трава у дома Холмса оказалась влажной, 2) у дома Ватсона наблюдается то же самое.

Слайд 24





Вычисления в задаче Холмса (продолжение)
Если известно, что был дождь, то вероятность наблюдения влажной травы повышается:
Описание слайда:
Вычисления в задаче Холмса (продолжение) Если известно, что был дождь, то вероятность наблюдения влажной травы повышается:

Слайд 25





Вычисления в задаче Холмса (продолжение)
Если Холмс выяснил, что трава у дома влажная, то каковы вероятности причин – дождя и поливальной установки? полученные вероятности выше априорных (0.3 и 0.2, соответственно):
Описание слайда:
Вычисления в задаче Холмса (продолжение) Если Холмс выяснил, что трава у дома влажная, то каковы вероятности причин – дождя и поливальной установки? полученные вероятности выше априорных (0.3 и 0.2, соответственно):

Слайд 26





Вычисления в задаче Холмса (продолжение)
Когда Холмс обнаружил, что трава у дома Ватсона также влажная, то вероятности причин изменились!
Описание слайда:
Вычисления в задаче Холмса (продолжение) Когда Холмс обнаружил, что трава у дома Ватсона также влажная, то вероятности причин изменились!

Слайд 27





Точные и приближенные вычисления в полномасштабных приложениях
При росте числа переменных и набора значений отдельных переменных сложность точных вычислений растет комбинаторно.
На практике широко используются приближенные алгоритмы:
Метод Монте-Карло (различные вариации, MCMC, …)
Вариационные методы
Belief propagation
Описание слайда:
Точные и приближенные вычисления в полномасштабных приложениях При росте числа переменных и набора значений отдельных переменных сложность точных вычислений растет комбинаторно. На практике широко используются приближенные алгоритмы: Метод Монте-Карло (различные вариации, MCMC, …) Вариационные методы Belief propagation

Слайд 28





Байесова сеть ASIA
Описание слайда:
Байесова сеть ASIA

Слайд 29





Метод выборок из латинских гиперкубов
Описание слайда:
Метод выборок из латинских гиперкубов

Слайд 30





Приближенные вычисления при помощи LHS
Описание слайда:
Приближенные вычисления при помощи LHS

Слайд 31





Приближенные вычисления при помощи LHS
В сложных сетях вычисления проводятся по цепочкам, от предков к потомкам. К розыгрышу очередной переменной можно приступать, когда значения всех ее предков в данном примере выборки уже установлены.
Сложность вычислений пропорциональна числу переменных и размеру выборки, т.е. определяется размером гиперкуба. 
Результат представляется в форме выборочных гистрограмм распределения интересующих переменных. 
Метод латинского гиперкуба применим и для моделирования непрерывных распределений. В этом случае для розыгрыша безусловных вероятностей используется известный метод обратных функций распределения.
Описание слайда:
Приближенные вычисления при помощи LHS В сложных сетях вычисления проводятся по цепочкам, от предков к потомкам. К розыгрышу очередной переменной можно приступать, когда значения всех ее предков в данном примере выборки уже установлены. Сложность вычислений пропорциональна числу переменных и размеру выборки, т.е. определяется размером гиперкуба. Результат представляется в форме выборочных гистрограмм распределения интересующих переменных. Метод латинского гиперкуба применим и для моделирования непрерывных распределений. В этом случае для розыгрыша безусловных вероятностей используется известный метод обратных функций распределения.

Слайд 32





Замечание о субъективных вероятностях и ожиданиях
Числовые значения вероятностей в Байесовых сетях могут быть как математическими вероятностями, так и субъективными, личностными, оценками ожиданий экспертов по поводу возможности осуществления событий. У разных лиц степень ожидания события может быть разной, это зависит от индивидуального опыта и объема априорной информации. 
Количественная оценка субъективных ожиданий: эксперту предлагается сделать выбор в игре с теоретически известной вероятностью альтернативы. Смена выбора происходит при выравнивании степени ожидания эксперта и теоретической вероятности. 
Субъективные ожидания - единственная альтернатива на практике, когда необходим учет мнения экспертов (например, врачей или социологов).
Описание слайда:
Замечание о субъективных вероятностях и ожиданиях Числовые значения вероятностей в Байесовых сетях могут быть как математическими вероятностями, так и субъективными, личностными, оценками ожиданий экспертов по поводу возможности осуществления событий. У разных лиц степень ожидания события может быть разной, это зависит от индивидуального опыта и объема априорной информации. Количественная оценка субъективных ожиданий: эксперту предлагается сделать выбор в игре с теоретически известной вероятностью альтернативы. Смена выбора происходит при выравнивании степени ожидания эксперта и теоретической вероятности. Субъективные ожидания - единственная альтернатива на практике, когда необходим учет мнения экспертов (например, врачей или социологов).

Слайд 33





Синтез Байесовой сети на основе априорной информации
Для построения Байесовой сети необходимо:
Сформулировать проблему в терминах вероятностей значений целевых переменных;
Выбрать понятийное пространство задачи, определить переменные, имеющие отношение к целевым переменным, описать возможные значения этих переменных;
Выбрать на основе опыта и имеющейся информации априорные вероятности значений переменных;
Описать отношения "причина-следствие" (как косвенные, так и прямые) в виде ориентированных ребер графа, разместив в узлах переменные задачи;
Для каждого узла графа, имеющего входные ребра указать оценки вероятностей различных значений переменной для комбинаций значений переменных-предков на графе.
Описание слайда:
Синтез Байесовой сети на основе априорной информации Для построения Байесовой сети необходимо: Сформулировать проблему в терминах вероятностей значений целевых переменных; Выбрать понятийное пространство задачи, определить переменные, имеющие отношение к целевым переменным, описать возможные значения этих переменных; Выбрать на основе опыта и имеющейся информации априорные вероятности значений переменных; Описать отношения "причина-следствие" (как косвенные, так и прямые) в виде ориентированных ребер графа, разместив в узлах переменные задачи; Для каждого узла графа, имеющего входные ребра указать оценки вероятностей различных значений переменной для комбинаций значений переменных-предков на графе.

Слайд 34





Байесово обучение параметров модели по экспериментальным данным
Если структура связей в сети зафиксирована, то обучение состоит в выборе свободных параметров распределений условных вероятностей. 
Пример: Однопараметрическая задача бросания монеты. Параметр θ – вероятность выпадения «орла». 
Пусть в N экспериментах «орел» выпал ровно h раз. Классическая оценка параметра равна выборочной частоте h/N. Это также является классическим прогнозом исхода следующего эксперимента.
В Байесовом подходе значение параметра  само является случайной величиной, распределение которой используется при прогнозировании исхода следующего бросания монеты.
Описание слайда:
Байесово обучение параметров модели по экспериментальным данным Если структура связей в сети зафиксирована, то обучение состоит в выборе свободных параметров распределений условных вероятностей. Пример: Однопараметрическая задача бросания монеты. Параметр θ – вероятность выпадения «орла». Пусть в N экспериментах «орел» выпал ровно h раз. Классическая оценка параметра равна выборочной частоте h/N. Это также является классическим прогнозом исхода следующего эксперимента. В Байесовом подходе значение параметра само является случайной величиной, распределение которой используется при прогнозировании исхода следующего бросания монеты.

Слайд 35





Байесово обучение параметров модели по экспериментальным данным
Функция правдоподобия данных - биномиальное распределение:



Априорная плотность распределения θ – бета-распределение:



Апостериорное распределение параметра дается теоремой Байеса:
Описание слайда:
Байесово обучение параметров модели по экспериментальным данным Функция правдоподобия данных - биномиальное распределение: Априорная плотность распределения θ – бета-распределение: Апостериорное распределение параметра дается теоремой Байеса:

Слайд 36





Прогноз исхода будущего эксперимента по Байесу
Вероятность выпадения «орла» в будущем эксперименте:



Вычисления для биномиального и бета-распределения:



«Физический смысл» результата: использование априорного распределения эквивалентно добавлению “искусственных” (полученных в гипотетических предыдущих экспериментах) отсчетов  «орлов» и  «решек» в экспериментальную серию.
Описание слайда:
Прогноз исхода будущего эксперимента по Байесу Вероятность выпадения «орла» в будущем эксперименте: Вычисления для биномиального и бета-распределения: «Физический смысл» результата: использование априорного распределения эквивалентно добавлению “искусственных” (полученных в гипотетических предыдущих экспериментах) отсчетов «орлов» и «решек» в экспериментальную серию.

Слайд 37





Обучение параметров Байесовой сети
Пусть задано множество обучающих примеров D, каждый элемент множества – вектор значений для всех переменных Байесовой сети.
Классическая схема – поиск максимума правдоподобия:



Байесов вариант –априорные вклады в матрицы вероятностей.
Переменные сети могут могут обучаться на отдельных наборах примеров, учитывающих значения только тех переменных, которые влияют на данную.
Условные вероятности в Баейсовой сети могут быть представлены нейронной сетью или другими удачными аппроксимациями плотности вероятности.
Описание слайда:
Обучение параметров Байесовой сети Пусть задано множество обучающих примеров D, каждый элемент множества – вектор значений для всех переменных Байесовой сети. Классическая схема – поиск максимума правдоподобия: Байесов вариант –априорные вклады в матрицы вероятностей. Переменные сети могут могут обучаться на отдельных наборах примеров, учитывающих значения только тех переменных, которые влияют на данную. Условные вероятности в Баейсовой сети могут быть представлены нейронной сетью или другими удачными аппроксимациями плотности вероятности.

Слайд 38





Представление распределений в Байесовых сетях вероятностными деревьями
Пусть имеется одна зависимая переменная                и задано  множество обучающих примеров                   .
Выберем дискретизацию переменной y так, что в каждый отрезок попадает одинаковое число наблюдений. 


Априорная заселенность всех интервалов одинакова, что соответствует максимуму энтропии:
Описание слайда:
Представление распределений в Байесовых сетях вероятностными деревьями Пусть имеется одна зависимая переменная и задано множество обучающих примеров . Выберем дискретизацию переменной y так, что в каждый отрезок попадает одинаковое число наблюдений. Априорная заселенность всех интервалов одинакова, что соответствует максимуму энтропии:

Слайд 39





Построение энтропийного дерева
Вся совокупность данных образует корень дерева, на котором (максимальное) значение энтропии отвечает полному отсутствию информации о возможном значении зависимой переменной.
Каждому узлу дерева (включая корень) приписывается решающее правило, разделяющее множество данных на два подмножества.
Правило выбирается из условия максимального уменьшения суммарной энтропии подмножеств: 



Каждое правило является максимально информативным – остаточная энтропия после его применения минимальна.
Описание слайда:
Построение энтропийного дерева Вся совокупность данных образует корень дерева, на котором (максимальное) значение энтропии отвечает полному отсутствию информации о возможном значении зависимой переменной. Каждому узлу дерева (включая корень) приписывается решающее правило, разделяющее множество данных на два подмножества. Правило выбирается из условия максимального уменьшения суммарной энтропии подмножеств: Каждое правило является максимально информативным – остаточная энтропия после его применения минимальна.

Слайд 40





Правила в узлах энтропийного дерева
Простейший класс правил – пороговый выбор по значению одного из аргументов. Наилучший аргумент определяется путем решения серии задач одномерной оптимизации. 
Иерархический процесс далее продолжается для подмножеств каждого узла. Процесс формально завершается по достижении нулевой энтропии для каждого узла самого нижнего уровня.
Описание слайда:
Правила в узлах энтропийного дерева Простейший класс правил – пороговый выбор по значению одного из аргументов. Наилучший аргумент определяется путем решения серии задач одномерной оптимизации. Иерархический процесс далее продолжается для подмножеств каждого узла. Процесс формально завершается по достижении нулевой энтропии для каждого узла самого нижнего уровня.

Слайд 41





Структура энтропийного дерева
В итоге, каждому узлу полученного дерева приписывается:
Эмпирическая оценка плотности условного распределения дискретизованной зависимой переменной (при условии отнесения примера к данному узлу);
Оценка выборочной энтропии распределения в этом узле;
Решающее правило, позволяющее выбрать дочернюю ветвь с дальнейшим уменьшением энтропии условного распределения.
Описание слайда:
Структура энтропийного дерева В итоге, каждому узлу полученного дерева приписывается: Эмпирическая оценка плотности условного распределения дискретизованной зависимой переменной (при условии отнесения примера к данному узлу); Оценка выборочной энтропии распределения в этом узле; Решающее правило, позволяющее выбрать дочернюю ветвь с дальнейшим уменьшением энтропии условного распределения.

Слайд 42





Плотность распределения в иерархиях энтропийного дерева
Представлена плотность вероятности распределения зависимой переменной при условии отнесения примера к данному узлу дерева
При обучении может использоваться регуляризирующий критерий останова по предельной сложности дерева
Описание слайда:
Плотность распределения в иерархиях энтропийного дерева Представлена плотность вероятности распределения зависимой переменной при условии отнесения примера к данному узлу дерева При обучении может использоваться регуляризирующий критерий останова по предельной сложности дерева

Слайд 43





Свойства энтропийных деревьев
При дроблении множества данных до нуля энтропии полученное дерево является, очевидно, переобученным, т.к. в нем полностью запомнен весь шум, содержавшийся в данных. На практике для оценок обобщающей способности можно воспользоваться методикой кросс-валидации на основе бутстрэп-выборок. 
Метод всегда сходится, по крайней мере, за (N-1) шагов. 
Вычислительная сложность метода невысока и ограничивается решением задач одномерной оптимизации на отрезке.
Описание слайда:
Свойства энтропийных деревьев При дроблении множества данных до нуля энтропии полученное дерево является, очевидно, переобученным, т.к. в нем полностью запомнен весь шум, содержавшийся в данных. На практике для оценок обобщающей способности можно воспользоваться методикой кросс-валидации на основе бутстрэп-выборок. Метод всегда сходится, по крайней мере, за (N-1) шагов. Вычислительная сложность метода невысока и ограничивается решением задач одномерной оптимизации на отрезке.

Слайд 44





Информационная значимость факторов
Информационный вклад различных входных переменных в снижение энтропии весьма неоднороден.
Все факторы (независимые переменные) можно упорядочить по степени уменьшения суммарной энтропии зависимой переменной, возникшей при использовании фактора в решающих правилах. Переменные, не использованные ни в одном из правил малозначимы.
Описание слайда:
Информационная значимость факторов Информационный вклад различных входных переменных в снижение энтропии весьма неоднороден. Все факторы (независимые переменные) можно упорядочить по степени уменьшения суммарной энтропии зависимой переменной, возникшей при использовании фактора в решающих правилах. Переменные, не использованные ни в одном из правил малозначимы.

Слайд 45





Примеры приложений Байесовых сетей
Естественной областью использования Байсовых сетей являются экспертные системы, которые нуждаются в средствах оперирования с вероятностями. 
Медицина
Система PathFinder (Heckerman, 1990) разработана для диагностики заболеваний лимфатических узлов. PathFinder включает 60 различных вариантов диагноза и 130 переменных, значения которых могут наблюдаться при изучении клинических случаев. Система смогла приблизиться к уровню экспертов, и ее версия PathFinder-4 получила коммерческое распространение.
Множество других разработок (Child, MUNIN, Painulim, SWAN и пр.) успешно применяются в различных медицинских приложениях [Jensen96].
Описание слайда:
Примеры приложений Байесовых сетей Естественной областью использования Байсовых сетей являются экспертные системы, которые нуждаются в средствах оперирования с вероятностями. Медицина Система PathFinder (Heckerman, 1990) разработана для диагностики заболеваний лимфатических узлов. PathFinder включает 60 различных вариантов диагноза и 130 переменных, значения которых могут наблюдаться при изучении клинических случаев. Система смогла приблизиться к уровню экспертов, и ее версия PathFinder-4 получила коммерческое распространение. Множество других разработок (Child, MUNIN, Painulim, SWAN и пр.) успешно применяются в различных медицинских приложениях [Jensen96].

Слайд 46





Байесова сеть ALARM в области медицинской диагностики
Описание слайда:
Байесова сеть ALARM в области медицинской диагностики

Слайд 47





Логическая архитектура Байесовой сети в полномасштабном приложении ALARM (медицина)
Описание слайда:
Логическая архитектура Байесовой сети в полномасштабном приложении ALARM (медицина)

Слайд 48





Описание переменных сети ALARM
Описание слайда:
Описание переменных сети ALARM

Слайд 49





Примеры приложений Байесовых сетей
Космические и военные применения
Система поддержки принятия решений Vista (Eric Horvitz) применяется в Центре управления полетами NASA (NASA Mission Control Center) в Хьюстоне. Система анализирует телеметрические данные и в реальном времени идентифицирует, какую информацию нужно выделить на диагностических дисплеях.
В исследовательской лаборатории МО Австралии Байесовы сетиприменяются в тактических задачах исследования операций. Учебная модель «Operation Dardanelles» охраны территориальной зоны с моря включает в себя различные тактические сценарии поведения конфликтующих сторон, данные о передвижении судов, данные разведнаблюдений, и другие переменные. Последовательное поступление информации о действиях противников позволяет синхронно прогнозировать вероятности различных действий в течение конфликта.
Описание слайда:
Примеры приложений Байесовых сетей Космические и военные применения Система поддержки принятия решений Vista (Eric Horvitz) применяется в Центре управления полетами NASA (NASA Mission Control Center) в Хьюстоне. Система анализирует телеметрические данные и в реальном времени идентифицирует, какую информацию нужно выделить на диагностических дисплеях. В исследовательской лаборатории МО Австралии Байесовы сетиприменяются в тактических задачах исследования операций. Учебная модель «Operation Dardanelles» охраны территориальной зоны с моря включает в себя различные тактические сценарии поведения конфликтующих сторон, данные о передвижении судов, данные разведнаблюдений, и другие переменные. Последовательное поступление информации о действиях противников позволяет синхронно прогнозировать вероятности различных действий в течение конфликта.

Слайд 50





Anti-Air Treat Identification Problem
Описание слайда:
Anti-Air Treat Identification Problem

Слайд 51





Anti-Air Treat Identification Problem
Описание слайда:
Anti-Air Treat Identification Problem

Слайд 52





Anti-Air Treat Identification Problem
Описание слайда:
Anti-Air Treat Identification Problem

Слайд 53





Примеры приложений Байесовых сетей
Компьютеры и системное программное обеспечение 
Microsoft: управление интерфейсными агентами в системе Office, в диагностике проблем работы принтеров и других справочных и wizard-подсистемах.
Обработка изображений и видео 
Восстановление 3D сцен из динамической 2D информации, синтез статических изображений высокой четкости из видеосигнала.
Финансы и экономика 
Оценка риска и прогноз доходности портфелей финансовых инструментов. Основные достоинства Байесовых сетей: возможность совместного учета количественных и качественных рыночных показателей, динамическое поступление новой информации, а также явные зависимости между существенными факторами, влияющими на финансовые показатели, наглядное игровое моделирование.
Описание слайда:
Примеры приложений Байесовых сетей Компьютеры и системное программное обеспечение Microsoft: управление интерфейсными агентами в системе Office, в диагностике проблем работы принтеров и других справочных и wizard-подсистемах. Обработка изображений и видео Восстановление 3D сцен из динамической 2D информации, синтез статических изображений высокой четкости из видеосигнала. Финансы и экономика Оценка риска и прогноз доходности портфелей финансовых инструментов. Основные достоинства Байесовых сетей: возможность совместного учета количественных и качественных рыночных показателей, динамическое поступление новой информации, а также явные зависимости между существенными факторами, влияющими на финансовые показатели, наглядное игровое моделирование.

Слайд 54





Компьтерный пакет Netica
Netica - мощная, удобная в работе программа для работы с графовыми вероятностными моделями. Коммерчески доступна с 1995 г. В настоящее время Netica является одним из наиболее широко используемых инструментов для разработки Байсовых сетей.
Описание слайда:
Компьтерный пакет Netica Netica - мощная, удобная в работе программа для работы с графовыми вероятностными моделями. Коммерчески доступна с 1995 г. В настоящее время Netica является одним из наиболее широко используемых инструментов для разработки Байсовых сетей.

Слайд 55





Ресурсы Интернет по Байесовым сетям
http://www.auai.org/  - Ассоциация Анализа Неопределенности в Искусственном Интеллекте (Association for Uncertainty in Artificial Intelligence - AUAI)
http://www.norsys.com/  - Norsys Software Corp (NETICA)
http://www.kic.com/  - Компания Knowledge Industries
http://www.data-digest.com/  - Data Digest Corporation
http://www.hugin.com/ - Компания HUGIN Expert
http://www.bayesware.com/ - Компания BayesWare, Ltd
http://stat.rutgers.edu/~madigan/bayes_people.html - Персональные страницы специалистов по Байесовым методам
Описание слайда:
Ресурсы Интернет по Байесовым сетям http://www.auai.org/ - Ассоциация Анализа Неопределенности в Искусственном Интеллекте (Association for Uncertainty in Artificial Intelligence - AUAI) http://www.norsys.com/ - Norsys Software Corp (NETICA) http://www.kic.com/ - Компания Knowledge Industries http://www.data-digest.com/ - Data Digest Corporation http://www.hugin.com/ - Компания HUGIN Expert http://www.bayesware.com/ - Компания BayesWare, Ltd http://stat.rutgers.edu/~madigan/bayes_people.html - Персональные страницы специалистов по Байесовым методам

Слайд 56





Итоги
Байесовы вероятностные методы обучения машин являются существенным шагом вперед, в сравнении с популярными моделями "черных ящиков". Они дают понятное объяснение своих выводов, допускают логическую интерпретацию и модификацию структуры отношений между переменными задачи, а также позволяют в явной форме учесть априорный опыт экспертов.
Благодаря удачному представлению в виде графов, Байесовы сети весьма удобны в пользовательских приложениях. 
Байесовы сети базируются на фундаментальных положениях и результатах  теории вероятностей, разрабатываемых в течение нескольких сотен лет, что и лежит в основе их успеха в практической плоскости. Редукция совместного распределения вероятностей в виде произведения условных вероятностей, зависящих от малого числа переменных, позволяет избежать “комбинаторных взрывов” при моделировании.
Описание слайда:
Итоги Байесовы вероятностные методы обучения машин являются существенным шагом вперед, в сравнении с популярными моделями "черных ящиков". Они дают понятное объяснение своих выводов, допускают логическую интерпретацию и модификацию структуры отношений между переменными задачи, а также позволяют в явной форме учесть априорный опыт экспертов. Благодаря удачному представлению в виде графов, Байесовы сети весьма удобны в пользовательских приложениях. Байесовы сети базируются на фундаментальных положениях и результатах теории вероятностей, разрабатываемых в течение нескольких сотен лет, что и лежит в основе их успеха в практической плоскости. Редукция совместного распределения вероятностей в виде произведения условных вероятностей, зависящих от малого числа переменных, позволяет избежать “комбинаторных взрывов” при моделировании.

Слайд 57





Перспективы
Байесова методология, в действительности, шире, чем семейство способов оперирования с условными вероятностями в ориентированных графах. Она включает в себя также модели с симметричными связями (случайные поля и решетки), модели динамических процессов (Марковские цепи), а также широкий класс моделей со скрытыми переменными, позволяющих решать вероятностные задачи классификации, распознавания образов и прогнозирования. 
Новые области применений:
Динамические процессы и динамическое программирование
Оптимальное управление стохастическими системами 
Принятие решений в автономных интеллектуальных системах
Описание слайда:
Перспективы Байесова методология, в действительности, шире, чем семейство способов оперирования с условными вероятностями в ориентированных графах. Она включает в себя также модели с симметричными связями (случайные поля и решетки), модели динамических процессов (Марковские цепи), а также широкий класс моделей со скрытыми переменными, позволяющих решать вероятностные задачи классификации, распознавания образов и прогнозирования. Новые области применений: Динамические процессы и динамическое программирование Оптимальное управление стохастическими системами Принятие решений в автономных интеллектуальных системах



Похожие презентации
Mypresentation.ru
Загрузить презентацию