🗊Презентация Распознавание образов. Общая модель кибернетики: черный ящик

Категория: Математика
Нажмите для полного просмотра!
Распознавание образов. Общая модель кибернетики: черный ящик, слайд №1Распознавание образов. Общая модель кибернетики: черный ящик, слайд №2Распознавание образов. Общая модель кибернетики: черный ящик, слайд №3Распознавание образов. Общая модель кибернетики: черный ящик, слайд №4Распознавание образов. Общая модель кибернетики: черный ящик, слайд №5Распознавание образов. Общая модель кибернетики: черный ящик, слайд №6Распознавание образов. Общая модель кибернетики: черный ящик, слайд №7Распознавание образов. Общая модель кибернетики: черный ящик, слайд №8Распознавание образов. Общая модель кибернетики: черный ящик, слайд №9Распознавание образов. Общая модель кибернетики: черный ящик, слайд №10Распознавание образов. Общая модель кибернетики: черный ящик, слайд №11Распознавание образов. Общая модель кибернетики: черный ящик, слайд №12Распознавание образов. Общая модель кибернетики: черный ящик, слайд №13Распознавание образов. Общая модель кибернетики: черный ящик, слайд №14Распознавание образов. Общая модель кибернетики: черный ящик, слайд №15Распознавание образов. Общая модель кибернетики: черный ящик, слайд №16Распознавание образов. Общая модель кибернетики: черный ящик, слайд №17Распознавание образов. Общая модель кибернетики: черный ящик, слайд №18Распознавание образов. Общая модель кибернетики: черный ящик, слайд №19Распознавание образов. Общая модель кибернетики: черный ящик, слайд №20Распознавание образов. Общая модель кибернетики: черный ящик, слайд №21Распознавание образов. Общая модель кибернетики: черный ящик, слайд №22Распознавание образов. Общая модель кибернетики: черный ящик, слайд №23Распознавание образов. Общая модель кибернетики: черный ящик, слайд №24Распознавание образов. Общая модель кибернетики: черный ящик, слайд №25Распознавание образов. Общая модель кибернетики: черный ящик, слайд №26Распознавание образов. Общая модель кибернетики: черный ящик, слайд №27Распознавание образов. Общая модель кибернетики: черный ящик, слайд №28Распознавание образов. Общая модель кибернетики: черный ящик, слайд №29Распознавание образов. Общая модель кибернетики: черный ящик, слайд №30Распознавание образов. Общая модель кибернетики: черный ящик, слайд №31Распознавание образов. Общая модель кибернетики: черный ящик, слайд №32Распознавание образов. Общая модель кибернетики: черный ящик, слайд №33Распознавание образов. Общая модель кибернетики: черный ящик, слайд №34Распознавание образов. Общая модель кибернетики: черный ящик, слайд №35Распознавание образов. Общая модель кибернетики: черный ящик, слайд №36Распознавание образов. Общая модель кибернетики: черный ящик, слайд №37Распознавание образов. Общая модель кибернетики: черный ящик, слайд №38Распознавание образов. Общая модель кибернетики: черный ящик, слайд №39Распознавание образов. Общая модель кибернетики: черный ящик, слайд №40Распознавание образов. Общая модель кибернетики: черный ящик, слайд №41Распознавание образов. Общая модель кибернетики: черный ящик, слайд №42Распознавание образов. Общая модель кибернетики: черный ящик, слайд №43Распознавание образов. Общая модель кибернетики: черный ящик, слайд №44Распознавание образов. Общая модель кибернетики: черный ящик, слайд №45Распознавание образов. Общая модель кибернетики: черный ящик, слайд №46

Содержание

Вы можете ознакомиться и скачать презентацию на тему Распознавание образов. Общая модель кибернетики: черный ящик. Доклад-сообщение содержит 46 слайдов. Презентации для любого класса можно скачать бесплатно. Если материал и наш сайт презентаций Mypresentation Вам понравились – поделитесь им с друзьями с помощью социальных кнопок и добавьте в закладки в своем браузере.

Слайды и текст этой презентации


Слайд 1





Распознавание Образов
Pattern Recognition
Описание слайда:
Распознавание Образов Pattern Recognition

Слайд 2





Общая модель кибернетики: 
Черный ящик
1
Описание слайда:
Общая модель кибернетики: Черный ящик 1

Слайд 3





Общая модель кибернетики
Общая ситуация – черный ящик:
		Варианты задач:
Построение модели – регрессия.
			Y = F ( x )
Построение модели – нейрокомпьютинг.
		Несколько десятков парадигм!
Задачи распознавания образов –классификация.
Задача кластеризации.
Описание слайда:
Общая модель кибернетики Общая ситуация – черный ящик: Варианты задач: Построение модели – регрессия. Y = F ( x ) Построение модели – нейрокомпьютинг. Несколько десятков парадигм! Задачи распознавания образов –классификация. Задача кластеризации.

Слайд 4





Определения
Предмет распознавания образов (классификация) объединяет ряд научных дисциплин. Их связывает поиск решения общей задачи - выделить элементы, принадлежащие конкретному классу, среди множества элементов, относящихся к нескольким классам. Под классом образов понимается некоторая категория, с рядом свойств, общих для всех ее элементов. 
Образ ( класс ) - это описание любого элемента как представителя соответствующего класса образов. Элементы класса имеют общую метку, метку принадлежности данному классу.
Описание слайда:
Определения Предмет распознавания образов (классификация) объединяет ряд научных дисциплин. Их связывает поиск решения общей задачи - выделить элементы, принадлежащие конкретному классу, среди множества элементов, относящихся к нескольким классам. Под классом образов понимается некоторая категория, с рядом свойств, общих для всех ее элементов. Образ ( класс ) - это описание любого элемента как представителя соответствующего класса образов. Элементы класса имеют общую метку, метку принадлежности данному классу.

Слайд 5





Простой пример
Распознавание больных гриппом:
Х- температура; Y-число лейкоцитов
Пространство признаков – решающее правило
Описание слайда:
Простой пример Распознавание больных гриппом: Х- температура; Y-число лейкоцитов Пространство признаков – решающее правило

Слайд 6





Непараметрические методы
Метод ближайшего соседа.
Метод к-ближайших соседей.
Метод потенциальных функций.
Метод «парзеновских» окон.
Описание слайда:
Непараметрические методы Метод ближайшего соседа. Метод к-ближайших соседей. Метод потенциальных функций. Метод «парзеновских» окон.

Слайд 7





Идеи эвристик распознавания_1
Метод ближайшего соседа является, пожалуй, самым простым алгоритмом классификации. Классифицируемый объект относится к тому классу , которому принадлежит ближайший объект обучающей выборки .
Метод k-ближайших соседей. Для повышения надёжности классификации объект относится к тому классу, которому принадлежит большинство из его соседей — ближайших к нему объектов обучающей выборки. В задачах с двумя классами число соседей берут нечётным, чтобы не возникало ситуаций неоднозначности, когда одинаковое число соседей принадлежат разным классам.
Описание слайда:
Идеи эвристик распознавания_1 Метод ближайшего соседа является, пожалуй, самым простым алгоритмом классификации. Классифицируемый объект относится к тому классу , которому принадлежит ближайший объект обучающей выборки . Метод k-ближайших соседей. Для повышения надёжности классификации объект относится к тому классу, которому принадлежит большинство из его соседей — ближайших к нему объектов обучающей выборки. В задачах с двумя классами число соседей берут нечётным, чтобы не возникало ситуаций неоднозначности, когда одинаковое число соседей принадлежат разным классам.

Слайд 8





Идеи эвристик распознавания_2
Метод взвешенных ближайших соседей. В задачах с числом классов 3 и более нечётность уже не помогает, и ситуации неоднозначности всё равно могут возникать. Тогда i-му соседу приписывается вес, как правило, убывающий с ростом ранга соседа. Объект относится к тому классу, который набирает больший суммарный вес среди ближайших соседей.
Описание слайда:
Идеи эвристик распознавания_2 Метод взвешенных ближайших соседей. В задачах с числом классов 3 и более нечётность уже не помогает, и ситуации неоднозначности всё равно могут возникать. Тогда i-му соседу приписывается вес, как правило, убывающий с ростом ранга соседа. Объект относится к тому классу, который набирает больший суммарный вес среди ближайших соседей.

Слайд 9





Примеры задач классификации
Описание слайда:
Примеры задач классификации

Слайд 10





Способы определения классов объектов
		Перечисление. 
Каждый класс задаётся путём прямого указания его членов. Такой подход используется в том случае, если доступна полная априорная информация о всех возможных объектах распознавания. Предъявляемые системе образы сравниваются с заданными описаниями представителей классов и относятся к тому классу, которому принадлежат наиболее сходные с ними образцы. Такой подход называют методом сравнения с эталоном. Его недостатком является слабая устойчивость к шумам и искажениям в распознаваемых образах.
Описание слайда:
Способы определения классов объектов Перечисление. Каждый класс задаётся путём прямого указания его членов. Такой подход используется в том случае, если доступна полная априорная информация о всех возможных объектах распознавания. Предъявляемые системе образы сравниваются с заданными описаниями представителей классов и относятся к тому классу, которому принадлежат наиболее сходные с ними образцы. Такой подход называют методом сравнения с эталоном. Его недостатком является слабая устойчивость к шумам и искажениям в распознаваемых образах.

Слайд 11





Способы определения классов объектов
Пример. Распознавание машинопечатного шрифта. Все символы имеют чётко заданное шрифтом начертание. Следовательно, необходимо обучить систему путём прямого указания изображений всех распознаваемых символов (т.е. путём задания эталонов):
		А Б В ..... а б в ... 1 2 3 ....
Необходимо отметить, что если предполагается распознавание курсивного, полужирного или иного начертания символов шрифта, то при таком подходе будет необходимо представить каждый вариант начертания каждого символа. Кроме того, способность распознавания линейных трансформаций данных эталонов требует определённых усилий на этапе предобработки.
Описание слайда:
Способы определения классов объектов Пример. Распознавание машинопечатного шрифта. Все символы имеют чётко заданное шрифтом начертание. Следовательно, необходимо обучить систему путём прямого указания изображений всех распознаваемых символов (т.е. путём задания эталонов): А Б В ..... а б в ... 1 2 3 .... Необходимо отметить, что если предполагается распознавание курсивного, полужирного или иного начертания символов шрифта, то при таком подходе будет необходимо представить каждый вариант начертания каждого символа. Кроме того, способность распознавания линейных трансформаций данных эталонов требует определённых усилий на этапе предобработки.

Слайд 12





Способы определения классов объектов
		Задание общих свойств. 
Класс задаётся указанием некоторых признаков, присущих всем его членам. Распознаваемый объект в таком случае не сравнивается напрямую с группой эталонных объектов. В его первичном описании выделяются значения определённого набора признаков, которые затем сравниваются с заданными признаками классов. При этом для каждого признака может задаваться требование либо к его наличию/отсутствию, либо к нахождению его числового значения в установленных пределах. Такой подход называется сопоставлением по признакам. Он экономичнее метода сравнения с эталоном в вопросе количества памяти, необходимой для хранения описаний классов. Кроме того, он допускает некоторую вариативность распознаваемых образов. Однако, главной сложностью является определение полного набора признаков, точно отличающих членов одного класса от членов всех остальных.
Описание слайда:
Способы определения классов объектов Задание общих свойств. Класс задаётся указанием некоторых признаков, присущих всем его членам. Распознаваемый объект в таком случае не сравнивается напрямую с группой эталонных объектов. В его первичном описании выделяются значения определённого набора признаков, которые затем сравниваются с заданными признаками классов. При этом для каждого признака может задаваться требование либо к его наличию/отсутствию, либо к нахождению его числового значения в установленных пределах. Такой подход называется сопоставлением по признакам. Он экономичнее метода сравнения с эталоном в вопросе количества памяти, необходимой для хранения описаний классов. Кроме того, он допускает некоторую вариативность распознаваемых образов. Однако, главной сложностью является определение полного набора признаков, точно отличающих членов одного класса от членов всех остальных.

Слайд 13





Способы определения классов объектов
Пример. Распознавание цифр почтовых индексов. Рассматривается набор из 10-ти цифр почтового индекса. Каждый символ - представляет класс распознаваемых объектов — одну из цифр. Все эти изображения построены по одному принципу — с помощью комбинирования вертикальных, горизонтальных и диагональных сегментов в определённых позициях знакомест. Для описания классов предлагаются следующие признаки:
x1 — количество вертикальных линий минимального размера;
x2 — количество горизонтальных линий;
x3 — количество наклонных линий;
x4 — количество горизонтальных линий снизу объекта.
С помощью этих признаков можно следующим образом задать классы цифр:
Описание слайда:
Способы определения классов объектов Пример. Распознавание цифр почтовых индексов. Рассматривается набор из 10-ти цифр почтового индекса. Каждый символ - представляет класс распознаваемых объектов — одну из цифр. Все эти изображения построены по одному принципу — с помощью комбинирования вертикальных, горизонтальных и диагональных сегментов в определённых позициях знакомест. Для описания классов предлагаются следующие признаки: x1 — количество вертикальных линий минимального размера; x2 — количество горизонтальных линий; x3 — количество наклонных линий; x4 — количество горизонтальных линий снизу объекта. С помощью этих признаков можно следующим образом задать классы цифр:

Слайд 14





Способы определения классов объектов
  x1 x2 x3 x4
0 4  2   0    1
1 2  0   1    0
2 1  2   1    1
3 0  2   2    0
4 3  1   0    0
5 2  3   0    1
6 2  2   1    1
7 1  1   1    0
8 4  3   0    1
9 2  2   1    0
Заметим, что набор выбранных признаков не является единственным. Качество распознавания во многом зависит от того, насколько удачно выбран набор признаков.
Описание слайда:
Способы определения классов объектов x1 x2 x3 x4 0 4 2 0 1 1 2 0 1 0 2 1 2 1 1 3 0 2 2 0 4 3 1 0 0 5 2 3 0 1 6 2 2 1 1 7 1 1 1 0 8 4 3 0 1 9 2 2 1 0 Заметим, что набор выбранных признаков не является единственным. Качество распознавания во многом зависит от того, насколько удачно выбран набор признаков.

Слайд 15





Общие принципы распознавания
Методика отнесения элемента к какому-либо образу называется решающим правилом. 
Еще одно важное понятие - метрика, способ определения расстояния между элементами универсального множества. Чем меньше это расстояние, тем более похожими являются образы, символы, звуки - то, что мы распознаем.
Описание слайда:
Общие принципы распознавания Методика отнесения элемента к какому-либо образу называется решающим правилом. Еще одно важное понятие - метрика, способ определения расстояния между элементами универсального множества. Чем меньше это расстояние, тем более похожими являются образы, символы, звуки - то, что мы распознаем.

Слайд 16





Гипотеза компактности 
	Классификация, распознавание, кластеризация - неявно опираются на одно важное предположение, называемое гипотезой компактности: если система признаков и мера сходства объектов введена достаточно удачно, то схожие объекты гораздо чаще лежат в одном классе, чем в разных. В этом случае граница между классами имеет достаточно простую форму, а классы образуют компактно локализованные области в пространстве признаков.
Описание слайда:
Гипотеза компактности Классификация, распознавание, кластеризация - неявно опираются на одно важное предположение, называемое гипотезой компактности: если система признаков и мера сходства объектов введена достаточно удачно, то схожие объекты гораздо чаще лежат в одном классе, чем в разных. В этом случае граница между классами имеет достаточно простую форму, а классы образуют компактно локализованные области в пространстве признаков.

Слайд 17





Проблема выбора метрики_1
В практических задачах классификации редко встречаются такие «идеальные случаи», когда заранее известна хорошая функция расстояния. Если объекты описываются числовыми векторами, часто берут евклидову метрику. Этот выбор, как правило, ничем не обоснован — просто это первое, что приходит в голову. При этом необходимо помнить, что все признаки должны быть измерены «в одном масштабе», т.е. отнормированы. В противном случае признак с наибольшими числовыми значениями будет доминировать в метрике, остальные признаки, фактически, учитываться не будут.
Описание слайда:
Проблема выбора метрики_1 В практических задачах классификации редко встречаются такие «идеальные случаи», когда заранее известна хорошая функция расстояния. Если объекты описываются числовыми векторами, часто берут евклидову метрику. Этот выбор, как правило, ничем не обоснован — просто это первое, что приходит в голову. При этом необходимо помнить, что все признаки должны быть измерены «в одном масштабе», т.е. отнормированы. В противном случае признак с наибольшими числовыми значениями будет доминировать в метрике, остальные признаки, фактически, учитываться не будут.

Слайд 18





Проблема выбора метрики_2
Однако и нормировка является весьма сомнительной эвристикой, так как остаётся вопрос: «неужели все признаки одинаково значимы и должны учитываться примерно с одинаковым весом?»
Описание слайда:
Проблема выбора метрики_2 Однако и нормировка является весьма сомнительной эвристикой, так как остаётся вопрос: «неужели все признаки одинаково значимы и должны учитываться примерно с одинаковым весом?»

Слайд 19





Об информативности признаков
Если признаков слишком много, а расстояние вычисляется как сумма отклонений по отдельным признакам, то возникает проблема проклятия размерности. Суммы большого числа отклонений с большой вероятностью имеют очень близкие значения (согласно закону больших чисел). Получается, что в пространстве высокой размерности все объекты примерно одинаково далеки друг от друга; выбор ближайших соседей становится практически произвольным. 
Проблема определения информативности признаков - отбор относительно небольшого числа информативных признаков (features selection).
Описание слайда:
Об информативности признаков Если признаков слишком много, а расстояние вычисляется как сумма отклонений по отдельным признакам, то возникает проблема проклятия размерности. Суммы большого числа отклонений с большой вероятностью имеют очень близкие значения (согласно закону больших чисел). Получается, что в пространстве высокой размерности все объекты примерно одинаково далеки друг от друга; выбор ближайших соседей становится практически произвольным. Проблема определения информативности признаков - отбор относительно небольшого числа информативных признаков (features selection).

Слайд 20





Задача кластеризации
Задачи кластеризации (clustering) отличаются от классификации (classification) тем, что в них не задаются ответы y(i) = y∗x(i). Известны только сами объекты x(i), и требуется разбить выборку на подмножества (кластеры) так, чтобы каждый кластер состоял из схожих объектов, а объекты разных кластеров существенно отличались.
Описание слайда:
Задача кластеризации Задачи кластеризации (clustering) отличаются от классификации (classification) тем, что в них не задаются ответы y(i) = y∗x(i). Известны только сами объекты x(i), и требуется разбить выборку на подмножества (кластеры) так, чтобы каждый кластер состоял из схожих объектов, а объекты разных кластеров существенно отличались.

Слайд 21





Методологии распознавания
Статистический подход: непараметрические методы.
Распознавание по образцу
Статистический подход: основан на теории принятия решений.
Структурно-лингвистический подход
Нейросетевой подход.
Описание слайда:
Методологии распознавания Статистический подход: непараметрические методы. Распознавание по образцу Статистический подход: основан на теории принятия решений. Структурно-лингвистический подход Нейросетевой подход.

Слайд 22





Алгоритм «ближайшего соседа» или распознавание «по образцу»
	Простейший алгоритм на основе метода множества эталонов. 
На входе имеется обучающая выборка - набор примеров A'ij для каждого образа Ai, метрика d и сам распознаваемый объект x. 
С помощью метрики вычисляем расстояние от x до каждого элемента обучающей выборки d(x, aij) 
Элемент x относится к образу, который окажется ближе всех.
Описание слайда:
Алгоритм «ближайшего соседа» или распознавание «по образцу» Простейший алгоритм на основе метода множества эталонов. На входе имеется обучающая выборка - набор примеров A'ij для каждого образа Ai, метрика d и сам распознаваемый объект x. С помощью метрики вычисляем расстояние от x до каждого элемента обучающей выборки d(x, aij) Элемент x относится к образу, который окажется ближе всех.

Слайд 23





Распознавание по образцу
1
Описание слайда:
Распознавание по образцу 1

Слайд 24





Этап обучения – этап распознавания
Этап обучения – этап распознавания ! ! ! 
Обучение с учителем – обучение без учителя.
Множество выборок Y k разбивается на
 c классов: Y 1 , Y 2 , … , Y c .
Для выборок каждого класса считаются соответствующие векторы признаков z.
Получаем так называемое «помеченное обучающее множество». 
.
Описание слайда:
Этап обучения – этап распознавания Этап обучения – этап распознавания ! ! ! Обучение с учителем – обучение без учителя. Множество выборок Y k разбивается на c классов: Y 1 , Y 2 , … , Y c . Для выборок каждого класса считаются соответствующие векторы признаков z. Получаем так называемое «помеченное обучающее множество». .

Слайд 25





Обучение с учителем
1
Описание слайда:
Обучение с учителем 1

Слайд 26





Статистический подход
Основу статистического подхода к задаче распознавания образов, составляет Байесовская теория принятия решений. 
Подход основан на предположении, что задача выбора решения сформулирована в терминах теории вероятностей и известны все необходимые вероятностные величины. 
Предполагается, что каждый объект с некоторой заранее неизвестной вероятностью может принадлежать к любому из имеющихся классов. Решение при этом обычно выдается в виде вероятности принадлежности распознаваемого объекта к различным классам.
Описание слайда:
Статистический подход Основу статистического подхода к задаче распознавания образов, составляет Байесовская теория принятия решений. Подход основан на предположении, что задача выбора решения сформулирована в терминах теории вероятностей и известны все необходимые вероятностные величины. Предполагается, что каждый объект с некоторой заранее неизвестной вероятностью может принадлежать к любому из имеющихся классов. Решение при этом обычно выдается в виде вероятности принадлежности распознаваемого объекта к различным классам.

Слайд 27





Априорная вероятность 
В байесовском статистическом выводе априорное распределение вероятностей ( prior probability distribution) неопределённой величины p — распределение вероятностей, которое выражает предположения о p до учёта экспериментальных данных. Например, если p — доля избирателей, готовых голосовать за определённого кандидата, то априорным распределением будет предположение о p до учёта результатов опросов или выборов.
Описание слайда:
Априорная вероятность В байесовском статистическом выводе априорное распределение вероятностей ( prior probability distribution) неопределённой величины p — распределение вероятностей, которое выражает предположения о p до учёта экспериментальных данных. Например, если p — доля избирателей, готовых голосовать за определённого кандидата, то априорным распределением будет предположение о p до учёта результатов опросов или выборов.

Слайд 28





Апостериорная вероятность
Априорное распределение часто задается субъективно опытным экспертом или по известной выборке.
Апостерио́рная вероя́тность — условная вероятность случайного события при условии того, что известны апостериорные данные, т.е. полученные после опыта.
Описание слайда:
Апостериорная вероятность Априорное распределение часто задается субъективно опытным экспертом или по известной выборке. Апостерио́рная вероя́тность — условная вероятность случайного события при условии того, что известны апостериорные данные, т.е. полученные после опыта.

Слайд 29





Обозначения
Ω - множество состояний природы.
А – множество из а возможных действий.
λij (αi | Ωj) – потери, связанные с принятием αi , когда Ωj - (вероятность правильного распознавания или другое).
z – вектор признаков, случайная величина.
p( z | Ωj ) – условная плотность распределения.
Ƥ(Ωj) – априорная вероятность, что состояние природы Ωj .
Описание слайда:
Обозначения Ω - множество состояний природы. А – множество из а возможных действий. λij (αi | Ωj) – потери, связанные с принятием αi , когда Ωj - (вероятность правильного распознавания или другое). z – вектор признаков, случайная величина. p( z | Ωj ) – условная плотность распределения. Ƥ(Ωj) – априорная вероятность, что состояние природы Ωj .

Слайд 30





Правило Байеса 

Ƥ (Ω j | z ) = p ( z | Ω j ) Ƥ (Ω j) / p ( z ),

p ( z ) = Σ p ( z | Ω j ) Ƥ (Ω j) 

Позволяет, после измерения z, из априорной вероятности получить апостериорную.
Описание слайда:
Правило Байеса Ƥ (Ω j | z ) = p ( z | Ω j ) Ƥ (Ω j) / p ( z ), p ( z ) = Σ p ( z | Ω j ) Ƥ (Ω j) Позволяет, после измерения z, из априорной вероятности получить апостериорную.

Слайд 31





Классификация для 2-х классов
Апостериорная вероятность
Ожидаемые потери – риск – R.
Найти min R.
Классификация в случае 2-х классов:
принять решение Ω1 
p( z | Ω1 )/p( z| Ω2 ) > (λ12 - λ22)/(λ21 - λ11) x 
	
	x Ƥ(Ω2)/Ƥ(Ω1) , при λ21 > λ11
Описание слайда:
Классификация для 2-х классов Апостериорная вероятность Ожидаемые потери – риск – R. Найти min R. Классификация в случае 2-х классов: принять решение Ω1 p( z | Ω1 )/p( z| Ω2 ) > (λ12 - λ22)/(λ21 - λ11) x x Ƥ(Ω2)/Ƥ(Ω1) , при λ21 > λ11

Слайд 32





Что есть в теории ?
Вероятности ошибок.
Нормальный закон распределения.
Разделяющие функции – разделяющие плоскости.
Случай зависимости Ƥ (Ω j) от контекста.
Параметризация при недостаточной статистике ( нормальный закон) - критерий максимума правдоподобия.
Описание слайда:
Что есть в теории ? Вероятности ошибок. Нормальный закон распределения. Разделяющие функции – разделяющие плоскости. Случай зависимости Ƥ (Ω j) от контекста. Параметризация при недостаточной статистике ( нормальный закон) - критерий максимума правдоподобия.

Слайд 33





Рассуждения на основе прецедентов
	Парадигма CBR (Case Based-Reasoning), возникла как одно из направлений ИИ. В ЭС важно не только классифицировать объекты, но и выдавать пользователю объяснение предлагаемой классификации. В методе ближайшего соседа такие объяснения выглядят весьма разумно: «Объект отнесён к классу потому, что к этому же классу относился близкий объект обучающей выборки». Такая «прецедентная» логика хорошо понятна экспертам во многих предметных областях.
Описание слайда:
Рассуждения на основе прецедентов Парадигма CBR (Case Based-Reasoning), возникла как одно из направлений ИИ. В ЭС важно не только классифицировать объекты, но и выдавать пользователю объяснение предлагаемой классификации. В методе ближайшего соседа такие объяснения выглядят весьма разумно: «Объект отнесён к классу потому, что к этому же классу относился близкий объект обучающей выборки». Такая «прецедентная» логика хорошо понятна экспертам во многих предметных областях.

Слайд 34





Структурно-лингвистический подход
Основан на теории формальных грамматик. ( К.Фу )
Буква(символ) — простой неделимый знак.
Алфавит — множество букв (символов) A={a, b, c}. 
Конкатенация — операция слияния символов в языке.
Описание слайда:
Структурно-лингвистический подход Основан на теории формальных грамматик. ( К.Фу ) Буква(символ) — простой неделимый знак. Алфавит — множество букв (символов) A={a, b, c}. Конкатенация — операция слияния символов в языке.

Слайд 35





Структурно-лингвистический подход_2
Слово (строка) — упорядоченная совокупность букв из алфавита. 
Множество всех строк (включая пустую), которые могут быть построены из символов алфавита A, называется замыканием A, и обозначается A*. Положительное замыкание A (обозначается A+) — множество всех строк, которые могут быть построены из символов алфавита A, за исключением пустой строки.
Язык — в общем случае, совокупность слов или предложений, сформированных набором правил и ограничений.
Описание слайда:
Структурно-лингвистический подход_2 Слово (строка) — упорядоченная совокупность букв из алфавита. Множество всех строк (включая пустую), которые могут быть построены из символов алфавита A, называется замыканием A, и обозначается A*. Положительное замыкание A (обозначается A+) — множество всех строк, которые могут быть построены из символов алфавита A, за исключением пустой строки. Язык — в общем случае, совокупность слов или предложений, сформированных набором правил и ограничений.

Слайд 36





Классификация грамматик
Иерархия Хомского — классификация формальных языков и формальных грамматик, согласно которой они делятся на 4 типа по их условной сложности. Предложена профессором Массачусетского технологического института, лингвистом Ноамом Хомским.
Наиболее известная работа Хомского «Синтаксические структуры» (1957).
Описание слайда:
Классификация грамматик Иерархия Хомского — классификация формальных языков и формальных грамматик, согласно которой они делятся на 4 типа по их условной сложности. Предложена профессором Массачусетского технологического института, лингвистом Ноамом Хомским. Наиболее известная работа Хомского «Синтаксические структуры» (1957).

Слайд 37





Обозначения
VT — множество (словарь) терминальных символов – неизменяемый элемент (буква) алфавита.
VN — множество (словарь) дополнительных нетерминальных символов. 
Имена символов могут содержать буквы, цифры (но не начинаться с цифры), знаки подчёркивания и точки.
P — множество продукций (правил подстановки) грамматики.
S — начальный символ.
Описание слайда:
Обозначения VT — множество (словарь) терминальных символов – неизменяемый элемент (буква) алфавита. VN — множество (словарь) дополнительных нетерминальных символов. Имена символов могут содержать буквы, цифры (но не начинаться с цифры), знаки подчёркивания и точки. P — множество продукций (правил подстановки) грамматики. S — начальный символ.

Слайд 38





Грамматика – Тип 0
	Тип 0 — неограниченные
К типу 0 по классификации Хомского относятся неограниченные грамматики (также известные как грамматики с фразовой структурой). Это — все без исключения формальные грамматики. Для грамматики G(VT,VN,P, S), V=VT∪VN все правила имеют вид:
	 α  β, где  α — любая цепочка, содержащая хотя бы один нетерминальный символ, а  β— любая цепочка символов из алфавита V.
Описание слайда:
Грамматика – Тип 0 Тип 0 — неограниченные К типу 0 по классификации Хомского относятся неограниченные грамматики (также известные как грамматики с фразовой структурой). Это — все без исключения формальные грамматики. Для грамматики G(VT,VN,P, S), V=VT∪VN все правила имеют вид: α  β, где α — любая цепочка, содержащая хотя бы один нетерминальный символ, а β— любая цепочка символов из алфавита V.

Слайд 39





Грамматика – Тип 1
Тип 1 — контекстно-зависимые
К этому типу относятся контекстно-зависимые (КЗ) грамматики и неукорачивающие грамматики. Для грамматики G(VT,VN,P, S), V=VT∪VN все правила имеют вид:
αAβ→αγβ, где α, β∈V*, γ∈V+, A∈VN. Такие грамматики относят к контекстно-зависимым.
α→β, где α, β∈V+, |α|≤|β|. Такие грамматики относят к неукорачивающим.
Эти классы грамматик эквивалентны. Могут использоваться при анализе текстов на естественных языках, однако при построении компиляторов практически не используются в силу своей сложности. Для контекстно-зависимых грамматик доказано утверждение: по некоторому алгоритму за конечное число шагов можно установить, принадлежит цепочка терминальных символов данному языку или нет.
Описание слайда:
Грамматика – Тип 1 Тип 1 — контекстно-зависимые К этому типу относятся контекстно-зависимые (КЗ) грамматики и неукорачивающие грамматики. Для грамматики G(VT,VN,P, S), V=VT∪VN все правила имеют вид: αAβ→αγβ, где α, β∈V*, γ∈V+, A∈VN. Такие грамматики относят к контекстно-зависимым. α→β, где α, β∈V+, |α|≤|β|. Такие грамматики относят к неукорачивающим. Эти классы грамматик эквивалентны. Могут использоваться при анализе текстов на естественных языках, однако при построении компиляторов практически не используются в силу своей сложности. Для контекстно-зависимых грамматик доказано утверждение: по некоторому алгоритму за конечное число шагов можно установить, принадлежит цепочка терминальных символов данному языку или нет.

Слайд 40





Грамматика – Тип 2
Тип 2 — контекстно-свободные
К этому типу относятся контекстно-свободные (КС) грамматики. Для грамматики G(VT,VN,P, S), V=VT∪VN все правила имеют вид:
A→β, где β∈V+ (для неукорачивающих КС-грамматик, β∈V* - для укорачивающих), A∈VN. То есть грамматика допускает появление в левой части правила только нетерминального символа.
КС-грамматики широко применяются для описания синтаксиса компьютерных языков.
Описание слайда:
Грамматика – Тип 2 Тип 2 — контекстно-свободные К этому типу относятся контекстно-свободные (КС) грамматики. Для грамматики G(VT,VN,P, S), V=VT∪VN все правила имеют вид: A→β, где β∈V+ (для неукорачивающих КС-грамматик, β∈V* - для укорачивающих), A∈VN. То есть грамматика допускает появление в левой части правила только нетерминального символа. КС-грамматики широко применяются для описания синтаксиса компьютерных языков.

Слайд 41





Грамматика – Тип 3
Тип 3 — регулярные
К третьему типу относятся регулярные грамматики (автоматные) — самые простые из формальных грамматик. Они являются контекстно-свободными, но с ограниченными возможностями.
Все регулярные грамматики могут быть разделены на два эквивалентных класса, которые для грамматики вида III будут иметь правила следующего вида:
A→Bγ или A→γ, где γ∈VT*, A, B∈VN (для леволинейных грамматик).
A→γB; или A→γ, где γ∈VT*, A, B∈VN (для праволинейных грамматик).
Регулярные грамматики применяются для описания простейших конструкций: идентификаторов, строк, констант, а также языков ассемблера, командных процессоров и др.
Описание слайда:
Грамматика – Тип 3 Тип 3 — регулярные К третьему типу относятся регулярные грамматики (автоматные) — самые простые из формальных грамматик. Они являются контекстно-свободными, но с ограниченными возможностями. Все регулярные грамматики могут быть разделены на два эквивалентных класса, которые для грамматики вида III будут иметь правила следующего вида: A→Bγ или A→γ, где γ∈VT*, A, B∈VN (для леволинейных грамматик). A→γB; или A→γ, где γ∈VT*, A, B∈VN (для праволинейных грамматик). Регулярные грамматики применяются для описания простейших конструкций: идентификаторов, строк, констант, а также языков ассемблера, командных процессоров и др.

Слайд 42





Структурно-лингвистический подход_3
Выделяется набор исходных понятий - типичных фрагментов, встречающихся на изображениях, и характеристик взаимного расположения фрагментов - "слева", "снизу", "внутри" и т. д. 
Эти исходные понятия образуют словарь, позволяющий строить различные логические высказывания, иногда называемые предположениями. 
Задача состоит в том, чтобы из большого количества высказываний, которые могли бы быть построены с использованием этих понятий, отобрать наиболее существенные для данного конкретного случая.
Описание слайда:
Структурно-лингвистический подход_3 Выделяется набор исходных понятий - типичных фрагментов, встречающихся на изображениях, и характеристик взаимного расположения фрагментов - "слева", "снизу", "внутри" и т. д. Эти исходные понятия образуют словарь, позволяющий строить различные логические высказывания, иногда называемые предположениями. Задача состоит в том, чтобы из большого количества высказываний, которые могли бы быть построены с использованием этих понятий, отобрать наиболее существенные для данного конкретного случая.

Слайд 43





«Простенький примерчик»
a		b		c		d
Описание слайда:
«Простенький примерчик» a b c d

Слайд 44





Грамматика для «примерчика»
V N = { S, A, B, C, D } – словарь нетерминалов
V T = { a, b, c, d } – словарь терминалов
		Правила подстановки:
S  a A	 S  A B		 S  b B
A  a B	B  b C		C  c D
A  a		B  b	 C  c	 D  d
Описание слайда:
Грамматика для «примерчика» V N = { S, A, B, C, D } – словарь нетерминалов V T = { a, b, c, d } – словарь терминалов Правила подстановки: S  a A S  A B S  b B A  a B B  b C C  c D A  a B  b C  c D  d

Слайд 45





Продолжение примерчика
abcd – слово ( образ ) – «четырехугольник». 
a(3)b(5)c(3)d(5) – с атрибутами
Что за слово ?	Ccdaabbbcc
c(2)d(1)a(2)b(3)c(2)

Глобальная проблема – синтез автомата !!!!
Описание слайда:
Продолжение примерчика abcd – слово ( образ ) – «четырехугольник». a(3)b(5)c(3)d(5) – с атрибутами Что за слово ? Ccdaabbbcc c(2)d(1)a(2)b(3)c(2) Глобальная проблема – синтез автомата !!!!

Слайд 46





Благодарности - литература
Р. Дуда, П. Харт. Распознавание образов и анализ сцен. Пер. с англ., М., Мир,1976. 
Д. Форсайт, Ж. Понс. Компьютерное зрение. Современный подход. 2004г.
У.Прэтт - Цифровая обработка изображений. В двух книгах.
Кривопуск Т.И. ДонНТУ
К. В. Воронцов - http://www.ccas.ru/voron
http://www.it-claim.ru/  - сайт по Интеллектуальным технологиям
Описание слайда:
Благодарности - литература Р. Дуда, П. Харт. Распознавание образов и анализ сцен. Пер. с англ., М., Мир,1976. Д. Форсайт, Ж. Понс. Компьютерное зрение. Современный подход. 2004г. У.Прэтт - Цифровая обработка изображений. В двух книгах. Кривопуск Т.И. ДонНТУ К. В. Воронцов - http://www.ccas.ru/voron http://www.it-claim.ru/ - сайт по Интеллектуальным технологиям



Похожие презентации
Mypresentation.ru
Загрузить презентацию