🗊Презентация Задача кластеризации. Алгоритмы кластеризации

Категория: Математика
Нажмите для полного просмотра!
Задача кластеризации. Алгоритмы кластеризации, слайд №1Задача кластеризации. Алгоритмы кластеризации, слайд №2Задача кластеризации. Алгоритмы кластеризации, слайд №3Задача кластеризации. Алгоритмы кластеризации, слайд №4Задача кластеризации. Алгоритмы кластеризации, слайд №5Задача кластеризации. Алгоритмы кластеризации, слайд №6Задача кластеризации. Алгоритмы кластеризации, слайд №7Задача кластеризации. Алгоритмы кластеризации, слайд №8Задача кластеризации. Алгоритмы кластеризации, слайд №9Задача кластеризации. Алгоритмы кластеризации, слайд №10Задача кластеризации. Алгоритмы кластеризации, слайд №11Задача кластеризации. Алгоритмы кластеризации, слайд №12Задача кластеризации. Алгоритмы кластеризации, слайд №13Задача кластеризации. Алгоритмы кластеризации, слайд №14Задача кластеризации. Алгоритмы кластеризации, слайд №15Задача кластеризации. Алгоритмы кластеризации, слайд №16Задача кластеризации. Алгоритмы кластеризации, слайд №17Задача кластеризации. Алгоритмы кластеризации, слайд №18Задача кластеризации. Алгоритмы кластеризации, слайд №19Задача кластеризации. Алгоритмы кластеризации, слайд №20Задача кластеризации. Алгоритмы кластеризации, слайд №21Задача кластеризации. Алгоритмы кластеризации, слайд №22Задача кластеризации. Алгоритмы кластеризации, слайд №23Задача кластеризации. Алгоритмы кластеризации, слайд №24Задача кластеризации. Алгоритмы кластеризации, слайд №25Задача кластеризации. Алгоритмы кластеризации, слайд №26Задача кластеризации. Алгоритмы кластеризации, слайд №27Задача кластеризации. Алгоритмы кластеризации, слайд №28Задача кластеризации. Алгоритмы кластеризации, слайд №29Задача кластеризации. Алгоритмы кластеризации, слайд №30Задача кластеризации. Алгоритмы кластеризации, слайд №31Задача кластеризации. Алгоритмы кластеризации, слайд №32Задача кластеризации. Алгоритмы кластеризации, слайд №33Задача кластеризации. Алгоритмы кластеризации, слайд №34Задача кластеризации. Алгоритмы кластеризации, слайд №35Задача кластеризации. Алгоритмы кластеризации, слайд №36Задача кластеризации. Алгоритмы кластеризации, слайд №37Задача кластеризации. Алгоритмы кластеризации, слайд №38Задача кластеризации. Алгоритмы кластеризации, слайд №39Задача кластеризации. Алгоритмы кластеризации, слайд №40Задача кластеризации. Алгоритмы кластеризации, слайд №41Задача кластеризации. Алгоритмы кластеризации, слайд №42Задача кластеризации. Алгоритмы кластеризации, слайд №43Задача кластеризации. Алгоритмы кластеризации, слайд №44Задача кластеризации. Алгоритмы кластеризации, слайд №45Задача кластеризации. Алгоритмы кластеризации, слайд №46Задача кластеризации. Алгоритмы кластеризации, слайд №47Задача кластеризации. Алгоритмы кластеризации, слайд №48Задача кластеризации. Алгоритмы кластеризации, слайд №49Задача кластеризации. Алгоритмы кластеризации, слайд №50Задача кластеризации. Алгоритмы кластеризации, слайд №51Задача кластеризации. Алгоритмы кластеризации, слайд №52Задача кластеризации. Алгоритмы кластеризации, слайд №53Задача кластеризации. Алгоритмы кластеризации, слайд №54Задача кластеризации. Алгоритмы кластеризации, слайд №55Задача кластеризации. Алгоритмы кластеризации, слайд №56

Содержание

Вы можете ознакомиться и скачать презентацию на тему Задача кластеризации. Алгоритмы кластеризации. Доклад-сообщение содержит 56 слайдов. Презентации для любого класса можно скачать бесплатно. Если материал и наш сайт презентаций Mypresentation Вам понравились – поделитесь им с друзьями с помощью социальных кнопок и добавьте в закладки в своем браузере.

Слайды и текст этой презентации


Слайд 1





Задача кластеризации
Описание слайда:
Задача кластеризации

Слайд 2





Кластеризация — группировка объектов по похожести их свойств; каждый кластер состоит из схожих объектов, а объекты разных кластеров существенно отличаются.
Кластеризация — группировка объектов по похожести их свойств; каждый кластер состоит из схожих объектов, а объекты разных кластеров существенно отличаются.
Описание слайда:
Кластеризация — группировка объектов по похожести их свойств; каждый кластер состоит из схожих объектов, а объекты разных кластеров существенно отличаются. Кластеризация — группировка объектов по похожести их свойств; каждый кластер состоит из схожих объектов, а объекты разных кластеров существенно отличаются.

Слайд 3





Цели кластеризации в Data Mining могут быть различными и зависят от конкретной решаемой задачи. Рассмотрим эти задачи.
Цели кластеризации в Data Mining могут быть различными и зависят от конкретной решаемой задачи. Рассмотрим эти задачи.
Изучение данных. Разбиение множества объектов на схожие группы помогает выявить структуру данных, увеличить наглядность их представления, выдвинуть новые гипотезы, понять, насколько информативны свойства объектов.
Облегчение анализа. При помощи кластеризации можно упростить дальнейшую обработку данных и построение моделей: каждый кластер обрабатывается ин­дивидуально и модель создается для каждого кластера в отдельности. В этом смысле кластеризация является подготовительным этапом перед решением других задач Data Mining: классификации, регрессии, ассоциации, последова­тельных шаблонов.
Описание слайда:
Цели кластеризации в Data Mining могут быть различными и зависят от конкретной решаемой задачи. Рассмотрим эти задачи. Цели кластеризации в Data Mining могут быть различными и зависят от конкретной решаемой задачи. Рассмотрим эти задачи. Изучение данных. Разбиение множества объектов на схожие группы помогает выявить структуру данных, увеличить наглядность их представления, выдвинуть новые гипотезы, понять, насколько информативны свойства объектов. Облегчение анализа. При помощи кластеризации можно упростить дальнейшую обработку данных и построение моделей: каждый кластер обрабатывается ин­дивидуально и модель создается для каждого кластера в отдельности. В этом смысле кластеризация является подготовительным этапом перед решением других задач Data Mining: классификации, регрессии, ассоциации, последова­тельных шаблонов.

Слайд 4





Алгоритмы кластеризации
К-средних (K-means)
Нейронная сеть Кохонена
Графовые алгоритмы кластеризации 
Статистические алгоритмы кластеризации 
Алгоритмы семейства FOREL 
Иерархическая кластеризация или таксономия 
Ансамбль кластеризаторов 
Алгоритмы семейства КRAB 
EM-алгоритм 
Алгоритм, основанный на методе просеивания 
Метод опорных векторов
Описание слайда:
Алгоритмы кластеризации К-средних (K-means) Нейронная сеть Кохонена Графовые алгоритмы кластеризации Статистические алгоритмы кластеризации Алгоритмы семейства FOREL Иерархическая кластеризация или таксономия Ансамбль кластеризаторов Алгоритмы семейства КRAB EM-алгоритм Алгоритм, основанный на методе просеивания Метод опорных векторов

Слайд 5





Алгоритм кластеризации k-means 
От англ. mean — «среднее значение». Он состоит из четырех шагов.
Задается число кластеров k, которое должно быть сформировано из объектов исходной выборки.
Случайным образом выбирается k записей исходной выборки, которые будут служить начальными центрами кластеров. Начальные точки, из которых потом вырастает кластер, часто называют «семенами». Каждая такая запись представляет собой своего рода «эмбрион» кластера, состоящий только из одного элемента.
Для каждой записи исходной выборки определяется ближайший к ней центр кластера.
Производится вычисление центроидов — центров тяжести кластеров.
Описание слайда:
Алгоритм кластеризации k-means От англ. mean — «среднее значение». Он состоит из четырех шагов. Задается число кластеров k, которое должно быть сформировано из объектов исходной выборки. Случайным образом выбирается k записей исходной выборки, которые будут служить начальными центрами кластеров. Начальные точки, из которых потом вырастает кластер, часто называют «семенами». Каждая такая запись представляет собой своего рода «эмбрион» кластера, состоящий только из одного элемента. Для каждой записи исходной выборки определяется ближайший к ней центр кластера. Производится вычисление центроидов — центров тяжести кластеров.

Слайд 6





Например, если в кластер вошли три записи с наборами признаков (х1, у1), (х2,у2), (х3, у3), то координаты его центроида будут рассчитываться следующим образом:
Например, если в кластер вошли три записи с наборами признаков (х1, у1), (х2,у2), (х3, у3), то координаты его центроида будут рассчитываться следующим образом:
Описание слайда:
Например, если в кластер вошли три записи с наборами признаков (х1, у1), (х2,у2), (х3, у3), то координаты его центроида будут рассчитываться следующим образом: Например, если в кластер вошли три записи с наборами признаков (х1, у1), (х2,у2), (х3, у3), то координаты его центроида будут рассчитываться следующим образом:

Слайд 7





Шаги 3 и 4 повторяются до тех пор, пока выполнение алгоритма не будет прервано либо пока не будет выполнено условие в соответствии с некоторым критерием сходимости.
Шаги 3 и 4 повторяются до тех пор, пока выполнение алгоритма не будет прервано либо пока не будет выполнено условие в соответствии с некоторым критерием сходимости.
Остановка алгоритма производится, когда границы кластеров и расположение центроидов перестают изменяться от итерации к итерации, то есть на каждой итерации в каждом кластере остается один и тот же набор записей. 
Что касается критерия сходимости, то чаще всего используется сумма квадратов ошибок между центроидом кластера и всеми вошедшими в него записями:
Описание слайда:
Шаги 3 и 4 повторяются до тех пор, пока выполнение алгоритма не будет прервано либо пока не будет выполнено условие в соответствии с некоторым критерием сходимости. Шаги 3 и 4 повторяются до тех пор, пока выполнение алгоритма не будет прервано либо пока не будет выполнено условие в соответствии с некоторым критерием сходимости. Остановка алгоритма производится, когда границы кластеров и расположение центроидов перестают изменяться от итерации к итерации, то есть на каждой итерации в каждом кластере остается один и тот же набор записей. Что касается критерия сходимости, то чаще всего используется сумма квадратов ошибок между центроидом кластера и всеми вошедшими в него записями:

Слайд 8





Меры расстояний
Ключевой момент алгоритма k-means: на каждой итерации вычисляется расстояние между записями и центрами кластеров, чтобы определить, к какому из кластеров принадлежит данная запись. 
□ Евклидово расстояние , или метрика L2. Использует для вычисления расстояний следующее правило:
Описание слайда:
Меры расстояний Ключевой момент алгоритма k-means: на каждой итерации вычисляется расстояние между записями и центрами кластеров, чтобы определить, к какому из кластеров принадлежит данная запись. □ Евклидово расстояние , или метрика L2. Использует для вычисления расстояний следующее правило:

Слайд 9





□ Расстояние Манхэттена (Manhattan distance), или метрика L1 вычисляется по формуле 
□ Расстояние Манхэттена (Manhattan distance), или метрика L1 вычисляется по формуле
Описание слайда:
□ Расстояние Манхэттена (Manhattan distance), или метрика L1 вычисляется по формуле □ Расстояние Манхэттена (Manhattan distance), или метрика L1 вычисляется по формуле

Слайд 10





Пример работы алгоритма k-means
Описание слайда:
Пример работы алгоритма k-means

Слайд 11





Шаг 1. Определим число кластеров, на которое требуется разбить исходное множество: k= 2. 
Шаг 1. Определим число кластеров, на которое требуется разбить исходное множество: k= 2. 
Шаг 2. Случайным образом выберем две точки, которые будут начальными центрами кластеров. Пусть это будут точки m1 = (1; 1) и m2 = (2; 1). На рис. 3 они представлены ромбами.
Шаг З, проход 1. Для каждой точки определим ближайший к ней центр кластера с помощью евклидова расстояния. В табл. 2 представлены вычисленные с помощью формулы (7.1) расстояния между центрами кластеров m1 = (1; 1) и m2 = (2; 1) и каждой точкой исходного множества и указано, к какому кластеру принадлежит та или иная точка.
Описание слайда:
Шаг 1. Определим число кластеров, на которое требуется разбить исходное множество: k= 2. Шаг 1. Определим число кластеров, на которое требуется разбить исходное множество: k= 2. Шаг 2. Случайным образом выберем две точки, которые будут начальными центрами кластеров. Пусть это будут точки m1 = (1; 1) и m2 = (2; 1). На рис. 3 они представлены ромбами. Шаг З, проход 1. Для каждой точки определим ближайший к ней центр кластера с помощью евклидова расстояния. В табл. 2 представлены вычисленные с помощью формулы (7.1) расстояния между центрами кластеров m1 = (1; 1) и m2 = (2; 1) и каждой точкой исходного множества и указано, к какому кластеру принадлежит та или иная точка.

Слайд 12


Задача кластеризации. Алгоритмы кластеризации, слайд №12
Описание слайда:

Слайд 13





Таким образом, кластер 1 содержит точки А, Е, G, а кластер 2 — точки В, С, D, F, Н. Как только определятся члены кластеров, может быть рассчитана сумма квадратов ошибок:
Таким образом, кластер 1 содержит точки А, Е, G, а кластер 2 — точки В, С, D, F, Н. Как только определятся члены кластеров, может быть рассчитана сумма квадратов ошибок:
Описание слайда:
Таким образом, кластер 1 содержит точки А, Е, G, а кластер 2 — точки В, С, D, F, Н. Как только определятся члены кластеров, может быть рассчитана сумма квадратов ошибок: Таким образом, кластер 1 содержит точки А, Е, G, а кластер 2 — точки В, С, D, F, Н. Как только определятся члены кластеров, может быть рассчитана сумма квадратов ошибок:

Слайд 14


Задача кластеризации. Алгоритмы кластеризации, слайд №14
Описание слайда:

Слайд 15





Шаг 3, проход 2. После того как найдены новые центры кластеров, для каждой точки снова определяется ближайший к ней центр и ее отношение к соответствующему кластеру. Для это еще раз вычисляются евклидовы расстояния между точками и центрами кластеров. Результаты вычислений приведены в табл.
Шаг 3, проход 2. После того как найдены новые центры кластеров, для каждой точки снова определяется ближайший к ней центр и ее отношение к соответствующему кластеру. Для это еще раз вычисляются евклидовы расстояния между точками и центрами кластеров. Результаты вычислений приведены в табл.
Описание слайда:
Шаг 3, проход 2. После того как найдены новые центры кластеров, для каждой точки снова определяется ближайший к ней центр и ее отношение к соответствующему кластеру. Для это еще раз вычисляются евклидовы расстояния между точками и центрами кластеров. Результаты вычислений приведены в табл. Шаг 3, проход 2. После того как найдены новые центры кластеров, для каждой точки снова определяется ближайший к ней центр и ее отношение к соответствующему кластеру. Для это еще раз вычисляются евклидовы расстояния между точками и центрами кластеров. Результаты вычислений приведены в табл.

Слайд 16





Таким образом, кластер 1 будет содержать точки А, Е, G, Н, а кластер 2 — В, С, D, F. Новая сумма квадратов ошибок составит: 
Таким образом, кластер 1 будет содержать точки А, Е, G, Н, а кластер 2 — В, С, D, F. Новая сумма квадратов ошибок составит:
Описание слайда:
Таким образом, кластер 1 будет содержать точки А, Е, G, Н, а кластер 2 — В, С, D, F. Новая сумма квадратов ошибок составит: Таким образом, кластер 1 будет содержать точки А, Е, G, Н, а кластер 2 — В, С, D, F. Новая сумма квадратов ошибок составит:

Слайд 17





Шаг 4, проход 2. Для каждого кластера вновь вычисляется центроид, и центр кластера перемещается в него.
Шаг 4, проход 2. Для каждого кластера вновь вычисляется центроид, и центр кластера перемещается в него.
Новый центроид для кластера 1: [(1 + 1 + 1 + 2)/4, (3 + 2 + 1 +1)/4] = (1,25; 1,75).
Новый центроид для кластера 2: [(3 + 4 + 5 + 4)/4, (3 + 3 + 3 + 2)/4] = (4; 2,75).
Расположение кластеров и центроидов после второго прохода алгоритма пред­ставлено на рис. 4.
Описание слайда:
Шаг 4, проход 2. Для каждого кластера вновь вычисляется центроид, и центр кластера перемещается в него. Шаг 4, проход 2. Для каждого кластера вновь вычисляется центроид, и центр кластера перемещается в него. Новый центроид для кластера 1: [(1 + 1 + 1 + 2)/4, (3 + 2 + 1 +1)/4] = (1,25; 1,75). Новый центроид для кластера 2: [(3 + 4 + 5 + 4)/4, (3 + 3 + 3 + 2)/4] = (4; 2,75). Расположение кластеров и центроидов после второго прохода алгоритма пред­ставлено на рис. 4.

Слайд 18


Задача кластеризации. Алгоритмы кластеризации, слайд №18
Описание слайда:

Слайд 19


Задача кластеризации. Алгоритмы кластеризации, слайд №19
Описание слайда:

Слайд 20





Таким образом, сумма квадратов ошибок изменилась незначительно по сравнению с предыдущим проходом.
Таким образом, сумма квадратов ошибок изменилась незначительно по сравнению с предыдущим проходом.
Шаг 4, проход 3. Для каждого кластера вновь вычисляется центроид, и центр кластера перемещается в него. Но поскольку на данном проходе ни одна запись не изменила своего членства в кластерах и положение центроидов не поменялось, алгоритм завершает работу.
m1=(1,25;1,75)
m2=(4;2,75)
Описание слайда:
Таким образом, сумма квадратов ошибок изменилась незначительно по сравнению с предыдущим проходом. Таким образом, сумма квадратов ошибок изменилась незначительно по сравнению с предыдущим проходом. Шаг 4, проход 3. Для каждого кластера вновь вычисляется центроид, и центр кластера перемещается в него. Но поскольку на данном проходе ни одна запись не изменила своего членства в кластерах и положение центроидов не поменялось, алгоритм завершает работу. m1=(1,25;1,75) m2=(4;2,75)

Слайд 21





Сети Кохонена
Термин «сети Кохонена» был введен в 1982 г. финским ученым Тойво Кохоненом. Сети Кохонена представляют собой разновидность самоорганизующихся карт признаков, которые, в свою очередь, являются специальным типом нейронных сетей.
Основная цель сетей Кохонена — преобразование сложных многомерных данных в более простую структуру малой размерности. Таким образом, они хорошо подходят для кластерного анализа, когда требуется обнаружить скрытые закономерности в больших массивах данных.
Сеть Кохонена состоит из узлов, которые объединяются в кластеры. Наиболее близкие узлы соответствуют похожим объектам, а удаленные друг от друга — непохожим.
Описание слайда:
Сети Кохонена Термин «сети Кохонена» был введен в 1982 г. финским ученым Тойво Кохоненом. Сети Кохонена представляют собой разновидность самоорганизующихся карт признаков, которые, в свою очередь, являются специальным типом нейронных сетей. Основная цель сетей Кохонена — преобразование сложных многомерных данных в более простую структуру малой размерности. Таким образом, они хорошо подходят для кластерного анализа, когда требуется обнаружить скрытые закономерности в больших массивах данных. Сеть Кохонена состоит из узлов, которые объединяются в кластеры. Наиболее близкие узлы соответствуют похожим объектам, а удаленные друг от друга — непохожим.

Слайд 22





Объекты имеют 3 признака (на самом деле их может быть любое количество).
Объекты имеют 3 признака (на самом деле их может быть любое количество).
Теперь представим, что все эти три параметра объектов представляют собой их координаты в трехмерном пространстве. Тогда каждый объект можно представить в виде точки в этом пространстве, что мы и сделаем, в результате чего все точки попадут в куб единичного размера (рис.).
Описание слайда:
Объекты имеют 3 признака (на самом деле их может быть любое количество). Объекты имеют 3 признака (на самом деле их может быть любое количество). Теперь представим, что все эти три параметра объектов представляют собой их координаты в трехмерном пространстве. Тогда каждый объект можно представить в виде точки в этом пространстве, что мы и сделаем, в результате чего все точки попадут в куб единичного размера (рис.).

Слайд 23





Взглянув на рисунок,  можно увидеть, как расположены объекты в пространстве, причем легко заметить участки, где объекты группируются, т.е. у них схожи параметры, значит, и сами эти объекты, скорее всего, принадлежат одной группе. Но так легко можно поступить только в случае, когда признаков немного. Значит, надо найти способ, которым можно преобразовать данную систему в простую для восприятия, желательно двумерную систему так, чтобы соседние в искомом пространстве объекты оказались рядом и на полученной картинке. Для этого используем самоорганизующуюся карту Кохонена. В первом приближении ее можно представить в виде сети, изготовленной из резины (рис.). 
Взглянув на рисунок,  можно увидеть, как расположены объекты в пространстве, причем легко заметить участки, где объекты группируются, т.е. у них схожи параметры, значит, и сами эти объекты, скорее всего, принадлежат одной группе. Но так легко можно поступить только в случае, когда признаков немного. Значит, надо найти способ, которым можно преобразовать данную систему в простую для восприятия, желательно двумерную систему так, чтобы соседние в искомом пространстве объекты оказались рядом и на полученной картинке. Для этого используем самоорганизующуюся карту Кохонена. В первом приближении ее можно представить в виде сети, изготовленной из резины (рис.).
Описание слайда:
Взглянув на рисунок, можно увидеть, как расположены объекты в пространстве, причем легко заметить участки, где объекты группируются, т.е. у них схожи параметры, значит, и сами эти объекты, скорее всего, принадлежат одной группе. Но так легко можно поступить только в случае, когда признаков немного. Значит, надо найти способ, которым можно преобразовать данную систему в простую для восприятия, желательно двумерную систему так, чтобы соседние в искомом пространстве объекты оказались рядом и на полученной картинке. Для этого используем самоорганизующуюся карту Кохонена. В первом приближении ее можно представить в виде сети, изготовленной из резины (рис.). Взглянув на рисунок, можно увидеть, как расположены объекты в пространстве, причем легко заметить участки, где объекты группируются, т.е. у них схожи параметры, значит, и сами эти объекты, скорее всего, принадлежат одной группе. Но так легко можно поступить только в случае, когда признаков немного. Значит, надо найти способ, которым можно преобразовать данную систему в простую для восприятия, желательно двумерную систему так, чтобы соседние в искомом пространстве объекты оказались рядом и на полученной картинке. Для этого используем самоорганизующуюся карту Кохонена. В первом приближении ее можно представить в виде сети, изготовленной из резины (рис.).

Слайд 24


Задача кластеризации. Алгоритмы кластеризации, слайд №24
Описание слайда:

Слайд 25





Берем один объект (точку в этом пространстве) и находим ближайший к нему узел сети. После этого этот узел подтягивается к объекту (т.к. сетка "резиновая", то вместе с этим узлом так же, но с меньшей силой подтягиваются и соседние узлы). Затем выбирается другой объект (точка), и процедура повторяется. В результате получим карту, расположение узлов которой совпадает с расположением основных скоплений объектов в исходном пространстве ( рис.3). 
Берем один объект (точку в этом пространстве) и находим ближайший к нему узел сети. После этого этот узел подтягивается к объекту (т.к. сетка "резиновая", то вместе с этим узлом так же, но с меньшей силой подтягиваются и соседние узлы). Затем выбирается другой объект (точка), и процедура повторяется. В результате получим карту, расположение узлов которой совпадает с расположением основных скоплений объектов в исходном пространстве ( рис.3). 
Теперь определяем, какие объекты у нас попали в какие узлы карты. Это также определяется ближайшим узлом – объект попадает в тот узел, который находится ближе к нему. В результате всех этих операций объекты со схожими параметрами попадут в один узел или в соседние узлы.
Описание слайда:
Берем один объект (точку в этом пространстве) и находим ближайший к нему узел сети. После этого этот узел подтягивается к объекту (т.к. сетка "резиновая", то вместе с этим узлом так же, но с меньшей силой подтягиваются и соседние узлы). Затем выбирается другой объект (точка), и процедура повторяется. В результате получим карту, расположение узлов которой совпадает с расположением основных скоплений объектов в исходном пространстве ( рис.3). Берем один объект (точку в этом пространстве) и находим ближайший к нему узел сети. После этого этот узел подтягивается к объекту (т.к. сетка "резиновая", то вместе с этим узлом так же, но с меньшей силой подтягиваются и соседние узлы). Затем выбирается другой объект (точка), и процедура повторяется. В результате получим карту, расположение узлов которой совпадает с расположением основных скоплений объектов в исходном пространстве ( рис.3). Теперь определяем, какие объекты у нас попали в какие узлы карты. Это также определяется ближайшим узлом – объект попадает в тот узел, который находится ближе к нему. В результате всех этих операций объекты со схожими параметрами попадут в один узел или в соседние узлы.

Слайд 26


Задача кластеризации. Алгоритмы кластеризации, слайд №26
Описание слайда:

Слайд 27





В основе построения сети Кохонена лежит конкурентное обучение, когда выходные узлы (нейроны) конкурируют между собой за право стать «победителем». Говорят, что нейроны избирательно настраиваются для различных входных примеров или классов входных примеров в ходе соревновательного процесса обучения.
В основе построения сети Кохонена лежит конкурентное обучение, когда выходные узлы (нейроны) конкурируют между собой за право стать «победителем». Говорят, что нейроны избирательно настраиваются для различных входных примеров или классов входных примеров в ходе соревновательного процесса обучения.
Описание слайда:
В основе построения сети Кохонена лежит конкурентное обучение, когда выходные узлы (нейроны) конкурируют между собой за право стать «победителем». Говорят, что нейроны избирательно настраиваются для различных входных примеров или классов входных примеров в ходе соревновательного процесса обучения. В основе построения сети Кохонена лежит конкурентное обучение, когда выходные узлы (нейроны) конкурируют между собой за право стать «победителем». Говорят, что нейроны избирательно настраиваются для различных входных примеров или классов входных примеров в ходе соревновательного процесса обучения.

Слайд 28





Входные нейроны образуют входной слой сети, который содержит по одному нейрону для каждого входного поля. Как и в обычной нейронной сети, входные нейроны не участвуют в процессе обучения. Их задача — передать значения входных полей исходной выборки на нейроны выходного слоя. 
Входные нейроны образуют входной слой сети, который содержит по одному нейрону для каждого входного поля. Как и в обычной нейронной сети, входные нейроны не участвуют в процессе обучения. Их задача — передать значения входных полей исходной выборки на нейроны выходного слоя.
Описание слайда:
Входные нейроны образуют входной слой сети, который содержит по одному нейрону для каждого входного поля. Как и в обычной нейронной сети, входные нейроны не участвуют в процессе обучения. Их задача — передать значения входных полей исходной выборки на нейроны выходного слоя. Входные нейроны образуют входной слой сети, который содержит по одному нейрону для каждого входного поля. Как и в обычной нейронной сети, входные нейроны не участвуют в процессе обучения. Их задача — передать значения входных полей исходной выборки на нейроны выходного слоя.

Слайд 29





Однако в отличие от большинства нейронных сетей других видов сеть Кохонена не имеет скрытых слоев: данные с входного слоя передаются непосредственно на выходной слой. Нейроны выходного слоя упорядочены в одномерную или двумерную решетку прямоугольной или шестиугольной формы.
Однако в отличие от большинства нейронных сетей других видов сеть Кохонена не имеет скрытых слоев: данные с входного слоя передаются непосредственно на выходной слой. Нейроны выходного слоя упорядочены в одномерную или двумерную решетку прямоугольной или шестиугольной формы.
Для записи значения каждого поля передаются через входные нейроны на каждый нейрон выходного слоя. Предположим, что нормированные значения возраста и дохода составляют 0,58 и 0,69 соответственно. Значение 0,58 поступает в сеть через входной нейрон Возраст и передается на все нейроны выходного слоя. Аналогично значение 0,69 поступает через нейрон Доход и также распространяется на все нейроны выходного слоя. Выходной нейрон, имеющий наилучший итог по некоторой скоринговой функции, объявляется нейроном-победителем.
Описание слайда:
Однако в отличие от большинства нейронных сетей других видов сеть Кохонена не имеет скрытых слоев: данные с входного слоя передаются непосредственно на выходной слой. Нейроны выходного слоя упорядочены в одномерную или двумерную решетку прямоугольной или шестиугольной формы. Однако в отличие от большинства нейронных сетей других видов сеть Кохонена не имеет скрытых слоев: данные с входного слоя передаются непосредственно на выходной слой. Нейроны выходного слоя упорядочены в одномерную или двумерную решетку прямоугольной или шестиугольной формы. Для записи значения каждого поля передаются через входные нейроны на каждый нейрон выходного слоя. Предположим, что нормированные значения возраста и дохода составляют 0,58 и 0,69 соответственно. Значение 0,58 поступает в сеть через входной нейрон Возраст и передается на все нейроны выходного слоя. Аналогично значение 0,69 поступает через нейрон Доход и также распространяется на все нейроны выходного слоя. Выходной нейрон, имеющий наилучший итог по некоторой скоринговой функции, объявляется нейроном-победителем.

Слайд 30





В процессе обучения и функционирования сеть KCN выполняет три процедуры.
В процессе обучения и функционирования сеть KCN выполняет три процедуры.
Конкуренция. Выходные нейроны конкурируют между собой за то, чтобы векторы их весов оказались как можно ближе к вектору признаков объекта. Выходной нейрон, вектор весов которого имеет наименьшее расстояние до вектора признаков объекта, объявляется победителем.
Объединение. Победивший нейрон становится центром некоторого соседства нейронов. Все нейроны такого соседства называют награжденными правом подстройки весов. Следовательно, несмотря на то что нейроны в выходном слое не соединяются непосредственно, они имеет тенденцию разделять общие свойства благодаря соседству с нейроном-победителем.
Описание слайда:
В процессе обучения и функционирования сеть KCN выполняет три процедуры. В процессе обучения и функционирования сеть KCN выполняет три процедуры. Конкуренция. Выходные нейроны конкурируют между собой за то, чтобы векторы их весов оказались как можно ближе к вектору признаков объекта. Выходной нейрон, вектор весов которого имеет наименьшее расстояние до вектора признаков объекта, объявляется победителем. Объединение. Победивший нейрон становится центром некоторого соседства нейронов. Все нейроны такого соседства называют награжденными правом подстройки весов. Следовательно, несмотря на то что нейроны в выходном слое не соединяются непосредственно, они имеет тенденцию разделять общие свойства благодаря соседству с нейроном-победителем.

Слайд 31





3. Подстройка весов. Нейроны, соседние с нейроном-победителем, участвуют в подстройке весов, то есть в обучении. Веса этих нейронов подстраиваются таким образом, чтобы в дальнейшем улучшить значение функции. Иными словами, эти нейроны увеличивают свой шанс стать победителем для похожих наборов входных значений.
3. Подстройка весов. Нейроны, соседние с нейроном-победителем, участвуют в подстройке весов, то есть в обучении. Веса этих нейронов подстраиваются таким образом, чтобы в дальнейшем улучшить значение функции. Иными словами, эти нейроны увеличивают свой шанс стать победителем для похожих наборов входных значений.
Описание слайда:
3. Подстройка весов. Нейроны, соседние с нейроном-победителем, участвуют в подстройке весов, то есть в обучении. Веса этих нейронов подстраиваются таким образом, чтобы в дальнейшем улучшить значение функции. Иными словами, эти нейроны увеличивают свой шанс стать победителем для похожих наборов входных значений. 3. Подстройка весов. Нейроны, соседние с нейроном-победителем, участвуют в подстройке весов, то есть в обучении. Веса этих нейронов подстраиваются таким образом, чтобы в дальнейшем улучшить значение функции. Иными словами, эти нейроны увеличивают свой шанс стать победителем для похожих наборов входных значений.

Слайд 32





Обучение сети Кохонена
Сети Кохонена — это нейросетевые структуры, в которых используется алгоритм обучения Кохонена. Рассмотрим набор из m значений полей n-й записи исходной выборки, который будет служить входным вектором Хn = (хn1, хn2... хnm), и текущий вектор весового выходного нейрона Wj= (w1j, w2j, … wmj). В обучении по Кохонену нейроны, которые являются соседями нейрона-победителя, подстраивают свои веса, используя линейную комбинацию входных векторов и текущих векторов весов:
Описание слайда:
Обучение сети Кохонена Сети Кохонена — это нейросетевые структуры, в которых используется алгоритм обучения Кохонена. Рассмотрим набор из m значений полей n-й записи исходной выборки, который будет служить входным вектором Хn = (хn1, хn2... хnm), и текущий вектор весового выходного нейрона Wj= (w1j, w2j, … wmj). В обучении по Кохонену нейроны, которые являются соседями нейрона-победителя, подстраивают свои веса, используя линейную комбинацию входных векторов и текущих векторов весов:

Слайд 33





Алгоритм Кохонена включает шаги:
Инициализация. Для нейронов сети устанавливаются начальные веса, а также задаются начальная скорость обучения η и радиус обучения R.
η – скорость, с которой происходит обучение распределение весов.
R – линейное расстояние от любого нейрона до другого любого. В начале задается достаточно большим, затем 1 или меньше.
2. Возбуждение. На входной слой подается вектор воздействия Хn, содержащий значения входных полей некоторой записи обучающей выборки.
3. Конкуренция. Для каждого выходного нейрона вычисляется скоринговая функция D(Wj, Хn). Например, для евклидова расстояния она будет равна:
Описание слайда:
Алгоритм Кохонена включает шаги: Инициализация. Для нейронов сети устанавливаются начальные веса, а также задаются начальная скорость обучения η и радиус обучения R. η – скорость, с которой происходит обучение распределение весов. R – линейное расстояние от любого нейрона до другого любого. В начале задается достаточно большим, затем 1 или меньше. 2. Возбуждение. На входной слой подается вектор воздействия Хn, содержащий значения входных полей некоторой записи обучающей выборки. 3. Конкуренция. Для каждого выходного нейрона вычисляется скоринговая функция D(Wj, Хn). Например, для евклидова расстояния она будет равна:

Слайд 34





Иными словами, рассчитывается расстояние между векторами весов всех нейронов выходного слоя и вектором входного воздействия. Тот нейрон, для которого расстояние окажется наименьшим, и будет нейроном-победителем.
Иными словами, рассчитывается расстояние между векторами весов всех нейронов выходного слоя и вектором входного воздействия. Тот нейрон, для которого расстояние окажется наименьшим, и будет нейроном-победителем.
4. Объединение. Определяются все нейроны, расположенные в пределах радиуса обучения относительно нейрона-победителя.
5. Подстройка. Производится подстройка весов нейронов в пределах радиуса обучения в соответствии с формулой (2). При этом веса нейронов, ближайших к нейрону-победителю, подстраиваются в сторону его вектора весов (рис.).
6. Коррекция. Изменяются радиус и параметр скорости обучения в соответствии с заданным законом.
Описание слайда:
Иными словами, рассчитывается расстояние между векторами весов всех нейронов выходного слоя и вектором входного воздействия. Тот нейрон, для которого расстояние окажется наименьшим, и будет нейроном-победителем. Иными словами, рассчитывается расстояние между векторами весов всех нейронов выходного слоя и вектором входного воздействия. Тот нейрон, для которого расстояние окажется наименьшим, и будет нейроном-победителем. 4. Объединение. Определяются все нейроны, расположенные в пределах радиуса обучения относительно нейрона-победителя. 5. Подстройка. Производится подстройка весов нейронов в пределах радиуса обучения в соответствии с формулой (2). При этом веса нейронов, ближайших к нейрону-победителю, подстраиваются в сторону его вектора весов (рис.). 6. Коррекция. Изменяются радиус и параметр скорости обучения в соответствии с заданным законом.

Слайд 35


Задача кластеризации. Алгоритмы кластеризации, слайд №35
Описание слайда:

Слайд 36





Пример работы сети Кохонена
Имеется множество данных; в нем содержатся атрибуты Возраст и Доход. Для решения задачи будем использовать сеть Кохонена, содержащую 2x2 нейрона в выходном слое (рис.).
Установим радиус обучения R = О, поэтому возможность подстройки весов будет предоставлена только нейрону-победителю. Коэффициент скорости обучения установим η = 0,5. 
Выберем случайным образом начальные веса нейронов: w11 = 0,9; w21 = 0,8; w12 = 0,9; w22 = 0,2; w13 = 0,1; w23 = 0,8; w14 = 0,1; w24 = 0,2.
Набор записей исходной выборки
Описание слайда:
Пример работы сети Кохонена Имеется множество данных; в нем содержатся атрибуты Возраст и Доход. Для решения задачи будем использовать сеть Кохонена, содержащую 2x2 нейрона в выходном слое (рис.). Установим радиус обучения R = О, поэтому возможность подстройки весов будет предоставлена только нейрону-победителю. Коэффициент скорости обучения установим η = 0,5. Выберем случайным образом начальные веса нейронов: w11 = 0,9; w21 = 0,8; w12 = 0,9; w22 = 0,2; w13 = 0,1; w23 = 0,8; w14 = 0,1; w24 = 0,2. Набор записей исходной выборки

Слайд 37


Задача кластеризации. Алгоритмы кластеризации, слайд №37
Описание слайда:

Слайд 38





Для первого входного вектора X1 = (0,8; 0,8) выполним такие действия, как конкуренция, объединение и подстройка.
Для первого входного вектора X1 = (0,8; 0,8) выполним такие действия, как конкуренция, объединение и подстройка.
Конкуренция. Вычислим евклидово расстояние между входным вектором X1 и векторами весов всех четырех нейронов выходного слоя.
Описание слайда:
Для первого входного вектора X1 = (0,8; 0,8) выполним такие действия, как конкуренция, объединение и подстройка. Для первого входного вектора X1 = (0,8; 0,8) выполним такие действия, как конкуренция, объединение и подстройка. Конкуренция. Вычислим евклидово расстояние между входным вектором X1 и векторами весов всех четырех нейронов выходного слоя.

Слайд 39





Таким образом, для первой записи победителем стал нейрон с номером 1, для которого расстояние между вектором его весов W1 = (0,9; 0,8) и входным вектором X1 = (0,8; 0,8) оказалось минимальным среди всех нейронов. 
Таким образом, для первой записи победителем стал нейрон с номером 1, для которого расстояние между вектором его весов W1 = (0,9; 0,8) и входным вектором X1 = (0,8; 0,8) оказалось минимальным среди всех нейронов. 
Объединение. В данном примере установлен радиус обучения R = 0, поэтому уровень объединения между выходными нейронами также равен 0. Соответственно, только нейрон-победитель будет «награжден» возможностью подстройки своего вектора весов. В связи с этим мы не будем рассматривать этот этап в дальнейшем.
Подстройка. Поскольку для первого нейрона j = 1, для первой записи п = 1 при коэффициенте скорости обучения л = 0,5 в соответствии с правилом 1 получим:
Описание слайда:
Таким образом, для первой записи победителем стал нейрон с номером 1, для которого расстояние между вектором его весов W1 = (0,9; 0,8) и входным вектором X1 = (0,8; 0,8) оказалось минимальным среди всех нейронов. Таким образом, для первой записи победителем стал нейрон с номером 1, для которого расстояние между вектором его весов W1 = (0,9; 0,8) и входным вектором X1 = (0,8; 0,8) оказалось минимальным среди всех нейронов. Объединение. В данном примере установлен радиус обучения R = 0, поэтому уровень объединения между выходными нейронами также равен 0. Соответственно, только нейрон-победитель будет «награжден» возможностью подстройки своего вектора весов. В связи с этим мы не будем рассматривать этот этап в дальнейшем. Подстройка. Поскольку для первого нейрона j = 1, для первой записи п = 1 при коэффициенте скорости обучения л = 0,5 в соответствии с правилом 1 получим:

Слайд 40


Задача кластеризации. Алгоритмы кластеризации, слайд №40
Описание слайда:

Слайд 41





Произведем аналогичные действия для второго входного вектора Х2 = (0,8; 0,1). 
Произведем аналогичные действия для второго входного вектора Х2 = (0,8; 0,1). 
Конкуренция.
Описание слайда:
Произведем аналогичные действия для второго входного вектора Х2 = (0,8; 0,1). Произведем аналогичные действия для второго входного вектора Х2 = (0,8; 0,1). Конкуренция.

Слайд 42





Таким образом, для второй записи победителем стал нейрон 2. Обратим внимание на то, что он выиграл соревнование, поскольку вектор его весов W2 = (0,9; 0,2) ближе к входному вектору второй записи Х2 = (0,8; 0,1), чем векторы весов других нейронов. Можно предположить, что второй нейрон «собирает» записи, в которых содержится информация о пожилых людях с низким доходом.
Таким образом, для второй записи победителем стал нейрон 2. Обратим внимание на то, что он выиграл соревнование, поскольку вектор его весов W2 = (0,9; 0,2) ближе к входному вектору второй записи Х2 = (0,8; 0,1), чем векторы весов других нейронов. Можно предположить, что второй нейрон «собирает» записи, в которых содержится информация о пожилых людях с низким доходом.
Подстройка весов. Поскольку победил второй нейрон, то j = 2, и для второй записи n = 2 при коэффициенте скорости обучения η = 0,5 в соответствии с формулой 1 получим:
Описание слайда:
Таким образом, для второй записи победителем стал нейрон 2. Обратим внимание на то, что он выиграл соревнование, поскольку вектор его весов W2 = (0,9; 0,2) ближе к входному вектору второй записи Х2 = (0,8; 0,1), чем векторы весов других нейронов. Можно предположить, что второй нейрон «собирает» записи, в которых содержится информация о пожилых людях с низким доходом. Таким образом, для второй записи победителем стал нейрон 2. Обратим внимание на то, что он выиграл соревнование, поскольку вектор его весов W2 = (0,9; 0,2) ближе к входному вектору второй записи Х2 = (0,8; 0,1), чем векторы весов других нейронов. Можно предположить, что второй нейрон «собирает» записи, в которых содержится информация о пожилых людях с низким доходом. Подстройка весов. Поскольку победил второй нейрон, то j = 2, и для второй записи n = 2 при коэффициенте скорости обучения η = 0,5 в соответствии с формулой 1 получим:

Слайд 43





Как можно увидеть, веса вновь корректируются в направлении значений входных полей записи. Вес w12 подстраивается так же, как и вес w11 для первой записи, поскольку текущие веса и значения поля Возраст для обеих записей одни и те же.
Как можно увидеть, веса вновь корректируются в направлении значений входных полей записи. Вес w12 подстраивается так же, как и вес w11 для первой записи, поскольку текущие веса и значения поля Возраст для обеих записей одни и те же.
Вес w22 для признака Возраст уменьшился, поскольку значение поля Доход для второй записи ниже, чем текущий вес связи Доход нейрона-победителя. Благодаря данной подстройке нейрон 2 сможет лучше «захватывать» записи, содержащие информацию о пожилых людях с низким доходом.
Описание слайда:
Как можно увидеть, веса вновь корректируются в направлении значений входных полей записи. Вес w12 подстраивается так же, как и вес w11 для первой записи, поскольку текущие веса и значения поля Возраст для обеих записей одни и те же. Как можно увидеть, веса вновь корректируются в направлении значений входных полей записи. Вес w12 подстраивается так же, как и вес w11 для первой записи, поскольку текущие веса и значения поля Возраст для обеих записей одни и те же. Вес w22 для признака Возраст уменьшился, поскольку значение поля Доход для второй записи ниже, чем текущий вес связи Доход нейрона-победителя. Благодаря данной подстройке нейрон 2 сможет лучше «захватывать» записи, содержащие информацию о пожилых людях с низким доходом.

Слайд 44





Теперь выполним ту же последовательность действий для третьей записи, где входной вектор Х3 = (0,2; 0,9).
Теперь выполним ту же последовательность действий для третьей записи, где входной вектор Х3 = (0,2; 0,9).
Конкуренция.
Описание слайда:
Теперь выполним ту же последовательность действий для третьей записи, где входной вектор Х3 = (0,2; 0,9). Теперь выполним ту же последовательность действий для третьей записи, где входной вектор Х3 = (0,2; 0,9). Конкуренция.

Слайд 45





Теперь победителем стал нейрон 3, поскольку вектор его весов W3 = (0,1; 0,8) оказался ближе к входному вектору третьей записи Х3 = (0,2; 0,9), чем векторы весов остальных нейронов. Поэтому можно ожидать, что нейрон 3 станет началом кластера для молодых людей с высоким доходом.
Теперь победителем стал нейрон 3, поскольку вектор его весов W3 = (0,1; 0,8) оказался ближе к входному вектору третьей записи Х3 = (0,2; 0,9), чем векторы весов остальных нейронов. Поэтому можно ожидать, что нейрон 3 станет началом кластера для молодых людей с высоким доходом.
Подстройка весов. Поскольку победил третий нейрон, то j = 3, и для третьей записи n = 3 при коэффициенте скорости обучения η = 0,5 в соответствии с формулой 1 получим:
Описание слайда:
Теперь победителем стал нейрон 3, поскольку вектор его весов W3 = (0,1; 0,8) оказался ближе к входному вектору третьей записи Х3 = (0,2; 0,9), чем векторы весов остальных нейронов. Поэтому можно ожидать, что нейрон 3 станет началом кластера для молодых людей с высоким доходом. Теперь победителем стал нейрон 3, поскольку вектор его весов W3 = (0,1; 0,8) оказался ближе к входному вектору третьей записи Х3 = (0,2; 0,9), чем векторы весов остальных нейронов. Поэтому можно ожидать, что нейрон 3 станет началом кластера для молодых людей с высоким доходом. Подстройка весов. Поскольку победил третий нейрон, то j = 3, и для третьей записи n = 3 при коэффициенте скорости обучения η = 0,5 в соответствии с формулой 1 получим:

Слайд 46





И наконец выполним ту же последовательность действий для входного вектора четвертой записи Х4 = (0,1; 0,1). 
И наконец выполним ту же последовательность действий для входного вектора четвертой записи Х4 = (0,1; 0,1). 
Конкуренция.
Описание слайда:
И наконец выполним ту же последовательность действий для входного вектора четвертой записи Х4 = (0,1; 0,1). И наконец выполним ту же последовательность действий для входного вектора четвертой записи Х4 = (0,1; 0,1). Конкуренция.

Слайд 47





Теперь победителем стал нейрон 4, поскольку вектор его весов W4 = (0,1; 0,2) оказался ближе к входному вектору 3-й записи Х4 = (0,1; 0,1), чем векторы весов остальных нейронов. Поэтому можно ожидать, что нейрон 4 станет основой кла­стера для молодых людей с низким доходом.
Теперь победителем стал нейрон 4, поскольку вектор его весов W4 = (0,1; 0,2) оказался ближе к входному вектору 3-й записи Х4 = (0,1; 0,1), чем векторы весов остальных нейронов. Поэтому можно ожидать, что нейрон 4 станет основой кла­стера для молодых людей с низким доходом.
Подстройка весов. Поскольку победил четвертый нейрон, то j = 4, и для четвертой записи n = 4 в соответствии с формулой (2) получим:
Описание слайда:
Теперь победителем стал нейрон 4, поскольку вектор его весов W4 = (0,1; 0,2) оказался ближе к входному вектору 3-й записи Х4 = (0,1; 0,1), чем векторы весов остальных нейронов. Поэтому можно ожидать, что нейрон 4 станет основой кла­стера для молодых людей с низким доходом. Теперь победителем стал нейрон 4, поскольку вектор его весов W4 = (0,1; 0,2) оказался ближе к входному вектору 3-й записи Х4 = (0,1; 0,1), чем векторы весов остальных нейронов. Поэтому можно ожидать, что нейрон 4 станет основой кла­стера для молодых людей с низким доходом. Подстройка весов. Поскольку победил четвертый нейрон, то j = 4, и для четвертой записи n = 4 в соответствии с формулой (2) получим:

Слайд 48





Таким образом, можно увидеть, что четыре выходных нейрона представляют четыре различных кластера, если выборка данных содержит записи, схожие с записями из табл. 7.6. Эти кластеры представлены в табл. 7.7.
Таким образом, можно увидеть, что четыре выходных нейрона представляют четыре различных кластера, если выборка данных содержит записи, схожие с записями из табл. 7.6. Эти кластеры представлены в табл. 7.7.
Конечно, кластеры, открытые сетью Кохонена в данном примере, достаточ­но очевидны. Однако здесь хорошо проиллюстрированы основы работы KCN с использованием конкуренции между нейронами и алгоритма обучения Кохонена.
Описание слайда:
Таким образом, можно увидеть, что четыре выходных нейрона представляют четыре различных кластера, если выборка данных содержит записи, схожие с записями из табл. 7.6. Эти кластеры представлены в табл. 7.7. Таким образом, можно увидеть, что четыре выходных нейрона представляют четыре различных кластера, если выборка данных содержит записи, схожие с записями из табл. 7.6. Эти кластеры представлены в табл. 7.7. Конечно, кластеры, открытые сетью Кохонена в данном примере, достаточ­но очевидны. Однако здесь хорошо проиллюстрированы основы работы KCN с использованием конкуренции между нейронами и алгоритма обучения Кохонена.

Слайд 49


Задача кластеризации. Алгоритмы кластеризации, слайд №49
Описание слайда:

Слайд 50





Карты Кохонена 
Самоорганизующиеся карты признаков не только являются эффективным алгоритмом кластеризации, но и позволяют представлять ее результаты в виде двумерных карт, где расстояния между объектами соответствуют расстояниям между их векторами в многомерном пространстве, а сами значения признаков отображаются различными оттенками. 
Для отображение глубины выраженности признака  используется специальная цветовая гамма: чем выше или глубже степень выраженности, тем более темным цветом он окрашивается. Таким образом, двумерная карта позволяет показывать три измерения.
Описание слайда:
Карты Кохонена Самоорганизующиеся карты признаков не только являются эффективным алгоритмом кластеризации, но и позволяют представлять ее результаты в виде двумерных карт, где расстояния между объектами соответствуют расстояниям между их векторами в многомерном пространстве, а сами значения признаков отображаются различными оттенками. Для отображение глубины выраженности признака используется специальная цветовая гамма: чем выше или глубже степень выраженности, тем более темным цветом он окрашивается. Таким образом, двумерная карта позволяет показывать три измерения.

Слайд 51





В большинстве практических приложений приходится иметь дело с данными, для которых размерность пространства признаков больше, чем два. 
В большинстве практических приложений приходится иметь дело с данными, для которых размерность пространства признаков больше, чем два.
Описание слайда:
В большинстве практических приложений приходится иметь дело с данными, для которых размерность пространства признаков больше, чем два. В большинстве практических приложений приходится иметь дело с данными, для которых размерность пространства признаков больше, чем два.

Слайд 52





Методика построения карты
Методика построения карты
Чем отличаются понятия «сеть Кохонена» и «карта Кохонена»? 
 сеть Кохонена используется только для кластеризации объектов, а визуализация результатов будет производиться с помощью таблиц или диаграмм. Карта Кохонена позволяет визуализировать результаты кластеризации, в том числе многомерные. 
в сети число выходных нейронов соответствует количеству кластеров, которое должно быть получено, а в карте — количеству сегментов, из которого будет состоять карта, или, иными словами, размеру карты. 
Из вышесказанного можно сделать вывод, что карта Кохонена — это разновидность сети Кохонена.
Описание слайда:
Методика построения карты Методика построения карты Чем отличаются понятия «сеть Кохонена» и «карта Кохонена»? сеть Кохонена используется только для кластеризации объектов, а визуализация результатов будет производиться с помощью таблиц или диаграмм. Карта Кохонена позволяет визуализировать результаты кластеризации, в том числе многомерные. в сети число выходных нейронов соответствует количеству кластеров, которое должно быть получено, а в карте — количеству сегментов, из которого будет состоять карта, или, иными словами, размеру карты. Из вышесказанного можно сделать вывод, что карта Кохонена — это разновидность сети Кохонена.

Слайд 53





Карта Кохонена состоит из сегментов прямоугольной или шестиугольной формы, называемых ячейками. Каждая ячейка связана с определенным выходным нейроном и представляет собой «сферу влияния» данного нейрона. 
Карта Кохонена состоит из сегментов прямоугольной или шестиугольной формы, называемых ячейками. Каждая ячейка связана с определенным выходным нейроном и представляет собой «сферу влияния» данного нейрона. 
Объекты, векторы признаков которых оказываются ближе к вектору весов данного нейрона, попадают в ячейку, связанную с ним. Следовательно, если объекты на карте расположены близко друг к другу, то и векторы признаков этих объектов близки, и наоборот.
Описание слайда:
Карта Кохонена состоит из сегментов прямоугольной или шестиугольной формы, называемых ячейками. Каждая ячейка связана с определенным выходным нейроном и представляет собой «сферу влияния» данного нейрона. Карта Кохонена состоит из сегментов прямоугольной или шестиугольной формы, называемых ячейками. Каждая ячейка связана с определенным выходным нейроном и представляет собой «сферу влияния» данного нейрона. Объекты, векторы признаков которых оказываются ближе к вектору весов данного нейрона, попадают в ячейку, связанную с ним. Следовательно, если объекты на карте расположены близко друг к другу, то и векторы признаков этих объектов близки, и наоборот.

Слайд 54





Хотя расстояние между объектами позволяет сделать выводы о степени их сходства или различия, также важна информация о том, в чем проявляется это сходство и различие, по каким признакам объекты различаются в наибольшей степени, а по каким — в наименьшей и т. д. Именно специальная раскраска помогает получить ответы на эти вопросы, выполняя функцию третьего измерения. Идея состоит в том, что каждой ячейке на карте назначается цвет в соответствии со значениями признаков объектов в ней.
Хотя расстояние между объектами позволяет сделать выводы о степени их сходства или различия, также важна информация о том, в чем проявляется это сходство и различие, по каким признакам объекты различаются в наибольшей степени, а по каким — в наименьшей и т. д. Именно специальная раскраска помогает получить ответы на эти вопросы, выполняя функцию третьего измерения. Идея состоит в том, что каждой ячейке на карте назначается цвет в соответствии со значениями признаков объектов в ней.
Таким образом, есть два важных фактора: положение объекта на карте (расстояние до других объектов) и цвет ячейки. 
При данном способе визуализации на одной карте можно использовать расцветку только по одному признаку, то есть для значений нескольких признаков строятся отдельные карты.
Описание слайда:
Хотя расстояние между объектами позволяет сделать выводы о степени их сходства или различия, также важна информация о том, в чем проявляется это сходство и различие, по каким признакам объекты различаются в наибольшей степени, а по каким — в наименьшей и т. д. Именно специальная раскраска помогает получить ответы на эти вопросы, выполняя функцию третьего измерения. Идея состоит в том, что каждой ячейке на карте назначается цвет в соответствии со значениями признаков объектов в ней. Хотя расстояние между объектами позволяет сделать выводы о степени их сходства или различия, также важна информация о том, в чем проявляется это сходство и различие, по каким признакам объекты различаются в наибольшей степени, а по каким — в наименьшей и т. д. Именно специальная раскраска помогает получить ответы на эти вопросы, выполняя функцию третьего измерения. Идея состоит в том, что каждой ячейке на карте назначается цвет в соответствии со значениями признаков объектов в ней. Таким образом, есть два важных фактора: положение объекта на карте (расстояние до других объектов) и цвет ячейки. При данном способе визуализации на одной карте можно использовать расцветку только по одному признаку, то есть для значений нескольких признаков строятся отдельные карты.

Слайд 55





В зависимости от значения признака определяется цвет для всех объектов в ячейке. Например, пусть в некоторую ячейку попали всего два объекта с признаками Возраст и Доход, для которых эти значения будут (45; 21) и (34; 14). 
В зависимости от значения признака определяется цвет для всех объектов в ячейке. Например, пусть в некоторую ячейку попали всего два объекта с признаками Возраст и Доход, для которых эти значения будут (45; 21) и (34; 14). 
Строятся две карты, и цвет ячейки определяется по среднему в них. Для признака Возраст он будет соответствовать (45 + 34)/2 = 39,5, то есть серому оттенку (в цветной палитре — зеленому), а для признака Доход — (21 + 14)/2 = 17,5, то есть белому оттенку (в цветной палитре — желто-зеленому). Заметим, что можно не усреднять значения признака, а брать минимальное или максимальное из них.
Описание слайда:
В зависимости от значения признака определяется цвет для всех объектов в ячейке. Например, пусть в некоторую ячейку попали всего два объекта с признаками Возраст и Доход, для которых эти значения будут (45; 21) и (34; 14). В зависимости от значения признака определяется цвет для всех объектов в ячейке. Например, пусть в некоторую ячейку попали всего два объекта с признаками Возраст и Доход, для которых эти значения будут (45; 21) и (34; 14). Строятся две карты, и цвет ячейки определяется по среднему в них. Для признака Возраст он будет соответствовать (45 + 34)/2 = 39,5, то есть серому оттенку (в цветной палитре — зеленому), а для признака Доход — (21 + 14)/2 = 17,5, то есть белому оттенку (в цветной палитре — желто-зеленому). Заметим, что можно не усреднять значения признака, а брать минимальное или максимальное из них.

Слайд 56


Задача кластеризации. Алгоритмы кластеризации, слайд №56
Описание слайда:



Похожие презентации
Mypresentation.ru
Загрузить презентацию