🗊Презентация Оценочная и сравнительная классификация алгоритмов

Категория: Математика
Нажмите для полного просмотра!
Оценочная и сравнительная классификация алгоритмов, слайд №1Оценочная и сравнительная классификация алгоритмов, слайд №2Оценочная и сравнительная классификация алгоритмов, слайд №3Оценочная и сравнительная классификация алгоритмов, слайд №4Оценочная и сравнительная классификация алгоритмов, слайд №5Оценочная и сравнительная классификация алгоритмов, слайд №6Оценочная и сравнительная классификация алгоритмов, слайд №7Оценочная и сравнительная классификация алгоритмов, слайд №8Оценочная и сравнительная классификация алгоритмов, слайд №9Оценочная и сравнительная классификация алгоритмов, слайд №10Оценочная и сравнительная классификация алгоритмов, слайд №11Оценочная и сравнительная классификация алгоритмов, слайд №12Оценочная и сравнительная классификация алгоритмов, слайд №13Оценочная и сравнительная классификация алгоритмов, слайд №14Оценочная и сравнительная классификация алгоритмов, слайд №15Оценочная и сравнительная классификация алгоритмов, слайд №16Оценочная и сравнительная классификация алгоритмов, слайд №17Оценочная и сравнительная классификация алгоритмов, слайд №18Оценочная и сравнительная классификация алгоритмов, слайд №19Оценочная и сравнительная классификация алгоритмов, слайд №20Оценочная и сравнительная классификация алгоритмов, слайд №21Оценочная и сравнительная классификация алгоритмов, слайд №22Оценочная и сравнительная классификация алгоритмов, слайд №23Оценочная и сравнительная классификация алгоритмов, слайд №24

Содержание

Вы можете ознакомиться и скачать презентацию на тему Оценочная и сравнительная классификация алгоритмов. Доклад-сообщение содержит 24 слайдов. Презентации для любого класса можно скачать бесплатно. Если материал и наш сайт презентаций Mypresentation Вам понравились – поделитесь им с друзьями с помощью социальных кнопок и добавьте в закладки в своем браузере.

Слайды и текст этой презентации


Слайд 1





Введение в
Машинное обучение
ETHEM ALPAYDIN	
© The MIT Press, 2004
alpaydin@boun.edu.tr
http://www.cmpe.boun.edu.tr/~ethem/i2ml
Описание слайда:
Введение в Машинное обучение ETHEM ALPAYDIN © The MIT Press, 2004 alpaydin@boun.edu.tr http://www.cmpe.boun.edu.tr/~ethem/i2ml

Слайд 2


Оценочная и сравнительная классификация алгоритмов, слайд №2
Описание слайда:

Слайд 3





Введение
Вопросы:
Оценка ожидаемой ошибки обучающего алгоритма: будет ли погрешность метода ближайшего соседа (k-NN) при k=1 (1-NN) менее 2%?
Сравнение ожидаемых ошибок двух алгоритмов: метод ближайшего соседа (k-NN) более точен чем многослойный персептрон (MLP) ?
Обучение/проверка/тестирование выборки
Методы ресамплинга: Кросс-валидация по K блокам (K-fold cross-validation)
Описание слайда:
Введение Вопросы: Оценка ожидаемой ошибки обучающего алгоритма: будет ли погрешность метода ближайшего соседа (k-NN) при k=1 (1-NN) менее 2%? Сравнение ожидаемых ошибок двух алгоритмов: метод ближайшего соседа (k-NN) более точен чем многослойный персептрон (MLP) ? Обучение/проверка/тестирование выборки Методы ресамплинга: Кросс-валидация по K блокам (K-fold cross-validation)

Слайд 4





Предпочтение алгоритма
Критерии (зависимые от применения):
Ошибка неверной классификации, или риск (функции потерь)
Время обучения/ уровень сложности
Время тестирования/ уровень сложности
Интерпретируемость
Лёгкая программируемость
Обучение с учетом издержек классификации (Cost-sensitive learning)
Описание слайда:
Предпочтение алгоритма Критерии (зависимые от применения): Ошибка неверной классификации, или риск (функции потерь) Время обучения/ уровень сложности Время тестирования/ уровень сложности Интерпретируемость Лёгкая программируемость Обучение с учетом издержек классификации (Cost-sensitive learning)

Слайд 5





Ресамплинг и кросс-валидация по K блокам
Необходимость многократного обучения/ оценки выборки {Xi,Vi}i: Обучения/оценки выборка из i блоков
Кросс-валидация по K блокам: разделение X на k блоков, Xi, i=1,...,K
Ti делится на K-2 частей
Описание слайда:
Ресамплинг и кросс-валидация по K блокам Необходимость многократного обучения/ оценки выборки {Xi,Vi}i: Обучения/оценки выборка из i блоков Кросс-валидация по K блокам: разделение X на k блоков, Xi, i=1,...,K Ti делится на K-2 частей

Слайд 6





Кросс-валидация 5×2
Кросс-валидация: 5 раз по 2 блока (Dietterich, 1998)
Описание слайда:
Кросс-валидация 5×2 Кросс-валидация: 5 раз по 2 блока (Dietterich, 1998)

Слайд 7





Выборка с возвратом  (Bootstrapping)
Возьмём образцы из выборки с последующим их возвратом
Вероятность того, что мы не выберем образец после N попыток
	
	 то есть, только 36.8% образцов являются новыми!
Описание слайда:
Выборка с возвратом (Bootstrapping) Возьмём образцы из выборки с последующим их возвратом Вероятность того, что мы не выберем образец после N попыток то есть, только 36.8% образцов являются новыми!

Слайд 8





Ошибки измерения
Уровень ошибки = (FN+FP) / N
Возврат  = TP / (TP+FN) = чувствительность = коэффициент совпадений
Точность  = TP / (TP+FP)
Определенность  = TN / (TN+FP)
Частота ложных тревог = FP / (FP+TN) = 1 - Specificity
Описание слайда:
Ошибки измерения Уровень ошибки = (FN+FP) / N Возврат = TP / (TP+FN) = чувствительность = коэффициент совпадений Точность = TP / (TP+FP) Определенность = TN / (TN+FP) Частота ложных тревог = FP / (FP+TN) = 1 - Specificity

Слайд 9





Кривая ошибок (ROC Curve)
Описание слайда:
Кривая ошибок (ROC Curve)

Слайд 10





Интервальная оценка
X = { xt }t where xt ~ N ( μ, σ2)
m ~ N ( μ, σ2/N)
Описание слайда:
Интервальная оценка X = { xt }t where xt ~ N ( μ, σ2) m ~ N ( μ, σ2/N)

Слайд 11


Оценочная и сравнительная классификация алгоритмов, слайд №11
Описание слайда:

Слайд 12





Проверка гипотезы
Отклоняем недостоверную гипотезу если она не подкреплена выборкой с достаточной достоверностью
X = { xt }t где xt ~ N ( μ, σ2)
		H0: μ = μ0 или H1: μ ≠ μ0 
	Принимаем H0 с уровнем значимости α если μ0 находится в 100(1- α) доверительном интервале
	Двусторонний тест
Описание слайда:
Проверка гипотезы Отклоняем недостоверную гипотезу если она не подкреплена выборкой с достаточной достоверностью X = { xt }t где xt ~ N ( μ, σ2) H0: μ = μ0 или H1: μ ≠ μ0 Принимаем H0 с уровнем значимости α если μ0 находится в 100(1- α) доверительном интервале Двусторонний тест

Слайд 13






Односторонняя проверка: H0: μ ≤  μ0 или H1: μ > μ0 
	Принимаем если
Дисперсия неизвестна: используем t, вместо z 
	Принимаем H0: μ = μ0 если
Описание слайда:
Односторонняя проверка: H0: μ ≤ μ0 или H1: μ > μ0 Принимаем если Дисперсия неизвестна: используем t, вместо z Принимаем H0: μ = μ0 если

Слайд 14





Оценка ошибки: 
H0: p ≤  p0 или H1: p > p0 
Одиночная обучающая/оценочная выборка: биноминальный тест
	Если вероятность ошибки p0, то вероятность того что в N проверочных выборок будет e или менее ошибок
Описание слайда:
Оценка ошибки: H0: p ≤ p0 или H1: p > p0 Одиночная обучающая/оценочная выборка: биноминальный тест Если вероятность ошибки p0, то вероятность того что в N проверочных выборок будет e или менее ошибок

Слайд 15





Нормальная аппроксимация биноминального распределения
Количество ошибок X приблизительно равно N со средним значением Np0 и дисперсией Np0(1-p0)
Описание слайда:
Нормальная аппроксимация биноминального распределения Количество ошибок X приблизительно равно N со средним значением Np0 и дисперсией Np0(1-p0)

Слайд 16





t-тест для парных выборок
Многократное обучение/оценка выборки
xti = 1 если объект t неверно классифицирован на свертке i
Уровень ошибки на свертке i:
С помощью m и s2 - математического ожидания и дисперсии pi мы принимаем p0 или меньшую ошибку если
	меньше чем tα,K-1
Описание слайда:
t-тест для парных выборок Многократное обучение/оценка выборки xti = 1 если объект t неверно классифицирован на свертке i Уровень ошибки на свертке i: С помощью m и s2 - математического ожидания и дисперсии pi мы принимаем p0 или меньшую ошибку если меньше чем tα,K-1

Слайд 17





Сравнительные классификаторы: 
 H0: μ0 =  μ1 или H1: μ0 ≠ μ1 
Однократное обучение/оценка выборки: тест Мак-Нимара
Под H0, мы понимаем e01= e10=(e01+ e10)/2
Описание слайда:
Сравнительные классификаторы: H0: μ0 = μ1 или H1: μ0 ≠ μ1 Однократное обучение/оценка выборки: тест Мак-Нимара Под H0, мы понимаем e01= e10=(e01+ e10)/2

Слайд 18





Кросс-валидация по K блокам CV t-тест для парных выборок
Используем кросс-валидацию по K блокам cv  чтобы получить K обучающих/оценочных блоков
pi1, pi2:Ошибки функции классификации 1 и 2 на блоке i
pi = pi1 – pi2 : спаренное различие на блоке i
Нулевая гипотеза это имеет ли pi среднее значение, равное 0
Описание слайда:
Кросс-валидация по K блокам CV t-тест для парных выборок Используем кросс-валидацию по K блокам cv чтобы получить K обучающих/оценочных блоков pi1, pi2:Ошибки функции классификации 1 и 2 на блоке i pi = pi1 – pi2 : спаренное различие на блоке i Нулевая гипотеза это имеет ли pi среднее значение, равное 0

Слайд 19





Кросс-валидация 5×2 cv t-тест для парных выборок
Используем 5×2 cv чтобы получить 2 блока из 5 обучений/оценок репликаций (Dietterich, 1998) 
pi(j) :  разница между ошибками 1 и 2 на блоках  j=1, 2 репликации i=1,...,5
Описание слайда:
Кросс-валидация 5×2 cv t-тест для парных выборок Используем 5×2 cv чтобы получить 2 блока из 5 обучений/оценок репликаций (Dietterich, 1998) pi(j) : разница между ошибками 1 и 2 на блоках j=1, 2 репликации i=1,...,5

Слайд 20





Кросс-валидация 5×2 cv F-тест для парных выборок
Описание слайда:
Кросс-валидация 5×2 cv F-тест для парных выборок

Слайд 21





Сравнение L>2 алгоритмов: анализ отклонений (Дисперсионный анализ)
Ошибки L алгоритмов на K блоках
Мы строим две оценочные функции для σ2 . 
	Первая действительна если H0 истина, другая действительна всегда.
	Мы отклоняем H0  если две оценочные функции не совпадают.
Описание слайда:
Сравнение L>2 алгоритмов: анализ отклонений (Дисперсионный анализ) Ошибки L алгоритмов на K блоках Мы строим две оценочные функции для σ2 . Первая действительна если H0 истина, другая действительна всегда. Мы отклоняем H0 если две оценочные функции не совпадают.

Слайд 22


Оценочная и сравнительная классификация алгоритмов, слайд №22
Описание слайда:

Слайд 23


Оценочная и сравнительная классификация алгоритмов, слайд №23
Описание слайда:

Слайд 24





Другие тесты
Оценка диапазона (Ньюмена-Койлса):
Непараметрические тесты (Критерий знаков, Крускала — Уоллиса)
Противопоставление: Проверить отличаются ли 1 и 2 от 3,4, и 5
Множественные сравнения требуют Поправки Бонферрони если для достижения уровня α  есть m гипотез, то каждая из них должна иметь значение α/m.
Регрессия: Центральная предельная теорема утверждает что сумма независимых одинаково распределённых случайных величин переменных любого распределения есть величина приблизительно нормальная и к ней могут быть применены предшествующие методы
Другие функции потерь?
Описание слайда:
Другие тесты Оценка диапазона (Ньюмена-Койлса): Непараметрические тесты (Критерий знаков, Крускала — Уоллиса) Противопоставление: Проверить отличаются ли 1 и 2 от 3,4, и 5 Множественные сравнения требуют Поправки Бонферрони если для достижения уровня α есть m гипотез, то каждая из них должна иметь значение α/m. Регрессия: Центральная предельная теорема утверждает что сумма независимых одинаково распределённых случайных величин переменных любого распределения есть величина приблизительно нормальная и к ней могут быть применены предшествующие методы Другие функции потерь?



Похожие презентации
Mypresentation.ru
Загрузить презентацию