Содержание
- 2. 4.1. Машина (метод) опорных векторов (SVM, Support Vector Machine – Вапник В. и др. – 60-80
- 3. Все гиперплоскости вида (w,x) + b′ = 0, где b′ ∈ (b –1, b +1) также
- 4. Рис. 4.1 Для надёжного разделения классов необходимо чтобы расстояние между разделяющими гиперплоскостями было как можно большим.
- 5. Свойства Метода опорных векторов: 1) это наиболее быстрый способ нахождения решающих функций; 2) метод сводится к
- 6. 4.2. Классификация с помощью функции расстояния Этот способ предполагает определение функции, оценивающей меру принадлежности предъявленного для
- 7. В качестве такой меры близости чаще всего используют метрику, т.е. такую неотрицательную функцию d : Rn
- 8. 2. Метод ближайшего соседа. В этом способе расстояние определяется в соответствии со следующим алгоритмом: а) Определяется
- 9. Предположим, что имеется множество прецедентов, т.е. обучающая выборка Ξ = {x1 ,..., xN} в пространстве признаков
- 10. Метод потенциальных функций связан с определением так называемой потенциальной функции u(x,y) , т.е. некоторой положительной функциии,
- 11. Решающая функция может и не содержать всех слагаемых и будет иметь вид (1) где xj∈ Ξ
- 12. Рис. 4.1. Образы жокеев и баскетболистов в пространстве признаков. Детерминированный подход 4.4. Статистический подход к задаче
- 13. Рис. 4.2 Образы жокеев и баскетболистов в пространстве признаков.
- 14. Рис. 4.3 Образы жокеев и баскетболистов в пространстве признаков. Статистический подход
- 15. При большом количестве объектов относительную частоту появления образа в классе можно оценить, построив гистограмму по объектам,
- 16. Рис. 4.4 Гистограмма Рис. 4.5 Функция плотности распределения вероятностей
- 17. Рис. 4. 6. Нормальное распределение μ — математическое ожидание (среднее значение), σ — среднеквадратическое отклонение (σ2
- 18. Рис. 4.7 Несимметричные распределения
- 19. В основе статистических методов классификации лежит предположение, что функция плотности вероятности f(x) для любого из выделяемых
- 20. Критерий Байеса обеспечивает минимальную в среднем вероятность ошибки распознавания при многократном принятии решения. С этой целью
- 21. Второе выражение (4.2) соответствует уже знакомому нам виду разделяющей функции для пары классов: dij(x)=0 . То
- 22. Для случая одномерного признака и трех классов правило принятия решения по принципу максимума правдоподобия показано на
- 24. Наиболее распространенные методы классификации без обучения: ISODATA; K-Средних. Метод классификации без обучения ISODATA (Итерационная самоорганизующаяся методика
- 26. Скачать презентацию