svm 알고리즘 예제

지원 벡터 머신(SVM)은 분리 하이퍼플레인에 의해 공식적으로 정의된 차별적 분류자입니다. 즉, 레이블이 지정된 학습 데이터(감독 학습)가 주어지면 알고리즘은 새로운 예제를 분류하는 최적의 하이퍼플레인을 출력합니다. 두 개의 디멘션 공간에서 이 초평면은 각 클래스의 양쪽에 놓여있는 두 부분으로 평면을 나누는 선입니다. 이 블로그 게시물에서는 SVM에 대한 높은 수준의 개요를 제공할 계획입니다. SVM의 이론에 대해 이야기 할 것입니다, 그것은 비 선형 분리 데이터 세트에 대한 응용 프로그램과 뿐만 아니라 파이썬에서 SVM의 구현의 빠른 예. 다음 기사에서는 알고리즘 뒤에 있는 수학을 살펴보고 후드 아래를 파고 들 것입니다. «지원 벡터 머신»(SVM)은 분류 또는 회귀 과제 모두에 사용할 수 있는 감독된 기계 학습 알고리즘입니다. 그러나, 그것은 주로 분류 문제에 사용 됩니다. 이 알고리즘에서는 각 데이터 항목을 n차원 공간의 점으로 플롯합니다(n은 보유한 피처 수임) 각 피처의 값이 특정 좌표의 값입니다. 그런 다음 두 클래스를 매우 잘 구별하는 하이퍼 평면을 찾아 분류를 수행합니다(아래 스냅숏 참조).

이전 예제에서 마진은 포인트에 대한 «사람의 땅»이었습니다. 여기서는 더 이상 좋은 분리 경계와 연관된 점 없는 여백을 모두 가질 수 없습니다. 일부 포인트는 여백으로 크리프. 감마 매개 변수는 단일 학습 예제의 영향이 얼마나 까지 도달하는지 정의하며, 낮은 값은 `far`를 의미하고 높은 값은 `close`를 의미합니다. 즉, 감마가 낮을 수록 그럴듯한 분리선에서 멀리 떨어진 점은 분리선계산에서 고려됩니다. 감마가 높으면 그럴듯한 선에 가까운 점이 계산에서 고려됩니다. 기계 학습 알고리즘을 마스터하는 것은 전혀 신화가 아닙니다. 초보자의 대부분은 회귀를 학습하여 시작합니다. 배우고 사용하는 것은 간단하지만, 그것이 우리의 목적을 해결합니까? 물론 아니에요! 왜냐하면, 당신은 단지 회귀보다 훨씬 더 많은 것을 할 수 있기 때문입니다! 원래 SVM 알고리즘은 블라디미르 N에 의해 발명되었다.