나이브 베이즈 분류 예제
  • 02
  • 08

이 예에 따르면, 베이즈 정리는 다음과 같이 다시 작성 할 수 있습니다 : 여기에 네이브 베이즈 모델의 힘을 개선하기위한 몇 가지 팁입니다 : 주요 베이즈테이크는 종종 위의 두 수량 중 하나 인 P (w | p) 또는 P (p | w)가 다른 것보다 훨씬 어렵다는 것입니다. 그래서 만약 당신이 실무자 이 주제에 관한 두 개의 수학적 기적 중 하나로이것을 볼 올 거 야, 다른 되 고 마르코프 체인 몬테 카를로의 적용 되 고 몇 가지 불쾌 한 적분 베이즈 당신에 게 던질 수 있습니다. 그러나 나는 안타나는다. Naive Bayes 분류자는 다음 단계에서 이벤트의 확률을 계산합니다: 가장 간단한 솔루션은 일반적으로 가장 강력한 솔루션이며, Naive Bayes는 그 좋은 예입니다. 지난 몇 년 동안 기계 학습의 큰 발전에도 불구하고, 그것은 간단뿐만 아니라 빠르고 정확하고 신뢰할 수있는 것으로 입증되었습니다. 그것은 성공적으로 많은 목적을 위해 사용 되었습니다., 하지만 그것은 자연 언어 처리 (NLP) 문제와 특히 잘 작동. 레드보다 두 배 많은 녹색 개체가 있기 때문에 새로운 사례(아직 관찰되지 않은 경우)가 RED가 아닌 녹색 멤버십을 가질 가능성이 두 배라고 생각하는 것이 합리적입니다. 베이지안 분석에서, 이 믿음은 이전 확률로 알려져 있습니다. 이전 확률은 이전 환경을 기반으로 하며, 이 경우 녹색 및 빨간색 개체의 백분율을 기반으로 하며 실제로 발생하기 전에 결과를 예측하는 데 자주 사용됩니다.

이전 섹션에서는 Naive Bayes를 사용하여 분류를 이해하는 직관적인 예제를 제공했습니다. 이 섹션에서는 관련된 기술 문제에 대한 자세한 내용을 설명합니다. Naive Bayes 분류자는 연속 또는 범주형 여부에 관계없이 임의의 수의 독립 변수를 처리할 수 있습니다. 변수 집합을 감안할 때 X = {x1, x2, x……,xd}를 감안할 때 가능한 결과 C = {c1, c2, c…,cd}의 집합 중에서 이벤트 Cj에 대한 사후 확률을 구성하려고 합니다. 보다 친숙한 언어에서 X는 예측 변수이고 C는 종속 변수에 있는 범주형 수준 집합입니다. 베이즈 규칙 사용: 기본 Naive Bayes 가정은 각 기능이 만드는 것입니다: 이 문서에서는 Naive Bayes 분류기 및 구현 뒤에 있는 이론을 설명합니다. Naive Bayes는 확률 이론과 베이즈 정리를 활용하여 텍스트 태그(예: 뉴스 또는 고객 리뷰)를 예측하는 확률 알고리즘 제품군입니다. 확률적이며, 이는 지정된 텍스트에 대한 각 태그의 확률을 계산한 다음 가장 높은 태그로 태그를 출력한다는 것을 의미합니다. 이러한 확률을 얻는 방법은 해당 기능과 관련될 수 있는 조건에 대한 사전 지식을 기반으로 기능의 확률을 설명하는 Bayes의 정리를 사용하는 것입니다. X가 보통(일명 가우시안) 분포를 따른다고 가정하면 정규 분포의 해당 확률 밀도를 대체하고 가우시안 Naive Bayes라고 합니다. 이 수식을 계산하려면 X의 평균과 분산만 있으면 됩니다. 베이즈 규칙은 주어진 X의 Y 확률에 대한 수식을 제공합니다.

그러나 실제 문제에서는 일반적으로 여러 X 변수가 있습니다. 이 기사에서는 주로 분류에 사용되는 감독 된 기계 학습 알고리즘 “Naive Bayes”중 하나를 살펴보았습니다. 축하합니다, 이 기사를 철저히 이해하고 이해했다면 이 알고리즘을 마스터하기 위한 첫 번째 단계를 이미 수행했습니다.

Comments (0)

Leave a reply

Should you ever have a question, please dont hesitate to send a message or reach out on our social media.