베이지안 분류기는 통계적 분류기입니다. 그들은 주어진 샘플이 특정 클래스에 속할 확률을 포함하여 클래스 멤버십 확률을 예측할 수 있습니다. 베이지안 분류기는 데이터베이스가 높을 때에도 큰 효율성과 속도를 보여줍니다.
클래스가 정의되면 시스템은 분류를 제어하는 규칙을 추론해야 하므로 시스템은 각 클래스에 대한 설명을 찾을 수 있어야 합니다. 설명은 훈련 세트의 예측 속성만 참조해야 하므로 부정적인 예가 아닌 긍정적인 예만 설명을 만족해야 합니다. 설명에 모든 긍정적인 예가 포함되고 클래스의 부정적인 예가 하나도 포함되지 않는 경우 규칙이 올바른 것으로 간주됩니다.
모든 속성에 의한 기여는 독립적이고 각각은 분류 문제, Naïve Bayes 분류라고 하는 간단한 분류 체계에 동등하게 기여한다고 가정합니다. 각 "독립적인" 속성의 기여도를 분석하여 조건부 확률이 결정됩니다. 여러 속성이 생성할 예측에 미치는 영향을 결합하여 분류가 이루어집니다.
나이브 베이즈 분류는 클래스 조건부 독립성을 가정하기 때문에 나이브라고 합니다. 주어진 클래스에 대한 속성 값의 효과는 다른 속성의 값과 무관합니다. 이 가정은 계산 비용을 줄이기 위한 것이므로 순진한 것으로 간주됩니다.
신념 네트워크의 학습 또는 훈련에서 여러 시나리오가 가능합니다. 네트워크 토폴로지는 사전에 제공되거나 정보에서 유추될 수 있습니다. 네트워크 변수는 일부 훈련 튜플에서 관찰 가능하거나 비공개일 수 있습니다. 데이터를 은닉하는 방식은 결측치 또는 불완전한 정보로 정의됩니다.
관찰 가능한 변수가 주어진 훈련 기록에서 네트워크 토폴로지를 이해하기 위한 여러 알고리즘이 있습니다. 문제는 이산 최적화입니다. 인간 전문가는 일반적으로 네트워크 설계를 지원하는 분석 중인 도메인에 영향을 미치는 직접적인 조건부 종속성을 잘 파악하고 있습니다. 전문가는 직접 종속성에서 수행하는 노드에 대한 조건부 확률을 정의해야 합니다.
이러한 확률은 나머지 확률 값을 평가하는 데 사용할 수 있습니다. 네트워크 토폴로지가 인식되고 변수를 관찰할 수 있는 경우 네트워크 교육이 간단합니다. 순진한 베이지안 분류와 관련된 확률을 계산할 때와 마찬가지로 CPT 항목 계산으로 구성됩니다.
네트워크 토폴로지가 주어지고 여러 변수가 숨겨져 있을 때 신념 네트워크 훈련에서 선택할 수 있는 몇 가지 방법이 있습니다. 이것은 경사하강법의 유망한 방법을 정의할 수 있습니다. 숫자에 대한 고급 배경 지식이 없는 사람들에게는 그 정의가 미적분학으로 가득 찬 공식으로 인해 다소 무섭게 보일 수 있습니다.