이 문서에서는 반복적인 믿음 전파를 사용하여 이분그래프 추론을 보여 줍니다. 이 실험은 향후 대규모 그래프 기반 추론을 구현하기 위한 개념 증명 역할을 합니다. 이 모듈에서는 그래픽 모델에서 정확한 추론에 대한 대체 보기, 즉 각 클러스터 간에 전달되는 메시지의 설명에 대해 설명하며, 각 클러스터간에 는 변수의 하위 집합에 대한 계수를 인코딩합니다. 이 프레임워크는 다양하고 정확한 대략적인 추론 알고리즘의 기초를 제공합니다. 여기서는 기본 프레임워크와 진부한 트리 전파의 정확한 경우에 인스턴스화에 중점을 둡니다. 선택적 단원은 LBP(반복된 믿음 전파) 알고리즘과 그 속성에 대해 설명합니다. 추론, 깁스 샘플링, 마르코프 체인 몬테 카를로 (MCMC), 믿음 전파 조건부 확률은 또한 우리의 예에서 주어진다. 수식에서 “P(X| W)”는 그에 해당합니다. 또한 수식의 “φ”인 모든 부모의 수신 메시지를 사용해야합니다. 인덱스는 부모 “K”에서 현재 변수 “X”까지 메시지 방향을 표시합니다. 이 두 부분(조건부 확률 및 부모의 메시지)은 변수 확률에 대한 정보를 제공하면서 사용됩니다.

한편으로는 부모의 가치관이 주어지는 확률을 볼 수 있으며, 다른 한편으로는 그 부모의 메시지를 봅습니다. 관찰하지 않으면 이러한 메시지는 부모의 이전 메시지와 일치합니다. 따라서 여기서는 “X”의 한계를 계산하고 조건부 변수를 제거합니다. 처음에 언급 한 저장소를 사용하여 이제 Holmes 예제를 사용하고 다양한 상황의 믿음을 계산 할 수 있습니다. 통계적 자연어 처리는 언어 구조의 확률적 모델에 의존합니다. 더 복잡한 모델은 언어적으로 의미있는 상호 작용과 잠재 변수를 추가하여 언어에 대한 우리의 직관을 캡처하는 데 도움이 될 수 있습니다. 그러나 우리가 원하는 모델에서 추론과 학습은 종종 심각한 계산 문제를 제기합니다. 믿음 전파(BP) 및 그 변형은 특히 최근 학습 방법을 사용하여 매력적인 근사 솔루션을 제공합니다. 이러한 접근 방식은 상호 작용하는 구성 요소의 조인트 모델을 처리하고, 계산 효율이 있으며, 종속성 구문 분석, 형태 학적 패러다임 모델링, CCG 구문 분석, 구를 포함한 여러 일반적인 NLP 작업에 대한 최신 기술을 확장할 수 있습니다.

추출, 의미 론적 역할 라벨링 및 정보 추출 (스미스와 이스너, 2008, 드레이어와 이스너, 2009, 아울리와 로페즈, 2011, 버켓과 클라인, 2012, 나라도우스키 등, 2012, 스토야노프와 이스너, 2012). 이 장난감 예제에서 노드 (1)는 (5,6,7,8)에 연결되고 노드 (2)는 (5,6,7)에만 연결됩니다. 노드 (1)는 노드 (2)에 비해 침해 웹 사이트를 생성할 가능성이 훨씬 높습니다. 이 편향은 노드 (1)와 노드 (8) 간의 연결에서 발생한다고 추측하는 것이 합리적입니다. 한계 확률 분포를 추론할 노드 중 에서 노드 (3)는 노드 (8)에 연결하지만 노드 (4)는 연결되지 않습니다. 따라서 노드 (4)보다 노드 (3)에 대해 침해 웹 사이트를 생성할 확률이 더 높습니다. 실제로 (4)는 노드 (2)와 정확히 동일한 속성에 연결되므로 노드 (4)의 한계 prbability 분포가 노드 (2)에 가깝습니다.

Comments (0)

Leave a reply

Should you ever have a question, please dont hesitate to send a message or reach out on our social media.