본 논문은 대규모 언어 모델(LLM)이 사실적 지식베이스로서 잠재력을 가지고 있음에도 불구하고, 실제 세계 사건에 대한 확률적 지식을 생성하는 능력은 아직 충분히 연구되지 않았다는 점을 지적합니다. 연구는 베이지안 네트워크(BN)를 통해 포착된 사건 및 상호 관계에 대한 진술의 확률 추정치를 도출하기 위해 LLM에 내재된 확률적 지식을 활용하는 방법을 조사합니다. LLM을 이러한 맥락에서 사용하면 BN의 매개변수화가 가능해져 특정 도메인 내에서 확률적 모델링이 가능해집니다. 헬스케어에서 금융에 이르기까지 80개의 공개적으로 이용 가능한 베이지안 네트워크에 대한 실험을 통해, 사건의 조건부 확률에 대한 LLM 질의가 랜덤 및 균일 분포와 같은 기준선뿐만 아니라 다음 토큰 생성 확률에 기반한 접근 방식과 비교할 때 의미 있는 결과를 제공함을 보여줍니다. 또한, 이러한 LLM에서 파생된 분포가 최소한의 데이터에서 추출된 분포를 개선하기 위한 전문가 사전 정보로 어떻게 활용될 수 있는지, 그리고 체계적인 편향을 크게 줄일 수 있는지 탐구합니다. 전반적으로, 본 연구는 LLM에서 추출된 확률적 지식과 소량의 실제 세계 데이터를 결합하여 베이지안 네트워크를 자동으로 구성하는 유망한 전략을 제시합니다. 또한, LLM에서 확률적 지식을 유도하기 위한 여러 프롬프팅 전략을 평가하고, LLM의 확률적 지식 추출 성능을 평가하기 위한 최초의 종합적인 기준선을 설정합니다.