Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

A Neurosymbolic Approach to Natural Language Formalization and Verification

Created by
  • Haebom
Category
Empty

저자

Sam Bayless, Stefano Buliani, Darion Cassel, Byron Cook, Duncan Clough, Remi Delmas, Nafi Diallo, Ferhat Erata, Nick Feng, Dimitra Giannakopoulou, Aman Goel, Aditya Gokhale, Joe Hendrix, Marc Hudak, Dejan Jovanovic, Andrew M. Kent, Benjamin Kiesl-Reiter, Jeffrey J. Kuna, Nadia Labai, Joseph Lilien, Divya Raghunathan, Zvonimir Rakamaric, Niloofar Razavi, Michael Tautschnig, Ali Torkamani, Nathaniel Weir, Michael W. Whalen, Jianan Yao

개요

대규모 언어 모델(LLM)은 자연어 이해 및 추론에 뛰어나지만, 확률적 특성으로 인해 엄격한 정책이 적용되는 금융 및 의료와 같은 규제 산업에서 사용에 제약이 있다. 이를 해결하기 위해, 본 논문은 두 단계의 신경-기호 프레임워크를 제시한다. 첫째, 선택적 인간 지침과 함께 LLM을 사용하여 자연어 정책을 형식화하여 형식화 프로세스를 세밀하게 제어한다. 둘째, 추론 시 자동 형식화를 사용하여 해당 정책에 대한 자연어 문장의 논리적 정확성을 검증한다. 정확성이 가장 중요할 때, 추론 시간에 여러 중복 형식화 단계를 수행하여 형식화의 의미론적 등가성을 교차 검사한다. 99% 이상의 건전성을 입증하여 논리적 유효성을 식별하는 데 있어 거의 제로에 가까운 오탐율을 보인다. 본 프레임워크는 검증 결과를 뒷받침하고 원본 텍스트를 개선하는 데 사용될 수 있는 감사 가능한 논리적 아티팩트를 생성한다.

시사점, 한계점

시사점:
규제 산업에서 LLM의 신뢰성을 향상시키는 데 기여.
99% 이상의 높은 건전성을 달성하여 논리적 유효성 검증의 정확성을 높임.
감사 가능한 논리적 아티팩트 생성을 통해 검증 결과를 투명하게 제공.
자연어 정책의 형식화 과정에 대한 세밀한 제어 가능.
한계점:
본 논문에서 구체적인 한계점에 대한 언급은 없음. (논문 내용 요약에 한계점 관련 언급이 없음)
👍