자율 시스템의 안전성과 신뢰성을 확보하는 것은 학습 기반 구성 요소와 개방 환경이 관련될 때 특히 어렵습니다. 형식적 방법은 강력한 보장을 제공하지만, 완전한 모델과 정적 가정을 필요로 합니다. 런타임 검증(RV)은 런타임에 실행을 모니터링하고 예측 변형에서 잠재적 위반을 예상함으로써 이를 보완합니다. 한편, 대규모 언어 모델(LLM)은 자연어를 형식적 인공물로 변환하고 데이터 패턴을 인식하는 데 뛰어나지만, 오류가 발생하기 쉽고 형식적 보장이 부족합니다. 이 비전 논문은 RV와 LLM의 공생적 통합을 주장합니다. RV는 LLM 기반 자율성의 가드레일 역할을 할 수 있으며, LLM은 사양 캡처를 지원하고, 예상 추론을 지원하며, 불확실성을 처리하는 데 도움으로써 RV를 확장할 수 있습니다. 기존의 조사 및 로드맵과 어떻게 다르고, 과제와 인증 의미를 논의하며, 신뢰할 수 있는 자율성을 향한 미래 연구 방향을 식별합니다.