Plausibility Vaccine: Injecting LLM Knowledge for Event Plausibility
Created by
Haebom
Category
Empty
저자
Jacob Chmura, Jonah Dauvet, Sebastian Sabry
개요
본 논문은 사전 훈련된 AlBERT 임베딩 위에 매개변수 효율적인 미세 조정을 사용하여 대규모 언어 모델에서 유도된 잠재적 지식을 주입함으로써 타당성 예측을 개선하는 방법을 연구합니다. 12개의 작업 어댑터를 훈련하여 다양한 물리적 특성과 연관 측정을 학습하고, 어댑터 융합을 수행하여 각 작업의 잠재적 의미론적 지식을 사전 훈련된 AlBERT 임베딩 위에 구성합니다. 보조 작업 데이터 생성을 자동화하여 접근 방식을 확장하고 두 개의 타당성 데이터 세트에서 학습된 표현을 미세 조정합니다. 공개된 코드는 https://github.com/Jacob-Chmura/plausibility-vaccine 에서 확인할 수 있습니다.