저자들은 메모리나 지연 시간에 제약이 있는 환경에서, 소규모 디코더 언어 모델(LM)을 사전 학습하여 사전 학습 시 보이지 않은 언어로 빠르게 적응하고 제로샷 전이가 가능한지를 연구한다. 특히, 모델의 자기 회귀 목표의 일부를 1차 MAML(Model-Agnostic Meta-Learning)로 대체하는 방식을 사용하였다. 타갈로그어와 세부아노어를 대상으로 실험을 진행했으며, MAML을 통해 제로샷 micro-F1 점수가 향상되고 수렴 시간이 단축됨을 확인했다.