본 논문은 다양한 언어 및 저자원 언어 환경에서 대규모 언어 모델(LLM)의 문화적 편향, 공정성, 적용 가능성에 대한 우려를 해소하기 위해 다국어, 지역 및 문화적 맥락에 중점을 둔 대규모 자원 개발의 필요성을 제기합니다. 이를 위해 연구진은 사용자 정의 시드 쿼리를 활용하고 검색 엔진을 통해 지역 특정 일상 정보를 수집하여 다양한 문화 및 지역에 맞는 대규모 QA 데이터셋을 원활하게 구축할 수 있는 프레임워크인 NativQA를 제안합니다. NativQA는 24개국 39개 지역, 7개 언어(저자원 언어부터 고자원 언어까지)에 걸쳐 평가되었으며, 30만 개가 넘는 질의응답(QA) 쌍을 생성했습니다. 개발된 자원은 LLM 벤치마킹 및 추가 미세 조정에 사용될 수 있으며, 프레임워크는 공개적으로 제공됩니다(https://gitlab.com/nativqa/nativqa-framework).