본 연구는 벵골어 자연어 처리 (NLP) 모델 훈련 시, 자동 혼합 정밀도 (AMP) 훈련 기법을 활용하여 연산 효율성을 향상시키는 방안을 탐구한다. 벵골어 NLP 개발은 고성능 하드웨어 접근의 어려움으로 제약이 따르므로, AMP를 통해 모델 성능 저하 없이 GPU 메모리 요구량을 줄이고 훈련 속도를 높이고자 한다. 감성 분석, 개체명 인식, 오류 분류, 질의 응답 등 4가지 벵골어 NLP 태스크에 대해 BanglaBERT, BanglishBERT, XLM-R, mBERT 등 4가지 변환기 기반 모델을 대상으로 실험을 진행했다.