본 논문은 표 이해를 위한 instruction-tuning된 대규모 언어 모델(LLM)의 성능을 평가하고, 기존 연구에서 간과되었던 하이퍼파라미터 선택의 영향과 도메인 외 표 이해 능력 및 일반적인 능력에 대한 포괄적인 평가를 수행합니다. 기존의 표 LLM들이 도메인 외 표 이해 능력과 일반적인 능력이 기본 모델에 비해 상당히 저하되는 것을 발견하고, 학습률과 같은 하이퍼파라미터가 표 관련 능력과 일반적인 능력 모두에 큰 영향을 미침을 체계적인 분석을 통해 보여줍니다. 기존의 연구와 달리, 작은 학습률과 적은 훈련 데이터를 사용하여 표 이해 능력을 향상시키면서 일반적인 능력을 유지할 수 있음을 입증하고, 이러한 결과를 바탕으로 LLaMA 3.1 8B Instruct를 instruction-tuning하여 GPT-3.5 및 GPT-4의 성능과 맞먹거나 능가하는 TAMA라는 표 LLM을 제시합니다. TAMA는 강력한 도메인 외 일반화 능력과 일반적인 능력을 유지하며, 신중한 하이퍼파라미터 선택을 통해 데이터 주석 비용 감소 및 효율적인 모델 개발의 가능성을 보여줍니다. 마지막으로, 프로젝트와 모델을 오픈소스로 공개합니다.