Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

EXAONE Deep: Reasoning Enhanced Language Models

Created by
  • Haebom
Category
Empty

저자

LG AI Research, Kyunghoon Bae, Eunbi Choi, Kibong Choi, Stanley Jungkyu Choi, Yemuk Choi, Seokhee Hong, Junwon Hwang, Hyojin Jeon, Kijeong Jeon, Gerrard Jeongwon Jo, Hyunjik Jo, Jiyeon Jung, Hyosang Kim, Joonkee Kim, Seonghwan Kim, Soyeon Kim, Sunkyoung Kim, Yireun Kim, Yongil Kim, Youchul Kim, Edward Hwayoung Lee, Haeju Lee, Honglak Lee, Jinsik Lee, Kyungmin Lee, Sangha Park, Yongmin Park, Sihoon Yang, Heuiyeen Yeen, Sihyuk Yi, Hyeongu Yun

개요

EXAONE Deep 시리즈는 수학 및 코딩 벤치마크를 포함한 다양한 추론 작업에서 우수한 성능을 보이는 모델입니다. 긴 사고 과정을 포함하는 추론 전용 데이터셋을 사용하여 주로 학습되었으며, 크기가 작은 EXAONE Deep 2.4B 및 7.8B 모델은 유사한 크기의 다른 모델들을 능가하고, 가장 큰 모델인 EXAONE Deep 32B는 최고 수준의 대규모 모델들과 경쟁력 있는 성능을 보여줍니다. 모든 EXAONE Deep 모델은 연구 목적으로 공개적으로 이용 가능하며, Hugging Face에서 다운로드할 수 있습니다.

시사점, 한계점

시사점:
추론 전용 데이터셋을 사용한 학습의 효과를 보여줌.
다양한 크기의 모델에서 우수한 성능을 달성.
연구 목적으로 모델을 공개하여 접근성을 높임.
한계점:
논문에서 구체적인 한계점이나 향후 연구 방향이 명시적으로 제시되지 않음.
비교 대상 모델에 대한 상세한 설명이 부족할 수 있음.
데이터셋의 구성 및 품질에 대한 자세한 정보가 부족할 수 있음.
👍