Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

On the Origin of Algorithmic Progress in AI

Created by
  • Haebom
Category
Empty

저자

Hans Gundlach, Alex Fogelson, Jayson Lynch, Ana Trisovic, Jonathan Rosenfeld, Anmol Sandhu, Neil Thompson

개요

본 논문은 2012년부터 2023년까지 AI 훈련의 FLOP 효율성이 22,000배 향상되었다는 기존 추정치에 대해, 실제 기여도를 분석하고, 그 격차를 설명하는 연구 결과를 제시한다. 소규모 제거 실험을 통해 10배 미만의 효율성 향상만을 확인할 수 있었고, 문헌 조사를 통해 추가적인 혁신으로 인한 효율성 향상도 10배 미만으로 추정하여 총 100배 미만의 효율성 향상을 보였다. 이후 스케일링 실험을 통해 효율성 격차의 상당 부분이 스케일에 의존적인 알고리즘의 효율성 향상에서 기인한다는 것을 발견했다. 특히, LSTM과 Transformer의 스케일링 실험에서 compute-optimal scaling law의 지수 차이를 확인했으며, 이를 통해 전체 효율성 향상의 상당 부분을 설명했다. 연구 결과는 알고리즘 효율성 향상이 모델 크기에 따라 달라지며, 기존의 추정보다 작은 모델에 대한 알고리즘 발전이 더디게 이루어졌음을 시사한다.

시사점, 한계점

시사점:
알고리즘 효율성 향상은 모델 크기에 의존적일 수 있으며, 기존의 추정보다 작은 모델에 대한 알고리즘 발전은 더 느릴 수 있다.
LSTM에서 Transformer로의 전환과 같은 스케일에 의존적인 알고리즘 혁신이 전체 효율성 향상에 크게 기여했다.
알고리즘 효율성 측정은 참조 (예: 모델 크기)에 따라 달라질 수 있다.
한계점:
제거 실험에서 모든 혁신을 다루지 못하여 전체 효율성 기여도를 정확히 파악하지 못했을 수 있다.
실험적 외삽과 문헌 조사를 통해 추정한 부분이 있어, 실제 값과의 차이가 있을 수 있다.
특정 알고리즘 (LSTM, Transformer)에 대한 분석에 집중되어 다른 알고리즘에 대한 일반화가 제한적일 수 있다.
👍