최근에는 파운데이션 LLM이 다양한 작업에서 뛰어난 성능을 보이고 있습니다. 그러다 보니 많은 산업에서 인공지능 도입에 대해 군침을 흘리고 있는데 개인적으로 지금 시점에선 약간 고민할 필요가 있다고 봅니다. 지금은 비용적으로도 ROI가 안나오고 지금 같이 새로운 기술과 모델이 계속 나오는 시기에는 결국 치킨게임으로 갈 수 밖에 없습니다. 무턱대고 인공지능을 도입했다가 단순 유저수는 뛸 수 있으나 리텐션이나 매출에서 적자폭이 커지는거죠. (개인적으로 1~2년 안에 비용적으로 대안이 나올 것이라 생각합니다.)
그럼에도 불구하고 인공지능을 도입해야한다라고 생각한다면 규모가 작고 가벼운 모델을 도입하는걸 추천합니다. 소잡는 칼로 닭 잡지 말라는 거죠. 특정 작업에 대한 모델이 필요한 경우도 있습니다. 특정 작업(task-specific)에 대한 모델의 역할과 중요성, 그리고 지금 시점에 이것에 뛰어드는데에 대한 걱정이 다수 있습니다. 이유는 크게 3가지 입니다.
개인 데이터를 다루는 경우
개인 데이터, 예를 들어 법률, 의료, 비즈니스 등의 데이터가 웹에 공개되어 있지 않은 경우, 모델이 이러한 데이터를 알아야 하는 상황에서 특정 작업에 대한 모델이 필요합니다. 그리고 이러한 데이터가 상당한 양이어야 합니다. 그렇지 않으면, 긴 문맥을 가진 모델이나 검색을 통해 쉽게 해결할 수 있습니다.
도메인 특화 작업을 수행하는 경우
특정 도메인에서 빠르고 저렴하게 작업을 수행해야 하는 경우에도 특정 작업에 대한 모델이 유용합니다. 예를 들어, Codex는 코딩 능력만 필요로 하며, 대규모로 빠르고 저렴하게 사용될 수 있습니다. 이와 비슷하게 운영하기 거대하고 부담스러운 LLM을 사용해 도메인 문제를 해결하는 것 보다, 오히려 작고 도메인 특하 모델을 개발하는게 낫습니다. (물론, 도메인 외의 분야에선 한계가 명확하겠지만)
최고의 성능을 추구하는 경우
특정 작업에서 최고의 성능을 얻고자 할 때, 다음 GPT-N+1 모델의 발전을 쉽게 따라갈 수 있는 경우에는 특정 작업에 대한 모델이 필요합니다. 특정 작업에 대한 모델을 훈련시켜 GPT-4를 이긴다고 해도, 그것은 단기적인 만족일 뿐입니다. GPT-n+1 모델이 나올 때마다 규모가 늘어나면서 더 나은 추론과 지식에 접근할 수 있게 되므로, 특정 작업에 대한 모델이 뒤쳐질 위험이 있습니다. (결국, 쩐의 싸움이 아니라 학습방법과 속도의 싸움)
결론
특정 작업에 대한 모델은 개인 데이터를 다루거나, 도메인 특화 작업을 수행하거나, 최고의 성능을 추구할 때 필요합니다. 그러나 일반 모델의 발전 속도를 고려할 때, 특정 작업에 너무 집중하는 것은 위험할 수 있습니다.
Subscribe to 'haebom'
Subscribe to my site to be the first to receive notifications and emails about the latest updates, including new posts.
Join Slashpage and subscribe to 'haebom'!