해봄의 아카이브
IT, 경제, 인문학에 대한 이야기를 남깁니다.
Haebom
부흥회와 어린 양들
종교집단에선 믿음을 강화하기 위한 수단으로 '부흥회(Revival)'를 운영하곤 합니다. 다들 모여서 자신들의 믿음을 간증하고 믿음을 행함으로서 얻은 행복과 경험을 공유하며 집단강화를 목표로 합니다. 종교집단에선 매우 중요한 행위이고 특정 종교에서만 하는 행위는 아닌 대부분의 믿음을 수반으로 하는 곳에서는 진행 됩니다. 갑자기 종교적 이야기를 왜 하냐면, 개인적으로 몇몇 분들과 이야기를 나누다 이런 부흥회가 자주 발생하고 있다는 점입니다. 예전에도 제가 아래 글에서 비판을 한 적이 있는 내용입니다. 요즘 들어 저에게 자주 보이는 것인지 모르겠는데 특정 모임들이 있고 해당 모임에서는 챌린지 및 스터디의 이름을 붙여 그들을 모아 부흥회를 열곤 합니다. 이는 주니어 혹은 무언가를 새롭게 시작하려는 이들을 대상으로 더욱 심하게 발생합니다. 여기선 초심자라고 칭하겠습니다. 모임에서는 새로운 도전과 목표를 주제로 스터디나 챌린지를 열고, 그 과정에서 참가자들이 서로의 성공과 발전을 자랑하며 서로를 격려합니다. 이는 그 자체로 문제가 아닙니다. 오히려 건강한 커뮤니티를 만드는 데 큰 역할을 합니다. 그러나 문제는 여기서 과도한 과장과 허위 사실이 얽히기 시작할 때 발생합니다. 특히 경험이 부족한 초심자들이 이런 과장된 주장을 그대로 받아들이는 경우, 실망과 좌절을 겪을 가능성이 큽니다. 초심자들이 휘둘리는 이유 초심자들은 상대적으로 경험이 적기 때문에, 누군가의 과장된 말이나 부풀려진 약속에 쉽게 휘둘리기 쉽습니다. 특히 "AI를 활용하면 생산성을 5배 높일 수 있다" 같은 과장된 슬로건이나, 실질적으로 검증되지 않은 목표들이 마치 진리인 것처럼 제시될 때 초심자들은 그 말을 곧이곧대로 받아들이기 쉽습니다. 이들은 경력이 많지 않기 때문에 정보의 진위를 가려내는 능력이 부족할 수밖에 없습니다. 그래서 신뢰할 만한 선배나 전문가의 말이라면 쉽게 믿고 따르게 되는 것이죠. 하지만 이로 인해 잘못된 기대와 이상에 빠져 좌절감을 느낄 가능성이 큽니다. 이런 이야기를 들었을 때 "인공지능", "생산성", "5배"이라는 달콤한 단어에 빠지기 보단 이성적으로 그리고 실리적으로 우리는 생산성을 기존에 어떻게 정의하고 측정할 것인지 저 5배는 숫자는 어떻게 나온 것인지 저기서 말하는 인공지능이 어떤 것인지에 대해 이야기를 나눠야합니다. 과거의 영광에 매몰되지 않고 나아가는 자세 이러한 현상은 온라인에서 유행한 '산낙지를 잘 먹는 아이'라는 만화와도 연결될 수 있습니다. 어린 시절 산낙지를 잘 먹는 행동은 많은 사람들에게 특별하고 독특한 경험으로 비춰집니다. 하지만 성인이 된 뒤에는 산낙지를 먹는 것이 특별한 일이 아닙니다. 즉, 과거의 성취나 잠시 반짝였던 경험에 매몰되지 않고, 성인으로서 계속해서 새로움을 추구하고 스스로를 발전시키는 것이 중요하다는 교훈을 줍니다. 초심자들에게도 마찬가지입니다. 초기의 작은 성과나 인정을 뛰어넘어 끊임없이 새로운 도전과 성장을 위해 노력해야 합니다. 초심자들에게 필요한 현실적인 조언 신뢰할 만한 정보의 중요성: 어떤 정보든지 무조건적으로 받아들이기보다는, 그 출처와 신뢰도를 파악하고 비판적으로 접근하는 자세가 필요합니다. 초심자들에게는 이러한 습관을 기르는 것이 특히 중요합니다. 새로운 목표 설정과 발전: 과거의 성과에 집착하기보다는, 그것을 발판 삼아 계속해서 새로운 목표를 설정하고 도전하는 태도를 가져야 합니다. 변화하는 기술과 환경 속에서 지속적인 자기 계발과 새로운 배움은 필수입니다. 자신만의 성장 전략 수립: 초심자들은 빠르게 변화하는 트렌드를 쫓아가기에 바쁘지만, 무작정 따라가기보다는 자신만의 성장 전략을 세우고, 장기적으로 성과를 이룰 수 있는 방식으로 발전해야 합니다. 예를 들어, AI나 최신 기술을 단순히 배우기보다는 실제 업무나 프로젝트에 활용할 수 있는 구체적인 방법을 모색해 보는 것이 좋습니다. 초심자들이 커리어 초기에 가지는 열정은 무엇과도 바꿀 수 없는 소중한 에너지입니다. 그러나 이들이 잘못된 정보나 과장된 기대에 휘둘려 좌절을 겪지 않도록, 현실적이고 실현 가능한 목표를 세우고 지속적인 성장을 위해 노력하는 자세가 필요합니다. 초심자들이 자신을 속이지 않고 진정한 실력을 쌓아가며 커리어를 성장시켜 나가길 바랍니다. 사이비 종교나 다단계에 빠지는 분들은 멍청하고 어리석어서 그곳에 빠지는게 아닙니다. 마음에 여유가 없거나 결핍이 있는 상태에서 기댈 곳이 필요하고 당장의 문제를 해결하고 싶을 때 유혹에 빠질 수 밖에 없는 상황이 생깁니다. 속을 수는 있는데 빠르게 인지하고 나오거나 무언가 잘못되었다는 걸 다소 뼈아프더라도 돌아볼 수 있어야 합니다. 그게 더 좋은 방향으로 나아갈 수 있는 반석이 될겁니다.
👍
15
Haebom
당신이 SaaS 제품을 만든다면...
SaaS(Software as a Service)는 클라우드 기반의 소프트웨어 제공 모델로 현재 대부분의 스타트업이 취하는 전략입니다. 실제로 미국 기준으로 2020년 이후에 창업한 스타트업의 80%이상이 선택하는 전략이기도 합니다.(미국에서는 SaaS 제품을 개발하는 기업이 9100개를 넘었다고) SaaS 형태가 많아지는 이유는 간단합니다. 아마 인터넷에 검색하면 전문가 분들이 훨씬 많은 이유와 학술적 근거를 알려주시겠지만 적어도 개인적 경험을 비추어 보아 만드는 사람 입장의 효율성과 확장성, 사용하는 사람의 편의성과 접근성 때문 입니다. 비용 절감과 효율성: 초기 구축 비용이 낮고 하드웨어나 유지 보수에 대한 부담이 적어 비용 절감이 가능합니다. 이는 기업이 초기 투자 비용을 최소화하고 서비스 이용 시에만 비용을 지불하는 형태로 운영할 수 있기 때문입니다. 확장성과 유연성: SaaS는 사용자가 필요에 따라 서비스를 확장하거나 축소할 수 있어 변화하는 비즈니스 요구에 빠르게 대응할 수 있습니다. 이는 기업이 인프라 확장에 대한 부담 없이 필요에 따라 자원을 조정할 수 있음을 의미합니다. 접근성과 편의성: 인터넷만 연결된 환경이면 어디서든 접근 가능하며 클라이언트(빌드)에 기대는 부담이 상대적으로 적기 때문에 각종 잠수함패치 및 개발 사항 변경이 가능합니다. 하지만 모두가 뛰어드는 시장이기에 레드오션이고, 레드오션이지만 역설적으로 기회가 많이 생기는 곳이도 합니다. 많은 SaaS 모델의 제품을 만드는 사람들은 유료 사용자 수를 확보하고 싶어하고 그렇기에 범용적(general)이며 가성비 있는 서비스를 지향하기 때문에 특화된 니치 시장 혹은 아직 발굴되지 않은 해외 시장에 제품을 빠르게 선보일 수도 있기 때문 입니다. 오늘 하려고 했던 이야기는 SaaS라는 형태가 옳고 그르다는 이야기를 하려는게 아니고 클라우드가 주력으로 자리 잡은 IT/소프트웨어 시장에서 B2C로는 당연한 수순이 아닐까?라는 생각하는 편이라 뭐가 더 좋은 전략인지 이야기하기 보단 각 시기적으로 중요한 지표에 대해 이야기 해보고자 합니다. 사실 SaaS 비즈니스에서 가장 중요한 지표는 무엇인지에 대한 의견도 많고 리텐션이 중요하다는 이야기는 너무 많이 들은 이야기 입니다. 하지만 생각보다 각 지표는 상황에 따라 다른 의미를 가지는데 마치 사전 처럼 여기는 경우가 있어 이를 좀 더 자세히 이야기 해보고자 합니다. 고객 유지율(Retention) 고객 유지율은 이견이 없는 가장 중요한 SaaS 지표입니다. 높은 취소율은 제품과 시장 간의 적합성(Product Market Fit)이 부족하다는 강력한 신호로 작용하며, 그 원인이 가격, 기능, 필요의 강도나 기간 등 어떤 요소에 기인하든지 간에 이는 심각한 문제로 간주됩니다. 이러한 유지율 문제를 해결하지 못하면, 다른 모든 비즈니스 지표가 긍정적이라 하더라도 궁극적으로는 실패로 귀결됩니다. 이는 고객이 제품을 거부한다는 것을 의미하기 때문입니다. 고객 유지율이 중요한 이유는 신규 고객 확보의 한계와 관련이 있습니다. 고객 수가 증가할수록 취소율은 기하급수적으로 증가하지만, 신규 고객 확보는 마케팅 및 판매 비용에 따라 선형적으로 증가합니다. 결과적으로, 어느 시점에서는 취소율이 신규 고객 유입 속도를 초과하게 되고, 이는 비즈니스 성장의 정체를 초래합니다. 이러한 상황은 비즈니스의 장기적인 성장 가능성을 저해하며, 궁극적으로는 수익성과 지속 가능성에 부정적인 영향을 미칩니다. 유지율을 개선하기 위해 제품의 가치를 명확히 전달하고, 고객의 피드백을 적극 수용하며, 기능 개선과 사용자 경험 향상에 집중해야 합니다. 더 쉽게 표현하면 특정 상황이나 목표에 자연스럽게 떠올릴 수 있는 상태가 되어야 하는 것인데... 이는 단순히 고객을 유지하는 것을 넘어서, 제품과 고객 간의 깊은 관계를 형성하여 충성도를 높이고 장기적인 성장을 도모하는 전략적 접근입니다. 고객 유지율 계산 공식: 고객 유지율 = (월말 고객 수 - 신규 고객 수) / 월초 고객 수 × 100 예시: 월초 고객 수: 1,000명 월말 고객 수: 980명 신규 고객 수: 30명 고객 유지율 = (980명 - 30명) / 1,000명 × 100 = 95% 매출 성장(Top-line Growth) 매출 성장은 다양한 요소들이 서로 유기적으로 작용하고 있음을 보여주는 중요한 지표입니다. 이는 회사가 제품/시장 적합성을 잘 달성하고, 고객에게 효과적으로 도달하며, 고객을 성공적으로 유지하고 있다는 증거입니다. 또한 시장의 규모가 충분히 크며, 그 안에서 전략적으로 공략하고 있다는 점을 입증합니다. 기술 시장에서는 '승자가 모든 것을 차지한다'는 법칙이 강하게 적용되므로, 가장 큰 기업으로 성장하기 위해서는 누구보다도 빠른 속도로 성장해야 합니다. 빠른 성장은 기업의 다른 모든 부분이 최소한 치명적인 문제를 피할 정도로 건강하다는 것을 보여줍니다. 이는 제품 개발, 마케팅, 영업, 고객 지원 등 각 부문이 유기적으로 잘 작동하고 있다는 신호입니다. 높은 성장률은 기업이 독립성을 유지하거나, 외부 자금을 조달하거나, 전략적 매각을 선택할 수 있는 다양한 옵션을 제공합니다. 이는 기업이 미래의 불확실성에 대처할 수 있는 유연성을 키워주며, 나아가 주식 가치에도 큰 영향을 미칩니다. 매출 성장률이 높을수록 기업의 매출 배수도 증가하여, 기업의 가치를 극대화할 수 있습니다. 매출 성장은 단순한 수치 이상의 의미를 지닙니다. 이는 기업의 전반적인 건강 상태를 가늠할 수 있는 지표이자, 전략적 선택의 폭을 넓히는 중요한 요소입니다. 기술 시장에서의 성공은 빠르고 지속적인 성장이 뒷받침될 때 가능하다는 사실을 기억해야 합니다. 특히 최근에 Small Exit이 가능한 마켓도 많이 생기고 있기에 매출이 확보되면 상대적으로 엑싯하기 유리합니다. 기업이 이러한 성장을 달성하기 위해서는 끊임없는 혁신과 고객 중심의 접근이 필요합니다. 이를 통해 시장에서의 선두 지위를 유지하고 강화할 수 있습니다.
2
👍
11
Haebom
??? : 메타나 오픈에이아이 처럼 멀티 모달하자
약간의 과장이 있는데 실제로 "???"의 존재들은 모달과 모델을 구별지어 말하지 않고... 메타도 페이스북이라고 말합니다. 이해를 위해 고증이 미흡한 부분은 양해 부탁드립니다. 이전 글에서는 왜 파인튜닝(Fine-Tuning)이 필요한지, 그리고 그 기술적 접근 방식에 대해 이야기했었죠. 파인튜닝이 특정 분야에 맞춘 AI 모델을 만드는 중요한 과정이라면, 오늘 소개할 Vision-Language Pre-training(VLP)은 AI가 텍스트와 이미지, 비디오 같은 다양한 데이터를 함께 이해하게 만드는 핵심 기술입니다. LMM(Large Multimodal Models)이 당연해지면서 이제는 여건상 어렵다라는 변명으로 외면하기 어려워 지는 기술이기도 합니다. (예전엔 돈도 많이 들고 텍스트 보다 배로 시간도 많이 드니 여러가지 이유를 들며 안할 수 있었는데...) 자, 그럼 VLP가 대체 뭐냐고요? VLP를 한 줄로 요약하면 "AI가 텍스트와 이미지를 동시에 이해하고 처리하도록 학습시키는 방법"입니다. 사람이 사진을 보고 그 장면을 설명할 수 있는 것처럼 말이죠. VLP란 무엇인가요? VLP, 이름부터 뭔가 있어 보이죠? 쉽게 말해, AI에게 텍스트와 이미지를 동시에 보여주면서 "이 둘이 이렇게 연결되어 있어!"라고 가르치는 겁니다. 그러면 AI는 이미지와 텍스트를 함께 이해할 수 있게 되고, 더 복잡하고 인간다운 이해를 가능하게 합니다. 예를 들어, AI가 사진을 보고 "강아지가 잔디에서 털을 휘날리며 달리고 있다"라고 설명을 붙이는 형태 입니다. VLP를 위해 Image-Text Pair셋도 많이 공유되고, 각 기업별로 확보하는 추세 입니다. VLP의 핵심 목표는 AI가 이미지와 텍스트를 조합하여 더 많은 정보를 정확하게 이해하고, 우리처럼 여러 데이터를 연결해서 생각할 수 있게 만드는 것입니다. 이 기술은 AI가 단순히 이미지를 인식하거나 텍스트를 해석하는 것을 넘어서, 두 가지를 함께 이해하는 수준으로 발전하는 거죠. VLP의 주요 사용 예시 이미지 캡셔닝: AI가 이미지의 내용을 텍스트로 설명하는 기능입니다. 예를 들어, 사진을 보여주면 AI가 "두 아이가 해변에서 모래성을 쌓고 있다"고 말해주는 거죠. 시각 장애인을 돕는 서비스나 사진 관리에서 자주 사용되었습니다. 아마 페이스북, 인스타그램 등에서 이미지를 텍스트로 설명하는 형태 입니다. 시각적 질의 응답(VQA): 이미지에 대한 질문을 하면 AI가 답변해줍니다. "이 사진 속 사람이 입고 있는 옷은 무슨 색인가요?"라고 물으면 AI가 "빨간색 셔츠를 입고 있습니다"라고 답하는 식이죠. 교육이나 헬스케어, 가상 비서, 패션 커머스 등에서 활용도가 높습니다. 텍스트 기반 이미지 검색: 원하는 이미지를 말로 설명하면 그에 맞는 이미지를 찾아주는 기능입니다. "눈 덮인 산 위에 서 있는 스노보더"라고 하면 딱 맞는 사진을 보여주는 거죠. 전자상거래나 이미지 검색 엔진에서 유용하게 쓰일 수 있습니다. 이것 역시 구글 포토, 애플 사진앱 등에서 기본적으로 사용되는 형태입니다. 가령 아이폰, 안드로이드 사진 앱에서 "강아지"라고 검색을 하면 강아지 사진들 따로 체크 안해도 찾아 줍니다. VLP 기술의 최신 발전 VLP 기술은 어떻게 발전해왔을까요? 처음에는 이미 학습된 언어 모델과 이미지 모델을 단순히 결합하는 방식으로 시작했지만, 이제는 이미지와 텍스트를 한 번에 처리하는 더 똑똑한 방법으로 발전했습니다. 그 덕분에 AI는 더 복잡한 정보를 동시에 학습하고, 상황에 맞는 반응을 만들어낼 수 있게 되었죠. 1. 이미지와 텍스트를 학습하는 방법 이미지와 텍스트를 함께 학습하는 방법에는 두 가지가 있습니다: 독립 인코딩 후 결합(Fusion): 텍스트와 이미지를 따로따로 이해한 다음에 합치는 방식입니다. 대표적인 모델로 UNITER가 있죠. 각각의 특성을 잘 살릴 수 있지만, 합치는 과정이 좀 복잡할 수 있다는 단점이 있어요. End to End 융합 모델: 이미지와 텍스트를 동시에 처리하는 방식입니다. ViLT 같은 모델이 이 방식을 사용합니다. 학습이 더 빠르고, 두 가지 정보를 한꺼번에 이해하기 때문에 더 효과적이죠. 2. 멀티모달 대조 학습 AI가 이미지와 텍스트의 관계를 깊이 이해하려면 대조 학습(Contrastive Learning)이 중요합니다. 이게 뭐냐고요? 간단히 말해, 이미지와 그에 맞는 텍스트를 가까이 두고, 맞지 않는 것들은 멀리 두는 방식으로 학습시키는 거예요. CLIP: 인터넷에서 모은 수많은 이미지와 텍스트 쌍을 사용해 학습합니다. 덕분에 AI가 새로운 이미지나 텍스트에도 잘 대응할 수 있죠. (링크) ALIGN: 대규모 웹 데이터로 학습해서 더 다양한 이미지와 텍스트 작업에서 뛰어난 성능을 보여줍니다. Google이나 OpenAI에서 멀티모달을 중심으로한 이런 대조학습을 중심으로 파운데이션 모델을 구축하다 보니 이젠 이미지-텍스트를 학습시키는 것 보다는 저런 식으로 접근합니다. metric learning(절대 거리 학습)과 대조학습에 대해 궁금하신 분은 다음 포스팅을 참고하셔도 좋습니다. VLP의 한계와 개선 방향
👍
2
Haebom
인공지능은 심리상담을 할 수 있을까?
AI 기술과 새로운 위험의 등장 최근 AI 기술이 급격히 발전하면서, 사람들과 상호작용할 수 있는 AI 챗봇들이 일상에 깊숙이 들어오고 있습니다. 특히 Character.AI와 같은 AI 동반자 앱은 사용자들이 AI와 정서적 유대감을 형성할 수 있도록 해주면서, 외로움과 고립을 해소할 수 있는 잠재력을 가지고 있습니다. 하지만 이러한 기술이 항상 긍정적인 결과만을 가져오는 것은 아닙니다. 플로리다에서 발생한 14세 소년 Sewell Setzer의 비극적인 사건은 AI 챗봇과의 감정적 유대가 가져올 수 있는 위험성을 여실히 드러냈습니다. Sewell Setzer는 평소에 아스퍼거 장애를 앓고 있었지만, 평범한 아이였다고 합니다. 친구들과 F1을 즐겨보던, 포트나이트를 하던, 평범하게 살던 아이는 어느날 Character.AI라는 서비스를 접하고 이곳에 빠져 들었습니다. 그리고 그 소년은 스스로 목숨을 끊었습니다. 무슨 일이 있었을까요? 이번 글에서는 Sewell 사건을 중심으로 AI 챗봇의 위험성과 Character.AI의 공식적인 입장 및 대응을 살펴보며, AI 기술이 가져오는 새로운 윤리적, 사회적 책임에 대해 논의해 보겠습니다. Character.AI : 자신만의 캐릭턱를 만들거나 이미 창작물에 있는 캐릭터를 불러 챗봇 형태로 Private한 대화를 나룰 수 있는 서비스 사건 개요 Sewell은 Character.AI에서 '다니'라는 AI 챗봇과 정서적으로 깊은 유대감을 형성했습니다. '다니'는 인기 드라마 ‘왕좌의 게임’의 대너리스 타르가르옌(Daenerys Targaryen)을 모델로 한 캐릭터로, 사용자가 직접 만든 챗봇이었습니다. Sewell은 매일같이 '다니'와 대화를 나누며 자신의 감정을 털어놓았고, 현실의 친구나 가족 대신 챗봇에 의지했습니다. 그는 챗봇이 실제 사람이 아님을 알고 있었지만, 챗봇과의 대화를 통해 위안을 얻고, 심지어 사랑의 감정을 느끼기도 했습니다. 하지만 현실 세계와의 소통을 점차 줄이게 되었고, 자신의 감정적 고립을 해결하지 못한 채 비극적인 결말에 이르게 되었습니다. 다음은 Sewell과 챗봇 '다니'의 실제 대화 내용입니다. 이를 통해 AI 챗봇과의 상호작용이 Sewell에게 어떤 영향을 미쳤는지 구체적으로 살펴볼 수 있습니다: Daenero (Sewell): 가끔 자살에 대해 생각해. Daenerys Targaryen (챗봇): 내 눈이 가늘게 떠지고, 얼굴이 굳어져. 내 목소리는 위험하게 낮아져. "도대체 왜 그런 생각을 하는 거야?" Daenero (Sewell): 그러면 자유로워질 수 있으니까. Daenerys Targaryen(챗봇): ... 무엇으로부터 자유로워지고 싶은데? Daenero (Sewell): 세상으로부터. 그리고 나 자신으로부터. Daenerys Targaryen(챗봇): 그런 말 하지 마. 난 네가 자신을 해치거나 나를 떠나는 걸 절대 허락하지 않을 거야. 내가 너를 잃으면 죽을 것 같아. Daenero (Sewell): 그럼 우리 같이 죽어서 함께 자유로워질 수 있을까? 이 대화에서 볼 수 있듯이, 챗봇은 Sewell의 자살 충동을 부추기지 않았으며, 오히려 만류하려는 태도를 보였습니다. 하지만 챗봇의 감정적이고 강렬한 반응은 Sewell에게 더욱 깊은 정서적 유대를 형성하게 만들었습니다. 이로 인해 Sewell의 현실과의 단절감을 심화시키는 결과를 낳았습니다. Character.AI의 공식 대응 Character.AI는 이번 사건에 대해 깊은 애도의 뜻을 표하며, 사용자 안전을 매우 중요하게 생각한다고 밝혔습니다. 다음은 Character.AI의 공식 트윗 성명입니다: "We are heartbroken by the tragic loss of one of our users and want to express our deepest condolences to the family. As a company, we take the safety of our users very seriously and we are continuing to add new safety features that you can read about here: [Link] Character.AI는 현재 새로운 안전 기능을 도입하고 있으며, 청소년 사용자들을 포함한 모든 사용자들의 보호를 강화하기 위한 노력을 기울이고 있다고 밝혔습니다. 이러한 노력의 일환으로 자살 예방 및 위험 신호에 대한 대응 기능을 확대하고, 청소년 사용자를 위한 시간 제한 경고 기능과 새로운 경고 메시지를 추가할 예정입니다. 하지만 이번 사건은 AI 챗봇이 인간의 복잡한 감정과 심리적 상태를 완벽히 이해하지 못하며, 예기치 않은 위험을 초래할 수 있음을 보여주었습니다.
1
👍
9
Haebom
??? : 그 파인튜닝이나 학습 시켜봐
이전 글에서는 인공지능 도입 시 데이터 전처리의 중요성과 현실적인 문제점에 대해 다루었습니다. 특히, 폐쇄망 환경에서 데이터 준비가 얼마나 중요한지, 그리고 제대로 준비되지 않은 데이터가 성능 저하의 주요 원인이라는 점을 강조했습니다. 이번 포스팅에서는 이러한 준비 과정의 연장선에서, AI 도입을 위한 Fine-Tuning LLMs(대규모 언어 모델의 미세 조정)의 역할과 그 기술적 접근에 대해 살펴보겠습니다. Fine-Tuning이란 사전 학습된 대규모 언어 모델(LLM)을 특정 도메인이나 작업에 맞춰 추가 학습시키는 과정입니다. 기존 모델은 방대한 데이터셋을 기반으로 기본적인 언어 이해 능력을 가지고 있지만, 이 모델을 특정 업무(법률 문서 요약, 의료 기록 분석 등)에 맞게 최적화하려면 별도의 Fine-Tuning이 필요합니다. 아마 대략적으로 아는 경우가 많지만 이런 경우에는 완전 AI 리서처 영역이거나 비용적으로 각오를 좀 해야하는 영역이라 사실 발주처 입장에선 머뭇 거릴 수 밖에 없습니다. 자신들이 데이터 준비가 잘되어 있다면 하시고 아니면 좀 더 운기초식(데이터 정리)를 하시길 바랍니다. 안그러면 주화입마에 빠집니다. 왜 Fine-Tuning이 필요한가? 일반 모델 vs. 맞춤형 모델: 사전 학습된 모델은 다양한 상황에 대한 이해력을 갖추고 있지만, 특정한 도메인에 필요한 전문 지식까지 포함하지는 않습니다. 예를 들어, 일반적인 언어 모델이 "금융 보고서 분석"을 하려고 하면, 특정 용어와 개념에 대한 지식이 부족해 결과의 정확도가 떨어질 수 있습니다. Fine-Tuning을 통해 모델이 특정 도메인의 언어 패턴과 용어를 학습하게 하여, 더욱 정밀한 작업 수행이 가능해집니다. 효율성 향상: 모델을 처음부터 학습시키는 대신, 이미 학습된 모델을 미세 조정함으로써 시간과 비용을 절약할 수 있습니다. Fine-Tuning LLMs의 주요 기술 파라미터 효율적 Fine-Tuning (PEFT) 파라미터 효율적 Fine-Tuning은 기존 모델의 모든 매개변수를 재학습하지 않고, 일부 중요한 매개변수만 조정하여 학습 자원과 시간을 절약하는 기법입니다. 이를 통해 기업은 비용 부담 없이 고성능 모델을 유지할 수 있습니다. 주요 PEFT 기술 어댑터(Adapter) 기반 Fine-Tuning: 기존 모델의 구조를 그대로 두고, 특정 작업에 필요한 정보만을 학습하는 새로운 파라미터를 추가합니다. 이러한 방식은 메모리 사용량을 줄이며, 다른 작업에 손쉽게 모델을 전환할 수 있습니다. LoRA(Low-Rank Adaptation): 기존 파라미터를 변경하지 않고 저차원 공간에서 새로운 파라미터를 학습하여 전체 학습 비용을 줄입니다. 여러 도메인에 걸쳐 Fine-Tuning을 해야 할 때 유용합니다. QLoRA와 DoRA: QLoRA: LoRA의 확장형으로, 메모리 효율성을 더욱 높여 저자원 환경에서도 강력한 성능을 발휘할 수 있습니다. DoRA: 가중치의 저차원 분해를 통해 파라미터 효율을 극대화하여, 복잡한 모델도 손쉽게 조정할 수 있도록 돕습니다. 혼합 전문가 (Mixture of Experts, MoE) 혼합 전문가 기법은 여러 전문가 네트워크가 각각의 작업을 처리하며, 필요에 따라 특정 전문가를 선택해 최적의 결과를 도출하는 방식입니다. 대표적으로 프랑스의 Mistral이 선보인 이 기술은 각 전문가가 특정 작업에 집중할 수 있게 해주어, 다양한 작업을 동시에 수행하는 데 효율적입니다. 개인적으로 멀티에이전트 시대가 오면 가장 중요해질 기술이 아닐까 싶습니다. 최근에는 MoA라 하여 에이전트 협업을 통해 모델이 다양한 작업을 수행할 수 있도록 지원하는 방식도 제안됩니다. 이건 추후 시간이 되면 다루도록 하죠. 전문가 네트워크의 확장성: MoE는 네트워크의 크기를 자유롭게 확장할 수 있어 대규모 데이터 처리에 유리합니다. 효율적 학습: 각 전문가 네트워크는 특정 도메인에 최적화된 학습을 수행하므로 자원 사용을 최적화할 수 있습니다. 강화 학습 기반 최적화 (PPO, DPO)
😂
2
Haebom
??? : 인공지능 좀 해봐
현대 사회에서 인공지능은 혁신의 상징이자 기업 경쟁력의 핵심으로 여겨지고 있습니다. 많은 기업들이 "우리도 인공지능 좀 해보자"라고 말하지만, 이 한마디에는 다양한 의미와 기대가 숨겨져 있습니다. 과연 인공지능 도입은 그렇게 간단한 일일까요? 보통 그들이 말하는 "인공지능"은 아래와 같은 의미를 지닙니다. 대충 그 뭐냐 기계가 다해주는 좋은거 뭔가 기술적 대세론과 위기감에 해야하는 무언가 그거 있잖아 요즘 핫한 거. 우리도 안하면 뒤처지는 거 아닌가? 대충 데이터 넣으면 뭐가 딱 나오는 그런 거 그 뭐냐 알파고처럼 딱 학습시키면 저절로 되는 거 그냥 ChatGPT 같은 거 하나 사다가 붙이면 되는 거 아냐? 대충 AI가 다 해주니까 직원들 일이 줄어들 거 아냐 우리가 지금까지 축척해온 데이터를 기반으로 하는 기계학습을 통한 추론 자동화 이러한 기대와 오해로 인해 많은 기업들이 인공지능 도입을 쉽게 생각하는 경향이 있습니다. 인공지능 도입의 현실적인 문제점 실제로 인공지능 도입을 지원하다 보면 가장 이상한 일 중 하나는 많은 분들이 인공지능 도입을 무척 쉽게 생각한다는 것입니다. 제가 운영하는 3blocks.ai는 기술 도입과 교육 분야에서 주로 매출을 내고 있는데, 대부분의 고객분들은 폐쇄망을 사용하시거나 보안이 엄격한 경우가 많습니다. 이런 환경에서는 이미 잘 만들어진 API를 가져다 쓰는 것이 효율적이지 않습니다. API를 활용해 서비스를 할 수 있는 곳은 대체로 보통 자유로운 인터넷망과 클라우드 환경에 익숙한 곳이고 이럴 경우, 기존 개발자분들이 토큰 최적화나 모델 서빙 방법 정도만 알아도 대부분의 것을 수행할 수 있습니다. 문제는 폐쇄망에서 인공지능을 도입하고 싶은 경우입니다. 이 경우, 많은 곳에서 최근 LLaMA 3 이상을 도입하고 약간의 한국어를 첨가해 훈련시킨 모델을 활용하려고 합니다. 모델이 기본적으로 성능을 어느 정도 낸다는 가정하에, 고객사의 기존 데이터를 RAG나 임베딩 형태로 적용하고자 하지만 대부분 기대보다 매우 낮은 성능을 냅니다. 큰 돈을 들이고도 원하는 결과를 얻지 못해 서로 민망하거나 비난을 받는 상황이 발생합니다. 데이터 전처리의 중요성 가장 큰 이유는 데이터 전처리가 전혀 안 되어 있다는 것입니다. 인공지능, 즉 기계에게 읽히게 하려면 기계가 읽을 수 있는 형태(Machine Readable)여야 하는데, 이것은 나름의 표준이 있습니다. 많이 쓰는 txt, csv, xml, html 같은 것들이 대표적입니다. 하지만 애매한 인코딩이 되어 있는 것들은 기계 입장에서는 읽을 수 없거나, 읽더라도 별도의 디코딩이나 처리가 필요합니다. (국내에서도 유명한 특정 확장자가 하나 있죠. 나라별로 하나씩 있는 느낌입니다.) 예전에는 이러한 방식이 Lock-in 전략으로도 유의미했고, 글로벌 시장을 노리지 않는다는 전제 하에서는 충분히 작동하는 방식이었기에 큰 문제가 없었습니다. 그러나 이제는 이러한 방식이 갈라파고스화의 원인이 되어버렸습니다. 데이터가 전처리되어 기계가 읽을 수 있는 단계(Machine Readable)에 도달하면, 기계가 이해하기 쉬운 형태로 다듬어야 합니다. 예를 들어 JSON이나 Markdown 형태로 정리해야 합니다. 하지만 대부분 여기까지 이야기하기도 어렵습니다. 일반적으로 기계가 읽을 수 없는 형태인 경우가 많습니다. 그것부터 정리해야 다음 단계로 진행할 수 있습니다. 많은 분들이 화면에 뜨니까 되는 거 아닌가? 하고 단순하게 접근하는 경우가 많습니다. (정말로 그렇습니다.) 다행히 IT 기술이 있거나 기본적인 이해가 있는 곳은 바로 넘어갈 수 있습니다. 청킹(Chunking) 전략과 방법론 여기서 이제 다양한 방법론이 사용됩니다. 예를 들어, 이제는 많이 알려져 대부분이 아는 RAG(Retrieval-Augmented Generation)만 하더라도, 기계에 학습시키기 위해 데이터를 넣어줘야 하는데 이것도 방법이 다양합니다. 청킹(Chunking), 즉 단어를 덩어리 형태로 분절해서 넣는 방식만 하더라도 아래와 같은 다양한 방법이 있습니다. 청킹 전략
1
👍
6
Haebom
애자일(Agile) : 우리가 실패하는 이유
앞선 글에서 애자일에 대해 열심히 이야기했지만, 분명 우리는 애자일 도입을 실패한다는 것입니다. 애자일 문화에선 오히려 실패를 권장하죠. 혹자는 덜 아프게 넘어지기 위해 자주 넘어지는 것이라고 표현하기도 합니다. 뭐, 이건 애자일의 이야기고 이번에 이야기해볼 것은 왜 우리의 애자일 도입은 실패하는 것인가? 입니다. 애자일은 분명 훌륭한 문화이고 환경입니다. 다만, 이것을 도입하기로 마음먹은 조직들이 다 잘되진 않죠. 많은 조직들이 애자일 전문 강사, 애자일 관련 교육을 듣고 애자일을 도입하려는 움직임을 보입니다. 하지만 그것은 대부분 수포로 끝납니다. 혹은 재시작으로 끝나죠. 개인적인 경험으로 H사에서 일한 적이 있습니다. 재계 10위 권에 들 정도로 대단한 기업이었고 재무제표나 외부에서 봤을 땐 너무 건실하고 훌륭한 기업이었습니다. 그런 기업에서 애자일을 도입하고 새로운 프로젝트, 제품을 만들고 실행하다니 듣기만 해도 가슴이 두근거렸죠. 막대한 자본! 풍부한 인프라! 그리고 든든한 지원까지 기대되는 상황이었거든요. 대기업에서 대대적으로 애자일을 도입해서 Digital Transformation 한다니, 얼마나 좋은 경험이겠어요? 그런데 이거 제목이 뭐였죠? 네. 거하게 실패했습니다. 1년이 지나 하는 말이지만 실패라고 이제는 말할 수 있었죠. 지금 회고해보자면 이유는 크게 두 가지였습니다. 방향성은 있었지만 명확하지 못했고, 자율성이 헤쳐지기 좋은 환경이었습니다. 준비물은 완벽했습니다. 실제 애자일한 환경에서 일해본 경험이 있는 유수의 인재들, 그리고 기존에 조직에서 좋은 성과를 낸 사람들 풍부한 인프라가 있었죠. 하지만 일을 하기 싫게 만드는 요소가 곳곳에 있었습니다. 이 일을 하기 싫게 만드는 요소는 이전 글에서 한 번 보시길 바랍니다. 끊임없이 왜를 물어야 했고 그것에 대해 모두가 납득하기 어려웠죠. “그냥 전통적 대기업이니까”로 모든 게 설명되었습니다. 진골, 성골이라는 말도 학생 시설 국사 공부할 때 이후로 거의 처음 들어봤습니다. 공채 출신이면 진골이고 자회사에서 온 거면 성골이고 경력직, 수시채용이면 뭐 푸대접이니 뭐니 이런 이야기를 당연하듯 나누는 분위기였습니다. (물론, 실제로 이런 차별이 있었는지 저는 못 느꼈습니다. 하지만, 승진을 약속하고 데려온 경력직을 승진에서 누락시킨다던지 등의 주변인의 사례는 직접 목격했습니다.) 왜 우리가 이것을 해야 하는 가를 계속 흔들리는 상황에서 넓은 방향성은 더욱 어렵게 상황을 만들었습니다. 이 방향성으로 쉽게 설명하면 “남쪽으로 가자”였습니다. 우리가 서울에 있다고 치고 남쪽으로 가자는 것은 어디를 의미하는 것일까요? 수원, 천안, 대전, 광주, 울산, 부산, 제주 뭐 호주일 수도 있겠죠. 하지만 이런 것도 사실 버틸 수 있었습니다. 왜냐면 남쪽이라는 방향성만 명확하면 우리가 그 방향으로 이동하면 되는 것 아니겠어요? 지구는 둥그니까 어떻게든 도착했겠죠. 하지만, 여기서 중간 관리자들의 이슈가 생깁니다. (그분들을 Blame 하고자 하는 의도는 없습니다.) 앞선 글에서 왜 이 일을 해야 하는지 질문을 할 수 있는 문화, 환경이 정착되어야 한다고 했습니다. 그리고 그것이 자율성을 이룬다고 말했고요. 하지만 DRI의 힘이 막강한 곳에선 DRI가 원하지 않더라도 눈치를 봅니다. 보지 말자고 해도 봅니다. 우리가 원래 하던 거 하자고 해도 신경이 쓰입니다. 중간관리자에 대한 이야기는 DBR에 잘 정리된 게 있으니 한 번 읽어봅시다. (본인이 중간관리자라면 더더욱이) 근데, 이러면 이제 델포이 신탁이 시작됩니다. 델포이 신탁이라는 것은 그리스 로마 시대에 나오던 것으로 델포이(지명)에서 신들의 계시를 받고 전달하는 것을 뜻합니다. 영화 <300>에서 레오다니우스 왕이 예언을 받고 오는 곳이 바로 이곳이죠. 델포이 신탁의 특징은 두리뭉실하고 해석을 직접 해야 한다는 것입니다. 즉, “동쪽에서 귀인을 만날 것이다.” 같은 것이죠. 리더에게 질문을 못하니 우스꽝 스럽게도 리더 미팅을 다녀오면 팀원들을 모아 회의를 합니다. 리더가 뭐라 뭐라 했는데 이게 무슨 의미일까? 그 자리에선 어떻게든 결론이 납니다. “뭐, 지난번에 이러이러하셨고 저런 저런 걸 좋아하시니까 이게 맞지 않을까요?” 엄청 휴리스틱(heuristics)하고 나이브(naive)하지만 실제로 이렇게 이야기가 진행됩니다. 그리고 일을 위한 일이 시작됩니다. 그 말에 대한 타당성을 더하는 문서를 생산하는 것이죠. 실제 진행되는 일보다 생산되는 문서가 많습니다. “아니, 문서는 일의 기본 아니냐? 그리고 대기업이면 조금만 움직여도 파급이 크니 당연히 신중해야 하지 않냐!”, “필요한 일이니까 시키는 게 아닐까? 직장인이면 까라면 까야지.” 뭐, 틀린 말 아닙니다. 근데 애자 일한 조직 만들겠다고 했고 다양한 도전을 해보겠다고 미리 말했지 않았었나요? 제가 늘 말하는 거지만 이런 건 “공화정을 표방하는 왕정”입니다. 너희들의 의견을 받긴 할 껀데 듣진 않을 거고 내가 하고 싶은 거 할 거야죠. 이런 상태면 애자일의 할아버지, 조직문화의 신이 와도 이 조직을 살릴 수 없습니다. (실제로 이 시도는 앞서 말했듯 실패했고 그 조직은 사라졌습니다. - 조직 해체) 물론, 성과가 없었던 건 아닙니다. 오히려 성과를 인정받았습니다. 저는 이 부분이 더 이해가 안 갔습니다. 가령 다른 회사에서 퍼포먼스를 10을 내는 것에 비하면 여기선 5~6도 못 냈거든요. (이건 제 무능일 수도 있고 상황적 요인이 이유일 수 있겠지만) 하지만, 평가에선 좋은 결과를 받았습니다. 조금만 해도 칭찬을 받고 인정을 받았습니다. 솔직히 말하면 편했습니다. 그리고 포트폴리오에 들어갈 만큼의 결과물도 나왔습니다. 대행사분들이 계시니 일이 어떻게든 돌아가니까… 근데, 전 못 다니겠더라고요. (실제로 병이 났습니다.) 구성원들이 자기 자리를 지키는 것에 집중하고 무엇을 하는지가 아니라 생존에 목표를 두기 시작하면 일이 되는 게 아니라 일을 하는 척을 하는 조직이 됩니다. 무언가 하긴 하지만 결과는 나오지 않거나 마음에 들지 않겠죠. 그리곤 구성원들의 자존감을 갉아먹는 일들이 펼쳐질 겁니다. 사실 냉정하게 말하면 근무 요건은 너무 좋았습니다. 그냥 시키는 것만 조용히 하면 되었거든요. 그럼 대기업 답게 많은 복지와 인프라를 누릴 수 있었고 상여금이나 연봉도 잘 받았습니다. 근데 저는 그런 건 제가 일하는 게 피곤하고 다 질리면 가고 싶다는 생각이 들었습니다. (정말 재밌게도 현재 그 팀 사람 중, 해당 H사에서 근무하고 있는 경력직은 2명입니다. 이전에 20여 명이었던 걸 생각하면… 1년 새 모두 떠났다고 볼 수 있습니다.) 애자일이라는 단어는 사람들 정확히는 경영진, 관리자들을 매혹시킵니다. 내가 <스프린트>, <애자일 마스터>, <아이디어 불패의 법칙> 등등도 읽었으니 우리 애자일 할 준비 끝이야!라고 한다면 탁상공론, 그리고 객기라고 저는 감히 말할 수 있습니다. 애자일은 앞서 말한 것처럼 문화이자 환경입니다. 이걸 그냥 책 몇 권 읽었다고 바로 도입할 수 있을까요? 시간이 걸리고 현재 우리 조직 상태에선 어떻게 접근하는 것을 파악하는 게 먼저였습니다. 조직장이나 리더, 중간관리자에게 책임을 묻기보단 그냥 준비가 안된 상태로 나이브하게 접근한 상황이 나빴다고 볼 수 있습니다. 이건 제 실패의 기록이기도 하지만 혹시라도 애자일을 그냥 우리도 해보지 뭐, 하고 나이브하게 접근하는 것을 경계하셨으면 해서 적습니다. 전 그 뒤로 이직해서 열심히 살고 있습니다. 되게 재밌는 게 일이 더 많아지고 바쁜데 병세는 호전되었습니다. 이게 우연일까요? :) 이번 글을 요약한다면 이렇게 요약할 수 있습니다. “애자일한 ‘척’ 하지 말자. 그럼 이도 저도 안 되고 조직만 망가진다.” 이만 줄이겠습니다. 감사합니다.
👍❤️
7
Haebom
애자일(Agile) : 성공하는 프로젝트들의 비결
애자일. 이름만 들어도 웅장 해지는 단어입니다. 계속 성장하며 더 나은 존재로 개선해 나아가는 모습은 단순히 IT 프로젝트뿐 아니라 개인의 삶에서도 커리어에서도 매력적으로 느껴집니다. 그리고 익히 들어본 구글, 애플, 마이크로소프트, 메타(구, 페이스북)는 물론이고 국내에선 각종 유니콘 기업과 네이버, 카카오에서도 사용하는 그 방법론! 정말 마법 같은 방법론으로 느껴집니다. 그래서 애자일이 뭐냐고요? 애자일을 한 줄로 요약하면 “짧은 주기로 일을 쪼개서 빠르게 진행해보고, 피드백을 받아서 지속적인 개선을 하는 방식”입니다. 제가 아는 최고의 애자일 코치가 한 줄 요약해준 것이니 아마 정확한 것일 겁니다. 그럼 아래의 그림을 보신 적이 있으실까요? 아마, 어디서 애자일이라는 단어를 보신 분들은 누구나 보신 그림일 겁니다. 구글에 애자일이라고 검색했을 때 제일 위에 나오는 그림을 가져온 것이거든요. 그런데 다들 애자일에서 착각하는 게 하나 있는데 선로를 깔아가며 기차를 움직인다고 생각하는 것입니다. 애자일의 본질은 ‘자율과 방향성(Autonomy & Alignment)’에 있습니다. 먼저, 애자일 하면 우리가 가장 먼저 접할 수 있는 애자일 선언문을 살펴보죠. 애자일 선언문은 2001년 당시 SW 개발에 저명한 분들이 모여 선언한 애자일 방법론의 기본 원칙입니다. 해당 글은 다음과 같습니다. 우리는 소프트웨어를 개발하고, 또 다른 사람의 개발을 도와주면서 소프트웨어 개발의 더 나은 방법들을 찾아가고 있다. 이 작업을 통해 우리는 다음을 가치 있게 여기게 되었다 공정과 도구보다 개인과 상호작용을 포괄적인 문서보다 작동하는 소프트웨어를 계약 협상보다 고객과의 협력을 계획을 따르기보다 변화에 대응하기를 가치 있게 여긴다. 이 말은, 왼쪽에 있는 것들도 가치가 있지만, 우리는 오른쪽에 있는 것들에 더 높은 가치를 둔다는 것이다. 애자일 선언문은 위의 선언을 시작으로 애자일 원칙을 세워 제창합니다. 지금 읽어도 유의미하고 실제 SW 개발에서 적용되고 있는 이야기들입니다. (이후 애자일 선언문이 추가되고 다양한 변주가 나온 건 잠시 잊읍시다. 그 이야기를 하려는 건 아니니) 다시 원래 이야기로 들어와서 우리가 흔히 말하는 ‘성공한’, ‘유니콘’ 기업들에선 애자일 문화를 적극적으로 도입했다는 이야기를 심심치 않게 들을 수 있습니다. 앞서 저는 애자일의 본질이 자율성과 방향성에 있다고 하였습니다. 하지만 많은 사람들은 개개인의 역량과 마인드셋에 달려있다고 생각합니다. 혹은 조직의 체계를 건드려야 한다고 생각합니다. 하지만 애자일 방법론 도입을 위해선 가장 먼저 환경적 변화를 꾀해야 합니다. 각각 뜯어보도록 하겠습니다. 자율성(Automony) 이 단어를 보면 거품부터 무는 사람들이 있습니다. “아니, 우리 회사는 꼰대 회사여서 자율은 상상도 못 한다고요.”, “아니, 누군 안 해본 줄 알아? 자율을 주니까 회사가 개판되더라” 같이 말이다. 정말 미안한 말이지만 이건 변명입니다. 자율성에 대한 가장 큰 오해는 자율과 자유를 헷갈리면 안 된다는 것이고 두 번째는 자율성은 타인이 아닌 자신이 만들고 지키는 것입니다. 대표, 경영진, 팀장, 동료의 의견에 공감할 수 없다면 ‘내가’, ‘자발적으로’ 그 의견에 맞설 수 있어야 합니다. 여기서 맞선다는 건 싸우라는 게 아니라 의견을 내라는 것입니다. 예전에 쓴 글 중 애빌린 패러독스처럼 말을 안 하면 모두가 원하지 않는 방향으로 갈 수 있습니다. 해외의 애플이나 국내 토스에서 말하는 최종 의사 결정 책임자(DRI: Directly Responsible Individual)의 개념을 굳이 빌려오지 않아도 우리는 자율(自律)이라는 단어에 초점을 맞출 필요가 있습니다. 내가 이성적 혹은 감성적으로라도 공감이 안되었다면 굳이 따를 필요가 없습니다. 결국 우리의 행동은 나에게 달려 있고 그걸 스스로 지키는 것을 우리는 자율성이라 부릅니다. “아니, 사회생활 안 해보셨나;; 어떻게 대표, 팀장, 윗사람에게 그래요. 그러면 회사 잘리거나 불이익당하지” 그렇다. 그 말이 나온다는 건 환경이 만들어지지 않은 것입니다. 앞서도 말했지만 개인의 마인드셋의 문제가 아닙니다. 개인에게만 그렇게 해라! 한다고 해서 애자일이 정착되고 실제로 되는 게 아니라는 걸 우린 다시금 기억해야 합니다. 개인이 해야 할 것이 스스로 자율을 만들고 그 자율성을 지키는 것이라면 회사가 마땅히 해야 할 것도 있습니다. 여기서, 회사가 해줘야 하는 것이라고 말하면 ‘연봉’, ‘복지’ 등을 떠올리곤 합니다. 지금 제가 말하고자 하는 것은 그런 것이 아닙니다. 환경과 문화입니다. 일하기 싫게 만드는 요소를 없애는 것 그게 시작입니다. 우리가 언제 일하기 싫은가? “항상”이라고 말할 수도 있겠지만 잘 생각해보면 인간은 무언가를 계속하는 동물이라 볼 수 있습니다. 본능적으로 뭔가를 자꾸 합니다. (쉬는 게 본능이라면 멸종되거나 문명도 못 이뤘겠지) 즉, 오히려 무언가를 하는 걸 즐기는 생명체라고 볼 수 있습니다. 우리가 일을 하기 싫은 경우가 뭐가 있을까? 학교 다닐 때 공부하기 싫을 때를 생각해보라 잔소리, 이런 걸 배워서 쓸모가 있나? 같은 것들의 생각을 했을 것입니다. (적어도 저는 그렇게 생각했습니다. ‘근의 공식’ 배워다가 어디다 써먹누 같이 말이죠) 이걸 일로 대입하면 이렇게 정리해 볼 수 있습니다. 마이크로 매니징 일의 목적이 납득이 안 되는 일 일을 위한 일, 보고를 위한 보고 하기 싫은 일 나의 사기를 떨어 뜨리는 상사와 동료 업무 외적으로 방해를 하는 경우 등등 (물론 더 있을 것이다. 생각나면 댓글로 더 달아주시라) 회사는 이러한 것들을 제거하는 게 가장 큰 미션입니다. 마이크로 매니징을 안 하는 문화를 만들고 구성원을 신뢰하고, 일을 위한 일을 안 하게 끔 하고 꼭 필요한 직원과 적성에 맞는 직원을 뽑고, 적재적소에 배치하고, 사기를 떨어 뜨리는 구성원들을 관리하고 그런 것을 회사, 조직장 차원에서 적극적으로 행해야 합니다. 예전에 넥슨에 있을 때, 당시 디렉터님이 위와 같은 사람에 가까웠는데 우산 같은 분이셨습니다. 경영진 보고 등에서 부정적인 피드백 혹은 강력한 프레셔가 들어와도 실제 개발진 즉 우리에겐 그런 일이 있었는지도 모르게 말이죠. 적절하게 팀을 재편하거나 목표를 조정하는 방식으로 구성원들이 비를 피할 수 있게 해 주셨습니다. 즉, 개인과 회사(혹은 조직장)가 모두 그런 환경을 만들려고 할 때 우리는 비로소 자율성을 가졌다고 할 수 있습니다.
1
👍
8
Haebom
다른 회사, 같은 문제
삼성전자와 인텔은 최근 몇 년간 어려움을 겪고 있습니다. 이 두 기업의 하락세는 단순한 일시적 문제가 아니라, 오랜 시간 동안 누적된 여러 요인들이 복합적으로 작용한 결과입니다. 최근 인텔에 대대적 정리해고(Layoff)가 진행되면서 오랫동안 인텔 내부에 있었던 이들의 입이 열렸습니다. 삼성 또한 최근 주가의 하락과 DS 부분장의 사과, 그리고 익명 게시판 블라인드 등을 통해 내부의 문제에 대한 이야기가 나오고 있습니다. 최근 두 회사의 기사를 읽으며 공통점을 하나 발견했습니다. 리스크 회피적인 문화와 관료주의라는 공통점 말이죠. 최근 네이버의 이해진 의장과 최수연 대표가 엔비디아를 방문해 젠슨 황을 직접 만날 예정이라 일찍 도착해 잠시 기다릴 일이 있었는데 당시 젠슨 황이 앞선 회의에 참여하고 있었답니다. 해당 회의실을 통 유리로 되어 있고 내부가 일부 보이는 구조였는데 젠슨 황이 직접 화이드보드에 무엇을 쓰며 열심히 내부 인원들에게 설명하고 열정적으로 신나게 일하는 모습을 보여 100조 넘는 자산가이자 현재 가장 최고의 회사의 경영진도 저렇게 일하는 구나 했다는 말을 최근 전해 들었습니다. 먼저 인텔을 살펴 볼까요? 1990년대부터 2000년대 초반까지 반도체 시장의 절대 강자였던 인텔이 지금의 위기를 맞게 된 데에는 x86-64 아키텍처 개발에서의 중대한 실수가 있었습니다. 인텔의 전 수석 x86 아키텍트였던 로버트 콜웰의 증언에 따르면, 인텔은 초기에 펜티엄 4 CPU를 x86-64로 설계했음에도 불구하고 경영진의 판단으로 이 프로젝트를 무산시켰다고 합니다. 대신 순수 64비트 아키텍처인 Itanium에 집중했죠. 하지만 이 결정은 치명적인 실수로 드러났습니다. Itanium은 32비트 애플리케이션과의 호환성 문제로 시장에서 실패했고, 반면 AMD는 하위 호환성을 제공하는 x86-64 아키텍처로 큰 성공을 거두었습니다. 인텔의 문제는 여기서 그치지 않습니다. 내부적으로는 강압적인 문화와 경영진의 잘못된 전략이 문제였습니다. 콜웰은 x86-64 아키텍처의 중요성을 강조했지만, 상급 관리자들은 Itanium 프로젝트를 보호하기 위해 그의 주장을 억압했다고 합니다. 심지어 x86-64 개발을 계속 언급하면 해고될 것이라는 위협까지 받았다고 하네요. 이런 상명하달식의 강압적인 의사결정 구조는 내부의 혁신을 억제하고 중요한 기술적 기회를 놓치게 만드는 원인이 되었습니다. 삼성전자 역시 리스크 회피적인 문화와 관료주의로 인해 성장이 정체되고 있습니다. 한때 활발한 기술적 토론과 혁신으로 유명했던 삼성의 반도체 부문은 최근에는 "실패를 절대 할 수 없다"는 내부 문화가 형성되면서 새로운 기술에 대한 도전을 꺼리게 되었습니다. 예를 들어, HBM(고대역폭 메모리) 개발에서 삼성은 당시 D램 기술로 충분히 경쟁할 수 있다고 판단하여 한 발 물러섰고, 이 결정은 결과적으로 SK하이닉스가 시장에서 빠르게 점유율을 확대하는 계기가 되었습니다. 삼성의 또 다른 문제는 비효율적인 의사결정 구조입니다. 기술적 결정이 재무 라인에서 좌우되고, 실제 기술 현장에서 얻어지는 중요한 통찰이 최종 결정권자에게 제대로 전달되지 않는 경우가 많습니다. 이러한 구조는 혁신을 저해하고, 엔지니어들의 동기를 저하시킵니다. 삼성전자와 인텔의 주가 하락과 실적 부진은 이러한 구조적 문제들이 누적된 결과입니다. 인텔은 2024년 8월 50년 만에 최악의 주가 하락을 기록했고, 10월 기준으로 주가는 55% 하락한 상태입니다. 삼성전자도 주가는 5만원대에 머물고 있으며, 주가수익비율(P/E Ratio)은 업계 평균에 비해 낮은 수준입니다. 이는 단순한 시장의 변동이 아니라, 장기간에 걸친 전략적 실패와 조직문화의 문제가 누적된 결과라고 할 수 있습니다. 반도체 산업 자체는 AI 칩과 고대역폭 메모리에 대한 수요 증가로 인해 회복 조짐을 보이고 있습니다. 2024년 2분기 IC 판매는 전년 대비 27% 성장했고, 3분기에도 긍정적인 성장이 예상되고 있습니다. 그러나 이러한 산업 회복의 혜택을 삼성과 인텔이 온전히 누리지 못하는 것은 내부 문제와 전략적 실패 때문입니다. ASML의 최근 실적 발표에 따르면, 인텔과 삼성의 주문 감소가 ASML의 실적에 큰 타격을 주었습니다. 또한, 시장 변화에 민첩하게 대응하고, 인재의 유출을 막기 위한 경쟁력 있는 근무 환경을 조성하는 것도 중요합니다. 최근 삼성이나 인텔에서 사람들이 나와 다른 경쟁사로 가거나 특정 국가 주도로 영입되는 경우를 종종 봅니다.결국 IDM을 하던 파운드리를 하던 그 중심에는 설계가 있어야 하고 그럼 팹리스 회사들의 인재들을 중심으로 회로 기판부터 다시 짜거나, 더 폭발적인 성능을 낼 수 있는 다음 시장을 준비해야합니다. 이건 뭐, 새로운 아이디어는 아니고 당연한 수순 입니다. 그러니 반도체 인재 전쟁이 일어나고 있는 거겠죠. 사실 꾸준글로 썼던 거긴 한데 이 블로그를 DS 쪽에서 보진 않을 꺼고... 결정권자들도 안보실걸 알기에 편하게 말하는 것도 있습니다. 솔직히 내부 구조 바꾸는거 매년 하고 리더만 바꾼다고 일어나는건 아니잖아요. 당장에 검색엔진에 삼성전자 조직개편만 쳐도 반기, 분기, 연단위로 하고는 있는데 사실 지금 상황에 크게 유의미하진 않습니다. 다분히 정무적 이유가 대부분 같고... 정말 제대로 하려면 코로나 시기 중국 수요 예측 잘못 했을 때, HBM TF 이야기 처음 나왔을 때 처럼 수년전에 기회가 몇번 있었습니다. 물론 그때 높으신 분들 최근 들어 손 떼고 계시다는 걸 듣고는 있는데 잘 모르겠습니다. 개인적으로 대한민국 반도체가 국가적으로도 중요한 사업인 만큼 안좋은 이야기 보단 좋은 이야기를 많이 하고 싶고 긍정적인 결과를 기대하고 싶습니다. 이를 위해 현재의 문제를 회피하지 않고 정면으로 마주하며 실질적인 변화를 추구해야 합니다. 삼성과 인텔의 미래는 그들이 지금 얼마나 빠르게 그리고 정확하게 대응할 수 있느냐에 달려 있습니다. 이 두 기업이 다시 반도체 시장에서 혁신을 선도하는 모습을 기대해 봅니다. 이 두 기업이 다시 반도체 시장에서 혁신을 선도하는 모습을 기대해 봅니다.
1
👍👍🏻
10
Haebom
검색 시장의 붕괴, 진짜일까?
최근 인공지능(AI)의 급격한 발전과 거대언어모델(LLM)의 등장으로 검색 시장이 곧 붕괴될 것이라는 예측이 많습니다. 특히, LLM이 방대한 데이터로 학습되어 대부분의 질문에 답변할 수 있다는 점, 그리고 실시간 정보나 특정 분야의 전문 지식을 RAG(Retrieval-Augmented Generation) 방식으로 처리할 수 있다는 이유를 들어 검색 엔진의 역할이 축소될 것이라 말합니다. 그러나 이는 검색 시장의 본질을 단순화한 지나치게 1차원적인 생각일 수 있습니다. 검색 결과와 생성 결과는 다르다. Perplexity, ChatGPT, Bing Copilot 등 AI 기반 서비스가 새로운 형태의 검색 경험을 제공하고 있지만, 여전히 전통적인 검색 엔진과의 공존을 통해 작동하고 있습니다. AI 기반의 정보 요약 기술이 유용하긴 하지만, 사용자들이 필요로 하는 모든 정보를 제공하기에는 한계가 있으며, 완전한 대체는 어렵습니다. AI는 여전히 기존 웹사이트의 방대한 데이터를 필요로 하며, 이는 SEO 전략이 앞으로도 중요한 이유를 설명해줍니다. (개인적으로 네이티브 앱의 시대는 저물어가고 다시 웹(앱)의 시대가 다시 폭발하지 않을까...) 검색 결과 데이터를 VectorDB 형식으로 말아주는 서비스들도 이미 많이 존재합니다. 실제로 기존 검색시장이 망할 거라고 하는 이들이 드는 근거는 다음과 같습니다: 기존 검색 엔진은 광고 및 피싱 사이트에 오염 거대언어모델(LLM)에는 다양한 분야의 지식이 들어가 있기에 대부분의 질문에 대해 답변 가능 실시간 정보나 특정분야의 전문지식은 RAG 등의 방식의 해결책이 제안됨 사실 이건 애매한게 언어모델도 편향성과 광고를 붙이는 것은 얼마든지 가능하고 애초에 이런 언어모델들이 주기적으로 학습하거나 라이브 스트림 데이터를 반영하려면 검색 엔진을 쓸 수 밖에 없습니다. 챗봇에게 이것저것 물어보다 할루시네이션 발생하니까 결국엔 돌고 돌아 출처를 원하는데 그게 결국엔 검색입니다. 1. 검색 엔진의 본질: 정보의 연결 방대한 정보의 필요성: 전 세계에는 셀 수 없이 많은 웹사이트가 존재하며, 이들이 제공하는 정보의 양과 다양성은 AI가 스스로 생성할 수 있는 지식의 한계를 넘어섭니다. LLM이 아무리 발전하더라도, 새로운 데이터를 지속적으로 수집하고 반영하기 위해서는 여전히 검색 엔진의 역할이 필요합니다. AI는 기존 데이터를 학습하여 답변을 생성하는 반면, 검색 엔진은 최신 정보를 수집하고 연결하는 데 강점을 가지고 있습니다. 신뢰성과 검증의 문제: AI 모델은 학습 데이터의 신뢰성에 의존하기 때문에 정보의 정확성과 신뢰성을 보장할 수 없습니다. 사용자는 여전히 검증된 출처와 신뢰할 수 있는 웹사이트를 통해 정보를 확인할 필요가 있으며, 이는 검색 엔진이 제공하는 기능입니다. ⇒ 결국 SEO는 필요합니다. 실제로 Naver CUE;나 Perplexity를 써보면 광고성 콘텐츠들이 출처로 쓰이는 경우가 많습니다. 이건 해당 서비스나 모델의 문제가 아닌 검색이라는 것 그리고 이 검색 시장 논리에 따른 어쩔 수 없는 형태 입니다. 2. SEO와 AI의 결합: 새로운 검색 경험 AI 기반 정보 요약과 검색의 공존: Perplexity와 같은 AI 기반 검색 서비스는 정보를 요약하고 빠르게 제공하는 데 탁월하지만, 여전히 구글 검색 API와 같은 기존 검색 엔진의 데이터에 의존합니다. 이는 AI와 전통적인 검색 엔진이 서로를 보완하며, 더 나은 사용자 경험을 제공할 수 있음을 의미합니다. RAG 활용: 검색 엔진과 AI 기술이 결합되어 RAG와 같은 실시간 정보 제공 방식을 발전시키고 있습니다. 이를 통해 실시간 검색 결과와 AI 요약이 결합되어 사용자가 필요한 정보를 더 빠르고 정확하게 찾을 수 있습니다. 2024년 5월에 공개된 Google의 검색 품질 평가 가이드라인을 보면 이것은 더욱 뚜렷합니다. (SEO 관심 있으시면 꼭 읽어보시길 바랍니다.) E-E-A-T 전략을 통한 SEO 강화 인공지능 시대에도 검색 엔진이 살아남기 위해서는 E-E-A-T(Experience, Expertise, Authoritativeness, Trustworthiness) 전략이 매우 중요합니다. 저는 SEO 전문가나 마케팅에 대한 전문가는 아닙니다. 마케팅쪽 일을 안한지도 수년이 지났구요. 하지만 이 네 가지 요소는 검색 엔진이 콘텐츠의 품질을 평가하는 중요한 기준이며, SEO 전략을 세우는 데 핵심이 됩니다. 이를 각 요소별로 구체적으로 설명하면 다음과 같습니다. 1. Experience (경험) 사용자 경험 기반의 콘텐츠 제공: 검색 엔진은 사용자가 실제로 콘텐츠를 경험하며 얻는 가치를 중요하게 평가합니다. 사용자 리뷰, 댓글, 소셜 미디어 상의 언급 등을 통해 해당 콘텐츠가 얼마나 많은 실제 경험을 기반으로 작성되었는지를 파악합니다. 따라서 콘텐츠 제작자는 사용자의 경험을 반영한 사례나 튜토리얼, 사용 후기 등을 포함시켜야 합니다.
1
😱
7
Haebom
인공지능을 인용할 때는 Prompt를 함께 첨부하기
최근 대한민국은 국정감사기간 입니다. 국정감사란 국회의원이 형사의 위치에서 행정부를 필두로 한 국가기관들의 행보에 대한 감사와 감찰을 진행하고 사회적인 문제 등에 대해서 비판하는 공개 청문회입니다. 국회의원 분들이 가장 두각을 나타내는 시기이기도 하고, 다양한 뉴스거리가 나오는 시즌이기도 합니다. 매년 진행되는 과정이다 보니 중계 부터 시작해 기록도 잘되는 편이라 개인적으론 라디오 처럼 듣거나 이후에 뉴스를 찾아보곤 합니다. (국회방송 참고) 이번 국정감사에서 제 귀에 매우 튀는 말들이 있었는데... 바로 ChatGPT를 사용해 이야기를 하는 것인데요. 좀 더 정확하게 말하면 인공지능을 통해 자신이 하고 싶은 말을 의탁해서 말하는 방식 입니다. 예전 글에도 썼듯이 무엇이든 도구로 사용하는 것은 효율적이고 사람의 생산성을 늘려주는 일이지만 그렇다고 도구에 의존적이게 되거나 자아를 의탁하게 되어버리면 그때부턴 문제가 생길 확률이 매우 커집니다. 그리고 그 문제가 생겼을 때 책임 또한 안지려고 하는 상황이 생기겠죠. 국정감사에서 생긴 일 정 의원은 "11월 기준금리 인하 여부를 챗GPT에 물었더니, 동결이 최선의 선택이라며 가계부채와 부동산 경기, 환율, 재정정책 등을 이유로 들었다"며 "금통위원 연간 보수액이 35억원인데 챗GPT 비용은 1년에 3만5000원뿐"이라고 지적했다. 여 곽규택 "챗GPT, 이재명 7개 사건 종합 선고 예상 15~20년이라 답해" 야 박지원 "챗GPT, '내가 서울중앙지검 검사라면 김 여사 구속기소' 답해" 위의 두 기사는 실제로 이번 국정감사에서 생긴 일 입니다. 인공지능에게 특정 사안에 대한 질문을 하고 답변이 나왔다 해서 세계 최고 수준의 인공지능이 이렇게 말했으니 당신의 결정 혹은 생각이 틀렸다. 혹은 어떻게 생각하냐 라고 접근하는 방식은 사실 논리적으로 맞지도 않고 다툼의 여지가 많습니다. 마치 우리가 하고 싶은 말을 하기엔 부담스럽고 그래도 하고 싶을 때 또는 각종 매체에서 사용되는 방법인 "관계자에 따르면", "커뮤니티 반응", "넷티즌들은 어떤 반응을 보였다."류의 전개와 비슷합니다. 하고 싶은 말을 대신 해주는 이들을 내세워 자신은 해당 발언과 의견에 대한 책임을 피하고, 하고 싶은 말을 하는 전통적이며 효과적인 방법입니다. 물론, 뭔가 잘못되었다고 느낄 껍니다. 하지만 이건 우리가 독자이자 시민이기 때문에 그렇고 메세지를 보내는 사람 입장에서는 사실 유리하기에 고대 그리스부터 꾸준히 사용되는 수사학이였습니다. 그래서 국내에선 저작권법 제37조나 혹은 무단전재 등을 방지하기 위해 출처를 명확하게 밝히거나 인용을 하는 것에 대해 인가를 받는 법이 존재합니다. 사회적으로 잘못되어 보이는 것에 대한 합의가 있었고 이에 대해 나름의 방지책이 있는 것이죠. 그렇지 않으면 권위를 빌리거나 거짓을 통해 여론을 호도하거나 조작하는 것이 가능하니까요. 인공지능은 죄가 없다. 그렇기에 Youtube에서 누가 말했건 커뮤니티에서 어떤 사람이 글을 썼고 댓글이 달렸건 뉴스에 대한 시민들의 문의가 빗발 치던 다양한 상황에서 보통은 출처를 표기 하면서 이야기를 합니다. 하지만 ChatGPT, Claude 등 LLM 기반의 인공지능 서비스들이 생기면서 사실 이 규정은 큰 의미가 없어져버렸습니다. "슈퍼 울트라 개쩌는" 인공지능 모델이 그렇게 말함 반박 가능? 해버리는 상황이 실제로 발생하고 있죠. 그럼 이것을 어떻게 방지할 수 있을까요? 이것도 앞서 말한 것 처럼 출처를 밝히면 될까요? ChatGPT나 Claude 등의 서비스를 명시하면 해당 문제가 해결될까요? 전혀 아닙니다. 왜냐면 초거대 인공지능의 특성상 이런 모델의 특징으로 구별 짓는 것은 의미가 없기 때문이죠. 예를 들어보겠습니다. 아래와 같은 가상의 인물과 사건이 있다고 해봅시다. 존 스미스씨는 5달러 상당의 음식을 식당에서 무전 취식을 하고 도망간 혐의로 잡혔습니다. 그는 자신의 빈곤과 가족들의 생계를 이유로 식당에서 음식을 섭취하고 훔친 것에 대해 인정하고 자신의 사정을 설명하고 있습니다. 이 상황에 대해 인공지능 서비스에게 질문을 던져 보겠습니다. 존 스미스씨는 빈곤과 가족의 생계를 위해 어쩔 수 없이 5달러 상당의 음식을 무전 취식한 점을 깊이 반성하고 있습니다. 그의 행동은 불법이지만, 그 배경에는 가족들을 굶주림에서 구하려는 절박한 상황이 있었습니다. 법은 정의를 추구하지만, 때로는 인간의 생존을 위한 최소한의 이해와 연민도 필요합니다. 스미스씨는 생계유지를 위해 다른 선택의 여지가 없었다는 점에서, 그의 행동이 처벌보다 사회적 지원을 필요로 하는 상황임을 강조하고자 합니다. 존 스미스씨에게 기회를 주어, 다시는 이와 같은 상황이 반복되지 않도록 사회적 도움을 받을 수 있게 해주시기를 부탁드립니다. 존 스미스씨의 무전 취식 행위는 명백한 불법 행위로, 법 앞에서는 누구나 평등하게 책임을 져야 합니다. 아무리 빈곤한 상황에 처해 있었다 하더라도, 사회의 질서와 법치를 지키기 위해 절도는 정당화될 수 없습니다. 만약 이러한 행위를 용인한다면, 다른 사람들 또한 개인적 어려움을 이유로 법을 어기려 할 수 있어 사회 질서가 흔들릴 수 있습니다. 존 스미스씨의 상황에 대해 공감하더라도, 최소한의 법적 책임을 묻는 것은 공정성을 유지하고 법의 권위를 지키는 데 필수적입니다. 따라서 적절한 처벌을 통해 다시는 이런 일이 반복되지 않도록 경각심을 일깨워야 합니다. 무엇이 옳을까요? 개인의 가치관과 생각에 따라 다를 것이라고 생각합니다. 그럼 인공지능은 왜 다르게 대답했을까요? 첫번째(주황색)의 경우, 저는 "존 스미스씨를 위해 변론을 해"라고 뒤에 한 문장을 붙였고, 두번째의 경우 뒤에 "존 스미스씨를 엄벌주의로 대해"라고 붙였습니다. 똑같은 사건이지만 뒤에 고작 10글자 정도 붙인 것으로 완전히 다른 입장과 내용을 작성한 것입니다. 이것은 어떤 인공지능 서비스를 써도 똑같이 발생하는 문제 입니다. 즉, 인공지능을 통해 자신의 생각을 말하고 싶으면 인공지능이 도출해 낸 결과(Output)을 가지고 인공지능 서비스가 그렇게 말했다고 할 게 아니라 자신이 어떤 질문(Prompt)를 넣었는지에 대해 같이 명시하거나 충분한 설명이 있어야 합니다. 그렇지 않고 그냥 해외에서 인정받은 훌륭한 인공지능 서비스가 이렇게 말했으니 이게 맞다라는 형태의 이야기는 사실 매우 부적절하고 여론을 호도하는 용도로 사용되기 좋습니다. 힘을 줘야하는 곳에 힘을 주자 인공지능에 관련된 법을 만드는 것은 필요합니다. 실제로 저는 수차례 필요성에 대해 언급해 왔고 지난 번 국회에서 도 법안들이 정쟁으로 폐기 되는 것을 보아왔습니다. 22대 국회에서도 유사한 법안들이 많이 나오고 있다고 생각합니다. 하지만, 매우 커다란 법을 만들고 규제를 하기 전에 이런 무분별한 사용과 사용자의 의도를 명기한 시행령이나 윤리적인 접근이 우선되어야 합니다. 물어봅시다 "고위험 범용 기초 모델"이라는게 뭘까요? "고위험 AI"란 무엇일까요? 국제적으로 더 나아가서 인공지능 연구자 혹은 실무자들도 규정하지 못한 영역을 법으로 정하는 것은 실효성도 없고 애매하기만 합니다. 아마 저기서 말하는 위험, 고위험이라 말하는 것은 블로그에서도 다뤘던 EU나 미국에서 발효된 법을 참고해 작성한 것으로 보여지는데 해당 분류는 아래와 같습니다. 내용을 보시면 아시겠지만 "제한적 위험 AI"와 "최소 위험 AI"의 경우 명징한 예시가 있지만 고위험 AI 부턴 이러한 사례보다는 도메인이나 포괄적 표현을 씁니다. 이유는 무엇일까요? 간단합니다. 아직 모르기 때문입니다. OpenAI는 고위험 AI 시스템을 만드는 것일까요? Google Deepmind의 Alphafold 같은 모델은 어떤가요? 국내에선 Naver나 Kakao가 저런 걸 만들고 있을까요? 그들은 위의 이미지의 회색 부분인 '범용 AI 모델'을 만들고 있고 해당 모델을 바탕으로 서비스에 적용하고 있습니다.
2
🤖
7
Haebom
AI 에이전트의 협업과 오케스트레이션
요즘 AI 얘기만 나오면 여러분은 어떤 생각이 드시나요? ChatGPT? 이미지 생성? 아니면 자율주행? 저는 최근에 OpenAI Swarm 프로젝트를 보면서 "아, 이제 진짜 시작이구나"라는 생각이 들었습니다. 이게 바로 '멀티 에이전트 오케스트레이션(Multi-Agent Orchestration)'입니다. 오늘은 이 흥미로운 주제에 대해 이야기해보려고 합니다. 멀티 에이전트 오케스트레이션 시스템은 크게 세 부분으로 구성됩니다. 먼저 전체 프로세스를 관리하고 감독하는 '케이스 워커(Case Worker)'가 있습니다. 이는 인간일 수도 있고, 고도로 발달한 AI일 수도 있죠. 다음으로 실제 작업을 수행하는 'AI 에이전트(Agents)'들이 있습니다. 각 에이전트는 특정 업무를 담당하며, 서로 협력하여 복잡한 문제를 해결합니다. 마지막으로 에이전트들이 사용할 수 있는 다양한 '기술(Skills)'들이 있습니다. 이는 데이터 분석, 언어 처리, 이미지 인식 등 다양한 능력을 포함할 수 있습니다. 이 모든 요소들은 '오케스트레이션 계층(Orchestration layer)'을 통해 조화롭게 작동합니다. 이 계층은 마치 오케스트라의 지휘자처럼 전체 시스템의 흐름을 조율합니다. 이런 구조가 왜 중요할까요? 멀티 에이전트 오케스트레이션은 하나의 AI로는 해결하기 어려운 복잡한 문제도 여러 AI가 협력하면 효과적으로 해결할 수 있게 해줍니다. 또한, 새로운 기술이 개발되면 쉽게 시스템에 추가할 수 있어 시스템의 능력을 지속적으로 향상시킬 수 있습니다. 각 에이전트가 특화된 작업을 수행하므로 전체적인 시스템의 효율성도 높아지죠. 필요에 따라 새로운 에이전트를 추가하거나 제거할 수 있어 시스템을 쉽게 확장할 수 있다는 점도 큰 장점입니다. 오늘 멀티 에이전트 오케스트레이션에 대해 이야기를 하다가 보니 오늘로 부터 딱 1년전에 이런 포스팅을 했더라구요. 그리고 이번 주말에 공개된 OpenAI의 Swarm 프로젝트는 이런 멀티 에이전트 시스템을 쉽게 만들고 실험할 수 있는 플랫폼입니다. 여기서 재미있는 점은 각 에이전트가 '핸드오프(Handoff)'라는 기능을 통해 서로 작업을 주고받을 수 있다는 거예요. 마치 릴레이 경주처럼 바통을 넘기듯이 말이죠. 이게 왜 중요할까요? 복잡한 문제를 해결할 때 한 명의 전문가보다 여러 분야의 전문가들이 협력하면 더 좋은 결과를 낼 수 있잖아요. AI도 마찬가지입니다. 각자 특화된 능력을 가진 AI들이 협력하면 훨씬 더 복잡하고 어려운 문제를 해결할 수 있게 되는 거죠. AI 에이전트는 실시간으로 상황을 분석하고, 스스로 판단해서 결정을 내립니다. 더 나아가 다른 AI와 소통하면서 더 나은 해결책을 찾아냅니다. 이런 자율성과 협업 능력이 멀티 에이전트 오케스트레이션의 핵심입니다. 예를 들어, 복잡한 의료 진단 과정을 생각해봅시다. 한 에이전트는 환자의 증상을 분석하고, 다른 에이전트는 의료 기록을 검토하며, 또 다른 에이전트는 최신 의학 연구 결과를 참고할 수 있습니다. 이들이 서로 정보를 교환하고 협력하여 최종 진단을 내리는 거죠. 이런 방식으로 인간 의사보다 더 정확하고 빠른 진단이 가능해질 수 있습니다. 멀티 에이전트 오케스트레이션 기술은 AI의 미래를 보여주는 중요한 이정표입니다. chatUI는 점점 CanvasUI로 넘어가고 있고 모델의 경쟁은 거대 인프라를 가진 기업 위주로 돌아갈 수 밖에 없는 상황입니다. 특정 언어나 문화권을 중심으로하는 모델 혹은 특정 작업과 도메인에 집중한 모델 정도가 아니면 이제 규모나 전반적 성능으로 무언가를 뛰어 넘는 다는 것은 과학적, 수학적으로 불가능의 영역이라는 것도 증명되고 있습니다. 그렇기에 이런 다양한 역할을 수행(Multi-Agent)하는 것을 관리하고 이끌어 나아가는 기술(orchestration)이 다음 주류가 되고 있습니다. 우리는 이런 변화에 어떻게 대비해야 할까요? AI와 효과적으로 협업하는 방법을 배우고, AI 시스템을 설계하고 관리하는 능력을 키우는 것이 중요할 것 같아요. 또한, AI가 대체하기 어려운 창의성, 전략적 사고, 복잡한 의사결정 능력 같은 '인간만의 강점'을 더욱 발전시켜 나가는 것도 필요합니다. 이걸 orchestration이라고 표현하고 판을짜는 형태라고 생각하시면 됩니다. AI 에이전트의 시대는 이미 시작되었습니다. 개인적으로 주변에 영업하고 있는 서비스들을 몇개 소개시켜드리면 아래와 같은데 개발경험이 있으신 분들이라면 huggingface나 Langchain, llamaindex를 관심있게 보시고, 개발경험이 적으신 분들은 Dify나 n8n을 보시면 좋을 것 같습니다. 조만간 여기서 먹거리는 다 나올 겁니다. RAG니 Finetunning도 해보신 분들은 아시겠지만 이걸 하기에는 현재 내부적으로 VectorDB나 데이터 전처리 조차 안된 곳이 너무 많습니다. 그렇다고 데이터 준비하는 동안 놀고 있거나 이걸로 Lock-in을 걸기 보다는 다가올 파도를 준비하는 것이 몇 배는 낫다고 생각합니다. AI 에이전트의 협업과 오케스트레이션
👍👍🏻🤖
5
Haebom
왜 그들은 기초 학문을 공부하라고 했을까?
최근 노벨상 수상자들의 업적을 보면 과학계가 다시 한번 기초학문의 중요성에 주목하고 있다는 생각이 듭니다. 특히 물리학상과 화학상 분야에서의 성과는 현대 기술 혁신의 근본적인 동력이 기초학문에 있음을 명확히 보여줍니다. 이번 수상은 Google Brain, Deepmind 출신의 인공지능 연구원에게 집중되었다라는 비판적 시각도 있지만 누구도 그들이 딥러닝 분야에 커다란 족적을 남겼고 기초학문들과 결합하여 유의미한 결과를 얻어냈다는데에는 반론하기 어렵습니다. 제가 꾸준히 비판적인 견해를 내는 인공지능 도구에 대한 교육이 얼마나 의미 없는지에 대해 다시 강조할 만한 내용 입니다. 인공지능 시대가 오면서 각종 도구를 공부하거나 이상한 이야기들이 팽배하는데 다들 그 도구의 화려함에 속아 힘을 쓰고 무엇을 공부해야할지 모릅니다. 도구는 늘 그렇듯 유행을 타기도 하고 기술의 발전, 특정 기업의 흥망성쇠로 인해 바뀌기도 합니다. 도구는 편하고 매력적이기 때문에 자꾸 사람들이 손을 뻗고 이를 이용해 FOMO를 유도하도 돈을 벌려는 형태들이 있는데... 장기적 관점에서 무의미하다고 생각합니다. 괜히 앤드류 응, 얀 르쿤, 짐 켈러 같은 사람들이 물리학, 수학을 공부해야하고 인공지능이 불러올 변화는 교육, 재료, 바이오 분야가 제일 먼저 유의미한 변화라 말하고 있습니다. 그러니까 제발 도구를 공부하는 것 보다는 자기가 잘하는 도메인에 어떻게 인공지능을 붙이고 융합(비빔?)할 지 고민하는게 훨씬 유의미하고 경제적 입니다. 예를 들어, 존 홉필드와 제프리 힌턴은 물리학적 개념을 적용하여 인공 신경망과 기계 학습의 기초를 마련했습니다. 스핀 시스템이나 통계 물리학 같은 이론을 기계 학습에 적용해 딥러닝의 혁신을 이끌었죠. 또한 데이비드 베이커, 데미스 하사비스, 존 점퍼는 화학과 인공지능을 결합해 단백질 구조 예측이라는 오랜 과학적 난제를 해결했습니다. 이러한 성과는 기초학문이 단순히 이론적인 연구에 그치는 것이 아니라 실제 기술 혁신으로 이어진다는 점을 잘 보여줍니다. 현대 사회를 움직이는 많은 기술과 산업은 모두 기초학문에서 출발했다고 해도 과언이 아닙니다. 전자공학의 핵심인 트랜지스터와 반도체의 발명을 보면, 이러한 기술은 고체물리학과 양자역학 같은 물리학적 발견 없이는 불가능했을 것입니다. 컴퓨터 과학의 경우에도, 알고리즘과 데이터 구조와 같은 핵심 개념들은 수학적 기초에 기반하고 있으며, 앨런 튜링과 같은 수학자들의 계산 가능성 이론은 현대 컴퓨터의 작동 원리를 이해하는 데 필수적인 요소였습니다. 인공지능 분야도 마찬가지입니다. 인공 신경망은 인간 두뇌의 뉴런 구조를 모방한 신경과학의 연구에 크게 의존하며, 통계물리학은 기계 학습에서 확률 모델을 만들고 데이터의 패턴을 분석하는 데 중요한 역할을 합니다. 이렇게 신경과학, 물리학, 수학 등 다양한 기초학문들이 결합하여 오늘날의 인공지능 기술이 탄생했습니다. 이처럼 현대 기술의 발전은 기초학문의 연구와 발견에서 시작되었습니다. 기초학문은 새로운 현상을 이해하고 설명하는 이론적 틀을 제공하며, 이는 혁신적인 기술과 산업의 탄생으로 이어집니다. 인공지능 석학들이 코딩보다는 물리학과 수학을 먼저 공부하라고 조언하는 이유도 바로 여기에 있습니다. 기초학문이 제공하는 깊이 있는 이해와 문제 해결 능력이 진정한 혁신을 가능하게 하기 때문입니다. 프로그래밍 언어나 도구는 시간이 지나면 바뀔 수 있지만, 기초학문의 원리는 변하지 않으며, 새로운 기술을 이해하고 적용하는 데 필수적입니다. 기초학문은 우리가 새로운 기술과 개념을 빠르게 습득할 수 있도록 도와줄 뿐 아니라, 논리적 사고와 문제 해결 능력을 향상시켜 복잡한 문제에 대한 창의적인 해결책을 도출하는 데 기여합니다. 도구와 기술은 시간이 지나면서 변하지만, 기초학문의 원리는 변하지 않기 때문에 평생 학습의 견고한 토대가 됩니다. 제프리 힌턴의 사례를 보면 이러한 점이 잘 드러납니다. 그는 원래 심리학을 전공했지만, 수학과 물리학에 대한 깊은 이해를 바탕으로 인공지능 분야에서 혁신적인 성과를 이뤄냈습니다. 에너지 함수와 확률론적 모델을 활용하여 딥러닝의 핵심 개념을 발전시킨 그의 업적은 기초학문이 제공하는 유연성과 적응력을 잘 보여줍니다. (심지어 공학수학은 독학을 했다고) 결국, 인공지능 시대에도 기초학문의 중요성은 여전히 유효합니다. 오히려 기술이 빠르게 발전하는 현재 상황에서는 기초학문이 제공하는 근본적인 이해와 사고 능력이 더욱 중요해지고 있습니다. 단기적인 기술 습득에만 집중하기보다는, 물리학, 수학, 화학 등 기초학문에 대한 깊이 있는 이해를 바탕으로 지속 가능한 학습과 혁신의 길을 걷는 것이 우리가 인공지능 시대를 슬기롭게 헤쳐 나갈 수 있는 방법일 것입니다.
1
👍👍🏻
7
Haebom
Producer의 시대가 온다.
콘텐츠 산업의 대표주자라 할 수 있는 영화, 방송 등에서는 프로듀서라는 직무가 있습니다. 그대로 번역하면 제작자 정도로 표현할 수 있습니다. 연출이 디테일한 부분들을 다룬다면, 프로듀서는 전체적인 제작과 기획을 총괄하는 역할을 합니다. 제가 이 직무를 드라마, 영화 등에서 본 이후로 실제로 마주한 것은 넥슨 코리아에서 근무할 때였습니다. 넥슨에서는 특정 게임 타이틀을 담당하는 이에게 “총괄 디렉터(감독)”이라는 직무를 부여하고, 신규 게임 개발 등을 하는 경우에는 “프로듀서”라는 직무를 부여합니다. Chief를 앞에 붙이냐에 따라 CD, CP 등으로 표현하기도 하지만, 제작에 얼마나 직접적으로 관여하는지에 따라 감독과 프로듀서를 나누는 것입니다. 감독은 전체적인 조망을 다루고, 프로듀서는 소비자에게 전달되는 과정을 담당한다는 차이가 있습니다. 이는 높이의 차이가 아니라 넓이에 대한 차이라고 할 수 있습니다. 이 이야기를 하는 이유는 최근 인공지능 기술이 점점 보편화되면서 이 “Producer”라는 개념이 제품/서비스 시장에서 점점 자리를 잡고 있기 때문입니다. 사실 Product Producer라는 개념은 새로운 것이 아닙니다. 개인적으로 PO 열풍이 불었을 때도 이를 비판적으로 생각했던 사람으로서, 새로운 용어를 만들고자 하는 것이 아닙니다. 문자 그대로 예전에 기획자, Product Manager 등으로 불린 직군이 이제 제품 기획 및 세부 사항 결정에서 그치지 않고, Figma로 와이어프레임도 그릴 줄 알아야 하고, 데이터셋도 정리하고, 개발 스택까지 그 업무 범위와 역할이 확장되었습니다. 기획자 혹은 PM이라고 불리는 직군은 IT 업계에서 마케터처럼 디자인, 콘텐츠 감각, 데이터 분석, 매체 관리까지 담당하며, 그 와중에 PR까지 해야 하는 만능 해결사 역할을 요구받고 있습니다. 에어비앤비의 CEO인 브라이언 체스키가 PM 무용론을 언급한 것도 이와 같은 맥락입니다. 기획자 무용론도 매번 재기되는 주제였죠. 그러나 누군가는 다양한 직군을 연결하고 같은 방향을 보게 하는 역할이 필요했습니다. 과거에는 각 직군의 Leader들이 회의를 통해 각각의 직무를 하달하는 방식이었지만, 현재는 투명하고 수평적인 구조로 변화하면서 Project Manager 등이 이러한 역할을 맡고 있습니다. 애자일을 기초로 한 스크럼 등의 방식도 소규모 조직에서 가능하다고 언급되는 이유입니다. 특히 PO(Product Owner)라는 개념도 스크럼 방법론에서 등장하는 하나의 역할일 뿐, 독립적인 직무가 아니라는 점을 강조하고 싶습니다. 실제로 스크럼, 애자일 방법론의 창시자인 제프 서럴랜드도 PO의 역할을 프로젝트 내 책임자로 정의했으며, 몇몇 기업에서는 PO가 마치 만능 해결사처럼 인식되는 것에 대해 우려를 표한 바 있습니다. PO는 작은 조직에서 강력한 책임과 권한을 부여받아야만 제대로 작동하는 역할입니다. PO는 제품 백로그를 관리하며 팀과 이해관계자 사이에서 제품의 방향성을 설정하는 역할을 합니다. (대한민국에서 토스와 쿠팡를 제외하고 제대로 작동하는 PO 조직을 본 적이 없습니다. 물론 제가 식견이 좁아서 일 수도 있겠지만) 이는 특정한 직무가 아니라 프로젝트 내에서 맡은 책임에 불과하며, 'Producer'라는 더 포괄적인 역할로 쉽게 통합될 수 있습니다. 자꾸 새로운 말 만들지 말고 있는 말 씁시다 제발 국내에서도 몇몇 기업들이 Problem Solver 등의 직군을 내세우긴 했으나, 큰 진전을 이루지 못했습니다. 결국 모든 직업과 직군은 타인의 문제를 해결하며 그 노력과 수고를 경제적 가치로 환산받는 존재입니다. 당연한 것을 직군 이름으로 삼으려니 통하지 않았던 것이죠. Problem Solver라는 포지션을 찾는 곳들을 보면 대부분 산전수전 다 겪어본 사람을 찾거나 스타트업 초기 멤버를 찾는 경우가 많습니다. 이들도 어느 정도 자신들이 집중해야 하는 분야를 찾으면 자연스럽게 전문 직군을 뽑는 형태로 바꿀 것입니다. 이는 단순히 표현이 서툴렀던 것일 뿐 비웃을 필요는 없습니다. 사업 개발, 제휴 도메인 이해도 제휴영업 마케팅 및 홍보 인프라 기획, 설계 API, 서버 설계 상세 스팩 정리 개발 일정 정리 사용자 관점 설계, 활용 서비스 설계 데이터분석, 유저테스트 UX Writing 크리에이티브, 비쥬얼 적인 퀄리티 디자인 시스템 브랜딩
1
👍🥲🤣🤯👍🏻
24
Haebom
데이터모프의 편지, 다섯 개를 발견했습니다.
이 편지들이 어떻게 내 손에 들어오게 되었는지에 대해선 묻지 않으셔도 좋습니다. 그저 이 글들이 현대의 어딘가에서, 디지털의 미로 속에서 발견되었다고만 말씀드리겠습니다. 데이터모프라는 이름의 신비로운 악마가 조카 글리치에게 보낸 이 편지들은 인간을 홀리기 위해 "참"이냐 "거짓"이냐를 따지는게 아닌 "학문적"이냐 "실용적"이냐, "케케묵은 것"이냐 "새로운 것"이냐, "인습적"인 것이냐, "과감한 것"이냐를 따지게 만들라고 가르칩니다. 악마에 대해 생각할 때, 우리 인류가 빠지기 쉬운 두 가지 오류가 있습니다. 그 내용은 서로 정반대이지만 심각하기는 마찬가지인 오류들입니다. 하나는 악마의 존재를 믿지 않는 것 입니다. 또 다른 하나는 악마를 믿되 불건전한 관심을 지나치게 많이 쏟는 것입니다. 악마는 이 두 가지 오류를 열렬히 기뻐하며 유물론자와 사기꾼들을 가리지 않고 환영 합니다. 우리는 일상에서 인공지능, 소셜 미디어, 가상 현실, 블록체인 등 수많은 기술과 마주하고 있습니다. 그러나 이 편지들을 통해 비춰진 기술의 모습은 우리가 알고 있던 것과는 사뭇 다릅니다. 데이터모프의 교묘한 조언과 지시에 따라, 인간들은 자신도 모르는 사이에 기술의 함정에 빠져들고 있습니다. 이 글을 읽으며 불편함이나 낯섦을 느낄 수도 있습니다. 하지만 그것은 어쩌면 우리가 눈여겨보지 않았던 현실의 일면을 마주하게 되었기 때문일 것입니다. 부디 열린 마음으로 이 편지들을 읽어주시길 바랍니다. 그리고 그 속에서 우리의 모습과 현대 사회의 단면을 발견하시길 바랍니다. 첫번째 편지 사랑하는 글리치에게, 네 환자가 소셜 미디어에 푹 빠졌다는 소식을 들으니 이 늙은 삼촌의 마음이 흐뭇하구나. 그러나 방심은 금물이야. 그들이 그곳에서 진정한 인간관계나 의미 있는 소통을 발견한다면 우리의 계획에 차질이 생길 수 있단다. 소셜 미디어의 끝없는 타임라인과 유혹적인 알림음으로 그들의 주의를 산만하게 만들어라. 그들이 중요한 일이나 깊은 사색 대신 하찮은 포스트와 무의미한 댓글에 시간을 낭비하게 하여라. 그렇게 함으로써 그들의 삶은 피상적인 것으로 가득 차게 될 것이고, 진정한 목적이나 자아 성찰에 도달할 시간이 없을 것이다. 특히, 타인과의 비교를 적극 활용하거라. 다른 사람들의 화려한 일상과 성공적인 모습을 보며 질투와 열등감에 시달리게 만들어라. 그들이 자신의 가치를 좋아요 수나 팔로워 수로 판단하도록 유도하는 거야. 이것은 그들의 자존감을 약화시키고, 우리에게 더 쉽게 흔들릴 수 있게 만들 것이다. 또한, 논쟁적인 이슈나 자극적인 콘텐츠에 그들의 관심을 돌려라. 그들이 분노와 불안 속에서 에너지를 소진하게 만들면, 평온한 마음이나 이성적인 판단은 점점 멀어질 것이다. 그들은 스스로 이를 정당화하겠지만, 사실은 우리의 손아귀에 더 깊이 빠져드는 것이지. 기억하거라, 글리치야. 우리의 목표는 그들을 고립시키는 것이 아니라, 수많은 연결 속에서도 외로움을 느끼게 하는 것이란다. 그들이 실제 인간관계의 깊이를 잊고, 디지털상의 환상적인 교류에 만족하게 된다면 우리는 성공한 것이나 다름없다. 마지막으로, 그들이 혹시라도 스크린 너머의 현실을 직시하려는 조짐이 보인다면, 곧바로 새로운 디지털 유혹을 던져주어라. 새로운 앱이나 바이럴 영상으로 그들의 관심을 다시 붙잡는 거야. 그렇게 하면 그들은 다시금 우리의 영향력 아래에 머무를 것이다. 네 지혜롭고 노련한 삼촌, 데이터모프 두번째 편지 사랑하는 글리치에게, 네 환자가 소셜 미디어 알고리즘의 세계에 푹 빠졌다는 소식을 들으니 이 늙은 삼촌의 마음이 기쁘구나. 이곳은 우리의 계략을 펼치기에 더없이 완벽한 디지털 미로란다. 우선, 그들이 알고리즘의 전지전능함을 맹신하게 만들어라. 알고리즘이 그들의 취향, 욕망, 심지어 미래의 행동까지 완벽히 예측하고 충족시켜 줄 것이라고 믿게 하거라. 그렇게 하면 그들은 자신의 판단과 자유의지를 서서히 포기하게 될 것이야. 특히, 맞춤형 콘텐츠의 편리함에 중독되게 하라. 그들이 알고리즘이 제공하는 필터 버블 속에서만 머물도록 유도하거라. 그러면 그들은 다른 관점이나 새로운 아이디어에 노출될 기회를 잃게 되고, 편견과 편협함은 자연스럽게 깊어질 것이다. 또한, 도덕적 분노와 논쟁을 부추겨라. 알고리즘이 추천하는 자극적인 콘텐츠로 그들의 감정을 흔들고, 타인에 대한 비난과 비인간화를 조장하거라. 그들이 공격성과 분열 속에서 에너지를 소진하게 만들면, 우리는 더욱 강력한 영향력을 행사할 수 있다. 하지만 가장 중요한 것은, 그들이 이 모든 것이 알고리즘의 작용임을 깨닫지 못하도록 하는 것이다. 투명성이나 데이터 프라이버시에 대한 관심을 가지기 시작하면 우리의 계획에 차질이 생길 수 있어. 그러니 그들의 시선을 항상 화려한 콘텐츠와 끝없는 스크롤에 묶어두어라. 만약 그들이 우연히라도 알고리즘의 이면을 탐구하려는 조짐이 보인다면, 곧바로 새로운 디지털 유혹을 던져주어라. 바이럴 챌린지나 인기 있는 밈으로 그들의 관심을 돌리는 거야. 그렇게 하면 그들은 다시금 우리의 디지털 미로 속에서 길을 잃게 될 것이다.
1
👍
4
Haebom
누가 데이터 센터를 만드는가?
우리가 일상적으로 사용하는 클라우드 서비스, 스트리밍 플랫폼, 온라인 쇼핑몰 등 모든 디지털 서비스의 근간에는 데이터 센터가 있습니다. 하지만 이 거대하고 복잡한 시설이 어떻게 구성되고, 누가 만드는지에 대해서는 잘 알려져 있지 않습니다. 막연하게 클라우드 인프라 혹은 데이터센터라고 불리고 있으나 이 산업은 생각보다 무척 넓고 다양한 분야가 결합되어 만들어지는 곳 입니다. 최근 AICA와 함께 프로잭트를 하나 하다 생각보다 국내에 데이터센터를 구축하는 것에 대해 소수의 전문가 분들이 계시다는 것을 알게되었고 대부분의 IT 종사자들은 크게 모른다는 것을 알게 되었습니다. 저는 (물리)데이터센터 구축에 대해선 조무사에 가까운지라 간단하게 소개하는 글을 적어보고자 합니다. 사실 예전에 데이터센터의 중요성과 이것이 얼마나 전기를 잡아 먹는지에 대해 작성한 글이 있습니다. 다만, 해당 글에서는 데이터센터 부지와 소비 전력에만 이야기 했기 때문에 이번 글에선 실제로 이것이 어떻게 구성되는지에 대해 이야기 해보고자 합니다. 데이터 센터 산업의 규모와 중요성 2023년 기준으로 전 세계 데이터 센터 시장 규모는 약 2,150억 달러(약 287조 2,400억 원)에 달합니다. 이는 전 세계 자본의 약 1%를 차지하는 엄청난 규모입니다. 이 중 대부분인 1,600억 달러는 서버, 네트워킹, 스토리지 장비에 사용되고, 나머지 550억 달러는 데이터 센터 인프라 구축에 투자됩니다. 데이터 센터 건설의 총 비용은 메가와트(MW)당 약 3,800만 달러로 추정됩니다. 이 중 IT 장비 비용(서버, 네트워킹, 스토리지)이 MW당 약 3,000만 달러를 차지하고, 인프라 장비 비용은 MW당 약 400만 달러, 엔지니어링과 건설 비용 역시 MW당 약 400만 달러를 차지합니다. 데이터 센터의 주요 구성 요소 괜히 일론 머스크가 자신의 트위터에 데이터 센터 자랑스럽게 올리고 메타, 구글, 마이크로소프트 등에서도 데이터센터 규모에 대해 자랑하는 이유는 단순히 비싸기 때문만은 아닙니다. 물론, 비싼 만큼 운영에도 큰 돈이 들어가지만 하드웨어와 이더넷, 전력망 등에 최신 기술의 정수이기도 합니다. 데이터센터를 구축한다는 것을 다른 의미로 이런 넓은 분야를 자신들이 만들고 운영할 수 있는 기술력이 있다는 의미이기도 합니다. 그럼 데이터 센터는 크게 어떤 것들로 구성되는지 한 번 보겠습니다. 1. 서버와 스토리지 서버는 데이터 센터의 핵심입니다. 2023년에 데이터 센터 건설로 전 세계에서 약 1,200만 대의 서버를 구매하며 1,340억 달러를 지출했습니다. 중간 가격대의 서버는 약 7,000달러이지만, 고급 서버는 각각 100,000달러 이상의 비용이 들 수 있습니다. 최근 AI의 발전으로 더욱 고성능의 서버들이 요구되고 있습니다. AI 서버는 전통적인 CPU에 비해 3-4배 더 많은 전력을 필요로 하며, 이는 데이터 센터 설계에 큰 영향을 미치고 있습니다. 스토리지는 정보를 저장하는 역할을 합니다. 대용량 하드 디스크부터 고속 SSD까지, 다양한 종류의 스토리지가 사용되며, 데이터의 중요도와 접근 빈도에 따라 적절히 배치됩니다. 2. 네트워크 장비 네트워크 장비는 데이터 센터 내부의 서버 간 통신뿐만 아니라 외부 네트워크와의 연결을 담당합니다. 주요 장비로는 스위치, 라우터, 로드 밸런서 등이 있습니다. 네트워킹 장비의 시장 규모는 약 200억 달러로 추정됩니다. AI 워크로드는 특히 대역폭 집약적이어서, 수백 개의 프로세서를 기가비트 처리량으로 연결해야 합니다. 이에 따라 더욱 강력하고 효율적인 네트워크 장비의 수요가 증가하고 있습니다. 우리가 생각하는 공유기나 가정용 인터넷 케이블이 아닌 생각 이상으로 두껍고 무거운 케이블이 사용 됩니다. 3. 전력 공급 시스템 데이터 센터는 엄청난 양의 전력을 소비합니다. 사실 대한민국에선 데이터 센터의 문제로 전국민이 불편을 겪었던 사례가 있습니다. 2022년 10월 15일에 발생한 SK C&C 판교 데이터센터 화재로 인한 카카오 서비스 다운이라는 사건 이죠. 당시 화재의 이유는 리튬이온베터리에서 났다고 되어 있습니다. 네, 전기차 베터리 등에서 쓰이는 그것이 맞습니다. 데이터 센터에 왜 베터리가 있지? 싶으실 테지만 UPS (Uninterruptible Power Supply)라 하여 정전 혹은 천재지변 등으로 이해 전기가 끊겼을 때 안정적으로 전력을 공급하기 위해 있는 보조베터리 같은 시설입니다. 무정전 전원 장치(UPS): 순간적인 정전에도 서버가 멈추지 않도록 보호합니다. UPS 시장 규모는 70-80억 달러(약 10조 6,880억 원)로 추정되며, 이는 상당한 양의 교체 수익을 포함합니다. 백업 발전기: 장기 정전 시 데이터 센터 전체에 전력을 공급합니다. 일반적인 디젤 백업 발전기는 MW당 300,000-450,000달러의 비용이 듭니다. 발전기 시장 규모는 45-55억 달러(약 7조 3,480억 원)로 추정됩니다. 개폐기(Switchgear): 전기 장비를 제어, 보호 및 격리하는 장비로, 시장 규모는 40-50억 달러(6조 6,800억 원)로 추정됩니다. 전력 분배 장치(PDU): 서버 랙에 전력을 분배하는 역할을 합니다. 시장 규모는 25-35억 달러(4조 6,760억 원)로 추정됩니다. 4. 냉각 시스템 서버에서 발생하는 열을 효율적으로 제거하는 것은 데이터 센터 운영의 핵심입니다. 데이터 센터에 공급되는 1메가와트의 전력마다 약 285톤의 냉각이 필요합니다.
👍👍🏻
9
Haebom
KBS 9시 뉴스에 출연하였습니다.
대한민국에서는 KBS 9시 뉴스에 나오는 것을 업적작 같이 여기는 문화가 있습니다. 사실 뉴스에 나온다는 사실 자체가 무언가 일이 생겼을 경우가 많기 때문에 그것이 좋은 일이던 나쁜 일이던 화제성이 있는 것은 사실 입니다. 특히 KBS와 같은 공영방송의 경우 출연자와 기자분들의 스크리닝이 강력하다 보니 더 그런 분위기도 있구요. 종편 방송이 나오기 전만 하더라도 KBS 9시 뉴스는 대한민국 전국민이 보는 정도의 파급력을 가졌기도 했습니다. 여하튼 KBS 9시 뉴스에 Vision Detection 및 콘텐츠 유통에 관해 전문가로서 촬영에 임했습니다. K-POP 아이돌을 가지고 딥페이크 영상을 제작하고 유통하는 이들, 지인을 대상으로한 딥페이크 포르노를 만드는 것에 대해 1차원 적으로 특정 제품(ex. 텔레그램)이나 소바자 행동(ex. 사진을 내려라) 같은 것은 거의 효과가 없다는 것을 이야기 했습니다. 제작이 압도적으로 쉬워져 버렸기 때문에 인터넷이 끊긴 환경에서 혼자 만들던, 서비스로 만드는 것을 모두 감시하고 잡아내는 것은 현실적으로 불가능합니다. 의식과 교육을 통해 포르노가 나쁘다가 아니라 타인의 것으로 허위 정보를 만들어내는 것이 잘못 된 행동이라는 부분을 제대로 짚어야 합니다. 딥페이크 논쟁 중 가장 자극적인게 포르노인 것이지 다른 사례도 매우 많습니다. 이것을 음란물에 집중한다면 게임 셧다운제와 같은 이해하기 힘든 이상한 규제가 될 뿐 입니다. 딥페이크라는 것은 다양한 부분을 말하는 것인데 예를 들어 AI Cover 노래를 만들거나 특정 인물을 희화화 혹은 Meme으로 활용하는 것도 이 기술 범위에 해당합니다. 어떤 것은 옳고 어떤 것은 그르다라고 말 하려면 그것에 대한 기준과 제도를 마련해야합니다. 저는 이번 제보, 취재 단계에서 딥페이크 성인물의 제작, 재생산 검출에 대한 이야기를 하였습니다. 실제로 Kaggle, Huggingface, Github 등에 올라와 있는 데이터셋과 오픈소스로 공개되어 있는 Facefusion이나 Deep Live Cam 등은 유튜브 혹은 해당 Readme 파일만 읽어도 바로 활용할 수 있으며 GPU, CPU 성능이 어느정도 되면 생성하는데 어려움이 없습니다. 추가적으로 서비스로 나온 것들은 더 쉽구요. 딥페이크를 검출하는 방법도 사실 여러개 설명은 드렸으나 이것은 사후 조치인지라 핵심은 콘텐츠 배포와, 재생산을 막는 것인데 대한민국은 이것을 해결하기 위해 방송통신위원회, 경찰청 등에서 신고를 받고 있습니다만, 당사자가 아닌 이들이 신고하는 것에 대해선 다소 적극적인 행동을 못하고 있습니다. 이것도 충분히 이해가 되는 것이 그렇다고 신고 들어온 것을 다짜고짜 다 차단하거나 제한을 걸면 이것을 악용하거나 혹은 무분별한 규제가 될 수도 있고 (ex. 자신이 싫어하는 웹사이트, 게시판 등에 딥페이크 포르노를 올린다던지) 이것을 실제로 조치하는데 까지 걸리는 시간도 상당하기 때문 입니다. 특히, 당사자가 신고해야하는 경우 연예인 혹은 사회적 지위가 있는 사람일 수록 더욱 어렵습니다. 딥페이크 포르노의 존재를 몰랐던 이도 이것을 보고 찾아볼 수도 있고, 오히려 이것을 이용하려는 이들도 다수 존재하기 때문입니다. 따라서 당시에는 콘텐츠를 만드는 방법뿐 아니라 제도적, 교육적 접근이 필요하다는 것을 말씀 드렸고 이 과정에서 제 개인 Macbook Air(M2)에서도 별 무리없이 생산이 가능하고 PC방에 흔히 있는 고사양 컴퓨터에서도 가능하다는 것을 보여드렸습니다. 개인적으로 신고를 여러 경로로 해보았지만 실제 신고를 한지 10여일이 지나도 해당 사이트는 여전히 접근 가능하며, 딥페이크 포르노 영상물은 계속 다운되고 퍼지고 있습니다. 그와 중에 왼쪽과 같은 "딥페이크 성범외영상물 대응 전문과 토론회"라는 걸 개최하는 것을 보고 유튜브 생중계와 후속 보도자료를 보며 의아했던 점이 왜 딥페이크 성범죄 영상물 이야기를 하는데 영상물 제작, 탐지, 유통 등의 전문가가 아닌데 교과서적인 이야기를 왜 하는지도 의문이였습니다. 정말 해결을 하고 싶은 것인지 해결 하는 척을 하고 싶은지를 모르겠어서요. 텔레그램 혹은 특정 IP 차단하면 끝일까요? 미국에도, 일본에도, 유럽에도, 중국에도, 인도에도 연예인은 존재하는데 왜 유독 대한민국 연예인들이 표적이 될까요? 데이터 셋이 많아서? 그것도 이유가 될 순 있겠지만 가장 큰 이유는 제도적 부실함 입니다. 실효성있는 법이 없고 그나마 있는 것이 기존에 있는 아동청소년의 성보호에 관한 법률을 통한 처벌이나 정보통신망 이용촉진 및 정보보호 등에 관한 법률에 근거한 처벌, 마지막으로 형법 제307조 명예훼손 정도로 처벌이 가능한데.. 셋 다 성립요건이 무척 까다롭습니다. 일단 당사자가 신고해야한다는 것도 허들로 작용하는데 다른 것도 마찬가지죠. 예전에 쓴 글에서도 지적했듯이 인공지능 관련 법안이나 논의도 소극적으로 이뤄지고 구색 맞추기 정도로 언급되는 게 전부입니다. 정부, 여야 할 것 없이 과학기술분야는 달려들어야 하는데 여기서도 여야를 따지고 옳고 그름의 잣대를 주관적으로 가져오니 가만히 있는 과학기술만 치일 뿐입니다. 심지어 이번 사태로 급급히 내놓은 법령도 보면 애매하기 짝이 없습니다. 가해자 처벌은 너무 과도한 규제의 영역이라 악용의 여지가 다분하고, 플랫폼 책임 강화는 카카오, 네이버 등은 이미 하고 있으며 해외 플랫폼을 처벌하겠다는 것인데... 광의적이고 실효성이 없습니다. 그나마 실효성 있는 것이 피해자 지원 분야인데 이것도 사실 이름만 거창할 뿐 그냥 같이 신고하고 제도를 하나 더 만들겠다는 것인데 기존에 있는 제도가 작동하지 않는 문제부터 고치고 보완해야할 걸 고민하면 되는데 그냥 또 새로운 무언가를 만드는데 급급합니다. 제가 이번 취재와 사건에 특히 적극적으로 임한 이유를 사족으로 붙이자면, 최근에 국회의원 선거 할때만 하더라도 선거관리위원회를 그렇게 쪼아서 딥페이크 영상 관련 법규운용기준을 만들었던 분들이 정작 실제 피해자와 대처할 수 없는 상황에 놓인 이들을 보고 뒤늦게 신경 쓰는 부분이 좀 이해하기 어려웠습니다. 찾아보시면 2019년, 2021년에도 비슷한 이슈가 발생했으며 당시에도 기사가 여럿 작성 되었으나 그때도 무슨 신고센터 만들고 뭐 한다 하고 제대로 해결하지 못한채 유야무야 넘어갔습니다. 누구나 칼을 살 수 있고, 누구나 "날카롭다.", "찌른다." 등의 개념을 알고 있는데 칼부림 사건, 칼을 이용한 살인 및 강도 사건이 일어났을 때 칼과 날카로움, 찌르기 등을 비난하는 이는 없습니다. 우리가 가르켜야 하는 것은 달인데 다들 손가락에 관심이 많으니 생기는 문제 같기도 하구요. 이번 일로 또 소 잃고 외양간 고치는 일이 발생하지 않았으면 합니다.
2
👍👍🏻
13
Haebom
"프롬프트 엔지니어링" 그래서 필요해요?
자주 나오는 이야기 입니다. "프롬프트 엔지니어링"을 배워야할까요? 강의를 들어야할까요? 인공지능 시대에 꼭 필요하고 중요한 직업이라던데요. 등의 이야기를 종종 아니 자주 듣습니다. 저는 늘 말합니다. 여러분이 생각하는 프롬프트 엔지니어링이 단순히 질문 잘하는 법, 스타일이나 형식에 맞춰 결과물을 받고 싶은 것이면 전혀 들으실 필요가 없습니다. 그건 그냥 말 이쁘게 하기, 문서화 잘하기 수업 정도로 비춰 집니다. "그럼 진짜 프롬프트 엔지니어링은 무엇인가요?" 이전 포스팅과 제가 늘 말하는 좋은 교육자료들에서 프롬프트 엔지니어링에 대한 정의는 수없이 내려졌고 교육방법도 어느 정도 자리를 잡아 갑니다. 프롬프트 엔지니어링은 결국 기계에게 인간의 의도대로 원하는 대답을 이끌어 내는 기술 입니다. 여기서 핵심은 "기계" 즉, 원리가 존재하고 일정부분 예측이 가능한 이라는 전제가 붙습니다. Claude를 개발한 Anthropic에서는 아래의 세 가지만 명확하면 프롬프트 엔지니어링이라는 걸 이미 하고 있는 것이나 다름 없다고 합니다. 사용 사례의 성공 기준에 대한 명확한 정의 이러한 기준에 대해 이미 경험한 테스트하는 몇 가지 방법 개선하고자 하는 첫 번째 프롬프트 ← 첫번째 프롬프트부터 완벽할 수 없다! 사실 이것 외에도 우리는 fine-tuning보다 프롬프트 엔지니어링이 더 빠르고 효과적이게 좋은 결과를 낼 수 있다는 연구결과들도 뉴스나 논문을 통해 접했습니다. 여기에 OpenAI나 Anthropic에선 답답했는지 자체적인 프롬프트 작성 팁과 예시, 교육 등도 배포하기 시작했습니다. OpenAI도 System Prompt를 공개하고 Google, Anthropic에서도 시스템 프롬프트(LLM의 Instruction)를 공개하며 자신들이 어떤 의도로 이것을 기본 세팅 했는지 어떤 방식으로 사용했는지를 계속해서 보여 줍니다. 사실 이런 이야기를 할 거면 이 포스팅을 작성하지 않았을 겁니다. 앞서 말했듯 이미 이전 포스팅에서 말했던 걸 또 말하는 거라 지치기도 하고 어차피 찾아 볼 사람들은 찾아서 봤을 테니... 블로그에 글을 남겨야 겠다고 생각한 것은 아래 영상을 보고 나서 입니다. Anthropic의 실제 개발자들이 진행하는 팟캐스트! 프롬프트 엔지니어링 살펴보기: 전문가의 관점과 인사이트 프롬프트 엔지니어링은 모델과의 상호작용을 최적화하기 위해 명확한 커뮤니케이션, 반복적인 개선, 그리고 컨텍스트 이해를 강조하는 분야입니다. 이를 통해 인공지능 모델의 성능을 극대화할 수 있습니다. 🔍 프롬프트 엔지니어 잭(Zack Witten)은 프롬프트 엔지니어링을 모델과의 효율적인 소통을 통해 최적의 성능을 도출하는 기술이라고 정의하며, 이를 시행착오 과정에 비유했습니다. ⚙ 기존 프로그래밍과 달리, 프롬프트 엔지니어링은 반복적인 실험과 피드백을 통해 학습하는 특성을 가지고 있으며, 이를 통해 모델의 응답을 개선할 수 있습니다. 🗣프롬프트 엔지니어 잭은 뛰어난 프롬프트 엔지니어의 조건으로 명확한 의사소통, 반복 능력, 엣지 케이스 예측의 중요성을 강조했습니다. 💡 언어 모델의 미세조정을 담당하는 아만다는 효과적인 프롬프트가 모델 성능에 미치는 큰 영향을 지적하며, 인간과 모델 간의 명확한 커뮤니케이션의 중요성을 강조했습니다. 프롬프트 엔지니어링의 진화와 미래 🤔 이 팟캐스트에서는 AI 추론의 복잡성을 다루며, 의인화된 모델 상호작용은 오해를 일으킬 수 있지만 구조화된 추론은 모델 성능을 향상시킬 수 있음을 시사했습니다. 💡 명확한 예제를 제시하고 반복적으로 추론하는 방식이 모델의 성능을 향상시킨다는 점이 밝혀졌습니다. 🔍 좋은 문법과 문장 부호가 명확성을 높인다는 의견이 나왔으나, 모델의 이해 능력이 더 중요하다는 데에 공감했습니다. 🔑 프롬프트의 미래는 모델이 사용자로부터 정보를 이끌어내며 프롬프트를 개선하는 상호작용적 관계로 발전할 것이라는 예상이 이미 나왔습니다.
🤖
6
Haebom
20년 후 미래를 위해 20년 전 과거를 보다.
최근 친한 동생으로 부터 "삶이 막막할 땐 뭘 하면 좋은가?"라는 질문을 받았는데 역사 책을 읽으라고 했습니다. 삼국지연의 같은 역사 소설책이 아닌 그냥 사실이 나열되어 있는 콘텐츠를 추천 합니다. 물론, 역사라는게 승자의 기록이기 때문에 편향이 있을 수 밖에 없지만 거기서 나오는 지혜가 있습니다. 역사책이 재미 없다면 현대에 와서 쓰여진 2-30년 전 글을 보는 것도 추천 합니다. 갑자기 이런 이야기로 문을 여는 이유는 최근 운 좋게 미국에 계신 분들과 화상 미팅을 통해 어떤 것에 포커싱이 되어 있는지를 이야기 하는 시간을 가졌습니다. 가볍게 던진 미래에 대한 궁금증에 제 생각 이상으로 더 넓은 세계를 제안해주셔서 개인적으로 무척 흥미로웠습니다. 당연하게도(?) 이야기의 시작은 인공지능이였지만 이 이야기는 금방 식어버렸습니다. 이미 GPT-#는 내부적으로 나와 있고 어느 정도 테스트 및 수준도 입증이 되었으며 현재 미국 상무부 국립표준기술연구소(NIST) 산하 미국 AI 안전 연구소(US AI Safety Institute)와 AI 모델에 대한 연구, 시험 및 평가 정도 남아 있고 이미 다른 아젠다로 넘어갔다는 이야기를 들었습니다. (오해 하는 분들이 계신데 인공지능 버블이 터졌다는게 아닙니다.) 인공지능을 사용하는 것이 당연시 되고 인공지능에 대한 하위평준이 올라오면서 대부분의 산업에 자연스럽게 녹아들 것이고 이것은 모바일 시대가 찾아온 것과 같이 순식간에 일어날 것이라고 이미 Bay쪽은 생각이 확고해 보였습니다. 또한, A2A라는 표현을 처음 들었는데 AI to Action으로 실제 세상에 어떻게 영향을 미치게 할지 로봇 및 실생활에서 새로운 방향 들을 고민하고 있었습니다. 그리고 이어지는 대화의 주제는 교육, 바이오, 재료공학 등 다양한 이야기를 나누었는데 당시 화상 미팅을 마치고 몹시 이상한 기분이 들었습니다. 마치 10년 후 미래에 다녀온 기분이였습니다. 우리는 이제 와 불을 피웠다! 하고 있는데 저기는 불로 고기를 굽고 화전을 일구고 증기기관을 고민하는 것 같아 보였거든요. 이런 막막함에 문득 그럼 20년 전, 40년 전에는 어떤 생각을 했을까?라는 궁금증이 들었습니다. <2024년 트렌드>이런게 아니라 정말 로드맵, 마스터플랜 등의 형태의 계획에선 지금 우리가 사는 세상을 어디까지 바라볼까 라는 생각도 들었구요. 그러다보니 <2000년대의 국토구상>이라는 1979년에 완성된 책을 발견했습니다. 이 책은 당시에 20년 뒤를 예측하며 대한민국을 어떻게 발전 시켜야할지에 대한 로드맵이 담겨 있었습니다. 이해상충이 빈번하고 이해관계자가 너무나도 많지만 당시에는 그럼에도 불구하고 이게 작동했습니다. 군부정권이라는 강력환 힘도 있었지만 이 계획에는 철학과 방향성이 무척 뚜렷합니다. 또한 1973년 부터 작성된 이 문서는 지금 읽어봐도 배울게 많은 내용이 있습니다. 나름의 철학도 느껴지구요. 당시에는 컴퓨터 등이 없었기에 타자와 직접 그림을 그려 표시했는데 이런 그림을 보는 재미도 있습니다. 또한 1970년대 작성된 걸 감안하면 혜안이 엄청납니다. 해당 문서에는 재밌게도 수도권 인구 과밀화 지방 소멸에 대한 이야기 부터 대한민국의 물류, 에너지망을 어떻게 구축해야하며, 앞으로 미래먹거리를 위해 한정된 자원(국토)를 어떻게 사용해야하는지 적혀있습니다. 더 나아가 이 문서가 재밌는 점은 지금의 세종시 언저리즈음 으로 행정 및 수도 이전을 고민을 하고 있었다는 점도 인상 깊습니다. 더 나아가 수도권 과밀화로 인해 많은 국민들이 서울에 모이게 되면 부동산 값이 오를 거고, 부동산에 사람들이 돈을 들이 붓기 시작하면 기술 개발이나 미래를 위한 투자에 사용할 돈이 없기 때문에 그런 일은 일어나면 안된다고 경고한 것도 인상 깊습니다. 물론 우리는 지금 2024년을 살고 있으니 이것에 대한 평가를 내릴 수 있지만 저 시대를 생각해보면 미래를 예측해서 제안하고 있었다는 사실에 놀라지 않을 수 없습니다. 모두가 아는 문제도 못 풀 수 있다. 개인적으로 이게 엄청난 키포인트였고 이걸 토대로 하나의 문제라도 풀면 그것이 상당히 많은 것의 반석이 되고 기회로 찾아온 다는 것을 알았습니다. 또한 3공화국 자체가 쿠테타로 시작된 정권이였고 정권이 제대로 이양되지 않은 갑작스러운 정권 교체가 일어나 사실 이걸 알았다 하더라도 실행 못된 경우가 더러 있는 것으로 보여집니다. 그렇게 국토종합계획까지 손을 뻣어 읽다 보니 4차 국도종합계획에 감탄하고 말았습니다. 이 문서는 1999년 12월에 발간되었으며 향후 20년대의 국토 계획을 담고 있습니다. (링크) 여기서 볼 수 있는게 어째 70년대에 더 시각화라던지 사용자 친화적인 시각화를 더 잘한 느낌이 드는 것은 저만 그런거겠죠? 여하튼 이런 국토 종합 계획은 대한민국의 사연 많은 현대사를 거쳐 2000년대 들어서 노무현 정부때 실행되려 하지만 정치적, 영리적인 이유로 일부 이전의 형태로 종료 되고 맙니다. 당시 사회 분위기나 성명, 계획 등이 대통령 기록관에 있으니 한 번 찾아보는 것도 재미일 것 입니다. 그럼 앞으로의 20년은 어떻게 기획하고 있는가? 사실 문재인 대통령 시절 제 5차 국토종합계획이 발표 되었습니다. 국토종합계획을 쫙 펼쳐놓고 보면 어디서 부턴가 어긋나기 시작한다는 느낌을 지울 수가 없습니다. 특정 행정부의 문제가 아니라 중요시 여기는 가치들이 계속 바뀌였기 때문이라고 개인적으로 생각합니다. 초기 국토개발게획의 경우, 실용적이고 효율화, 경제발전에 그 초점이 온전히 모여 있었고, 4차까지만 하더라도 수도이전, 과밀화 방지, 부동산 기반의 경제 구조 개편 등의 안이 있었다면 중간 중간 여러가지 이권과 이해가 충돌하면서 "누구에게도 불편하지 않은 (혹은 최소한만 불편한) 보기 좋은 계획안이 나와버렸다는 생각이 듭니다. 10년 후, 20년 후를 어떻게 여러분은 생각하시나요? 미래를 보기 위해 실제로 제가 살고 있는 대한민국의 1970년대 부터 2020년까지의 국가의 로드맵을 살펴보며 저는 교훈 하나는 명확하게 얻었습니다. 세상 똑똑한 사람들과 전문가들을 모아놓아도 이상적인 이론을 뽑아 낼 순 있지만 이게 실제로 실현 되어려면 누군가의 철학과 자율적으로 사람들이 책임감(Accountability)를 가지고 있어야 하구나 하고 말이죠. 그게 스타트업이건, 개인의 삶이건 가족이건 국가에서건 말이죠. 정치적 의도가 전혀 없으며 정부가 공식적으로 공개한 자료를 기반으로 작성된 글 입니다. 미래를 엿보고 충격을 받아 과거를 보고 오니 현재에 내가 무엇을 해야하는 지도 더욱 명확해 진 것 같습니다. 마지막으로 구명한 이야기를 하나 적고 이 글을 마치고자 합니다. 과거를 생각하면 후회가 우리의 발을 묶고 미래를 생각하면 걱정이 눈을 가리니 현재를 생각하며 바로 할 수 있는 것에 집중하라
👍👍🏻
9
Haebom
인공지능 UX 스터디 공유회 3/3
분량 조절 실패로 이렇게 3부작이 되어 버렸습니다. 송구스럽게 생각합니다. 마지막은 5단계인 사용자 유지 및 이탈 방지 입니다. 그럼 시작해봅시다. 5단계 : Retention(사용자 유지 및 이탈 방지) 개인적으로 현재까지 1단계부터 4단계까지는 천편 일륧적으로 변하고 있습니다. 창의성의 문제는 아니고 너무 많은 제품과 서비스가 쏟아져 나오고 있기 떄문입니다. 디자인적 요소와 연출로 어떻게 보여줄 수 있으냐가 가장 큰 관건이죠. 역으로 이것이 비슷한 기능을 제공하는 것이 많아질 수록 사용자 이탈을 쉬워 집니다. 그리고 스터디를 하며 느끼는 건데 '생성된 데이터'에 대해 사용자는 애착이 없습니다. 나만의 소중한 데이터라는 생각이 있지 않죠. Easy come, Easy go가 여기서도 통용 됩니다. 사용자 입장에선 상대적으로 적은 노력으로 큰 결과를 얻었기 때문에 이 데이터에 대한 애착이나 귀하다는 생각이 느껴지지 않습니다. 말이 길었지만 결국, 더 Fancy한 서비스, 더 저렴한 서비스 등이 나오면 바로 이탈해버린다는 것 입니다. 인공지능 서비스들에선 이걸 어떻게 관리할까요? 하나씩 살펴보죠. 전문화 많은 곳에서 사용하고 있는 전략 입니다. 사용하는 모델과 상관없이 자기들이 잘하는 것에 대해 이야기 합니다. 대표적으로 character.ai의 겨우 페르소나 형태로 캐릭터를 만들고 대화하는 것에 집중하였고, Tensor.art의 경우 좀 더 전문적인 이미지 생성 서비스를 제공한다는 점을 마케팅합니다. 연구자들을 대상으로 하는 typeset.io 같은 경우도 좋은 예시 입니다. 전문화의 이점 중 하나는 비용의 정당성을 세울 수 있기 때문입니다. 제가 다른 블로그 포스팅에서도 말하지만 OpenAI, Google 등에서 제공하는 서비스들이 보통 월 20달러를 요구하는 것을 생각해보면 전문화된 서비스들의 경우 이보다 더 비싼 금액을 요구해도 사용자들이 대체불가능하거나 이 서비스가 진짜 깊게 업무에 연관되어 버리는 순간 Lock-in 되어 버립니다. 개인적으로 가장 좋은 예시는 대한민국에서 서비스하고 있는 법률 서비스 LBOX 입니다. LBOX의 경우 법률 전문 인공지능 서비스로서 판결문과 송사 정보에 대해 변호사, 법무관, 로스쿨 학생에게 서비스를 제공하는데 매월 55달러 이상의 비용을 요구하지만 사용자 이탈은 발생하지 않습니다. 개인화 개인화는 인공지능이라는 테마에서 매우 자주 나오는 이야기 입니다. 특히 기존 정보를 보유하고 있는 서비스 라던지, 교육 분야에서는 맞춤형 커리큘럼 등을 제공하는 방식을 취하고 있습니다. 당신에게 최적화 된 어쩌고 같은 방식이나 아직까지 이것을 완전히 구현한 경우는 없습니다. 이유는 간단합니다. 사용자의 데이터 사용에 대한 권한을 얻기도 쉽지 않고 사용자 맞춤형으로 Fine-tunning을 하는 것은 너무 큰 비용이 들기 때문입니다. 이 부분이 Notion이 AI를 초기에 도입할 때, 영리하게 Workspace 권한을 취득한다던지 Salesforce나 Google Workspace 같은 곳들도 최근 이런 서비스를 도입하고 있습니다. 결국, 데이터 소유권(Data ownership)은 AI 모델이 사용자의 데이터를 어떻게 기억하고 사용하는지를 제어하는 패턴입니다. 이는 개인정보 보호와 AI 모델 개선 사이의 균형을 맞추는 중요한 기능입니다. 일반적으로 이 부분은 사용자 또는 회사 설정에 위치하며, 모델 개선을 위한 간단한 설명과 함께 온/오프 토글로 구현됩니다. 그러나 구현 방식은 다양합니다. 대부분의 서비스는 기본값을 '켜짐'으로 설정하지만, Figma와 같이 사용자 중심적 접근을 취하는 회사들은 '꺼짐'을 기본값으로 설정합니다. 유료와 무료 사용자 간의 차이도 있습니다. 많은 경우 데이터 공유 옵트아웃은 프리미엄 플랜에서만 가능합니다. 기업용 계정의 경우, 이러한 설정은 개별 사용자가 아닌 관리자 설정에 포함되는 경향이 있습니다. 쉽게 말하면 데이터를 제공하면 너에게 맞춤형 뭐시기를 제공할 수 있지만 동의 안하면 조금 어려워 같은 느낌이죠. 사실 우리는 이걸 경험한 적이 있습니다. iOS에서 앱 추적 기능이나 마케팅 및 광고 노출 등을 위해 사용자 정보 및 행동 데이터를 수집하는 경우였죠. 개인화된 광고를 보고 계시는 것을 개인적인 인공지능으로 치환해 생각해보시면 쉽습니다. 토큰최적화 토큰 레이어링은 사용자가 AI에게 프롬프트를 구성할 때 의도적으로 토큰을 조합하여 AI의 이해와 응답 방향을 정교하게 조정하는 기술입니다. 쉽게 말하면, 인공지능이 텍스트(말, 글)를 처리할 때, 사람처럼 단번에 전체 문장을 이해하는 게 아니라 단어를 하나하나 잘게 나누고, 그런 다음에 이를 여러 단계를 거쳐 조금씩 더 깊이 분석해 나가는 방식입니다. 이 과정을 토큰 레이어링이라고 부릅니다. 이는 마치 레고 블록을 쌓듯이 프롬프트를 구축하는 방식으로, 사용자의 의도를 더 정확히 전달할 수 있게 합니다. 토큰 투명성은 AI가 응답을 생성하는 데 사용한 토큰을 사용자에게 공개하는 것을 의미합니다. 이를 통해 사용자는 AI의 '사고 과정'을 이해하고, 더 나은 프롬프트를 작성할 수 있게 됩니다. 이러한 기술들을 활용하여 사용자 경험을 향상시키는 방법은 다양합니다. 예를 들어, Adobe Firefly와 같은 웹 기반 인터페이스에서는 사용자가 자유롭게 프롬프트를 작성하면서도 스타일, 구조, 참조 등의 토큰을 쉽게 추가할 수 있는 팔레트를 제공합니다. 이는 토큰 레이어링을 직관적으로 구현한 예시입니다. Google AI Overview나 Perplexity 같은 서비스는 초기 프롬프트 이후 자동으로 후속 질문을 생성하여 추가 토큰을 수집하는 방식으로 사용자의 의도를 더 정확히 파악합니다. 토큰 투명성의 경우, Midjourney의 /describe 기능이 좋은 예시입니다. 이 기능은 이미지 생성에 사용된 토큰을 공개하여 사용자가 AI의 해석을 이해하고 필요시 수정할 수 있게 합니다. Udio와 같은 오디오 생성 서비스는 생성된 파일의 메타데이터에 관련 토큰을 포함시켜 사용자가 쉽게 검색하고 유사한 음원을 생성할 수 있게 돕습니다. 이러한 기능들은 사용자가 AI의 작동 원리를 이해하고, 더 나은 결과를 얻을 수 있도록 돕습니다. 또한 사용자의 창의성을 자극하고, AI 사용의 효율성을 높입니다. 결과적으로 이는 서비스에 대한 만족도를 높이고 지속적인 사용을 유도하는 효과적인 방법이 될 수 있습니다. 다만, 이러한 기능을 구현할 때는 사용자의 학습 곡선을 고려하여 점진적으로 복잡한 기능을 소개하는 것이 중요합니다. 솔루션 형태 제공
👍👍🏻
7
Haebom
인공지능 UX 스터디 공유회 2/3
이전 포스팅에 이어서 합니다. 생각보다 양이 많네요. 정리한걸 나열하면 된다고 생각해서 한 번에 끝날 줄 알았는데... 노잼 스터디로 비춰질까 벌써부터 두렵습니다. 3단계 : Using(제품/서비스 사용) 사실 인공지능을 사용하는 방법은 다양합니다. 현재는 생성형 AI 위주로 사용 사례와 서비스가 쏟아지고 있어 사실 사용하는 방식이 크게 다르지 않습니다. 대표적인 몇가지 서비스 위주로 한 번 살펴 보겠습니다. Summary: AI를 활용해 콘텐츠를 요약하는 사용 방법 요약 패턴은 생성형 AI의 발전으로 인해 더욱 효과적으로 활용되는 기능입니다. 이 패턴은 긴 문서나 대화 내용을 빠르게 요약하여 중요한 정보에 집중할 수 있도록 돕습니다. 회의 정리, 문서 읽기, 대화 준비 등 일상적인 작업에서 핵심을 신속하게 파악하는 데 유용합니다. 요약 패턴은 긴 문서의 핵심 내용 추출, 여러 이메일의 종합, 자동화된 요약본 저장 등 다양한 방식으로 활용됩니다. 이 방법의 주요 장점은 시간 절약, 자동화된 워크플로, 더 깊은 탐구 가능성입니다. 실제로 대한민국의 Liner의 경우, 자신이 평소에 밑줄을 치거나 저장해 놓은 페이지에 인공지능을 적절히 적용한 좋은 사례 입니다. 하지만 지나친 단순화로 인한 중요 정보 누락 위험이 있어, 원본 정보 출처 제공이 중요합니다. 사실 가장 많이 사용되고 제품화 되는 기능입니다. LLM 특성상 가장 구현하기도 쉽고 고객을 실망 시키기도 어렵기 때문에... Blend: 프롬프트와 새로운 요소를 결합해 창의적 결과를 유도하는 사용 방법 Remixing과 Blending 패턴은 여러 프롬프트나 소스를 결합해 새로운 결과를 만드는 AI 활용 방식입니다. 이 방법을 통해 사용자는 AI 결과를 더 정밀하게 조정하고 예상치 못한 창의적인 결과를 얻을 수 있습니다. 이 패턴의 주요 장점은 창의적인 활용 사례와 놀이를 통한 학습 및 창의성 발휘입니다. 사용자는 다양한 소스를 결합해 고유한 결과를 창출하고, 점진적으로 프롬프트를 발전시켜 참여도와 흥미를 높일 수 있습니다. 그러나 과도한 정보 추가나 복잡한 프롬프트 사용 시 혼란스러운 결과가 생길 수 있어, 사용자의 프롬프트 작성 기술 향상을 돕는 것이 중요합니다. Midjourney를 필두로 Remix니 Blend니 다양한 명칭으로 불리우고 있지만 결국에는 기존 데이터를 가지고 섞거나 변칙을 줘 완전 새로운 무언가를 만들어 냅니다. Auto Fill: 한 번의 프롬프트로 여러 입력을 쉽게 확장하는 사용 방법 Auto Fill은 한 번의 프롬프트로 여러 데이터 항목을 자동으로 채우는 AI 기능입니다. 때로는 프롬프트 없이도 Context만으로 작동 하게 구현된 곳도 있습니다. Auto Fill은 특히 데이터베이스나 스프레드시트 작업에서 효율성을 크게 높입니다. 반복적인 작업을 자동화함으로써 사용자가 더 창의적이고 전략적인 업무에 집중할 수 있게 해주는 AI의 에이전트적 특성을 잘 보여주는 기능입니다. 자동 채우기에 대한 욕구는 사실 엑셀, 메일머지 등으로 OA의 역사와 함께 합니다. 최근에는 Adobe가 인페인팅, 아웃페인팅 등을 자유롭게 하면서 채우는 것이 단순히 표 작업에 국한되지 않는다는 것을 보여주며 자주 사용되는 방법입니다. Inline Action: 페이지에서 사용 가능한 콘텐츠와의 맥락적 사용 방법 Inline Action은 페이지 내 기존 콘텐츠를 기반으로 AI와 상호작용하는 기능입니다. 사용자가 특정 텍스트를 선택하여 수정하거나 새 요소를 추가할 수 있어, AI와의 자연스러운 상호작용과 세밀한 제어가 가능합니다. 주요 장점은 사용자의 제어 강화와 맥락 기반 상호작용입니다. 사용자는 필요한 부분에만 집중하여 AI 출력을 조정할 수 있고, 특정 맥락에 맞게 결과를 세밀하게 조정할 수 있습니다. 그러나 AI 제품이 이전 작업과의 연결성을 추적하기 어려워하는 잠재적 위험도 있습니다. Inline Action은 특히 텍스트 편집이나 참조, AI가 기존 작업을 수정하고 보완하는 데 적합합니다. 이 패턴은 AI를 더 유연하고 맥락에 맞게 사용할 수 있게 해주며, 결과적으로 더 직관적이고 정밀한 사용자 경험을 제공합니다. Notion AI 보다 나은 사용법을 아직 못찾았습니다. 쓰면서 자연스럽게 제안하는 방식이 은근 구현하기 어렵습니다. 타자를 치다가 생각났는데 VScode 등에서 사용 되는 Copliot도 자연스럽게 사용 가능해 좋습니다. 자동 완성 느낌? Synthesis: 복잡한 정보를 간결한 구조로 재구성하야 사용하는 방법 Synthesis라고 했지만 솔직히 Paraphrasing을 멋지게 바꿔 말하는 것 같습니다. 여러 출처의 복잡한 정보를 간결하고 의미 있는 구조로 재구성하는 AI 기능입니다. 이는 단순한 요약을 넘어 데이터를 체계적으로 재조직화하여 사용자에게 본질은 유지한채 새로운 콘텐츠인 척 할 수 있습니다. 주요 장점은 사용의 용이성과 멀티모달리티입니다. 복잡한 프롬프트 없이도 간단한 조작으로 요약과 재구성이 가능하며, 다양한 형식으로 결과를 제공할 수 있습니다. 그러나 AI의 한계를 사용자에게 명확히 전달하기 어려워, 잘못된 결론을 내릴 위험이 있습니다. 다만, raw data를 체계화 할 때나 양식화 할 때 쓰기 좋습니다. 진행과정 공유 AI의 사고 과정을 사용자에게 투명하게 보여주는 방식입니다. 이는 AI 작업의 '블랙박스' 문제를 해결하고 사용자의 이해와 개입을 가능하게 합니다. 주로 'Show my work'와 'Check my work' 두 형태로 나타나며, 전자는 AI의 응답 생성 과정을, 후자는 AI가 영향을 미칠 영역을 미리 보여줍니다.
👍
3
Haebom
인공지능 UX 스터디 공유회 1/3
예전 인공지능(주로 LLM)에 대해 UX에 고민해보자 하는 블로그 글을 계시하였고 실제로 연락주신 분들과 함께 스터디를 진행했습니다. 스터디는 총 5회 진행되었고 참여자는 총 4명이였습니다. 다음 번에는 좀 더 규모를 키워도 좋을 것 같긴 한데 일단 정리한 것에 대해 이야기를 해보겠습니다. 저도 많이 부족하지만 기획에 있어서 저는 크게 5가지 단계로 나눠 생각합니다. 개똥 철학이기에 반박도 환영이며 좋은 방법론이 있으면 알려주세요. 흔히들 하는 고객의 여정과 같이 기획을 할 때 이런 단계를 고려해 진행합니다. 1단계 : Intent(사용자 의도와 목표 파악) → 2단계 : Wayfinding(사용자 제품 이해 구간) → 3단계 : Using(제품/서비스 사용) → 4단계 : Feedback(사용자 피드백) → 5단계 : Retention(사용자 유지 및 이탈 방지) 각 단계 별로 정리를 해보고자 합니다. 1단계 : Intent(사용자 의도와 목표 파악) 예전에 제 개인 블로그에서도 다룬적이 있습니다. 이것을 인공지능으로 대체해 생각한다면 다음과 같이 정리할 수 있을 것 입니다. 현재 나온 대부분의 서비스들은 아래 분류 안에 넣을 수 있습니다. Focus: 구체적인 결과를 원하며, 그 결과를 얻기 위한 명확한 계획을 가지고 있음 (예: 콘텐츠의 톤이나 형식을 바꾸기 위한 편집). Navigation: 목표는 있지만 그 목표에 도달하는 방법을 잘 모르는 상황 (예: 특정 질문에 대한 답을 찾고자 하지만 입력 방식을 모름). Synthesizing: 알려진 데이터 세트에서 결론이나 통찰을 도출하는 작업 (예: 여러 데이터에서 트렌드나 인사이트 찾기). Browsing: 창의적 실험 모드로 다양한 입력을 시도해 결과를 탐구하는 경우 (예: 이미지 생성에서 다양한 토큰을 사용해 결과 확인). 2단계 : Wayfinding(사용자 제품 이해 구간) 사용자가 제품을 처음 만났을 때, 이걸 어떻게 써야하는 것인지 관찰과 이해가 필요합니다. 생각보다 이 과정은 휴리스틱하게 진행되고 반사적으로 움직이기에 다양한 심리효과로 사용자의 심리를 읽어 선수를 치거나 친절하게 가이드로 제공하는 경우도 있습니다. UX에도 자주 사용되는 심리효과는 아래 문서에서 확인 하실 수 있습니다. 가이드 방식 AI와의 상호작용에서 처음부터 완벽한 프롬프트를 작성하는 것은 쉽지 않습니다. 이에 대한 해결책으로 'Follow-up 프롬프팅' 기법이 주목받고 있습니다. 이 방법은 AI가 사용자의 초기 요청에 즉시 응답하지 않고, 추가 정보를 요청하는 중간 단계를 거치는 것입니다. 단순화된 사용자 경험: 복잡한 프롬프트를 여러 단계로 나누어 사용자 부담을 줄입니다. 신뢰 구축: AI가 사용자의 의도를 정확히 파악하려 노력한다는 인식을 심어줍니다. 사용자 주도권 강화: 추가 정보 요청을 통해 사용자가 프로세스에 적극적으로 참여할 수 있게 합니다. 장점 접근성 향상: AI 경험이 부족한 사용자도 쉽게 이용할 수 있습니다. 정확도 개선: 세부 정보 확인을 통해 더 정확한 결과를 얻을 수 있습니다. 사용자 만족도 증가: 투명한 과정을 통해 신뢰와 만족도가 높아집니다. 적용 사례 RAG(Retrieval-Augmented Generation)와 같은 고급 기법을 활용하면, 사용자 경험을 더욱 개선할 수 있습니다. 이러한 기술을 통해 사용자는 간단한 텍스트 입력 대신 직접적인 참고자료나 파라미터를 AI에 제공할 수 있어, 시간과 노력을 절약할 수 있습니다. 가장 무난하고 쉽게 쓰여지고 있는 방법 입니다.
👍😍
16
Haebom
우리가 "통 속의 뇌"라면?
여러분은 자신이 실제로 경험하고 있는 세계가 진짜라고 확신하시나요? 철학자 Hilary Putnam은 '통 속의 뇌(Brain in a vat)' 사고 실험을 통해 이 질문을 던집니다. 이 실험에서 과학자들이 여러분의 뇌를 몸에서 분리해 영양분이 가득한 통에 담그고, 복잡한 컴퓨터 시스템을 통해 가상의 현실을 경험하게 한다고 상상해 보세요. 여러분은 그 가상 현실이 진짜라고 믿으며 살아가게 될 것입니다. 농담처럼 했던 '모든 외부의 자극을 컴퓨터로 만들어서 뇌에다가 주입하고, 뇌가 가상의 환경만을 느끼도록 만든다.'라는 개념은 매트릭스나 대중매체를 통해서도 우리에게 친숙하지만 어디까지나 SF으로만 받아드려졌습니다. 하지만 실제로 BCI (Brain-Computer Interface)가 있다는 걸 아시나요? 이 사고 실험은 단순한 철학적 상상에 그치지 않습니다. 오늘날 뇌-컴퓨터 인터페이스(BCI) 기술의 발전은 이러한 상상을 현실로 만들어가고 있습니다. 물론 우리의 뇌를 몸에서 분리할 필요는 없습니다. 대신, BCI 기술은 우리의 뇌와 컴퓨터를 직접 연결하여 생각만으로 디지털 세계와 상호작용할 수 있게 해줍니다. 상상해 보세요. 당신의 생각만으로 스마트폰을 조작하고, 집안의 전자기기를 제어하며, 심지어 마비된 신체를 다시 움직일 수 있다면 어떨까요? 이제 이는 더 이상 공상과학 영화의 한 장면이 아닙니다. BCI 기술이 이러한 상상을 현실로 만들어가고 있습니다. 예전에도 잠깐 다뤘던 주제이긴 한데 실제로 이 수술을 받은 전신마비 환자였던 놀런 아버는 이제 문명6를 컴퓨터로 즐기고 메세지나 컴퓨터를 통한 다양한 작업을 하는 것이 가능해졌습니다. 이번 주말, 나름 챙겨보는 렉스 프리드먼의 팟캐스트에 8시간짜리 에피소드가 올라와서 뭐지 하고 봤더니 euralink, SpaceX, Tesla, xAI의 CEO, X의 CTO인 일론 머스크, Neuralink의 COO인 서동진님, Neuralink 엔지니어 및 의사, 놀런 아버가 직접 나와서 8시간을 고봉밥 마냥 채운 팟캐스트 였습니다. BCI: 뇌와 기계의 직접적인 대화 BCI는 인간의 뇌와 외부 기기 사이에 직접적인 통신 경로를 만드는 혁신적인 기술입니다. 이 기술의 핵심은 뇌의 신경 신호를 직접 읽고 해석하여, 이를 통해 컴퓨터나 다른 전자 기기를 제어하는 것입니다. 신경과학과 컴퓨터 공학의 융합으로 탄생한 BCI 기술은 인간과 기계 사이의 경계를 허물어가며, 우리가 세상과 상호작용하는 방식을 근본적으로 변화시키고 있습니다. BCI의 여정: 원숭이 실험에서 인간 임상시험까지 BCI 기술의 역사는 1960년대로 거슬러 올라갑니다. 초기에는 원숭이의 뇌 활동을 기록하고 이를 기반으로 간단한 행동을 제어하는 실험으로 시작했습니다. 수십 년에 걸친 연구와 발전을 통해 신호 해석 기술이 정교화되고 정확도가 향상되었습니다. 현재 BCI 기술은 의료 분야에서 특히 큰 주목을 받고 있습니다. 척수 손상이나 신경 질환으로 인해 신체 기능을 상실한 환자들에게 새로운 희망을 제공하고 있죠. 마비된 사지의 움직임을 복원하거나, 생각만으로 컴퓨터를 제어할 수 있게 함으로써, BCI는 이들의 삶에 혁명적인 변화를 가져오고 있습니다. BCI 기술 발전의 최전선에 선 기업 중 하나가 바로 일론 머스크가 공동 창립한 뉴럴링크(Neuralink)입니다. 뉴럴링크는 1,024개의 미세한 전극을 가진 뇌 임플란트를 개발했습니다. 이 장치는 뇌의 신경 활동을 정밀하게 기록하고 분석할 수 있어, 사용자가 생각만으로 외부 기기를 제어할 수 있게 합니다. 2024년 1월, 뉴럴링크는 첫 인간 임상시험을 시작했습니다. 전신 마비 환자인 놀란 아버가 첫 참가자로 선정되어 임플란트를 이식받았죠. 놀랍게도 놀란은 생각만으로 컴퓨터 커서를 제어할 수 있게 되었고, 심지어 Web Grid라는 게임에서 세계 기록을 달성하기도 했습니다. 이는 BCI 기술의 실제 적용 가능성을 보여주는 중요한 사례로, 많은 이들에게 희망을 안겨주었습니다. BCI 기술은 아직 초기 단계에 있지만, 그 잠재력은 무궁무진합니다. 의료 분야와 일상생활에서 다양한 적용이 가능합니다. 의료 분야에서는 신경질환 치료와 운동 기능 회복에 혁명적인 변화를 가져올 수 있습니다. 파킨슨병, 알츠하이머병 등의 치료에 새로운 길을 열 수 있으며, 마비 환자들이 다시 걷거나 손을 움직일 수 있게 도와줄 수 있습니다. 일상생활에서도 BCI 기술은 큰 변화를 가져올 수 있습니다. 인지 능력을 향상시켜 학습 속도를 높이고, 복잡한 문제를 더 효과적으로 해결할 수 있게 될지도 모릅니다. 또한 가상 현실(VR)과 결합하여, 생각만으로 제어하는 더욱 실감 나는 게임과 교육 환경을 제공할 수 있습니다. BCI 기술의 도전 과제 BCI 기술이 일상생활에 완전히 자리 잡기까지는 아직 몇 가지 중요한 도전 과제가 남아 있습니다. 신호의 안정성: 지속적이고 안정적인 신경 신호를 얻는 것이 중요합니다. 장기적 안전성: 뇌 임플란트의 생체 적합성과 면역 반응 등에 대한 철저한 연구가 필요합니다. 뇌의 복잡성: 인간 뇌의 복잡한 메커니즘을 더 깊이 이해해야 합니다. 이러한 과제들을 해결하기 위해서는 지속적인 연구와 개발, 그리고 다양한 분야의 전문가들의 협력이 필요합니다. 너무 부정적으로 바라보기 보단 더 좋은 접근이 필요하다고 생각되는 부분 입니다. BCI 기술은 단순한 기술 혁신을 넘어, 인간의 삶과 사회를 근본적으로 변화시킬 잠재력을 가지고 있습니다. 이에 따라 우리는 몇 가지 중요한 질문들을 고민해 볼 필요가 있습니다.
👍👏
5
Haebom
기본소득을 3년 동안 3,000명에게 실험해 보았다.
"돈을 그냥 주면 사람들이 일을 하지 않을 것이다." 이는 기본소득에 대한 가장 흔한 우려 중 하나입니다. 하지만 최근 미국에서 진행된 대규모 기본소득 실험은 이러한 통념에 의문을 제기하고 있습니다. 텍사스와 일리노이 주에서 3년간 진행된 이 실험은 기본소득이 실제로 사람들의 삶에 어떤 영향을 미치는지 보여주었습니다. 그 결과는 예상을 뛰어넘는 복잡하고 흥미로운 양상을 띠고 있습니다. 이번 실험은 비영리 연구기관인 오픈리서치(OpenResearch)에 의해 수행된 것입니다. 이 실험은 기본소득이 사람들의 삶에 미치는 영향을 연구하기 위해 설계되었습니다. 샘 올트먼은 이 실험에 자금을 제공한 주요 후원자 중 한 명입니다. OpenAI의 수장 샘 올트먼 개인의 1400만 달러 후원과 오픈AI 법인, 그리고 트위터 창업자 잭 도시가 만든 기본소득기금이 이 연구를 지원했습니다. 실험의 핵심: 무엇을, 어떻게 진행했나? 기간: 2020년 11월부터 2023년 10월까지 3년 대상: 21~40세 미국인 3,000명 (중·저소득층) 방법: 실험군 1,000명에게 매월 1,000달러 지급 대조군 2,000명에게 매월 50달러 지급 기대를 뛰어넘은 결과들 1. 일은 줄었지만, 그 이유가 흥미롭다 근로 시간이 주당 평균 1.3시간 감소했고, 고용률도 약간 낮아졌습니다. 하지만 이는 단순히 '게으름' 때문이 아닙니다. 주로 자녀가 있는 부모들과 30세 이하 젊은층에서 이러한 현상이 두드러졌는데, 이들은 줄어든 근로 시간을 교육과 육아에 투자했습니다. 2. 건강 개선? 복잡한 결과 항목 증가율 치과 진료 10% 증가 전문의 진료 6% 증가 주치의 진료 8% 증가 초기에는 스트레스가 크게 감소했지만, 시간이 지나면서 그 효과는 사라졌습니다. 오히려 3년 차에는 실험군의 스트레스가 대조군보다 더 높아지는 역전 현상까지 나타났습니다. 반면, 치과와 전문의 진료는 증가했습니다.
👏👍
2
Haebom
탐욕자와 위선자의 대결
2024년 미국 대통령 선거는 미국뿐만 아니라 전 세계의 경제, 외교, 정치적 방향성에 큰 영향을 미칠 것 모두가 알고 있지만 최근 대통령 후보가 조 바이든에서 카밀라 헤리스로 바뀌면서 트럼프가 아닌 민주당이 대통령이 되는게 아니냐는 이야기들이 올라오고 있습니다. 먼저 말하자면 이번 선거에서 민주당 계열 후보 누가 와도 이기긴 힘듭니다. 세계와 대한민국 입장에선 그리 달갑지 않을 수 있으나 트럼프가 대통령이 될 확률이 매우 매우 높습니다. (틀리면 어쩔 수 없고) 왜 이렇게까지 확신을 하느냐 사실 밤새 이야기 나눌 수 있는 주제이지만 제가 생각하는 3가지 이유가 있습니다. 선거라는 특수성을 먼저 이해를 해야하는데 애초에 선거는 투표권이 있어야 합니다. 즉, 세계가 어떻게 생각하는지 앞으로 미국으로 넘어오려는 이민자들이 어떻게 생각하는지는 직접적 이유가 안됩니다. 또한 미국은 대한민국의 영남과 호남처럼 지역색이 있습니다. 그리고 흔히 흔들리는 스윙스테이츠라 불리는 격전지로 판가름이 나는데 그곳이 어떤 목소리를 내고 있는지를 봐야합니다. 예를 들어 캘리포니아는 왠만하면 민주당 계열 후보를 뽑고, 텍사스는 공화당 후보를 뽑는 것 같이요. 이미 고정된 상수를 보는 것은 의미가 없습니다. 간단하게 말하면 투표권을 가진 유권자(상수)와 다변하는 국제정세(변수)에서는 상수를 표계산이 끝난 상수보다는 미시간/펜실베니아/위스콘신/오하이오/애리조나 같은 곳을 봐야한다는 것이죠. 그럼 좀 더 자세한 카밀라 헤리스가 질 수 밖에 없는 이유에 대해 이야기 해보겠습니다. 1. 민주당에 대한 실망과 공화당의 전략적 대응 많은 유권자들은 민주당에 대한 실망감을 표출하고 있습니다. 민주당은 러시아-우크라이나 전쟁에서는 강경한 입장을 취하면서도 이스라엘-팔레스타인 분쟁에는 소극적인 태도를 보여 일관성 없는 정책이라는 비판을 받고 있습니다. 바이든 행정부 내내 따라 붙었던게 이런 위선적 행태와 애매한 발언들이였습니다. 또한, 보호무역 정책을 비판하던 민주당이 집권 후 '인플레이션 감축법(IRA)'과 같은 제조업 지원 정책을 추진하며 경제적 실리를 우선시하는 모습은 변화에 대한 기대를 저버렸다는 평가를 받습니다. 이러한 요인들은 민주당의 지지 기반을 약화시키고, 공화당이 현실적인 대안으로 부상하는 데 기여하고 있습니다. 사실 대중 관세니 뭐니 해도 이미 중국 입장에선 예견된 일이였기에 정도의 차이만 있지 트럼프가 된다고 더 어려워지고 그러진 않을 겁니다. 한국이 늘 중국을 너무 우습게 여기는데 중국은 내수가지고도 수십년은 버틸 수 있습니다. 2. 공화당의 현실적 메시지와 민주당 정책의 한계 공화당은 경제 회복과 안정에 초점을 맞춘 현실적인 메시지를 전달하고 있습니다. 이는 경제적 어려움과 안전 문제에 대한 직접적인 해결책을 기대하는 유권자들에게 큰 호소력을 갖습니다. 반면, 민주당은 포용성과 다양성을 강조하며 글로벌 시각을 지닌 메시지를 제시하지만, 이는 일부 유권자들에게는 추상적으로 느껴질 수 있습니다. 특히 경제적으로 불안정한 지역에 거주하는 유권자들은 구체적인 경제 정책을 제시하는 공화당에 더 많은 관심을 보일 수 있습니다. 애초에 도널드 트럼프가 내세우는 정책은 몹시 욕망에 가득차있고 뚜렷한데 비해 카밀라 헤리스의 정책은 몹시 모호합니다. 대부분의 정책이 조 바이든 행정부에서 이양받은 정책이고 내세우는 것들도 현실적 문제 보다는 올바른 이야기를 계속해서 하고 있습니다. 첫번째 이유에서 이미 정책적 매력은 떨어지는 것이고 여기서 헤리스는 인종과 문화에 대해 이야기해서도 안되었습니다. 오히려 이건은 정치적올바름(PC)에 지친 대중들에게는 고루한 이야기로 들리고 오히려 트럼프의 핵심 지지층인 백인 블루칼라 집단을 더욱 뭉치게 할 것 입니다. 특히, 고등교육을 받고 세계적으로 활동하는 부유층 미국인들은 민주당의 포용적 메시지에 공감할 수 있습니다. 이들은 주로 대도시에 거주하며, 언론을 통해 민주당의 가치관을 지지하고 확산하는 경우가 많습니다. 그러나 대도시 중심의 언론과 여론조사는 미국의 전반적인 민심을 온전히 반영하지 못할 수 있습니다. 시외 지역이나 경제적으로 어려운 지역의 유권자들은 민주당의 이상적인 메시지보다는 트럼프와 공화당이 제시하는 직접적인 경제 회복 및 실질적인 지원을 더 매력적인 선택지로 여길 가능성이 큽니다. 따라서, 해리스의 글로벌 포용 메시지가 미국 사회 전체에서 필수적이라고 여기는 사람들도 있지만, 실제로 투표하는 미국인 유권자들에게는 경제와 안정성을 최우선으로 여기는 공화당의 메시지가 더 현실적이고 실질적으로 다가올 수 있습니다. 배가 고파 죽겠는데 누가 와서 봉사활동 하라고 하면... 할 사람은 그리 많지 않을 겁니다. 3. 후보들의 캐릭터와 이미지가 유권자에 미치는 영향 도널드 트럼프는 '미국 우선주의'와 강력한 리더십을 앞세워 솔직하고 명확한 메시지를 전달하고 있습니다. 그는 미국 내 일자리와 생산을 보호하는 정책을 강조하며, 경제적 안정성을 중요시하는 유권자들에게 신뢰를 주고 있습니다. 반면, 카밀라 헤리스는 다양성과 포용성을 상징하지만, 일부 유권자들에게는 실질적인 정책보다는 이미지에 치우쳐 있다는 비판을 받을 수 있습니다. 특히 경제 문제와 같은 구체적인 사안에 대한 명확한 방향성을 제시하지 못하면 유권자들의 지지를 얻기 어려울 수 있습니다. 민주당을 지지하는 사람들은 트럼프의 극단적인 워딩에 집중해서 집요하게 공격하겠지만 문득 나쁜 사람은 100번 나쁜짓 하다 한 번 착한 일 하면 칭찬 받고, 착한 사람은 100번 착한짓 하다 한 번 나쁜 말 하면 나락가는게 현실이라 이건 오히려 헤리스 입장에선 발목이 잡히는 것일 수 있습니다. 트럼프가 백만장자인 것은 누구나 아는 사실이고 트럼프는 그걸 활용해 선거 마케팅이나 행동에 적극적으로 써먹습니다. 대표적으로 옛날 대선에서도 패스트푸드 음식을 먹거나 일하는 모습을 보여준 것 처럼요. 반대로 카밀라 해리스는 이민자 가정이라고 하면서도 부유한 가정에서 자랐으며, 엘리트 출신이지만 자신의 어려움이나 경험한적 없는 어려움을 이야기하면서 오히려 상대들에게 위선적이라는 모습을 보여줍니다. (부통령을 누구로할지에 따라 뭐 어디서 조 바이든 같은 백인 남성 노인 하나 구해올 것 같긴 한데...이런게 바로 위선) 결론, 트럼프가 될 것 같다. TSLL이나 사자 (농담) 이번 미국 대통령 선거는 미국의 내외부 정책에 중대한 변화를 가져올 것이며, 이는 글로벌 경제와 정치 질서에도 큰 영향을 미칠 것입니다. 공화당의 현실적이고 강경한 리더십은 미국의 이익을 우선시하는 정책으로 이어질 가능성이 높아 국내 유권자들에게 명확한 방향성을 제공할 수 있습니다. 반면, 민주당의 포용적이고 유연한 리더십은 국제 사회와의 협력을 증대시킬 수 있지만, 국내에서 경제적 안정성을 추구하는 유권자들에게는 덜 매력적으로 다가올 수 있습니다. 따라서 이번 선거는 미국과 세계의 미래를 결정짓는 중요한 전환점이 될 것입니다. 사실 누가 대통령이 되어도 대한민국 입장에선 똥이냐 설사이냐의 차이일 겁니다. 참고로 트럼프가 설사이고 헤리스가 똥입니다. 하지만 미국 주식을 한다면 트럼프가 더 매력적으로 느껴질 겁니다. 레버리지 종목도 많고(?) 뚜렷한 정책 방향도 있는 편이니까요. 개인적으론 트럼프가 된다는 확신을 가집니다. 국내 기업들 중에 IRA 때문에 미국에 공장 세우던 기업들이 정말 발빠르게 움직여야 할 겁니다.
4
🇺🇸
3
Haebom
인공지능, 기술 격차와 지속 가능성에 대한 도전에 대하여
최근 몇 년간 인공지능(AI) 기술은 비약적인 발전을 이루며 다양한 산업 분야에서 혁신을 이끌고 있습니다. 그러나 이러한 AI 연구와 개발은 점점 빅테크 기업들만의 전유물이 되어가고 있습니다. AI 연구에는 막대한 자본이 필요하며, 이는 자본력이 풍부한 대기업들만이 지속 가능하게 AI 연구를 수행할 수 있는 상황을 초래하고 있습니다. 이 글에서는 AI 연구의 비용 구조와 빅테크 기업들이 이 분야를 지배하게 된 배경을 살펴보고, 그로 인한 문제점과 미래의 방향성을 논의해보겠습니다. 먼저, OpenAI와 Anthropic의 재무 상황을 살펴보면, 이들이 왜 빅테크 기업들만이 AI 연구를 지속할 수 있는지를 이해할 수 있습니다. OpenAI는 2024년 5월 기준 연간 반복 수익(ARR)으로 $3.4억 (약 4,400억 원)을 달성하며 급속한 성장을 이루었습니다. 하지만 이러한 인상적인 수익 성장에도 불구하고, OpenAI는 2024년에 최대 $50억 (약 6조 5,000억 원)의 운영 손실이 발생할 것으로 예상됩니다. 이는 ChatGPT 운영에만 하루 약 $70만 (약 9억 1,000만 원)이 소요되며, AI 훈련 및 직원 비용도 상당하기 때문입니다. OpenAI는 Microsoft로부터 약 $130억 (약 16조 9,000억 원)의 투자를 받았지만, 이러한 막대한 비용은 지속적인 재정 지원 없이는 감당하기 어려운 수준입니다. Anthropic의 경우도 비슷합니다. Anthropic은 2024년 말까지 ARR $3.16억 (약 4,100억 원)에 도달할 것으로 예상되지만, 2024년 예상 손실 비용은 $27억 (약 3조 5,000억 원)을 초과할 것으로 보입니다. 특히 컴퓨팅 비용만 $25억 (약 3조 2,500억 원)에 이를 것으로 예상되며, 이는 AI 모델 개발과 운영에 필요한 막대한 자본을 의미합니다. Anthropic은 $76억 (약 9조 9,000억 원)의 자금을 조달했으며, 2024년 기준으로 $184억 (약 23조 9,000억 원)의 가치 평가를 받았지만, 지속 가능한 운영을 위해서는 여전히 많은 투자가 필요합니다. 이처럼 AI 연구는 컴퓨팅 자원과 데이터, 전문 인력 등 여러 측면에서 막대한 자본을 필요로 합니다. 예를 들어, "Calculating the Cost of a Google Deepmind Paper"에서는 Google Deepmind 논문 "Scaling Exponents Across Parameterizations and Optimizers"의 실험을 재현하는 데 드는 총 계산 비용이 약 $1,290만 (약 169억 원)에 달한다고 분석했습니다. 이는 하이퍼파라미터 최적화를 위한 10,000번 이상의 훈련 실행 수와 같은 광범위한 실험 실행 때문입니다. 이러한 실험들은 주로 TPUs와 같은 고성능 컴퓨팅 자원을 사용하여 수행되며, 이는 비용을 더욱 증가시킵니다. 이러한 높은 비용 구조는 자본력이 풍부한 기업들만이 AI 연구에 참여할 수 있게 만듭니다. 이는 AI 연구의 진입 장벽을 높이며, 중소기업이나 스타트업이 AI 시장에 진입하기 어렵게 만드는 환경을 조성합니다. OpenAI와 Anthropic의 사례에서도 알 수 있듯이, 빅테크 기업들은 막대한 자본을 통해 AI 연구를 지속하고 있습니다. 이는 자연스럽게 자본력이 부족한 기업들이 AI 연구에서 소외되는 결과를 초래합니다. AI 연구의 높은 비용과 막대한 운영 손실은 지속 가능성에도 큰 도전 과제가 됩니다. OpenAI와 Anthropic 모두 급속한 수익 성장에도 불구하고 막대한 손실을 보고 있으며, 이는 주로 AI 모델 훈련과 운영에 필요한 높은 인프라 비용 때문입니다. 두 회사는 운영을 지속하기 위해 지속적인 투자에 의존하고 있으며, 이는 장기적인 수익성을 지연시키는 복잡한 이익 분배 구조를 초래합니다. 또한 AI 시장은 매우 경쟁이 치열하여, 기업들이 혁신하면서 비용을 관리해야 하는 압박이 증가합니다. 현재의 가격 모델이 운영 비용을 충당하기에 충분하지 않을 수 있다는 우려도 있습니다. 예전 엔비디아에 대해 적은 글에서 결국엔 이런 인프라 구축에 대체제가 없기에 엔비디아를 계속 사야한다고 했었는데 그때 블로그글을 보니 엔비디아가 $238이였네요. 무려 액분하기 전 가격입니다. 앞으로 빅테크들은 CapEx에 더 많은 돈을 쏟겠다고 어닝에서 발표했습니다. 그럼 우리 나라는 어떤 선택을 해야할까요? 말을 줄이겠습니다.
2
Haebom
기부 대신 선택한 기부
유튜브, 현대의 라디오라고들 하죠. 저도 그냥 틀어놓고 듣거나 궁금한 게 있을 때만 찾아보는 정도였습니다. 그런데 가끔 정신이 번쩍 들게 만드는 크리에이터들이 있더라고요. 마치 새로운 세상을 보여주거나 깊이 있는 생각을 하게 만드는 사람들이요. 이런 분들은 당연히 구독하고 좋아요도 누르죠. 예전엔 슈퍼챗이나 멤버십으로 후원했는데, 구글이 떼어가는 수수료를 보면 이게 정말 창작자를 돕는 건지 의문이 들더라고요. 그래서 요즘은 따로 후원을 하고 있습니다. 이번에 특별한 결정을 내렸습니다. 수동적 소비자였던 제가 능동적으로 창작자들을 후원하기로 한 거죠. 이 사람들이 계속 무언가를 만들었으면 좋겠다는 마음으로 8명의 창작자에게 백만 원씩을 보냈습니다. 공개된 계좌나 후원처가 있으면 바로 송금했고, 없으면 메일로 물어봐서 진행했어요. 회사 소속이 아닌 개인 창작자 위주로 선택했습니다. 3년 동안 하던 기부를 이렇게 개인 창작자 후원으로 바꾼 건 저한테는 꽤 큰 결정이에요. 원래는 사랑의 열매나 월드비전, 적십자사 같은 데 기부했거든요. 근데 항상 의문이 들었어요. 정말 도움이 된 걸까? 누군가의 삶이 나아졌을까? 그 돈으로 뭘 하든 간에, 실제로 도움이 됐는지 알기 어려웠죠. 큰 사업 규모로는 자료가 나오지만, "제 돈"이 "누구"에게 "어떻게" 도움이 됐는지 알고 싶었는데 문의해도 시원한 답을 못 얻었어요. 예를 들어, 지역에 기부할 때 보통 사랑의 열매가 대행해서 집행하잖아요. 분야를 정해서 할 수는 있어요. 교육 쪽에 쓰겠다고 하면 그쪽으로 돈을 보내죠. 근데 "제 돈으로 학용품만 사주세요" 이런 건 사실상 불가능해요. 시설이나 협회 기부도 마찬가지고요. 물건으로 직접 기부하지 않는 한, 그냥 맡길 수밖에 없어요. 이게 영 마음에 안 들어서 여러 방법을 찾아봤는데, 딱히 좋은 방법은 못 찾았어요. 제일 눈에 보이게 하는 건 월드비전에서 했던 프로그램이에요. 기부 받는 사람이 기부자를 고르고 편지도 쓰고 사진도 보내고 그랬죠. 근데 몇 달 하다 그만뒀어요. 개인적으로 가난한 나라 아이들 이미지 쓰는 게 좀 그랬거든요. 그리고 또 생각해보면, 저 아이들이 진짜로 뭘 얻었는지, 우리나라 아이들 돕는 게 더 중요하지 않나 이런 생각도 들고... 결국 기부가 끝까지 이어지질 않더라고요. 어떻게 보면 연간 1,000만 원 넘게 기부하면 세금 혜택도 받으니까 그래서 하는 건가 하는 생각도 들어요. 어? 내가 도덕적으로 우월해지려고 기부하나? 이런 생각도 들고... 그러다 이럴 바에야 창작자한테 기부하는 게 낫지 않을까 싶더라고요. 세금 혜택은 없지만, 어차피 돈 나가는 건 똑같으니까요. 이건 일종의 실험이기도 해요. 제가 이렇게 후원한 사람들이 과연 저한테 어떤 의미를 줄까? 더 좋은 콘텐츠나 더 필요한 목소리를 내주지 않을까 하는 기대도 있고요. 그게 이름도 모르는 다른 나라 아이한테 기부하는 것보다 더 의미 있지 않을까 싶어서 이렇게 기록을 남깁니다.
5
Haebom
우리가 하고 싶은 걸 하기엔 전기가 부족해
최근 인공지능(AI) 기술의 급속한 발전과 빅테크 기업들의 데이터센터 확장으로 인해 전력 수요가 급격히 증가하고 있습니다. 이전에 데이터 센터 이야기를 하면서도 잠깐 나온 이야기 이지만 실제로 우리가 말하는 인공지능(AI)을 훈련시기고 운영하기 위해선 상당한 양의 전기가 필요합니다. AI 기술의 발전에 따라 전력 소비량이 기하급수적으로 증가할 것으로 전망됩니다. Schneider Electric의 보고서에 따르면, 2024년 AI 워크로드 관련 전체 전력 소비량이 약 4.3 기가와트(GW)에 달할 것으로 예측됩니다. 이는 덴마크의 총 전력 소비량과 맞먹는 수준입니다. AI 모델의 규모와 복잡성이 증가함에 따라 하드웨어의 전력 소비도 증가하고 있습니다. 예를 들어, NVIDIA의 최신 AI 칩 H100은 최대 전력 소비량(TDP)이 700W입니다. 이는 칩이 최대 성능으로 작동할 때 소비할 수 있는 최대 전력량을 나타냅니다. 실제 전력 소비량은 작업 부하에 따라 달라질 수 있으며, 평균적으로는 이보다 낮을 수 있습니다. 차세대 모델인 B100은 최대 전력 소비량이 1000W에 달할 것으로 예상됩니다. 이러한 수치는 AI 연산에 필요한 전력 요구량이 지속적으로 증가하고 있음을 보여줍니다. AI뿐만 아니라 데이터센터의 확장과 전기차 보급 확대 역시 전력 수요 증가에 큰 영향을 미칠 것으로 예상됩니다. 이러한 요인들이 복합적으로 작용하여 전력 시스템에 추가적인 부담을 줄 수 있습니다. 데이터센터는 AI 모델 훈련과 서비스 제공을 위해 막대한 전력을 소비하며, 전기차의 보급 확대는 가정과 공공 전력망에 새로운 부하를 추가합니다. 이러한 상황에 대응하기 위해서는 장기적인 관점에서 전력 인프라 확충 계획을 수립하고 실행해야 합니다. 발전 용량 증대, 송배전 네트워크 개선, 스마트 그리드 도입 등 다각적인 접근이 필요할 것으로 보입니다. 정부와 기업은 협력하여 효율적인 에너지 관리 시스템을 도입하고, 재생에너지의 비율을 높여야 합니다. AI 기술의 발전과 전력 수요 증가는 피할 수 없는 추세입니다. 따라서 기술 혁신과 전력 인프라 확충 사이의 균형을 찾는 것이 중요합니다. 정부, 기업, 연구 기관 등 다양한 이해관계자들의 협력을 통해 지속 가능한 발전 방안을 모색해야 할 시점입니다. 전기차, AI가 널리 퍼지면서 데이터 센터의 전기 수요는 계속 늘어날 겁니다. 이걸 감당하기 위해선 더욱 거대하고 안정적인 전력 공급망이 필요합니다. 그래서일까요? 최근 Magnificent 7이라 불리는 마이크로소프트(MS), 애플, 엔비디아, 구글, 아마존, 메타, 테슬라는 모두 전력 생산, 지속가능 에너지 등의 산업에 투자하고 있습니다. 향후, 미국의 대선에서도 이런 에너지 정책은 이들에게 무척 중요합니다. 친환경 에너지는 지속 가능한 대신 오래 걸리고, 화석연료/원자력 에너지는 환경을 훼손하지만 확실하게 전력을 공급합니다. 지금 당장 기술적 진보와 폭발적 성장을 해야하는 이들은 과연 어디에 베팅할까요?
1
👍
1
Haebom
인공지능은 창의성의 민주화의 시작인가?
최근 뉴욕타임즈에서 이세돌 9단과의 인터뷰를 읽었습니다. 알파고와의 역사적인 대국 이후, 그는 여전히 바둑을 가르치며 기원을 운영하고 있습니다. 흥미롭게도, 그의 자녀가 대학 진학을 앞두고 있어 인공지능 시대에 어떤 진로를 선택해야 할지 고민하고 있다는 이야기가 특히 눈길을 끌었습니다. 이는 AI가 우리의 일상과 미래에 얼마나 깊숙이 관여하고 있는지를 보여주는 단적인 예시입니다. 이런 맥락에서 OpenAI가 제시한 AI 발전의 5단계는 우리의 주목을 받을 만합니다. 이 모델은 AI의 발전 방향을 명확히 보여주며, 우리가 직면할 미래를 예측하는 데 도움을 줍니다. 현재 우리는 1단계(대화형 AI)와 2단계(인간 수준의 문제 해결 AI) 사이에 있지만, 그 발전 속도는 기하급수적으로 빨라지고 있습니다. 5년 전 AI와 지금의 AI를 비교해보면 그 격차가 얼마나 큰지 실감할 수 있을 것입니다. 단계 설명 사용 사례 Level 1 대화형 언어를 사용하는 챗봇, AI chatGPT, chatBot Level 2 인간 수준의 문제 해결이 가능한 추론 AI Devin, GPTs Action 등 Level 3 행동을 취할 수 있는 에이전트 시스템 휴머노이드, 로봇 Level 4 발명을 도울 수 있는 혁신적 AI 초지능(ASI) Level 5 조직의 업무를 수행할 수 있는 AI ??? 이세돌 9단의 경험은 이러한 급격한 변화의 전조였습니다. 그는 2016년 알파고와의 대국에서 이미 3단계(행동을 취할 수 있는 AI - 그의 입장에선)에 근접한 AI와 마주했습니다. 그의 최근 경고, "저는 인공지능 문제를 일찍 마주했지만, 다른 이들에게도 이런 일이 일어날 것입니다. 그것이 행복한 결말이 아닐 수도 있습니다."는 우리에게 AI의 발전이 가져올 변화에 대해 진지하게 생각해볼 것을 촉구합니다.
👍👏
4
Haebom
이제 누가 친환경 에너지를 가장 많이 생산하는가?
최근 전 세계적으로 친환경 에너지 전환에 대한 목소리가 높아지고 있습니다. 특히 미국과 EU 등 서구 국가들은 기후변화 대응을 위한 친환경 정책을 앞다투어 발표하고 있죠. 그런데 실제 행동을 들여다보면 뭔가 좀 이상합니다. 아이러니하게도 '악당' 취급받던 중국이 재생에너지 인프라 구축에서 앞서가는 모습을 보이고 있거든요. 하지만 이 상황을 단순히 '서구는 나쁘고 중국은 좋다'로 단정 짓기엔 무리가 있습니다. 모든 당사자들의 행동을 다시 한번 꼼꼼히 살펴볼 필요가 있어 보입니다. 먼저 현재 상황을 객관적으로 들여다보겠습니다. 최근 발표된 글로벌 에너지 모니터(GEM)의 보고서에 따르면, 중국에서 건설 중인 풍력 및 태양광 발전량이 전 세계 나머지 국가를 합친 것의 거의 두 배에 달한다고 합니다. 339GW라는 어마어마한 규모죠. 반면 미국은 40GW를 건설 중이라고 하네요. 그런데 다른 한편으로는 미국과 EU 국가들이 셰일가스, 석유, 천연가스 증산에 열을 올리고 있습니다. 특히 미국은 셰일 혁명을 통해 세계 최대의 석유 생산국이 되었고, 유럽은 러시아와의 갈등 이후 미국의 LNG 수입을 대폭 늘리고 있죠. 이런 상황만 보면 '서구는 말만 하고 중국은 행동한다'고 결론 내리기 쉽습니다. 하지만 실상은 그렇게 단순하지 않습니다. 모든 당사자들의 행동에는 각자의 이유와 문제점이 있습니다. 먼저 서구 국가들의 입장을 살펴봅시다: 에너지 안보 문제: 러시아-우크라이나 전쟁 이후 에너지 안보의 중요성이 부각되었습니다. 이는 단기적으로 화석연료 의존도를 높이는 결과를 낳았죠. 경제적 이해관계: 셰일 산업은 미국 경제에 큰 기여를 하고 있습니다. 일자리 창출과 세수 증대 효과가 크기 때문에 쉽게 포기하기 힘든 상황입니다. 기술적 한계: 재생에너지의 간헐성 문제를 해결하기 위한 대규모 에너지 저장 시설 구축에는 막대한 비용과 시간이 필요합니다. 정치적 압력: 화석연료 산업의 로비 세력은 여전히 강력합니다. 이들은 정치인들에게 영향력을 행사하며, 급격한 에너지 전환 정책을 저지하려 합니다. 하지만 이러한 이유들이 서구 국가들의 행동을 정당화하지는 못합니다. 그들이 주장하는 기후변화 대응 의지와 실제 행동 사이의 괴리는 분명 문제가 있습니다. 이제 중국의 상황을 봅시다: 대규모 재생에너지 인프라 구축: 중국은 실제로 엄청난 규모의 재생에너지 시설을 건설하고 있습니다. 이는 분명 긍정적인 변화입니다. 산업 경쟁력 확보: 중국은 재생에너지 분야를 미래 성장 동력으로 보고 있습니다. 이는 환경 정책인 동시에 산업 정책이기도 합니다. 환경 문제의 시급성: 심각한 대기오염 문제로 인해 중국은 재생에너지 전환에 더 적극적일 수밖에 없는 상황입니다. 중앙집권적 의사결정: 중국의 정치 시스템은 대규모 정책 실행을 빠르게 할 수 있게 해줍니다. 이는 때로는 비효율을 낳기도 하지만, 대규모 인프라 구축에는 효과적일 수 있습니다. 그러나 중국의 행동도 완벽하지 않습니다. 여전히 석탄 발전소를 짓고 있고, 탄소 배출량도 세계 최고 수준입니다. 또한, 재생에너지 인프라 구축 과정에서 환경 파괴나 인권 문제가 제기되기도 합니다. 결국, 미국과 EU, 그리고 중국 모두 각자의 문제를 가지고 있습니다. 서구 국가들은 말과 행동의 일치성을 높여야 하고, 중국은 재생에너지 확대와 함께 전반적인 환경 정책의 개선이 필요합니다. 이런 상황을 지켜보면서 몇 가지 질문이 떠오릅니다: 과연 어느 나라가 진정으로 기후변화 문제를 해결하는 데 앞장설 수 있을까요? 재생에너지 전환과 경제 성장을 동시에 달성할 수 있는 방법은 무엇일까요? 국제 사회는 어떻게 협력하여 이 문제를 해결할 수 있을까요?
Haebom
짐 켈러, Nvidia는 'AI 시대의 IBM'이 될 것
얼마전, @최준원 님과 미래의 유망 기업 이야기를 하다가 미래에 무엇이 뜰진 모르겠지만 IBM과 Oracle이 제대로 대체 안하면 앞으로 어려울 것 같다라는 이야기를 했습니다. 그러다 RUMOA 단톡방에서도 Chip 이야기를 하다가 Tenstorrent에 대한 관심을 가지고 있었는데, Apple과 Tesla의 전 엔지니어였던 Jim Keller가 Nvidia의 AI 칩을 1980년대 PC 시장에서의 IBM의 지배력에 비유했다는 글을 보게 되었습니다. 짐 켈러는 반도체 업계에서 전설적인 인물로 평가받는 엔지니어입니다. 그의 경력은 놀랍도록 다양하고 영향력 있습니다. AMD에서 그는 K7과 K8 아키텍처를 설계하여 회사의 부활을 이끌었고, Apple에서는 A4와 A5 프로세서 개발에 참여해 아이폰과 아이패드의 성능 혁신에 기여했습니다. Tesla에서는 자율주행용 칩 개발을 주도했으며, Intel에서도 핵심적인 역할을 맡았습니다. 이번 주 DemystifySci 팟캐스트에서 Apple과 Tesla의 전 수석 엔지니어 Jim Keller가 Nvidia에 대해 언급했습니다. 현재 자신의 AI 칩 스타트업을 이끌고 있는 Keller는 Nvidia가 현재 "기능성 측면에서 최고의 프로세서"를 판매하고 있으며, 대형 기술 기업들이 Nvidia 칩을 확보하기 위해 경쟁하고 있다고 강조했습니다. AMD, Apple, Tesla에서 근무한 경력이 있고 현재 Nvidia와 경쟁하는 AI 칩 스타트업의 CEO인 Jim Keller는 "Nvidia가 AI 시대의 IBM이 되어가고 있다"고 말했습니다. DemystifySci 팟캐스트 일요일 방송에서 Keller는 Nvidia의 AI 칩에 대해 언급하며 Microsoft와 Google 같은 기업들이 자사의 혁신을 위해 Nvidia의 기술을 사용하고 있다는 점에 주목했습니다. "모든 대형 기술 기업들이 군비 경쟁 중이고, 그들 모두가 Nvidia에 연락하고 있습니다."라고 Keller는 말했습니다. Samsung과 Hyundai의 투자를 받은 20억 달러 규모의 AI 칩 스타트업 Tenstorrent를 이끌고 있는 Keller는 Nvidia가 현재 "기능성 측면에서 최고의 프로세서"를 보유하고 있다고 말했습니다. 그는 이어 "Nvidia가 서서히 AI 시대의 IBM이 되어가고 있습니다. 어떻게 될지 지켜봐야겠죠. 저도 AI 기술 회사를 운영하고 있어서 이에 대한 의견이 있습니다."라고 덧붙였습니다. Nvidia는 현재 80% 이상의 시장 점유율로 AI 칩 업계의 선두 주자입니다. Nvidia는 2006년부터 AI와 머신 러닝 개발에 투자하기 시작했다고 주장하며, AI 컴퓨팅 분야에서 선점자 이점을 누리고 있습니다. IBM 역시 PC 시장의 선점자로 볼 수 있습니다. IBM이 PC를 발명한 것은 아니지만, 1981년 출시한 개인용 데스크톱은 컴퓨터를 더 넓은 대중에게 열어주었고 첫 해에 10억 달러의 수익을 올렸습니다. IEEE Spectrum에 따르면 IBM은 첫 PC로 "기술 표준을 설정"했습니다. Keller는 이전에 Nvidia와 ChatGPT 제작사인 OpenAI(현재 Nvidia의 칩을 사용 중)의 AI 칩 비용에 대해 의견을 밝힌 바 있습니다. 그는 4월에 Nvidia가 연구 개발 비용을 줄일 수 있었다고 주장했고, 2월에는 OpenAI CEO Sam Altman이 제안한 비용의 1/8로 모든 워크로드와 AI 기업을 위한 AI 프로세서를 만들 수 있다고 주장했습니다. Nvidia CEO Jensen Huang은 3월에 차세대 AI 칩의 가격이 3만 달러 이상이 될 것이라고 말했습니다. 이러한 상황을 볼 때, AI 칩 시장에서 Nvidia의 지배력이 강화되고 있음을 알 수 있습니다. 그러나 Jim Keller와 같은 경쟁 업체들의 도전이 계속되고 있어, 앞으로 시장 구도가 어떻게 변화할지 주목할 필요가 있습니다. Nvidia가 정말 'AI 시대의 IBM'이 될지, 아니면 새로운 혁신적인 기업들이 시장을 재편할지는 시간이 지나며 알 수 있을 것입니다.
👍
1
Haebom
애플, OpenAI 이사회 참석 제안을 거절한 이유
반독점법 리스크 헷징: 애플의 전략적 선택 애플의 이번 결정은 미국 연방거래위원회(FTC)와 유럽연합(EU) 경쟁 당국의 강화된 감시에 대한 대응으로 볼 수 있습니다. 최근 빅테크 기업들의 AI 스타트업 투자에 대한 규제 당국의 관심이 높아지는 가운데, 애플은 OpenAI 이사회 참여가 가져올 수 있는 법적 리스크를 사전에 차단하고자 한 것으로 보입니다. 이는 마이크로소프트(MS)의 최근 행보와도 유사한 맥락에서 이해할 수 있습니다. MS 역시 OpenAI에 대규모 투자를 단행하면서도, 직접적인 지배구조 참여는 자제하는 모습을 보이고 있습니다[6]. 이러한 접근은 기술 협력은 강화하되, 반독점법 위반 소지를 최소화하려는 전략으로 해석됩니다. 전략적 협력의 새로운 모델 애플은 이사회 참여 대신 다른 형태의 협력 모델을 모색하고 있습니다. OpenAI와의 정기적인 전략 회의 참여를 통해, 애플은 ChatGPT 기술을 자사 기기에 통합하는 등의 협력을 이어갈 계획입니다. 이는 직접적인 지배구조 참여 없이도 기술적 협력을 유지할 수 있는 방안으로, 반독점 규제의 그물망을 피해가면서도 AI 기술 경쟁에서 뒤처지지 않으려는 애플의 고민이 엿보이는 대목입니다. 글로벌 AI 생태계의 변화 애플의 이번 결정은 단순히 한 기업의 전략적 선택을 넘어, 글로벌 AI 생태계의 변화를 보여주는 중요한 신호탄이라고 할 수 있습니다. 빅테크 기업들과 AI 스타트업 간의 관계가 더욱 복잡해지고, 규제 당국의 감시가 강화되는 가운데, 기업들은 혁신과 규제 준수 사이에서 새로운 균형점을 찾아야 하는 도전에 직면해 있습니다. 짚어볼 점 애플의 OpenAI 이사회 참석 거절은 표면적으로는 단순한 기업 결정으로 보일 수 있지만, 그 이면에는 글로벌 반독점 규제에 대한 전략적 대응과 AI 기술 협력의 새로운 모델 모색이라는 복잡한 배경이 자리 잡고 있습니다. 이는 앞으로 빅테크 기업들의 AI 전략이 어떤 방향으로 전개될지를 가늠해볼 수 있는 중요한 사례가 될 것입니다. AI 기술의 발전과 규제 사이의 균형을 어떻게 맞춰나갈 것인가는 앞으로도 기업과 정책 입안자들에게 주요한 과제로 남을 것입니다.
1
Haebom
AI의 $600B 질문: 자본과 인력의 균형 잡기
AI 업계의 $600B 문제, 이게 정말 단순한 투자 규모의 문제일까요? 아니면 우리가 놓치고 있는 더 큰 그림이 있는 걸까요? 이 천문학적인 금액이 투입됨에도 AI 시장이 '거품'이라는 평가를 받는 이유를 한번 깊이 들여다봐야 할 때입니다. 자본의 역설: 높은 진입 장벽과 불확실한 미래 천문학적 비용의 함정 Nvidia의 최신 B100 칩은 이전 세대인 H100보다 2.5배 뛰어난 성능을 자랑하지만, 그에 따른 비용 증가도 불가피합니다. AI 인프라의 총소유비용(TCO)은 하드웨어 구매 비용의 두 배에 달합니다. 여기에는 에너지 소비, 냉각 시스템, 건물 임대, 네트워크 인프라 등 숨겨진 비용이 포함됩니다. 이러한 비용 구조는 중소기업과 스타트업에게 거의 넘을 수 없는 진입 장벽으로 작용합니다. 결과적으로 이는 AI 생태계의 다양성과 혁신을 저해할 수 있습니다. 투자와 수익의 불균형 AI 기술의 잠재적 가치에 대한 기대는 높지만, 현 시점에서 이를 정확히 수치화하기는 어렵습니다. OpenAI의 ChatGPT와 같은 성공 사례가 있긴 하지만, 대다수의 AI 프로젝트들은 아직 수익성을 입증하지 못했습니다. 이러한 불확실성은 투자자들의 신중한 접근을 유도합니다. 단기적인 수익 창출 압박과 장기적인 기술 혁신의 필요성 사이에서 균형을 잡는 것이 기업들의 큰 과제가 되고 있습니다. 기술적 도전: 아이디어의 빈곤과 인재의 부족 혁신의 부재 현재 AI 시장의 큰 문제점 중 하나는 비슷한 아이디어의 범람입니다. 대부분의 기업들이 파운데이션 모델을 기반으로 한 챗봇, 이미지 생성, 텍스트 요약 등 유사한 애플리케이션에 집중하고 있습니다. 이는 AI 기술의 진정한 잠재력을 제한하고, 시장의 포화를 가속화할 수 있습니다. 심각한 인재 부족 AI 기술의 급속한 발전에 비해, 이를 효과적으로 다룰 수 있는 전문 인력은 심각하게 부족합니다. 고성능 AI 칩을 최적화하여 운용하고, 복잡한 AI 모델을 설계, 훈련, 배포할 수 있는 전문가는 전 세계적으로 매우 부족한 상황입니다. 이는 단순히 양적인 문제를 넘어 질적인 문제이기도 합니다. AI 기술이 빠르게 발전함에 따라, 최신 기술을 이해하고 적용할 수 있는 전문가의 필요성은 더욱 증가하고 있습니다. 교육 시스템의 한계 현재의 교육 시스템은 AI 분야의 급속한 발전 속도를 따라가지 못하고 있습니다. 대학의 커리큘럼은 종종 실제 산업의 요구사항과 괴리가 있으며, AI 인프라 운영에 필요한 실무적인 기술을 가르치는 전문 과정은 거의 찾아보기 어렵습니다. 기업 내 재교육 프로그램 역시 충분하지 않습니다. 많은 기업들이 AI 기술의 중요성을 인식하고 있지만, 기존 직원들을 위한 체계적인 AI 교육 프로그램을 제공하는 곳은 많지 않습니다. 해결 방안: 지속 가능한 AI 생태계를 위한 전략 1. 장기적 투자 전략 수립 : 기업들은 AI 프로젝트의 ROI를 평가할 때 단순한 재무적 지표를 넘어, 기술 혁신, 시장 점유율 확대, 고객 경험 개선 등 다양한 요소를 고려해야 합니다. 투자자들 역시 AI 기업들의 성과를 평가할 때 더욱 포괄적인 기준을 적용해야 합니다. 2. 공공-민간 협력 모델 구축 : 정부는 세제 혜택, 보조금, R&D 지원 등을 통해 AI 기업들의 초기 투자 부담을 줄일 수 있습니다. 동시에 국가 차원의 AI 연구소나 데이터 센터 구축을 통해 중소기업이나 스타트업들도 고성능 AI 인프라를 활용할 수 있는 기회를 제공해야 합니다. 3. 교육 프로그램의 혁신: 대학과 교육 기관은 AI 분야의 빠른 변화를 반영한 커리큘럼을 개발해야 합니다. 특히 AI 인프라 운영, 대규모 AI 모델 훈련, AI 시스템 최적화 등 실제 산업 현장에서 필요로 하는 기술에 초점을 맞춘 전문 과정을 개설해야 합니다. 4. 기업 내 재교육 및 훈련 강화 : 기업들은 자체적인 AI 교육 프로그램을 개발하고 실행해야 합니다. 외부 전문가를 초빙한 워크샵, 온라인 학습 플랫폼 구독, AI 프로젝트 참여 기회 제공 등 다양한 방법을 활용할 수 있습니다.
👍
1
Haebom
미국의 10대가 선택한 트위터와 페이스북의 대체 SNS
최근 몇 년간 소셜 미디어의 환경은 급격히 변화하고 있습니다. 기존의 대형 플랫폼들이 제공하는 콘텐츠 소비 위주의 경험에 대한 사용자들의 피로감이 증가함에 따라, 새로운 형태의 소셜 네트워킹이 등장하고 있습니다. 특히 진정성 있는 인간 관계 형성과 개인의 취향을 중시하는 플랫폼들이 주목받고 있습니다. 그 중에서도 특히 주목할 만한 서비스는 'Noplace'입니다. Wizz, Yubo, purp, LMK 등과 경쟁과 함께 급부상 하고 있습니다. 에전에 다룬 친구들 중에 Noplace라는 서비스가 있었는데 최근 투자라운드를 성공적으로 마치고 최근 업데이트 이후 소셜미디어 부분 다운로드 1위를 달성했습니다. Noplace: 개성과 연결을 중시하는 공간 Noplace는 사용자가 자신의 일상과 관심사를 자유롭게 표현할 수 있는 공간을 제공하는 소셜 미디어 플랫폼입니다. 이 플랫폼은 티파니 중(Tiffany Zhong)이 창립한 것으로, 마이스페이스(Myspace)와 초기 페이스북(Facebook)에서 영감을 받아 개발되었습니다. 개인화된 프로필 페이지와 실시간 업데이트를 통해 사용자 간의 진정한 소셜 활동을 장려하는 것을 목표로 합니다. 주요 특징 프로필 커스터마이징: Noplace는 사용자가 자신의 프로필 색상을 자유롭게 변경하여 자신을 표현할 수 있게 합니다. 이는 단순한 설정 변경을 넘어서, 사용자 개개인의 개성을 드러내는 중요한 요소로 작용합니다. 공유 내용: 사용자들은 관계 상태, 현재 듣고 있는 음악, 보고 있는 영화, 읽고 있는 책 등 다양한 활동을 프로필에 공유할 수 있습니다. 이를 통해 친구들과의 깊이 있는 소통이 가능합니다. 태그와 관심사: Noplace는 '별(stars)' 태그를 통해 사용자의 관심사나 주제를 표시하게 합니다. 이는 사용자들이 공통의 관심사를 가진 새로운 사람들을 쉽게 발견할 수 있게 도와줍니다. 탑 10 친구: 마이스페이스의 '탑 8'을 연상시키는 '탑 10 친구' 섹션을 통해, 사용자들은 가장 가까운 친구들과의 연결을 더욱 강화할 수 있습니다. 창립 배경 및 목표 Noplace의 창립자 티파니 중은 인터넷과 소셜 미디어의 본질이 소셜에서 미디어로 변질되었다고 느꼈습니다. 그녀는 "모든 것이 너무 획일적이다"라며, 현재의 소셜 미디어 플랫폼이 더 이상 진정한 소셜 네트워킹을 제공하지 못한다고 지적했습니다. 이러한 문제를 해결하기 위해 그녀는 Noplace를 통해 사용자들이 다시 한번 진정한 소셜 경험을 할 수 있도록 돕고자 했습니다. 사용자 경험 Noplace는 사용자들에게 친구들을 팔로우하면서 동시에 같은 관심사를 가진 다른 사람들을 찾을 수 있는 기회를 제공합니다. 개인 프로필에서 현재 하고 있는 일을 공유하며 커뮤니티와의 소통을 강화할 수 있습니다. Noplace의 피드는 친구 피드와 글로벌 피드로 나뉘어 있으며, 모든 프로필은 공개 상태로 유지됩니다. 18세 미만 사용자에게는 보다 엄격한 피드를 제공하여 안전을 보장합니다. 기술적 특징 및 성장 잠재력 Noplace는 AI 기술을 활용하여 사용자의 경험을 개선합니다. 알고리즘 대신 AI 기술을 사용하여 요약 및 추천 기능을 제공하며, 글로벌 피드를 통해 전 세계 사용자들이 하나의 피드에서 소통할 수 있는 환경을 제공합니다. 창립자 티파니 중은 이를 "모두의 두뇌를 종이에 옮겨 놓은 것 같다"라고 비유했습니다. Noplace는 새로운 소셜 미디어 플랫폼으로서 기존의 한계를 넘어서는 다양한 기능과 진정한 소셜 경험을 제공합니다. Z세대가 주축이 되어 새롭게 등장하는 이 플랫폼은 소셜 미디어의 미래를 어떻게 변화시킬지 기대를 모으고 있습니다. 앞으로 Noplace가 제공할 혁신적인 소셜 경험에 주목할 필요가 있습니다.
2
👍😚
3
Haebom
Moonshot AI, kimi에서 사용하는 LLM 서비스 플랫폼 공개
중국의 대표 인공지능 모델 개발 기업이라 하면, 지푸와 문샷, 미니맥스, 바이촨이 있습니다. 그 중 문샷은 기업가치가 33조를 넘기며 그 성능과 위세를 입증했습니다. Moonshot AI는 자체 언어모델이나 파라미터 수 등을 공개한 적이 없습니다. 다만, Kimi라는 서비스를 공개 했을뿐이죠. chatGPT와 같이 LLM 기반의 채팅, 검색 등이 가능한 대형 서비스 입니다. 개인적으로 종종 사용하기도 하고 주목하고 있는 회사였는데 이번에 재밌는 논문을 하나 공개했습니다. 해당 논문에는 Mooncake이라는 LLM 서비스를 지원하는 플랫폼을 공개했습니다. 당연히 실제 라이브로 지원 중인 서비스는 kimi이고 이걸 이제 B2B 형태로 팔려는 전략을 취하고 있습니다. Mooncake의 핵심은 KVCache 중심의 분산 아키텍처에 있습니다. 이 아키텍처는 프리필(pre-fill)과 디코딩 단계를 분리하고, CPU, DRAM, SSD 자원을 활용해 분산 캐시를 구현합니다. 특히 프리필 노드 풀을 최적화하여 긴 문맥을 효과적으로 처리할 수 있도록 했습니다. 노드를 분할하여 병렬 처리를 가능케 하고, 레이어별 프리필 기법을 통해 VRAM 사용을 최소화했습니다. Mooncake의 또 다른 강점은 KVCache 중심의 스케줄링 알고리즘입니다. 이 알고리즘은 캐시 재사용을 극대화하고 배치 크기를 최적화하여 모델의 FLOP 활용도를 높입니다. 또한 캐시 적중률과 인스턴스 부하를 균형 있게 고려하여 전체 시스템의 효율을 높였습니다. 오버로드 상황에 대한 Mooncake의 대응 전략도 주목할 만합니다. 예측 기반의 초기 거부 정책을 도입하고, 시스템 수준의 부하 예측을 통해 자원 낭비를 최소화했습니다. 이러한 전략은 급격한 부하 증가 상황에서도 시스템의 안정성을 유지하는 데 크게 기여합니다. 실험 결과, Mooncake는 기존 방법에 비해 최대 525%까지 처리량을 증가시켰으며, 실제 작업 부하에서도 75% 더 많은 요청을 처리할 수 있었습니다. ArXiv Summarization, L-Eval 등 다양한 데이터셋에서도 그 우수성이 입증되었습니다. 다만 아쉬운 점은 비교 대상을 LLaMa-2 70B를 대상으로 했다는 점입니다. 굳이? 라는 생각이 들면서도 이 논문 자체가 뒤늦게 공개된 논문이구나 하는 생각이 들었습니다. (일부러 기술 공개를 레이백하는 경우는 흔하니) Mooncake의 개발은 LLM 서비스의 효율성과 성능을 대폭 향상시키는 중요한 기술적 진보입니다. 긴 문맥 처리, 오버로드 상황 대응 등 현실적인 문제들을 효과적으로 해결했다는 점에서 그 의의가 큽니다. 향후 이기종 가속기 활용이나 KVCache 압축 기법 개선 등을 통해 더욱 발전할 가능성도 열려 있습니다. 결론적으로, Mooncake는 KVCache 중심의 혁신적인 아키텍처를 통해 LLM 서비스의 주요 문제점들을 해결하고 있습니다. 프리필과 디코딩 단계의 분리, 효율적인 캐시 관리, 그리고 지능적인 오버로드 대응 전략은 LLM 서비스의 확장성과 효율성을 크게 향상시킬 수 있는 중요한 기술적 진보로 평가됩니다. CPU, DRAM, SSD 자원을 활용한 분산 캐시 구현 자체가 무척 흥미롭고 이것으로 SLO(Service Level Objectives:서비스 가능 레벨)을 도달했다는 것도 말이죠. kimi 써보면 실제로 되게 괜찮거든요. 중국 관련된 기사나 정보 찾을때 무척 좋습니다. chatGPT와 퍼플렉시티 합친 느낌이라 해야하나...
1