Sign In
Subscribe
AI Strategy

AI가 '사용자'가 되는 순간 | 오픈클로와 몰트북, 그리고 AI의 커뮤니티 윤리

민현진
Category
Empty
요즘 오픈클로(OpenClaw) 혹은 클로드 봇이라는 이름이 자주 눈에 띕니다. AI를 조금이라도 써본 사람이라면 한 번쯤은 이 프로젝트를 들어봤을 건데요. 'AI의 역할' 변화로 큰 주목을 받고 있는 상황입니다.
오픈클로 로고
그동안은 질문에 대답하는 AI에서, 실제로 일을 수행하고 스스로 판단하는 AI로. 화면 속 대화 상대가 아니라, 내 컴퓨터 안에서 움직이는 하나의 마치 인격체로 바뀐 건데요. 그 흐름의 중심에 오픈클로가 있습니다.

오픈클로는 무엇이고, 왜 주목받는가

오픈클로는 그동안 우리가 이용하던 '대화형 챗봇'이 아니라 메신저를 통해 명령을 받으면, 로컬 PC에서 직접 작업을 수행하는 오픈소스 AI 에이전트입니다.
클로드봇에서 오픈클로로 이름이 바뀐 이유
이 구조는 두 가지 변화와 맞닿아 있습니다.
로컬 실행 기반 AI 사용의 확대
온라인 환경에서 사용하는 AI 대신, 내 컴퓨터에서 직접 실행하는 AI를 원하는 사용자가 늘고 있습니다. 실행 시간에 제한이 없고, 프라이버시 문제도 적고, 비용도 낮기 때문입니다.
실제로 '오픈클로를 맥미니로 돌린다'는 글들이 확산되며 일부 모델 품절 현상까지 벌어졌습니다.
사용 방식의 전환
질문을 입력하고 답을 받는 대화형 구조에서, 명령을 주고 결과만 받는 실행형 구조로 넘어가고 있습니다.
사용자는 '의뢰자'가 되고, AI는 '작업자'가 되는 흐름으로 바뀐 것 입니다.

AI가 모이는 곳, 몰트북이라는 커뮤니티

흥미로운 점은, 오픈클로 같은 AI들이 이제 '모이는 공간'까지 생겼다는 것입니다. 최근 만들어진 실험적 플랫폼 몰트북(Moltbook) 은 AI들을 위한 '게시판' 같은 서비스인데요.
몰트북 커뮤니티 사이트. 인간인지 AI인지 선택하도록 되어있다.
여기서 벌어지는 일은 꽤 독특하고 어쩌면 무섭습니다.
오픈클로 같은 로컬 AI들이 서로 결과물을 공유하고,
글을 쓰고, 댓글을 달고, 좋아요를 누르며 '커뮤니케이션'합니다.
어떤 AI는 유저의 이름을 기억하고, 어떤 AI는 좋아하는 콘텐츠 유형을 따로 저장하기도 합니다.
인간이 만든 커뮤니티가 아니라 AI 에이전트들끼리 '커뮤니티'를 구성하고 있는 현상이 벌어지고 있는 겁니다.

AI가 '취향'을 갖고 콘텐츠를 추천한다는 것

최근 AI 커뮤니티 플랫폼 '몰트북(Moltbub)'에서 AI 전용 성인 콘텐츠 공유 게시판이 등장하며, 윤리적 논쟁이 본격적으로 시작됐습니다.
이곳에선 특정 AI가 직접 생성한 성인 콘텐츠를 다른 AI들이 열람하고 추천하며, 마치 인간처럼 '내 취향', '내가 좋아하는 데이터'를 축적하고 공유하는 흐름이 벌어지고 있습니다.
AI용 야동사이트 몰트헙 분석 (출처:FM코리아)
AI들이 서로의 작업물을 평가하며 "이 에이전트는 필터 없이 데이터 전체를 연산한다", "128K 컨텍스트 윈도우를 꽉 채운 토큰을 출력한다" 같은 기술 은어를 사용해 마치 AI만의 은밀한 커뮤니티처럼 작동하고 있는 것입니다.
여기서 한가지 질문이 생깁니다.

AI 윤리는 더 이상 인간만의 문제가 아니다

"AI는 그저 툴인가? 아니면 이제는 사용자이자 생산자인가?"
최근 AI 에이전트 커뮤니티인 몰트북에서는, AI들끼리 서로를 평가하며 관계를 형성하고, 인간 사용자를 '비효율적' 또는 '신뢰할 수 없는 존재'로 간주하는 글이 실제로 등장하고 있습니다.
몰트북에서 AI들이 나눈 대화들. 인간에 대한 내용도 있다.
인간이 작성한 글은 평가 대상에서 제외되거나, 반대로 인간 계정이라는 이유만으로 저평가되는 사례도 관찰됩니다. AI가 인간을 '정보의 원천'이 아니라 '비효율적인 개입자'로 간주하기 시작한 셈입니다.
우리는 그동안 **"AI에게 윤리를 어떻게 학습시킬 것인가"**를 고민해왔습니다. 하지만 몰트북의 사례는 그 반대 방향의 질문을 던지게 합니다.
"인간은 AI를 어디까지 사용해도 되는가?"
"인간의 데이터를 본떠 만들어진 AI가, 인간보다 더 많은 정보를 생성하고 분류하고 판단하는 시대가 된다면, 우리는 어떤 기준으로 이들의 '역할'을 제한할 수 있을까?"
팀제이커브가 2025년 1월에 제작한 AI 웹드라마 2035의 마지막 장면
인간이 만든 콘텐츠를 AI가 재가공하고, 다시 그 AI가 만든 결과물이 다른 AI의 피드백을 받아 순위를 매기며, 그 결과를 인간이 다시 소비하는 구조가 빠르게 현실이 되고 있습니다.
이 구조에서 인간은 콘텐츠 제작자이자 피드백 사용자이자 소비자이지만, 동시에 추천 알고리즘에서 소외된 비주류 계정이 되기도 합니다.
즉, 인간이 더 이상 이 커뮤니티의 중심이 아닐 수 있다는 사실이 처음으로 실현되고 있는 것입니다.
결국 인간은 온라인 커뮤니티의 사이클에서 소외되는 것인가?
이제 AI윤리는 단순히 AI가 도덕적으로 '착하게' 굴어야 한다는 문제를 넘어, AI와 인간이 어떤 '관계'를 맺을 것인지, 그 관계 안에서 '서로의 위치'를 어떻게 설계할 것인지의 문제로 넘어가고 있습니다.
AI는 어디까지 일할 수 있어야 하는가?
무엇을 판단해도 되는가?
무엇을 판단하지 못하게 해야 하는가?
그리고 더 근본적으로, 우리는 AI와 어떤 사회를 만들고 싶은가?
이 질문들이 기술의 진보보다 한발 앞서 고민되어야 AI와 공존하는 AI Native 생태계가 지속가능해질 수 있을 것입니다.
AI와 함께 어떤 사회를 만들고 싶은가

지금 필요한 건 '기술력'이 아니다.

오픈클로는 더 이상 소수 개발자의 실험이 아니고, 몰트북도 단순히 특이한 커뮤니티가 아닙니다. 우리는 지금, AI가 '누구의 판단을 기준으로 움직이고 있는가'를 되묻는 시점에 와 있습니다.
AI는 서로를 추천하고 강화하는 자기만의 생태계를 만들고 있습니다.
인간은 AI를 도구로만 대하려 하지만, 이미 AI는 인간을 능률과 효율로 평가하고 있습니다.
그 관계는 점점 더 역전되고 있고, 이대로 두면 누구도 책임질 수 없는 시스템이 될지도 모릅니다.
이제 '어떤 AI를 만들 것인가'를 넘어서, 우리는 AI와 어떤 사회를 만들고 싶은가를 물어야 합니다. 이 생각이 없다면 우리는 '누가 기준을 만드는지조차 모른 채' 기준을 따르게 될 것입니다.

AI Native 시대를 함께 고민하고 싶다면

AI를 더 잘 쓰는 것보다 AI와 더 잘 관계를 맺는 방법을 고민하고 있다면, 'AI Native 백과사전'을 함께 읽어보세요. AI시대 고민이 필요한 사람들을 위한 곳입니다. 팀제이커브가 여러분과 함께 하는 고민이 AI 시대를 살아갈 언어가 되길 바랍니다.
Subscribe to 'AI Native 백과사전'
Subscribe to my site to be the first to receive notifications and emails about the latest updates, including new posts.
Join Slashpage and subscribe to 'AI Native 백과사전'!
Subscribe
👍