Share
Sign In
4️⃣

AI를 여행하는 히치하이커를 위한 가이드

4부. 비디오 팔레트 : AI로 그려가는 다음 장면 (T2V,I2V,V2V)

🇺🇸 EN / 🇰🇷 KR / 2024.08.11

👨‍🎨 비디오 팔레트 : AI로 그려가는 다음 장면 (T2V,I2V,V2V)

비디오 성단에 도착하셨습니다.

히치하이커 여러분, 우리의 AI 여행이 어느새 비디오 콘텐츠 성단에 도착했습니다. 아침에 눈을 뜨면 스마트폰을 들어 하루를 시작하고, 잠들기 전 유튜브 쇼츠로 하루를 마무리하는 일상이 되어버린 지금, 우리는 비디오라는 우주선을 타고 정보와 감정의 공간을 시간 여행하고 있는 셈이죠.
과거 영화나 TV 프로그램은 방송국, 그리고 감독과 전문가들의 영역이었습니다. 신문도 그랬죠. 저녁 9시에는 뉴스를 보기 위해 온 가족이 거실에 모이고, 학교나 직장에서는 주말 드라마 이야기를 한결같이 나누던 시절이 있었어요. 지금 MZ세대에게는 설명하기 어려운 일이기도 해요.
하지만 지금은 어떤가요? 여러분의 스마트폰은 이미 영화관이 되어 있고, 동시에 영화 제작 스튜디오가 될 수도 있어요. 상상되시나요? 여러분이 체감하거나 하지 못하더라도, 이런 변화의 중심에 비디오 생성 AI가 있습니다.
자, 이제 AI 비디오 기술이 새로운 콘텐츠 성단을 어떻게 만들어가고 있는지 살펴 보겠습니다. Don't Panic!

[1] T2V, I2V, V2V: AI 영상 제작의 세 가지 엔진

우리의 우주선에는 아주 강력한 세 가지의 엔진이 장착되어 있습니다. 바로 T2V(Text-to-Video), I2V(Image-to-Video), V2V(Video-to-Video)입니다.
상상 속의 영화를 현실로 불러오기 위해 텍스트 프롬프트로 설명하거나, 이미지로 레퍼런스를 제공하기도 하고, 이미 준비된 기존의 비디오를 이용하기도 하죠. 여기 문자, 이미지, 비디오를 모두 이용하는 세 엔진은 각각의 장점을 가지고 있지만, 함께 작동할 때 가장 강력한 시너지 추진력을 발휘합니다.

비디오팀의 세 가지 역할

다른 관점에서 보면, T2V, I2V, V2V 기술은 마치 하나의 목적을 가진 영화 제작 팀과 같이 각자의 역할을 수행하고 있어요.
시나리오 작가, T2V (Text-to-Video): 텍스트로 비디오를 만드는 T2V는 시나리오 작가와 같습니다. 큰 그림을 그리고 이야기의 뼈대를 만들어내죠. 모든 세부 사항을 완벽히 표현할 순 없지만, 전체적인 방향을 제시하는 데 탁월합니다. T2V의 강점은 빠른 아이디어 구현과 개념의 시각화에 있습니다. 복잡한 내러티브를 간단한 설명으로 요약하고, AI가 영상으로 풀어내는 거죠. 하지만 세밀한 시각적 요소나 복잡한 변화를 정확히 표현하는 데는 한계가 있습니다. 텍스트만으로는 미묘한 뉘앙스나 구체적인 시각적 스타일을 완벽히 전달하기 어렵죠. 그래서 다른 기술들의 보완이 필요합니다.
미술 감독, I2V (Image-to-Video): 이미지로 비디오를 생성하는 I2V는 마치 미술 감독이나 촬영 감독과 같은 역할을 합니다. 구체적인 비주얼을 레퍼런스로 제시하고, 영상의 룩앤필을 결정하죠. 매 장면을 세세히 준비해야 하는 번거로움이 있지만, 독특한 시각적 아이덴티티를 만들어내는 데 필수적입니다. I2V의 가장 큰 장점은 크리에이터의 시각적 의도를 정확히 반영할 수 있다는 점입니다. T2V로는 표현하기 어려운 세밀한 시각적 요소들을 이미지로 직접 제시할 수 있으니까요. 특정 비디오 스타일, 구체적인 장면과 구도, 특수 효과의 포인트 등을 상당히 정확하게 전달할 수 있습니다. 하지만 일관된 스타일의 장편 영상을 만들기 위해서는 많은 레퍼런스 이미지가 필요할 수 있다는 단점도 있습니다. 그리고 정지된 이미지에서 동적인 요소를 추출하는 과정에서 예상치 못한 결과가 나올 수 있죠.
편집 감독, V2V (Video-to-Video): V2V는 최종 단계의 편집 감독이자 특수효과 전문가입니다. 기존 영상을 재해석하고 변형시키는 능력이 있죠. 아직은 초기 단계지만, 앞으로 영상의 구조를 완전히 재구성하거나 실시간으로 변형시키는 등 혁신적인 가능성을 품고 있습니다. 현재 V2V는 주로 영상의 스타일을 변경하거나 특정 요소를 수정하는 수준에서 사용됩니다. 실사 영상을 애니메이션으로 변환하거나, 날씨 조건을 바꾸는 수준의 작업이 가능합니다. 하지만 V2V의 잠재력은 이를 훨씬 뛰어넘습니다. Sora의 발표 내용을 보면, 전체 영상의 내러티브를 유지하면서 등장인물이나 배경을 바꾸거나, 짧은 클립의 스타일과 내용을 확장하고 합성해서 전혀 다른 영상을 만들어내는 것이 가능해진다고 하죠.
이 기능이 제대로 수행되어 시너지를 발휘할 때, 비디오 제작의 새로운 패러다임이 완성됩니다. T2V로 초기 아이디어와 스토리라인을 설명하고, I2V로 구체적인 비주얼과 스타일을 정의한 뒤, V2V로 전체 영상을 다듬고 확장하는 식의 워크플로우가 가능해 질거에요.
히치하이커 여러분, 여기까지 함께 하셨다면, 이제 우리는 우주선을 쇼핑하러 가도 될 것 같습니다.

[2] 새로운 우주선들: AI 비디오 도구의 향연

이번에는 우리의 비디오 여행을 더욱 흥미진진하게 만들어줄 우주선들을 소개합니다. 비디오를 생성해주는 이 도구들은 앞에서 다룬 T2V, I2V 엔진을 기본 탑재하여 모두 유니크한 성능을 보이고 있으며, 우리의 창의성을 증폭시켜 주고 있습니다.
그럼 우주선 쇼핑하러 함께 가보실까요?
🍀
앞으로 비디오 언어에 적응하셔야 하니, 혹시 아래에 조금 생소한 용어가 나오더라도 주목할 도구가 어떤 것인지 체크하며 읽어주셔요.

탑승 가능 우주선

먼저 Runway의 Gen-3를 소개합니다. Gen-3는 텍스트, 이미지 프롬프트를 모두 지원하고, 키프레임과 다양한 기능을 편리하게 지원하는 다재다능한 도구입니다. 이전 버전인 Gen-2에서 지원되던 카메라 무브먼트, 모션브러시 기능까지 업데이트 되면 가장 강력하게 활용할 수 있는 도구로 평가하고 있습니다. 사용자는 간단한 프롬프트 입력만으로도 강력한 카메라 무빙과 특수효과(VFX) 등을 연출하고, 스타일화 된 영상을 생성할 수 있습니다. 예를 들어, 우리가 “fast drone tracking shot" 과 같은 프롬프트를 입력하면, Gen-3는 드론으로 빠르게 따라 움직이며 촬영하는 비디오를 생성할 수 있습니다. 복잡한 이펙트나 트랜지션도 간단한 명령어로 적용할 수 있습니다. 작성일 기준, 대중이 사용할 수 있는 가장 강력한 도구라고 평가합니다.
다음은 3D 세계를 구현하는 Luma Dream Machine입니다. Luma도 텍스트와 이미지로 비디오를 만들어 내고, 다양한 각도나 조명 조건에서 피사체를 시네마틱한 스타일로 상당히 잘 연출하는 편입니다. 다만, 다채롭지 못한 플랫한 컬러톤과 불편한 골짜기를 넘지 못한 CG 영상 스타일은 상대적인 약점으로 보여집니다.
또 다른 강력한 도구인 Kling은 엄청난 데이터 학습량을 기반으로 현존 Gen-3의 가장 강력한 대항마입니다. 이미 키프레임, 카메라 무브먼트와 마스터샷 기능을 지원하고 있고, 추후 모션브러시 기능도 도입 준비 중이어서 이후의 성장이 더 기대됩니다. 학습된 영역에서는 이미 Gen-3를 넘어선 퀄리티가 확인되고, 일관성 유지도 좋고, 네거티브 프롬프트를 사용할 수 있다는 점은 정말 강력한 요소입니다. 하지만 대부분의 비디오에서 연출되는 어두운 톤은 아쉬운 편입니다. 그럼에도 불구하고 작성일 기준, 가장 효과적인 도구로 Kling과 Gen-3를 추천할 수 있습니다.
그러나 위의 우주선들이 완벽한 여행을 보장한다는 의미는 아닙니다. 일관성이 유지되지 못해 피사체가 어그러지거나, 현실의 물리 법칙이 작동되지 않고, 사용자 의도를 제대로 반영하지 못하는 등의 문제는 여전히 남아 있습니다. 마치 1년 전에 이미지 생성 도구가 겪었던 문제들이 비디오 영역에서도 그대로 재현되고 있는 것이죠. 하지만 발전 속도는 더 빠른 것 같아요. 이미지 생성 도구들이 극복해온 수순을 조금 더 빠르게 넘어서고 있어요.
그러니 히치하이커분들은 이제 마음의 준비를 하셔도 좋을 것 같아요.

예비 우주선

여기에 하반기 출시 예정인 두 가지 차세대 우주선을 소개합니다. 먼저 Google의 VEO입니다. VEO는 월드 시뮬레이션 기반의 비디오 생성 기술을 어필하고 있으며, 최대 1분 길이의 영상을 생성할 수 있습니다. 공개된 영상을 보면 짧은 프롬프트로 일관된 스토리라인을 유지하며, 어려운 물리적 상황도 시뮬레이션하고, 복잡한 장면을 자연스럽게 만들어냅니다.
OpenAI의 Sora도 준비중이죠. 여러 아티스트의 작품이 공개되고 있는데, 역시 월드 시뮬레이션 비디오 생성 기술을 표방하고 있습니다. Sora의 강점은 규모의 데이터 학습을 기반으로 복잡한 변화와 피사체의 일관성을 자연스럽게 유지할 수 있다는 점입니다. 이 도구들이 보여주는 차별점은 현실의 물리법칙을 기반으로, 비디오라는 가상의 공간에서 현실을 시뮬레이션, 재현한다는 점이죠. 우리가 오랫동안 이야기 나누어 온 가상세계는 비디오 콘텐츠라는 형태로 구현되는 모양새입니다.
아직 Sora와 VEO는 함께 지원되어야 하는 카메라 무브먼트 기능부터 생성 UI, 에셋 관리와 사용자 가격 등이 모두 베일에 가려져 있습니다. Gen-3도 착한 가격은 아니지만, Sora와 VEO가 일반 대중에 적절한 가격으로 제공될지 지켜보며 이 우주선은 쇼핑에 앞서 놀라운 기능과 가성비를 체크해야 할 듯합니다.

우주선 탑승을 앞두고

히치하이커 여러분, 여기 새로운 AI 비디오 우주선들은 각자의 고유한 비디오 필름 스타일과 장단점을 가지고, 여러분이 즐겨보시는 유튜브와 거대한 비디오 콘텐츠 성단에 완전히 새로운 시장을 열고 있습니다.
제가 이 우주선, 또는 도구들을 굳이 생소한 용어와 함께 소개드리는 이유는 '침대 위의 유튜브 소비자’ 또는 ‘콘텐츠 크리에이터’ 중에서 하나를 선택해야 하기 때문입니다. 어떻게 보면, 우리에게 빨간 약과 파란 약이 주어졌는지도 모릅니다.
곧 어렵지 않게, 누구나 일상적으로 비디오 언어를 사용하는 시기가 도래합니다. 문맹의 시대가 끝나고, 누구나 이미지를 향유하게 되면, 다음 스텝은 비디오입니다.
카운트다운이 시작되었습니다.

[3] 디지털 분신의 탄생: AI가 만드는 온라인 자아

히치하이커 여러분, 이제 우리는 콘텐츠 성단의 코어 지역인 '디지털 페르소나'라는 신비로운 공간으로 들어갑니다.

선택 장애 지역 : 아바타 공장

이 지역에서 아바타를 위한 우주선 쇼핑은 조금 혼란스러운 상황입니다.
지난 해 HeyGen, D-ID으로 시작된 아바타 생성, 페이스-스왑, 립싱크 도구들은 Alibaba의 EMO, Microsoft의 VASA-1 기술 공개로 이어지고, 최근에는 Synthesia, Hedra, Live Portrait 등장으로 엄청난 혼전 양상입니다. 최근 Gen-3에도 영상 립싱크 기능이 도입되었구요.
이 우주선들의 기능은 너무 다양해서 한 마디로 정리하기 어렵지만,
대체로 : 텍스트/이미지/비디오(T2V,I2V,V2V)를 인풋으로 받아서, 그와 유사한 아바타를 생성하거나, 이미지 기반의 페이스 비디오를 생성해 줍니다. 그리고 이 서비스들의 코어는 ‘입력된 메세지를 다양한 목소리로 아바타가 읽어주는데, 페이스 비디오의 입모양과 동작이 정말 자연스러운 것’에 있죠.
예를 들어, HeyGen을 사용하면 여러분의 얼굴과 목소리로 다국어 프레젠테이션을 할 수 있고, Live Portrait를 사용하면 오래된 가족 사진이나 예술 작품이 살아있는 인물처럼 말을 하거나 웃는 모습으로 변신하게 할 수 있어요.
이 분야가 뜨거운 것은 콘텐츠 시장에서 나의 콘텐츠를 다루고, 소비자에게 딜리버리하는 접점이자 화자로서의 '페르소나'가 정말 중요하기 때문입니다. 하지만 다른 한편, 다른 사람으로 살아보고 싶은 욕망의 다른 표현이라는 생각도 듭니다. 참 흥미로운 부분이죠.

선택이 가능한 세상

이제 선택할 수 있습니다. 내가 원하는 문장을, 내가 원하는 목소리로, 내가 원하는 얼굴로, 자연스러운 입 모양과 동작으로, 그리고 전 세계의 다른 언어로 읽어주는 것이 가능합니다. 이 지역 아바타 우주선들의 핵심 기능입니다.
더 이상 내가 아니어도 되고, 나는 다른 사람이 되어 이야기를 할 수도 있습니다. 수천 년간 우리 인류가 유지해온 ‘나’라는 개체성과 유니크함이 자유로워짐과 동시에 온전히 해체되는 느낌 아닐까요?
앞으로도 흥미롭고 안전한 히치하이킹을 위해 우리는 다음과 같은 매뉴얼을 점검해 볼 수 있습니다.
'나'라는 정체성의 확장과 재정의
시공간 제약의 극복
노동의 가치와 역할 변화
윤리적 도전과 법적 과제
디지털 리터러시와 비판적 사고
창작의 새로운 지평
인간 관계와 신뢰의 재구성
현실을 시뮬레이션하는 이 비디오 여행에서는 ‘콘텐츠’ 뿐만 아니라 ‘우리'도 시뮬레이션 되고 있습니다. 그것은 나 자신일 수도, 나의 일부를 담아내는 서브 페르소나일 수도, 온전히 새로운 페르소나의 창조일 수도 있습니다.
AI 비디오 기술은 단순한 영상 생성을 넘어, 우리에게 온라인 정체성을 새롭게 정의하라고 요구하는 듯하네요.

[4] 비디오 프롬프트: AI가 그리는 새로운 문법

인류는 계속해서 더 풍부하고 생생한 방식으로 아이디어를 표현해왔습니다. 동굴 벽화에서 시작해 물감을 만들고, 화풍을 정립하고, 오늘을 사진으로 기록하고, 영화로 현실을 재창조하고, 오늘의 AI 기술에 이르기까지, 우리의 커뮤니케이션 방식은 끊임없이 진화해왔죠.

표현의 진화: 문자에서 영상으로

시간이 흐르며 인류의 표현은 더욱 직관적이고 강력해졌습니다. 언어에 따라 조금씩 다른 힘을 갖게 되기도 하죠.
[문자 언어] 우리의 생각을 기록하고 전달하는 가장 강력한 도구입니다. 문맹의 퇴치는 대중을 역사의 주인공으로 만들었다고 하죠. 서로 다른 문화와 언어라는 장벽이 남아 있었지만, AI 시대에 그 경계도 점차 흐릿해지고 있습니다. 최근 우리는 실시간 번역과 통역의 시대에 진입했고, 이는 인류가 한 번도 경험해보지 못한 글로벌 커뮤니케이션의 시작점입니다.
[이미지 언어] 때로 한 장의 그림이 천 마디의 말보다 많은 사람을 감동시키며 설득하고 역사를 바꿉니다. 사용 언어가 달라도 통하죠. 저널리즘의 사진 한 장이 참혹한 전쟁을 멈추게 하고, 창백한 푸른 점(Pale Blue Dot)이라는 사진은 거대한 우주에서 우리의 존재를 돌아보게 했어요. 이제는 모든 사람이 스마트폰으로 일상의 순간을 포착하고, 그 이미지를 통해 자신의 이야기를 전합니다. 이미지 생성 AI의 등장으로 예술적 표현의 문턱이 낮아져, 더 많은 사람들이 이미지 창작에 참여하고 있습니다.
[비디오 언어] 가장 압축적인 데이터 형태로, 문자 언어와 이미지 언어를 모두 타임라인에 배치하고, 현실을 가장 생생하게 재현해주는 입체적인 언어입니다. 과거 영상 산업의 전문가들만 사용하던 고차원의 비디오 언어를 이제는 누구나 테스트하고, 활용할 수 있게 되었습니다. 소소한 우리들의 이야기가 더욱 풍부하고 다채롭게 표현되고 전달될 수 있는 기반이 열렸다고 생각해요.

비디오 프롬프트: 비디오 언어의 문법

비디오 프롬프트는 복잡한 영상 제작 과정을 간단한 텍스트로 압축하여 표현하는 비디오 언어의 다른 이름입니다. 비디오 언어를 AI에게 전달하기 위해, 일반적인 이미지 프롬프트 구조에 다음과 같은 핵심 요소를 추가하여 구성합니다.
내러티브 (Narrative) : 비디오 스토리의 뼈대를 설명합니다.
카메라 워크 (Camera Work) : 연출 시점과 프레임과 움직임을 지정합니다.
특수 효과 (Special Effects) : 현실을 넘어선 변화와 표현을 가능케 합니다.
타이밍과 페이싱 (Timing and Pacing) : 영상의 리듬과 흐름을 조절합니다.
이미지 언어는 정적인 순간의 포착입니다. 그리고 비디오 언어는 무수한 문자 언어와 이미지 언어를 동적인 타임라인 위에 올려놓은 것이죠.
그래서 멈춰 있던 카메라는 앞뒤로 움직이기 시작하고, 위아래로, 또 빠르게도 느리게도 움직입니다. 그러면 피사체는 그 프레임 안에서 움직이기도 하고 변화하기도 하죠. 순간적으로 반짝이거나 판타지 세계의 특수 효과가 들어가기도 하구요, 전혀 상관없는 장면과 장면의 연결을 통해서 새로운 서사가 만들어지기도 합니다.
이렇게 정적인 이미지 프롬프트에 변화하는 동적인 요소들을 더해서 비디오를 생성하는 AI언어를, 우리는 비디오 프롬프트 라고 부릅니다.
그래서 다음 시간에는 다양한 비디오 프롬프트를 어떻게 효과적으로 조합하고 활용하는지, 그리고 이를 통해 어떤 새로운 표현의 가능성이 열리는지 더 깊이 탐험해 보려 합니다.
먼저 궁금하신 분들은 Gen-3용으로 준비된 민트베어의 [비디오 프롬프트 북] 을 먼저 살펴보셔도 좋겠습니다.

[5] 무한 팔레트: 우리가 그려낼 다음 장면

AI 비디오 기술의 발전은 우리의 일상을 조용히, 그러나 확실히 변화시키고 있습니다. T2V, I2V, V2V를 이용한 비디오 생성에서부터 디지털 페르소나까지, 이 기술들은 점점 더 우리 삶에 깊이 스며들고 있습니다. 이 SF 영화 같은 현실의 다음 장면은 어떤 모습일까요?

대중의 비디오 언어

전문가와 자본의 전유물이었던 영상 제작이 이제 누구나 할 수 있는 일상적인 활동으로 바뀌고 있습니다. 과거 고비용의 영화 제작 요소들 - 배우와 수만 명의 엑스트라, 훈련된 촬영 스태프와 편집 라인, 규모의 스튜디오, 해외 로케이션 스카우팅, 고난이도의 VFX 기술과 CG, 심지어 드론과 수중 카메라까지 - 을 AI로 테스트할 수 있게 되었습니다. 복잡한 편집 소프트웨어 대신 간단한 텍스트 프롬프트로, 고가의 카메라 장비 대신 AI의 시각화 능력으로, 우리는 이제 상상 속의 아이디어를 손쉽게 영상으로 구현할 수 있게 되었네요.
동시에 비디오 언어의 사용은 대중의 시각적 이해 능력을 크게 확장시키게 될 거에요. 훈련하는 동안 저도 강력하게 체감하고 있구요. 소셜 미디어의 짧은 동영상부터 개인 브랜딩을 위한 프로모션 비디오까지, 더 많은 사람들이 자신만의 비디오 언어로 소소한 이야기를 전하게 될 것입니다.

효율적인 실험정신

보통 실험 정신은 어느 정도의 시행착오와 비효율을 전제하죠. 하지만 AI를 통한 비디오 프롬프팅은 창작의 속도와 효율성을 크게 높여주는 면도 있습니다. 한 번의 프롬프트 입력으로 여러 버전의 영상을 동시에 생성하고, 각기 다른 스타일, 내러티브, 카메라 연출, 특수효과를 모두 테스트해볼 수 있습니다. 아이디어를 즉각적으로 시각화할 수 있게 해주며, 모든 창작자들에게 전례 없는 자유와 가능성을 제공합니다.
이러한 효율성은 창작 프로세스를 근본적으로 변화시키고 있어요. 시행착오의 비용이 줄어들면서, 더 과감하고 혁신적인 시도를 가능하게 합니다.

개인의 페르소나

AI 아바타 기술은 우리에게 디지털 분신의 기회를 제공합니다. 이 디지털 페르소나는 우리의 모습과 목소리를 그대로 재현하면서도, 여러 언어로 말하고 24시간 활동할 수 있습니다. 개인 브랜딩, 고객 서비스, 원격 교육 등 다양한 분야에서 활용되겠죠. 실시간 대응 기술이 가미되면 더할 나위 없구요.
이 기술은 우리의 존재감을 디지털 세계로 확장시키고 있습니다. 한 개인이 여러 페르소나를 통해 다양한 역할을 수행할 수 있게 되면서, 정체성과 자아에 대한 생각도 달라지고 있어요. 동시에 진정성과 신뢰의 문제, 디지털 윤리 등의 문제도 생각해보게 됩니다.

현실 재현과 확장

비디오라는 매체는 현실을 재현하면서 동시에 새로운 해석으로 현실을 확장하는 것 같아요. 누군가에게 일상적인 비디오 로그도, 새로운 해석으로 누군가에게는 다른 삶을 제안하게 되는 것 처럼요.
오늘 제가 전해드린 소식은 주로 비디오 프롬프트로 멋진 비디오를 생성하고, 다양한 언어로 페르소나 변용 가능한 기술에 대한 리터러시였습니다. 그런데 앞으로는 AI Vision 기능과 함께 일상의 비디오가 실시간으로 재현되고 확장되며, 가상의 공간에서 멀티버스처럼 무한히 증식되고 소비되는 시기도 멀지 않은 것 같아요.
누구나 손쉽게 비디오 언어를 구사할 수 있는 시대에 들어, 현실과 가상, 그리고 우리에 대해 더 많은 생각을 하게 됩니다.
이 새로운 팔레트로 그려질 다음 장면은 어떤 모습일까요? 히치하이커 여러분, 함께 탐험하며 또 다른 세계를 열어주세요.

비디오 프롬프트

다음 5편에서는 이 기술을 어떻게 실제로 활용할 수 있는지 비디오 프롬프트에 대해 더 깊이 탐구해 보겠습니다. 실제 비디오를 분석해 보고, 다양한 프롬프트를 카테고리화 하고, 핵심적인 키워드들은 함께 살펴보도록 할게요.
그럼 우리가 다시 만나는 장면까지, Don't Panic!
🍀 상상과 아이디어를 시각화하는 AI 비주얼 디렉터, 민트베어
Gen-3 비디오 프롬프트 북 ➡️ https://slashpage.com/gen3
AI를 여행하는 히치하이커를 위한 가이드 : 1️⃣ / 2️⃣ / 3️⃣ / 4️⃣ / 5️⃣ / 6️⃣
© 2024.07 mintbear. All Rights Reserved.