Share
Sign In

n8n 셀프 호스팅 가이드

(주의*) 셀프호스팅시 기술적인 요구사항이 필요합니다. 서버 관리 경험이 어려우신 분들은 n8n Cloud사용을 고려해보면 좋습니다. 그러나 셀프 호스팅을 통해 더 많은 제어와 커스터마이징이 가능하므로, 필요한 기술을 갖추고 있다면 이점이 많을 수 있습니다.
혹시나 셀프 호스팅을 하실 분들은 아래 영상을 보시고 만드시면 좋을 것 같습니다! 한글영상!

기술적 요구사항

1.
서버 및 컨테이너 관리: 서버와 컨테이너 설정, 구성에 대한 지식이 필요합니다.
2.
리소스 관리: 애플리케이션 리소스 관리 및 스케일링 능력이 요구됩니다.
3.
보안: 서버 및 애플리케이션 보안에 대한 이해가 중요합니다.
4.
n8n 구성: n8n 자체 설정에 대한 지식이 필요합니다.

시작하기

설치 Installation

리포지토리 복제. Cloning the Repository
터미널을 열고 아래 내용을 복사하고 실행.
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git cd self-hosted-ai-starter-kit
도커 컴포즈로 n8n 실행하기. Running n8n using Docker Compose
NVIDIA GPU 사용자. For Nvidia GPU users
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git cd self-hosted-ai-starter-kit docker compose --profile gpu-nvidia up
Mac / Apple 실리콘 사용자
M1 이상의 프로세서가 탑재된 Mac을 사용하는 경우 안타깝게도 GPU를 도커 인스턴스에 노출할 수 없습니다. 이 경우 두 가지 옵션이 있습니다:
1.
아래 "다른 모든 사용자를 위해" 섹션과 같이 스타터 키트를 CPU에서 완전히 실행합니다.
2.
더 빠른 추론을 위해 Mac에서 Ollama를 실행하고 n8n 인스턴스에서 연결합니다.
Mac에서 Ollama를 실행하려면 Ollama 홈페이지에서 설치 지침을 확인하고 다음과 같이 스타터 키트를 실행합니다:
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git cd self-hosted-ai-starter-kit docker compose up
아래의 빠른 시작 설정을 따랐다면 다음을 사용하여 Ollama 자격 증명을 변경합니다. http://host.docker.internal:11434/ 호스트로서.
모두를 위한 방법.
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git cd self-hosted-ai-starter-kit docker compose --profile cpu up

⚡ ️ 빠른 시작 및 사용 방법

셀프 호스팅 AI 스타터 키트의 핵심은 네트워크 및 스토리지 설정으로 사전 구성된 도커 컴포지트 파일로, 추가 설치의 필요성을 최소화합니다. 위의 설치 단계를 완료한 후 아래 단계를 따라 시작하기만 하면 됩니다.
1.
브라우저에서 http://localhost:5678/을 열어 n8n을 설정합니다.
이 작업은 한 번만 수행하면 됩니다.
2.
포함된 워크플로를 엽니다: http://localhost:5678/workflow/srOnR8PAY3u4RSWB
3.
워크플로 테스트를 선택하여 워크플로 실행을 시작합니다.
4.
워크플로를 처음 실행하는 경우 Ollama가 Lama3.1 다운로드를 완료할 때까지 기다려야 할 수도 있습니다.
도커 콘솔 로그를 검사하여 진행 상황을 확인할 수 있습니다.
언제든지 n8n을 열려면 브라우저에서 http://localhost:5678/을 방문하세요.
n8n 인스턴스를 사용하면 400개 이상의 통합과 AI 에이전트텍스트 분류기정보 추출기 노드와 같은 기본 및 고급 AI 노드에 액세스할 수 있습니다. 모든 것을 로컬로 유지하려면 언어 모델에 Ollama 노드를 사용하고 벡터 스토어에 Qdrant를 사용하는 것을 잊지 마세요.
메모
이 스타터 키트는 자체 호스팅 AI 워크플로를 시작하는 데 도움이 되도록 설계되었습니다. 프로덕션 환경에 완전히 최적화되지는 않았지만 개념 증명 프로젝트에서 잘 작동하는 강력한 구성 요소를 결합했습니다. 특정 요구 사항에 맞게 사용자 지정할 수 있습니다.

👓 권장 자료

n8n은 AI 개념과 노드를 빠르게 시작하는 데 유용한 콘텐츠로 가득합니다. 문제가 발생하면 지원 센터로 이동합니다.

🎥 비디오 워크스루

🛍 ️ 더 많은 AI 템플릿

더 많은 AI 워크플로 아이디어를 보려면 공식 n8n AI 템플릿 갤러리를 방문하세요. 각 워크플로에서 워크플로 사용 버튼을 선택하여 로컬 n8n 인스턴스로 워크플로를 자동으로 가져옵니다.

AI 주요 개념 학습

로컬 AI 템플릿

팁 및 요령

로컬 파일 액세스

자체 호스팅 AI 스타터 키트는 n8n 컨테이너에 장착되고 n8n이 디스크의 파일에 액세스할 수 있는 공유 폴더(기본적으로 동일한 디렉토리에 위치)를 생성합니다. n8n 컨테이너 내의 이 폴더는 다음 위치에 있습니다. /data/shared -- 로컬 파일 시스템과 상호 작용하는 노드에서 사용해야 하는 경로입니다.

로컬 파일 시스템과 상호 작용하는 노드

📜 라이선스

이 프로젝트는 Apache 라이선스 2.0에 따라 라이선스가 부여됩니다. 자세한 내용은 라이선스 파일을 참조하세요.

💬 지원

가능한 경우 n8n 포럼에서 대화에 참여하세요:
업무 공유: n8n으로 구축한 것을 과시하고 커뮤니티의 다른 사람들에게 영감을 불어넣습니다.
질문하기:
이제 막 시작하든 노련한 프로든, 커뮤니티와 팀은 어떤 도전에도 기꺼이 지원할 준비가 되어 있습니다.
아이디어 제안: 기능 또는 개선에 대한 아이디어가 있습니까?
알려주세요!
저희는 항상 여러분이 다음에 보고 싶은 것을 듣고 싶어합니다.