# n8n 셀프 호스팅 가이드

- (주의*) 셀프호스팅시 기술적인 요구사항이 필요합니다. 서버 관리 경험이 어려우신 분들은 n8n Cloud사용을 고려해보면 좋습니다.  그러나 셀프 호스팅을 통해 더 많은 제어와 커스터마이징이 가능하므로, 필요한 기술을 갖추고 있다면 이점이 많을 수 있습니다.

- 혹시나 셀프 호스팅을 하실 분들은 아래 영상을 보시고 만드시면 좋을 것 같습니다! 한글영상!

![평생 공짜인 Make, 재피어? 노코드 자동화 n8n 서버 무료 호스팅](https://youtu.be/kdt5J2bpchM?si=y8KKpkjTbOv_B4tT)

## **기술적 요구사항**

1. **서버 및 컨테이너 관리**: 서버와 컨테이너 설정, 구성에 대한 지식이 필요합니다.

2. **리소스 관리**: 애플리케이션 리소스 관리 및 스케일링 능력이 요구됩니다.

3. **보안**: 서버 및 애플리케이션 보안에 대한 이해가 중요합니다.

4. **n8n 구성**: n8n 자체 설정에 대한 지식이 필요합니다.

---

# 시작하기

# **설치 Installation**

**리포지토리 복제. Cloning the Repository**

- 터미널을 열고 아래 내용을 복사하고 실행.

```
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
```

**도커 컴포즈로 n8n 실행하기. Running n8n using Docker Compose**

**NVIDIA GPU 사용자. For Nvidia GPU users**

```
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up
```

**Mac / Apple 실리콘 사용자**

M1 이상의 프로세서가 탑재된 Mac을 사용하는 경우 안타깝게도 GPU를 도커 인스턴스에 노출할 수 없습니다. 이 경우 두 가지 옵션이 있습니다:

1. 아래 "다른 모든 사용자를 위해" 섹션과 같이 스타터 키트를 CPU에서 완전히 실행합니다.

2. 더 빠른 추론을 위해 Mac에서 Ollama를 실행하고 n8n 인스턴스에서 연결합니다.

Mac에서 Ollama를 실행하려면 [Ollama 홈페이지](https://ollama.com/)에서 설치 지침을 확인하고 다음과 같이 스타터 키트를 실행합니다:

```
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose up
```

아래의 빠른 시작 설정을 따랐다면 다음을 사용하여 Ollama 자격 증명을 변경합니다. `[http://host.docker.internal:11434/](http://host.docker.internal:11434/)` 호스트로서.

[http://host.docker.internal:11434/](http://host.docker.internal:11434/)

모두를 위한 방법.

```
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile cpu up
```

# **⚡ ️ 빠른 시작 및 사용 방법**

셀프 호스팅 AI 스타터 키트의 핵심은 네트워크 및 스토리지 설정으로 사전 구성된 도커 컴포지트 파일로, 추가 설치의 필요성을 최소화합니다. 위의 설치 단계를 완료한 후 아래 단계를 따라 시작하기만 하면 됩니다.

1. 브라우저에서 [http://localhost:5678/](http://localhost:5678/)을 열어 n8n을 설정합니다.

이 작업은 한 번만 수행하면 됩니다.

2. 포함된 워크플로를 엽니다: [http://localhost:5678/workflow/srOnR8PAY3u4RSWB](http://localhost:5678/workflow/srOnR8PAY3u4RSwb)

3. **워크플로 테스트**를 선택하여 워크플로 실행을 시작합니다.

4. 워크플로를 처음 실행하는 경우 Ollama가 Lama3.1 다운로드를 완료할 때까지 기다려야 할 수도 있습니다.

도커 콘솔 로그를 검사하여 진행 상황을 확인할 수 있습니다.

- 언제든지 n8n을 열려면 브라우저에서 [http://localhost:5678/](http://localhost:5678/)을 방문하세요.

- n8n 인스턴스를 사용하면 400개 이상의 통합과 [AI 에이전트](https://docs.n8n.io/integrations/builtin/cluster-nodes/root-nodes/n8n-nodes-langchain.agent/), [텍스트 분류기](https://docs.n8n.io/integrations/builtin/cluster-nodes/root-nodes/n8n-nodes-langchain.text-classifier/), [정보 추출기](https://docs.n8n.io/integrations/builtin/cluster-nodes/root-nodes/n8n-nodes-langchain.information-extractor/) 노드와 같은 기본 및 고급 AI 노드에 액세스할 수 있습니다. 모든 것을 로컬로 유지하려면 언어 모델에 Ollama 노드를 사용하고 벡터 스토어에 Qdrant를 사용하는 것을 잊지 마세요.

- 메모

    - 이 스타터 키트는 자체 호스팅 AI 워크플로를 시작하는 데 도움이 되도록 설계되었습니다. 프로덕션 환경에 완전히 최적화되지는 않았지만 개념 증명 프로젝트에서 잘 작동하는 강력한 구성 요소를 결합했습니다. 특정 요구 사항에 맞게 사용자 지정할 수 있습니다.

# **👓 권장 자료**

n8n은 AI 개념과 노드를 빠르게 시작하는 데 유용한 콘텐츠로 가득합니다. 문제가 발생하면 [지원](https://github.com/n8n-io/self-hosted-ai-starter-kit?tab=readme-ov-file#support) 센터로 이동합니다.

- [개발자를 위한 AI 에이전트: n8n으로 이론부터 실무까지](https://blog.n8n.io/ai-agents/)

- [튜토리얼: n8n에서 AI 워크플로 구축](https://docs.n8n.io/advanced-ai/intro-tutorial/)

- [n8n의 랭체인 개념](https://docs.n8n.io/advanced-ai/langchain/langchain-n8n/)

- [에이전트와 체인 간의 주요 차이점 시연](https://docs.n8n.io/advanced-ai/examples/agent-chain-comparison/)

- [벡터 데이터베이스란 무엇인가요?](https://docs.n8n.io/advanced-ai/examples/understand-vector-databases/)

# **🎥 비디오 워크스루**

- [n8n용 로컬 AI 설치 및 사용](https://www.youtube.com/watch?v=xz_X2N-hPg0)

# **🛍 ️ 더 많은 AI 템플릿**

더 많은 AI 워크플로 아이디어를 보려면 **[공식 n8n AI 템플릿 갤러리](https://n8n.io/workflows/?categories=AI)**를 방문하세요. 각 워크플로에서 **워크플로 사용** 버튼을 선택하여 로컬 n8n 인스턴스로 워크플로를 자동으로 가져옵니다.

### **AI 주요 개념 학습**

- [AI 에이전트 채팅](https://n8n.io/workflows/1954-ai-agent-chat/)

- [모든 데이터 소스와 AI 채팅(n8n 워크플로도 사용)](https://n8n.io/workflows/2026-ai-chat-with-any-data-source-using-the-n8n-workflow-tool/)

- [열기로 채팅하기AI 어시스턴트(메모리 추가)](https://n8n.io/workflows/2098-chat-with-openai-assistant-by-adding-a-memory/)

- [오픈 소스 LLM 사용(허깅 페이스를 통해)](https://n8n.io/workflows/1980-use-an-open-source-llm-via-huggingface/)

- [AI(출처 인용)를 사용하여 PDF 문서와 채팅하기](https://n8n.io/workflows/2165-chat-with-pdf-docs-using-ai-quoting-sources/)

- [웹페이지를 스크랩할 수 있는 AI 에이전트](https://n8n.io/workflows/2006-ai-agent-that-can-scrape-webpages/)

### **로컬 AI 템플릿**

- [세법 어시스턴트](https://n8n.io/workflows/2341-build-a-tax-code-assistant-with-qdrant-mistralai-and-openai/)

- [미스트랄을 사용하여 문서를 학습 노트로 분해하기AI 및 쿼드런트](https://n8n.io/workflows/2339-breakdown-documents-into-study-notes-using-templating-mistralai-and-qdrant/)

- [Qdrant를 사용하는 재무 문서 어시스턴트 및](https://n8n.io/workflows/2335-build-a-financial-documents-assistant-using-qdrant-and-mistralai/) [Mistral.ai](http://mistral.ai/)

- [쿼드런트와 미스트랄을 사용한 레시피 추천](https://n8n.io/workflows/2333-recipe-recommendations-with-qdrant-and-mistral/)

# **팁 및 요령**

### **로컬 파일 액세스**

자체 호스팅 AI 스타터 키트는 n8n 컨테이너에 장착되고 n8n이 디스크의 파일에 액세스할 수 있는 공유 폴더(기본적으로 동일한 디렉토리에 위치)를 생성합니다. n8n 컨테이너 내의 이 폴더는 다음 위치에 있습니다. `/data/shared` -- 로컬 파일 시스템과 상호 작용하는 노드에서 사용해야 하는 경로입니다.

### **로컬 파일 시스템과 상호 작용하는 노드**

- [디스크에서 파일 읽기/쓰기](https://docs.n8n.io/integrations/builtin/core-nodes/n8n-nodes-base.filesreadwrite/)

- [로컬 파일 트리거](https://docs.n8n.io/integrations/builtin/core-nodes/n8n-nodes-base.localfiletrigger/)

- [명령 실행](https://docs.n8n.io/integrations/builtin/core-nodes/n8n-nodes-base.executecommand/)

# **📜 라이선스**

이 프로젝트는 Apache 라이선스 2.0에 따라 라이선스가 부여됩니다. 자세한 내용은 [라이선스](https://github.com/n8n-io/self-hosted-ai-starter-kit/blob/main/LICENSE) 파일을 참조하세요.

# **💬 지원**

가능한 경우 [n8n 포럼](https://community.n8n.io/)에서 대화에 참여하세요:

- **업무 공유**: n8n으로 구축한 것을 과시하고 커뮤니티의 다른 사람들에게 영감을 불어넣습니다.

- **질문**하기:

이제 막 시작하든 노련한 프로든, 커뮤니티와 팀은 어떤 도전에도 기꺼이 지원할 준비가 되어 있습니다.

- **아이디어 제안**: 기능 또는 개선에 대한 아이디어가 있습니까?

알려주세요!

저희는 항상 여러분이 다음에 보고 싶은 것을 듣고 싶어합니다.

[https://slashpage.com/n8n-guide/5r398nmn9zgg82vwje7y](https://slashpage.com/n8n-guide/5r398nmn9zgg82vwje7y)

For the site tree, see the [root Markdown](https://slashpage.com/n8n-guide.md).
