N8nセルフホスティングガイド

(注意*)セルフホスティングには技術的な要件が必要です。サーバー管理の経験が難しい人は、N8n Cloudの使用を検討してください。しかし、セルフホスティングにより、より多くの制御とカスタマイズが可能になるため、必要なスキルを備えている場合は多くの利点があります。
もしかしたらセルフホスティングをしている方は下の映像をご覧になればいいと思います!ハングルビデオ!

技術的要件

1.
サーバーとコンテナの管理:サーバーとコンテナの設定、構成に関する知識が必要です。
2.
リソース管理:アプリケーションリソース管理とスケーリング能力が必要です。
3.
セキュリティ: サーバーとアプリケーションのセキュリティを理解することが重要です。
4.
N8n 構成: n8n 独自の設定に関する知識が必要です。

始める

インストール Installation

リポジトリの複製。 Cloning the Repository
端末を開き、以下の内容をコピーして実行します。
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git cd self-hosted-ai-starter-kit
ドッカーコンポーズでN8nを実行します。 Running n8n using Docker Compose
NVIDIA GPUユーザー。 For Nvidia GPU ユーザー
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git cd self-hosted-ai-starter-kit docker compose --profile gpu-nvidia up
Mac / Appleシリコンユーザー
M1以上のプロセッサが搭載されたMacを使用している場合、残念ながらGPUをDockerインスタンスに公開することはできません。
1.
以下の「他のすべてのユーザーのために」セクションのように、スターターキットをCPUで完全に実行します。
2.
より速い推論のために、MacでOllamaを実行し、n8nインスタンスから接続します。
MacでOllamaを実行するには、 Ollamaのホームページでインストール手順を確認し、次のようにスターターキットを実行します。
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git cd self-hosted-ai-starter-kit docker compose up
以下のクイックスタート設定に従った場合は、次を使用してOllama資格情報を変更します。 http://host.docker.internal:11434/ホストとして。
皆のための方法。
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git cd self-hosted-ai-starter-kit docker compose --profile cpu up

⚡️クイックスタートと使い方

セルフホスティングAIスターターキットの中核は、ネットワークとストレージの設定で事前設定されたドッカーコンポジットファイルで、追加のインストールの必要性を最小限に抑えます。上記のインストール手順を完了したら、次の手順に従って起動するだけです。
1.
ブラウザでhttp://localhost:5678/を開き、n8nを設定します。
これは一度だけ実行できます。
2.
埋め込みワークフローを開きます: _____ T7413_____
3.
ワークフローテストを選択してワークフローの実行を開始します。
4.
ワークフローを初めて実行する場合は、OllamaがLama3.1のダウンロードを完了するのを待つ必要があるかもしれません。
Dockerコンソールのログを調べて、進捗状況を確認できます。
いつでもN8nを開くには、ブラウザでhttp://localhost:5678/にアクセスしてください。
N8nインスタンスを使用すると、400以上の統合とAIエージェントテキスト分類器情報抽出ノードなどの基本および高度なAIノードにアクセスできます。すべてをローカルに保つには、言語モデルにOllamaノードを使用し、ベクトルストアにQdrantを使用することを忘れないでください。
メモ
このスターターキットは、独自のホスティングAIワークフローを開始するのに役立つように設計されています。実稼働環境に完全に最適化されていませんが、概念実証プロジェクトでうまく機能する強力なコンポーネントを組み合わせました。特定の要件に合わせてカスタマイズできます。

👓推奨資料

N8nはAIの概念とノードを素早く起動するのに役立つコンテンツでいっぱいです。問題が発生した場合は、 サポートセンターに進みます。

🎥ビデオワークスルー

🛍️もっとAIテンプレート

さらにAIワークフローのアイデアについては、 公式n8n AIテンプレートギャラリーをご覧ください。各ワークフローで[ワークフローを使用]ボタンを選択して、ローカルのn8nインスタンスにワークフローを自動的にインポートします。

AI主な概念学習

ローカルAIテンプレート

ヒントとコツ

ローカルファイルアクセス

自己ホスト型AIスターターキットはn8nコンテナにマウントされ、n8nがディスク上のファイルにアクセスできる共有フォルダ(デフォルトでは同じディレクトリにあります)を作成します。 n8nコンテナ内のこのフォルダは、次の場所にあります。 /data/shared - ローカルファイルシステムと対話するノードで使用する必要があるパス。

ローカルファイルシステムと対話するノード

📜ライセンス

このプロジェクトは、Apacheライセンス2.0に従ってライセンスされています。詳しくはライセンスファイルをご覧ください。

💬 サポート

可能であれば、 N8nフォーラムで会話に参加してください。
ワークシェアリング:N8nで構築したことを誇示し、コミュニティの他の人にインスピレーションを与えます。
質問する:
今始まったばかり、熟練したプロであれ、コミュニティとチームはどんな挑戦にも喜んで支援する準備ができています。
アイデアの提案:機能や改善のアイデアはありますか?
教えてください!
私たちはいつもあなたが次に見たいことを聞きたいと思います。