# AI 설정

# 1. 공통 설정

> 채팅답변언어

- AI가 답변할언어를 설정합니다.

- 자동 및 다양한 언어를 선택할수 있습니다. 

> 플러그인

**대화 의도 파악하기**

- AI가 사용자의 **의도를 파악**해 **자연스러운 대화**를 할수 있어요.

    - **구 단답형 템플릿**의 경우 **비활성화 상태**에요.

**구체적인 질문 유도**

- 사용자의 질문이 너무 짧거나 모호할 때, AI가 먼저 되묻거나 예시를 제안해 줍니다.

**이미지 생성**

- AI가 텍스트 설명을 바탕으로 이미지를 생성해주는 기능입니다.

**추론적 사고**

- AI가 단순히 문장 그대로 검색해서 답변하는 수준을 넘어서, 여러 정보를 종합해 추론·해석·비교하는 기능입니다.

> 답변을 찾지 못할 때

AI가 적절한 답변을 찾지 못하거나 답변을 가지고 있지 않을 때 어떻게 응답할지 결정하는 설정입니다. 

1. **답을 찾게 재질문하기**

2. **정보없음으로 대답하기**

# 2. 벨루가 AI 설정

> AI 모델

현재 지원하는 AI 모델을 선택할 수 있습니다. 

**[지원하는 모델 종류]**

[https://slashpage.com/velugadoc/v-credit](https://slashpage.com/velugadoc/v-credit) 해당 링크를 참고하세요

> 선택한 모델에 따라서 같은 질문에 대하여 답변이 다르게 바뀔 수 있으며, 차감 되는 채팅 요청 수가 달라질 수 있습니다.

> 대화스타일

1. **사실 기반**

2. **창의적**

3. **사실 및 창의성 모두**

> 말투

답변하는 내용에 대하여 글의 스타일를 결정합니다. 

1. **정중 + 상세**

2. **정중 + 간단**

3. **친근 + 상세**

4. **친근 + 간단**

# 3. AI 고급설정

고급 설정은 사용자가 원하는 모든 프롬프트를 직접 설정하는 기능입니다.

![Image](https://upload.cafenono.com/image/slashpageHome/20250423/173909_J91OpgEM5QeThwyFpf?q=80&s=1280x180&t=outside&f=webp)

> 주의하세요!
고급 설정을 활성화 하면 Veluga가 제공하는 기본 AI 프롬프트 기능이 비활성화 됩니다.

### GPT 모델

해당하는 플랜별로 지원하는 모든 모델을 선택할 수 있습니다.

![Image](https://upload.cafenono.com/image/slashpageHome/20250423/175221_AVTjgMOFVijQnuqFfh?q=80&s=1280x180&t=outside&f=webp)

### 시스템 프롬프트(System Prompt)

- **정의:** 시스템 프롬프트는 GPT API나 다른 자연어 처리 시스템이 내부적으로 생성하거나 사용하는 지시문이나 질문입니다. 이는 주로 모델이 특정 방식으로 응답하도록 유도하기 위해 시스템에 의해 설정되며, 사용자에게는 직접적으로 보이지 않는 경우가 많습니다.

- **역할:** 시스템 프롬프트의 주요 목적은 모델의 반응을 특정 맥락이나 상황에 맞추어 조정하는 것입니다. 예를 들어, 모델이 뉴스 기사를 요약하도록 하거나, 특정 주제에 대한 설명을 제공하도록 설정할 수 있습니다. 이러한 프롬프트는 모델의 출력을 특정 사용 사례나 응용 프로그램에 더 잘 맞게 조정하는 데 사용됩니다.

**시스템 프롬프트**는 모델이 특정 방식으로 응답하도록 내부적으로 설정된 지시문이며, 주로 모델의 출력을 조정하는 데 사용됩니다.

![Image](https://upload.cafenono.com/image/slashpageHome/20250423/175627_vtj6hvx6Wc8veIHhVt?q=80&s=1280x180&t=outside&f=webp)

### 사용자 프롬프트(User Prompt)

- **정의:** 사용자 프롬프트는 사용자가 모델에 입력하는 질문이나 지시문입니다. 이는 사용자의 의도, 질문, 명령 등을 모델에 전달하기 위해 사용됩니다. 사용자 프롬프트는 모델과의 직접적인 상호작용에서 출발점이 됩니다.

- **역할:** 사용자 프롬프트는 모델에게 사용자가 원하는 정보나 작업을 명확하게 전달하는 역할을 합니다. 이를 통해 모델은 제공된 프롬프트에 기반하여 적절한 응답을 생성할 수 있습니다. 사용자 프롬프트의 정확성과 명확성은 모델의 응답 품질에 직접적인 영향을 미치므로, 사용자는 자신의 요구사항을 분명히 전달하기 위해 노력해야 합니다.

**사용자 프롬프트**는 사용자가 모델에게 전달하는 질문이나 지시문으로, 사용자의 의도를 모델에게 명확하게 전달하는 역할을 합니다.

### Temperature(온도)

온도는 출력의 무작위성을 제어합니다. 온도가 낮을수록 모델은 높은 확률의 단어를 선택할 가능성이 커지며, 결과적으로 예측 가능한 결과가 생성됩니다. 반면, 온도가 높아지면 응답에서의 무작위성과 창의성이 증가합니다.

> 여러분들을 위한 꿀팁!
예측 가능한 답변을 원하는 경우, 낮게 창의적이고 무작위성을 원하면 높게 설정하세요.

### Maximum Length (필수)

최대 길이는 모델이 출력에서 생성할 수 있는 토큰(단어 또는 단어의 일부)의 최대 수를 설정합니다. 응답의 길이를 제한하여 지나치게 긴 출력을 방지합니다.

> 여러분들을 위한 꿀팁!
답변의 길이를 정하는 최대 값을 설정합니다.
한글 기준 한 글자는 2 토큰을 사용한다고 가정하세요!
영어는 1 토큰을 알파벳 4자로 계산하세요.
추천 토큰 수 1000 토큰
최대 2000 토큰 이하로 설정을 권장합니다.

### Frequency Penalty

빈도 패널티는 모델이 같은 단어나 구문을 반복할 가능성을 줄여줍니다. 이를 통해 텍스트 내에서의 다양성이 증가합니다. 패널티가 높을수록 반복될 가능성이 낮아집니다.

> 여러분들을 위한 꿀팁!
대부분의 경우 사용하지 않습니다.

### Presence Penalty

존재 패널티는 모델이 이미 언급한 정보나 주제를 반복하는 것을 억제합니다. 콘텐츠의 반복을 패널티하여 콘텐츠를 신선하고 다양하게 유지하는 데 도움을 줍니다.

> 여러분들을 위한 꿀팁!
대부분의 경우 사용하지 않습니다.

### Top P

모델이 확률 분포의 상위 P%에서 단어를 생성하는 것에 집중하게 하는 방법입니다. 이는 다양성을 허용하면서도 보다 가능성 높은 단어에 집중함으로써 창의성과 일관성 사이의 균형을 돕습니다.

> 여러분들을 위한 꿀팁!
Temperature(온도)를 대신하여 사용할 수 있습니다. 온도와 함께 사용하는 경우가 있지만 "온도" 설정을 사용하는 경우 기본 값을 그대로 두고 사용합니다.

### 지난 메세지 포함

벨루가의 채팅은 기본적으로 직전 대화 내용 한쌍을 사용합니다.

만약 사용자가 필요로 하는 목적에 따라서 이전 대화 내용을 사용하는 것이 중요한 경우 값을 높여 사용하시기 바랍니다.

> 주의하세요!
AI 모델은 토큰이라는 단위를 이용하여 처리할 수 있는 크기가 정해져 있습니다.
지난 메세지 설정을 최대값을 설정하더라도 모델 또는 학습 + 프롬프트 등 전체 사용하는 토큰의 크기가 모델이 허용하는 최대 값을 초과 하는 경우 모든 메세지가 반영되지 않을 수도 있습니다. 

### Top K

Top K 는 여러가지 의미로 사용될 수 있습니다.

벨루가의 Top K는 학습한 문서에서 사용자의 질문을 토대로 찾아오는 검색 결과의 수 입니다.

답변을 검색 했을 때 유사한 결과를 몇 개까지 가져올지 나타내는 값 입니다.

> 주의하세요!
AI 모델은 토큰이라는 단위를 이용하여 처리할 수 있는 크기가 정해져 있습니다.
학습한 문서 단위가 큰 경우 Top K 설정 숫자가 높아도 모두 사용하지 못할 수 있습니다.

For the site tree, see the [root Markdown](https://slashpage.com/velugadoc.md).
