AI가 적절한 답변을 찾지 못하거나 답변을 가지고 있지 않을 때 어떻게 응답할지 결정하는 설정입니다.
1.
답을 찾게 재질문하기
2.
정보없음으로 대답하기
2. 벨루가 AI 설정
AI 모델
현재 지원하는 AI 모델을 선택할 수 있습니다.
[지원하는 모델 종류]
•
Claude 3.5 HaikuCluade 3.5 Sonnet Claude 3.7 Sonnet DeepSeek-R1-Distill-Llama Gemini 1.5 Flash Gemini 1.5 Pro Gemini 2.0 Gemini 2.0 Flash Gemini 2.5 PRO PREVIEW GPT 4.1 GPT 4.1 mini GPT 4.1 nano GPT 4.5 GPT 4o GPT 4o 16K GPT 4o mini o1 mini o1 preview o3 mini high o3 mini medium Solar Mini Solar Pro 하이퍼 클로바 (베타)
선택한 모델에 따라서 같은 질문에 대하여 답변이 다르게 바뀔 수 있으며, 차감 되는 채팅 요청 수가 달라질 수 있습니다.
대화스타일
1.
사실 기반
2.
창의적
3.
사실 및 창의성 모두
말투
답변하는 내용에 대하여 글의 스타일를 결정합니다.
1.
정중 + 상세
2.
정중 + 간단
3.
친근 + 상세
4.
친근 + 간단
3. AI 고급설정
고급 설정은 사용자가 원하는 모든 프롬프트를 직접 설정하는 기능입니다.
주의하세요! 고급 설정을 활성화 하면 Veluga가 제공하는 기본 AI 프롬프트 기능이 비활성화 됩니다.
GPT 모델
해당하는 플랜별로 지원하는 모든 모델을 선택할 수 있습니다.
시스템 프롬프트(System Prompt)
•
정의: 시스템 프롬프트는 GPT API나 다른 자연어 처리 시스템이 내부적으로 생성하거나 사용하는 지시문이나 질문입니다. 이는 주로 모델이 특정 방식으로 응답하도록 유도하기 위해 시스템에 의해 설정되며, 사용자에게는 직접적으로 보이지 않는 경우가 많습니다.
•
역할: 시스템 프롬프트의 주요 목적은 모델의 반응을 특정 맥락이나 상황에 맞추어 조정하는 것입니다. 예를 들어, 모델이 뉴스 기사를 요약하도록 하거나, 특정 주제에 대한 설명을 제공하도록 설정할 수 있습니다. 이러한 프롬프트는 모델의 출력을 특정 사용 사례나 응용 프로그램에 더 잘 맞게 조정하는 데 사용됩니다.
시스템 프롬프트는 모델이 특정 방식으로 응답하도록 내부적으로 설정된 지시문이며, 주로 모델의 출력을 조정하는 데 사용됩니다.
사용자 프롬프트(User Prompt)
•
정의: 사용자 프롬프트는 사용자가 모델에 입력하는 질문이나 지시문입니다. 이는 사용자의 의도, 질문, 명령 등을 모델에 전달하기 위해 사용됩니다. 사용자 프롬프트는 모델과의 직접적인 상호작용에서 출발점이 됩니다.
•
역할: 사용자 프롬프트는 모델에게 사용자가 원하는 정보나 작업을 명확하게 전달하는 역할을 합니다. 이를 통해 모델은 제공된 프롬프트에 기반하여 적절한 응답을 생성할 수 있습니다. 사용자 프롬프트의 정확성과 명확성은 모델의 응답 품질에 직접적인 영향을 미치므로, 사용자는 자신의 요구사항을 분명히 전달하기 위해 노력해야 합니다.
사용자 프롬프트는 사용자가 모델에게 전달하는 질문이나 지시문으로, 사용자의 의도를 모델에게 명확하게 전달하는 역할을 합니다.
Temperature(온도)
온도는 출력의 무작위성을 제어합니다. 온도가 낮을수록 모델은 높은 확률의 단어를 선택할 가능성이 커지며, 결과적으로 예측 가능한 결과가 생성됩니다. 반면, 온도가 높아지면 응답에서의 무작위성과 창의성이 증가합니다.
여러분들을 위한 꿀팁! 예측 가능한 답변을 원하는 경우, 낮게 창의적이고 무작위성을 원하면 높게 설정하세요.
Maximum Length (필수)
최대 길이는 모델이 출력에서 생성할 수 있는 토큰(단어 또는 단어의 일부)의 최대 수를 설정합니다. 응답의 길이를 제한하여 지나치게 긴 출력을 방지합니다.
여러분들을 위한 꿀팁! 답변의 길이를 정하는 최대 값을 설정합니다. 한글 기준 한 글자는 2 토큰을 사용한다고 가정하세요! 영어는 1 토큰을 알파벳 4자로 계산하세요. 추천 토큰 수 1000 토큰 최대 2000 토큰 이하로 설정을 권장합니다.
Frequency Penalty
빈도 패널티는 모델이 같은 단어나 구문을 반복할 가능성을 줄여줍니다. 이를 통해 텍스트 내에서의 다양성이 증가합니다. 패널티가 높을수록 반복될 가능성이 낮아집니다.
여러분들을 위한 꿀팁! 대부분의 경우 사용하지 않습니다.
Presence Penalty
존재 패널티는 모델이 이미 언급한 정보나 주제를 반복하는 것을 억제합니다. 콘텐츠의 반복을 패널티하여 콘텐츠를 신선하고 다양하게 유지하는 데 도움을 줍니다.
여러분들을 위한 꿀팁! 대부분의 경우 사용하지 않습니다.
Top P
모델이 확률 분포의 상위 P%에서 단어를 생성하는 것에 집중하게 하는 방법입니다. 이는 다양성을 허용하면서도 보다 가능성 높은 단어에 집중함으로써 창의성과 일관성 사이의 균형을 돕습니다.
여러분들을 위한 꿀팁! Temperature(온도)를 대신하여 사용할 수 있습니다. 온도와 함께 사용하는 경우가 있지만 "온도" 설정을 사용하는 경우 기본 값을 그대로 두고 사용합니다.
지난 메세지 포함
벨루가의 채팅은 기본적으로 직전 대화 내용 한쌍을 사용합니다.
만약 사용자가 필요로 하는 목적에 따라서 이전 대화 내용을 사용하는 것이 중요한 경우 값을 높여 사용하시기 바랍니다.
주의하세요! AI 모델은 토큰이라는 단위를 이용하여 처리할 수 있는 크기가 정해져 있습니다. 지난 메세지 설정을 최대값을 설정하더라도 모델 또는 학습 + 프롬프트 등 전체 사용하는 토큰의 크기가 모델이 허용하는 최대 값을 초과 하는 경우 모든 메세지가 반영되지 않을 수도 있습니다.
Top K
Top K 는 여러가지 의미로 사용될 수 있습니다.
벨루가의 Top K는 학습한 문서에서 사용자의 질문을 토대로 찾아오는 검색 결과의 수 입니다.
답변을 검색 했을 때 유사한 결과를 몇 개까지 가져올지 나타내는 값 입니다.
주의하세요! AI 모델은 토큰이라는 단위를 이용하여 처리할 수 있는 크기가 정해져 있습니다. 학습한 문서 단위가 큰 경우 Top K 설정 숫자가 높아도 모두 사용하지 못할 수 있습니다.