Share
Sign In
4️⃣

고급 설정

고급 설정은 사용자가 원하는 모든 프롬프트를 직접 설정하는 기능입니다.
⚠️
주의하세요!
고급 설정을 활성화 하면 Veluga가 제공하는 기본 AI 프롬프트 기능이
비활성화 됩니다.
GPT 모델
기본 설정 처럼 지원하는 모든 모델을 선택할 수 있습니다.
시스템 프롬프트(System Prompt)
정의: 시스템 프롬프트는 GPT API나 다른 자연어 처리 시스템이 내부적으로 생성하거나 사용하는 지시문이나 질문입니다. 이는 주로 모델이 특정 방식으로 응답하도록 유도하기 위해 시스템에 의해 설정되며, 사용자에게는 직접적으로 보이지 않는 경우가 많습니다.
역할: 시스템 프롬프트의 주요 목적은 모델의 반응을 특정 맥락이나 상황에 맞추어 조정하는 것입니다. 예를 들어, 모델이 뉴스 기사를 요약하도록 하거나, 특정 주제에 대한 설명을 제공하도록 설정할 수 있습니다. 이러한 프롬프트는 모델의 출력을 특정 사용 사례나 응용 프로그램에 더 잘 맞게 조정하는 데 사용됩니다.
시스템 프롬프트는 모델이 특정 방식으로 응답하도록 내부적으로 설정된 지시문이며, 주로 모델의 출력을 조정하는 데 사용됩니다.
사용자 프롬프트(User Prompt)
정의: 사용자 프롬프트는 사용자가 모델에 입력하는 질문이나 지시문입니다. 이는 사용자의 의도, 질문, 명령 등을 모델에 전달하기 위해 사용됩니다. 사용자 프롬프트는 모델과의 직접적인 상호작용에서 출발점이 됩니다.
역할: 사용자 프롬프트는 모델에게 사용자가 원하는 정보나 작업을 명확하게 전달하는 역할을 합니다. 이를 통해 모델은 제공된 프롬프트에 기반하여 적절한 응답을 생성할 수 있습니다. 사용자 프롬프트의 정확성과 명확성은 모델의 응답 품질에 직접적인 영향을 미치므로, 사용자는 자신의 요구사항을 분명히 전달하기 위해 노력해야 합니다.
사용자 프롬프트는 사용자가 모델에게 전달하는 질문이나 지시문으로, 사용자의 의도를 모델에게 명확하게 전달하는 역할을 합니다.
Temperature(온도)
온도는 출력의 무작위성을 제어합니다. 온도가 낮을수록 모델은 높은 확률의 단어를 선택할 가능성이 커지며, 결과적으로 예측 가능한 결과가 생성됩니다. 반면, 온도가 높아지면 응답에서의 무작위성과 창의성이 증가합니다.
💡
여러분들을 위한 꿀팁!
예측 가능한 답변을 원하는 경우, 낮게 창의적이고 무작위성을 원하면 높게 설정하세요.
Maximum Length (필수)
최대 길이는 모델이 출력에서 생성할 수 있는 토큰(단어 또는 단어의 일부)의 최대 수를 설정합니다. 응답의 길이를 제한하여 지나치게 긴 출력을 방지합니다.
💡
여러분들을 위한 꿀팁!
답변의 길이를 정하는 최대 값을 설정합니다.
한글 기준 한 글자는 2 토큰을 사용한다고 가정하세요!
영어는 1 토큰을 알파벳 4자로 계산하세요.
추천 토큰 수 1000 토큰
최대 2000 토큰 이하로 설정을 권장합니다.

Frequency Penalty
빈도 패널티는 모델이 같은 단어나 구문을 반복할 가능성을 줄여줍니다. 이를 통해 텍스트 내에서의 다양성이 증가합니다. 패널티가 높을수록 반복될 가능성이 낮아집니다.
💡
여러분들을 위한 꿀팁!
대부분의 경우 사용하지 않습니다.
Presence Penalty
존재 패널티는 모델이 이미 언급한 정보나 주제를 반복하는 것을 억제합니다. 콘텐츠의 반복을 패널티하여 콘텐츠를 신선하고 다양하게 유지하는 데 도움을 줍니다.
💡
여러분들을 위한 꿀팁!
대부분의 경우 사용하지 않습니다.
Top P
모델이 확률 분포의 상위 P%에서 단어를 생성하는 것에 집중하게 하는 방법입니다. 이는 다양성을 허용하면서도 보다 가능성 높은 단어에 집중함으로써 창의성과 일관성 사이의 균형을 돕습니다.
💡
여러분들을 위한 꿀팁!
Temperature(온도)를 대신하여 사용할 수 있습니다. 온도와 함께 사용하는 경우가 있지만 "온도" 설정을 사용하는 경우 기본 값을 그대로 두고 사용합니다.
지난 메세지 포함
벨루가의 채팅은 기본적으로 직전 대화 내용 한쌍을 사용합니다.
만약 사용자가 필요로 하는 목적에 따라서 이전 대화 내용을 사용하는 것이 중요한 경우 값을 높여 사용하시기 바랍니다.
⚠️
주의하세요!
AI 모델은 토큰이라는 단위를 이용하여 처리할 수 있는 크기가 정해져 있습니다.
지난 메세지 설정을 최대값을 설정하더라도 모델 또는 학습 + 프롬프트 등 전체 사용하는 토큰의 크기가 모델이 허용하는 최대 값을 초과 하는 경우 모든 메세지가 반영되지 않을 수도 있습니다.

Top K
Top K 는 여러가지 의미로 사용될 수 있습니다.
벨루가의 Top K는 학습한 문서에서 사용자의 질문을 토대로 찾아오는 검색 결과의 수 입니다.
답변을 검색 했을 때 유사한 결과를 몇 개까지 가져올지 나타내는 값 입니다.
⚠️
주의하세요!
AI 모델은 토큰이라는 단위를 이용하여 처리할 수 있는 크기가 정해져 있습니다.
학습한 문서 단위가 큰 경우 Top K 설정 숫자가 높아도 모두 사용하지 못할 수 있습니다.

© Veluga Inc. All Rights Reserved.