OpenAI 텍스트 작업#
이 작업을 사용하여 OpenAI에서 모델에 메시지를 보내거나 텍스트의 위반 사항을 분류합니다. OpenAI 노드 자체에 대한 자세한 내용은 OpenAI를 참조하세요.
모델에 메시지 보내기#
이 작업을 사용하여 OpenAI 모델에 메시지나 프롬프트를 보내고 응답을 받을 수 있습니다.
다음 매개변수를 입력하세요:
- 연결할 자격 증명: 기존의 OpenAI 자격 증명을 생성하거나 선택합니다.
- 리소스: 텍스트를 선택합니다.
- 작업: 모델에 메시지 보내기를 선택합니다.
- 모델: 사용하려는 모델을 선택합니다. 어떤 모델을 사용할지 확실하지 않다면, 높은 지능이 필요한 경우
gpt-4o
를 사용하거나, 가장 빠른 속도와 저렴한 비용이 필요한 경우gpt-4o-mini
를 시도하세요. 자세한 내용은 모델 개요 | OpenAI 플랫폼를 참조하세요. - 메시지: 텍스트 프롬프트를 입력하고 모델이 응답을 생성하는 데 사용할 역할을 지정합니다. 더 나은 프롬프트를 작성하는 방법에 대한 자세한 내용은 프롬프트 엔지니어링 | OpenAI를 참조하세요. 다음 역할 중 하나를 선택하세요:
- 사용자: 사용자로서 메시지를 보내고 모델로부터 응답을 받습니다.
- 어시스턴트: 모델에게 특정 톤이나 성격을 가지도록 지시합니다.
- 시스템: 기본적으로 시스템 메시지는
"You are a helpful assistant"
입니다. 사용자 메시지에 지시 사항을 정의할 수 있지만, 시스템 메시지에 설정된 지시 사항이 더 효과적입니다. 대화당 시스템 메시지는 하나만 설정할 수 있습니다. 이를 사용하여 모델의 행동이나 다음 사용자 메시지에 대한 맥락을 설정하세요.
- 출력 단순화: 활성화하여 원시 데이터 대신 응답의 단순화된 버전을 반환합니다.
- 출력 콘텐츠를 JSON으로: 활성화하여 응답을 JSON 형식으로 반환하려고 시도합니다.
GPT-4 Turbo
및 모든GPT-3.5 Turbo
모델 중gpt-3.5-turbo-1106
보다 최신 모델과 호환됩니다.
옵션#
- 빈도 패널티: 모델이 유사한 문장을 반복할 경향을 줄이기 위해 패널티를 적용합니다. 범위는
0.0
에서2.0
입니다. - 최대 토큰 수: 응답에 대한 최대 토큰 수를 설정합니다. 한 토큰은 표준 영어 텍스트의 경우 대략 네 글자입니다. 출력을 제한하는 데 사용합니다.
- 완료 수: 기본값은 1입니다. 각 프롬프트에 대해 생성할 완료 수를 설정합니다. 높은 수치를 설정할 경우 신중하게 사용해야 하며, 이는 빠르게 토큰을 소모할 수 있습니다.
- 존재 패널티: 모델이 새로운 주제를 논의하도록 영향을 주기 위해 패널티를 적용합니다. 범위는
0.0
에서2.0
입니다. - 출력 무작위성 (온도): 응답의 무작위성을 조정합니다. 범위는
0.0
(결정적)에서1.0
(최대 무작위성)까지입니다. 이를 조정하거나 출력 무작위성 (Top P)를 변경하는 것이 좋지만 두 가지 모두 변경하지는 마세요. 중간 온도(약0.7
)로 시작하여 관찰한 출력에 따라 조정하세요. 응답이 너무 반복적이거나 경직된 경우 온도를 높이세요. 너무 혼란스럽거나 나쁜 방향으로 나아가는 경우 온도를 낮추세요. 기본값은1.0
입니다. - 출력 무작위성 (Top P): 어시스턴트의 응답 다양성을 제어하기 위해 Top P 설정을 조정합니다. 예를 들어,
0.5
는 모든 가능성 있는 옵션의 절반이 고려된다는 의미입니다. 이를 조정하거나 출력 무작위성 (온도)를 변경하는 것이 좋지만 두 가지 모두 변경하지는 마세요. 기본값은1.0
입니다.
자세한 내용은 모델에 메시지 보내기 | OpenAI 설명서를 참조하세요.
위반 사항에 대한 텍스트 분류#
이 작업을 사용하여 유해할 수 있는 내용을 식별하고 플래그를 지정합니다. OpenAI 모델이 텍스트를 분석하고 다음 정보를 포함하는 응답을 반환합니다:
flagged
: 콘텐츠가 잠재적으로 유해한지를 나타내는 부울 필드입니다.categories
: 카테고리별 위반 플래그 목록입니다.category_scores
: 각 카테고리에 대한 점수입니다.
다음 매개변수를 입력하세요:
- 연결할 자격 증명: 기존 OpenAI 자격 증명을 생성하거나 선택합니다.
- 리소스: 텍스트를 선택합니다.
- 작업: 위반 사항에 대한 텍스트 분류를 선택합니다.
- 텍스트 입력: 중재 정책을 위반하는지 분류할 텍스트를 입력합니다.
- 출력 단순화: 원시 데이터 대신 응답의 단순화된 버전을 반환하도록 설정합니다.
옵션#
- 안정적인 모델 사용: 최신 버전 대신 안정적인 모델 버전을 사용하려면 켭니다. 정확도가 약간 낮을 수 있습니다.
자세한 정보는 Moderations | OpenAI 문서를 참조하세요.
일반적인 문제#
일반적인 오류나 문제 및 제안된 해결 단계를 보려면 일반 문제를 참조하세요.