콘텐츠로 이동
📣 인포그랩에서 OpenAI 기술 기반으로 자체 개발한 자동화 번역 프로그램을 통해 n8n 공식 문서의 한글판을 국내 최초로 제공합니다.

OpenAI 텍스트 작업#

이 작업을 사용하여 OpenAI에서 모델에 메시지를 보내거나 텍스트의 위반 사항을 분류합니다. OpenAI 노드 자체에 대한 자세한 내용은 OpenAI를 참조하세요.

모델에 메시지 보내기#

이 작업을 사용하여 OpenAI 모델에 메시지나 프롬프트를 보내고 응답을 받을 수 있습니다.

다음 매개변수를 입력하세요:

  • 연결할 자격 증명: 기존의 OpenAI 자격 증명을 생성하거나 선택합니다.
  • 리소스: 텍스트를 선택합니다.
  • 작업: 모델에 메시지 보내기를 선택합니다.
  • 모델: 사용하려는 모델을 선택합니다. 어떤 모델을 사용할지 확실하지 않다면, 높은 지능이 필요한 경우 gpt-4o를 사용하거나, 가장 빠른 속도와 저렴한 비용이 필요한 경우 gpt-4o-mini를 시도하세요. 자세한 내용은 모델 개요 | OpenAI 플랫폼를 참조하세요.
  • 메시지: 텍스트 프롬프트를 입력하고 모델이 응답을 생성하는 데 사용할 역할을 지정합니다. 더 나은 프롬프트를 작성하는 방법에 대한 자세한 내용은 프롬프트 엔지니어링 | OpenAI를 참조하세요. 다음 역할 중 하나를 선택하세요:
    • 사용자: 사용자로서 메시지를 보내고 모델로부터 응답을 받습니다.
    • 어시스턴트: 모델에게 특정 톤이나 성격을 가지도록 지시합니다.
    • 시스템: 기본적으로 시스템 메시지는 "You are a helpful assistant"입니다. 사용자 메시지에 지시 사항을 정의할 수 있지만, 시스템 메시지에 설정된 지시 사항이 더 효과적입니다. 대화당 시스템 메시지는 하나만 설정할 수 있습니다. 이를 사용하여 모델의 행동이나 다음 사용자 메시지에 대한 맥락을 설정하세요.
  • 출력 단순화: 활성화하여 원시 데이터 대신 응답의 단순화된 버전을 반환합니다.
  • 출력 콘텐츠를 JSON으로: 활성화하여 응답을 JSON 형식으로 반환하려고 시도합니다. GPT-4 Turbo 및 모든 GPT-3.5 Turbo 모델 중 gpt-3.5-turbo-1106보다 최신 모델과 호환됩니다.

옵션#

  • 빈도 패널티: 모델이 유사한 문장을 반복할 경향을 줄이기 위해 패널티를 적용합니다. 범위는 0.0에서 2.0입니다.
  • 최대 토큰 수: 응답에 대한 최대 토큰 수를 설정합니다. 한 토큰은 표준 영어 텍스트의 경우 대략 네 글자입니다. 출력을 제한하는 데 사용합니다.
  • 완료 수: 기본값은 1입니다. 각 프롬프트에 대해 생성할 완료 수를 설정합니다. 높은 수치를 설정할 경우 신중하게 사용해야 하며, 이는 빠르게 토큰을 소모할 수 있습니다.
  • 존재 패널티: 모델이 새로운 주제를 논의하도록 영향을 주기 위해 패널티를 적용합니다. 범위는 0.0에서 2.0입니다.
  • 출력 무작위성 (온도): 응답의 무작위성을 조정합니다. 범위는 0.0(결정적)에서 1.0(최대 무작위성)까지입니다. 이를 조정하거나 출력 무작위성 (Top P)를 변경하는 것이 좋지만 두 가지 모두 변경하지는 마세요. 중간 온도(약 0.7)로 시작하여 관찰한 출력에 따라 조정하세요. 응답이 너무 반복적이거나 경직된 경우 온도를 높이세요. 너무 혼란스럽거나 나쁜 방향으로 나아가는 경우 온도를 낮추세요. 기본값은 1.0입니다.
  • 출력 무작위성 (Top P): 어시스턴트의 응답 다양성을 제어하기 위해 Top P 설정을 조정합니다. 예를 들어, 0.5는 모든 가능성 있는 옵션의 절반이 고려된다는 의미입니다. 이를 조정하거나 출력 무작위성 (온도)를 변경하는 것이 좋지만 두 가지 모두 변경하지는 마세요. 기본값은 1.0입니다.

자세한 내용은 모델에 메시지 보내기 | OpenAI 설명서를 참조하세요.

위반 사항에 대한 텍스트 분류#

이 작업을 사용하여 유해할 수 있는 내용을 식별하고 플래그를 지정합니다. OpenAI 모델이 텍스트를 분석하고 다음 정보를 포함하는 응답을 반환합니다:

  • flagged: 콘텐츠가 잠재적으로 유해한지를 나타내는 부울 필드입니다.
  • categories: 카테고리별 위반 플래그 목록입니다.
  • category_scores: 각 카테고리에 대한 점수입니다.

다음 매개변수를 입력하세요:

  • 연결할 자격 증명: 기존 OpenAI 자격 증명을 생성하거나 선택합니다.
  • 리소스: 텍스트를 선택합니다.
  • 작업: 위반 사항에 대한 텍스트 분류를 선택합니다.
  • 텍스트 입력: 중재 정책을 위반하는지 분류할 텍스트를 입력합니다.
  • 출력 단순화: 원시 데이터 대신 응답의 단순화된 버전을 반환하도록 설정합니다.

옵션#

  • 안정적인 모델 사용: 최신 버전 대신 안정적인 모델 버전을 사용하려면 켭니다. 정확도가 약간 낮을 수 있습니다.

자세한 정보는 Moderations | OpenAI 문서를 참조하세요.

일반적인 문제#

일반적인 오류나 문제 및 제안된 해결 단계를 보려면 일반 문제를 참조하세요.

인포레터에서 최신 DevOps 트렌드를 격주로 만나보세요!