콘텐츠로 이동
📣 인포그랩에서 OpenAI 기술 기반으로 자체 개발한 자동화 번역 프로그램을 통해 n8n 공식 문서의 한글판을 국내 최초로 제공합니다.

OpenAI Chat Model 노드 공통 문제#

다음은 OpenAI Chat Model 노드와 관련된 일반적인 오류 및 문제와 이를 해결하거나 문제를 해결하는 단계입니다.

처리 매개변수#

OpenAI Chat Model 노드는 서브 노드입니다. 서브 노드는 여러 항목을 표현식을 사용하여 처리할 때 다른 노드와 다르게 동작합니다.

대부분의 노드는 루트 노드를 포함하여 입력으로 임의의 수의 항목을 받아 이 항목들을 처리하고 결과를 출력합니다. 표현식을 사용하여 입력 항목을 참조할 수 있으며, 노드는 각 항목에 대해 차례로 표현식을 해석합니다. 예를 들어, 이름 값이 다섯 개 입력되었을 때, 표현식 {{ $json.name }}은 차례로 각 이름으로 해석됩니다.

서브 노드에서는 표현식이 항상 첫 번째 항목으로 해석됩니다. 예를 들어, 이름 값이 다섯 개 입력되었을 때, 표현식 {{ $json.name }}은 항상 첫 번째 이름으로 해석됩니다.

서비스에서 너무 많은 요청을 감지했습니다 (The service is receiving too many requests from you)#

이 오류는 OpenAI의 요청 제한(Rate Limits)을 초과했을 때 발생합니다.

이 문제를 해결하는 두 가지 방법이 있습니다:

  1. 데이터를 더 작은 청크로 나누고, 요청 간 대기 시간을 추가하세요.
    - Loop Over Items 노드를 사용하여 데이터를 작은 단위로 처리합니다.
    - Wait 노드를 추가하여 적절한 시간 동안 대기합니다.
    - 아래 코드를 복사하여 워크플로에 붙여넣으면 템플릿으로 사용할 수 있습니다.

      1
      2
      3
      4
      5
      6
      7
      8
      9
     10
     11
     12
     13
     14
     15
     16
     17
     18
     19
     20
     21
     22
     23
     24
     25
     26
     27
     28
     29
     30
     31
     32
     33
     34
     35
     36
     37
     38
     39
     40
     41
     42
     43
     44
     45
     46
     47
     48
     49
     50
     51
     52
     53
     54
     55
     56
     57
     58
     59
     60
     61
     62
     63
     64
     65
     66
     67
     68
     69
     70
     71
     72
     73
     74
     75
     76
     77
     78
     79
     80
     81
     82
     83
     84
     85
     86
     87
     88
     89
     90
     91
     92
     93
     94
     95
     96
     97
     98
     99
    100
    101
    102
    103
    104
    105
    106
    {
        "nodes": [
        {
            "parameters": {},
            "id": "35d05920-ad75-402a-be3c-3277bff7cc67",
            "name": "When clicking ‘Test workflow’",
            "type": "n8n-nodes-base.manualTrigger",
            "typeVersion": 1,
            "position": [
            880,
            400
            ]
        },
        {
            "parameters": {
            "batchSize": 500,
            "options": {}
            },
            "id": "ae9baa80-4cf9-4848-8953-22e1b7187bf6",
            "name": "Loop Over Items",
            "type": "n8n-nodes-base.splitInBatches",
            "typeVersion": 3,
            "position": [
            1120,
            420
            ]
        },
        {
            "parameters": {
            "resource": "chat",
            "options": {},
            "requestOptions": {}
            },
            "id": "a519f271-82dc-4f60-8cfd-533dec580acc",
            "name": "OpenAI",
            "type": "n8n-nodes-base.openAi",
            "typeVersion": 1,
            "position": [
            1380,
            440
            ]
        },
        {
            "parameters": {
            "unit": "minutes"
            },
            "id": "562d9da3-2142-49bc-9b8f-71b0af42b449",
            "name": "Wait",
            "type": "n8n-nodes-base.wait",
            "typeVersion": 1,
            "position": [
            1620,
            440
            ],
            "webhookId": "714ab157-96d1-448f-b7f5-677882b92b13"
        }
        ],
        "connections": {
        "When clicking ‘Test workflow’": {
            "main": [
            [
                {
                "node": "Loop Over Items",
                "type": "main",
                "index": 0
                }
            ]
            ]
        },
        "Loop Over Items": {
            "main": [
            null,
            [
                {
                "node": "OpenAI",
                "type": "main",
                "index": 0
                }
            ]
            ]
        },
        "OpenAI": {
            "main": [
            [
                {
                "node": "Wait",
                "type": "main",
                "index": 0
                }
            ]
            ]
        },
        "Wait": {
            "main": [
            [
                {
                "node": "Loop Over Items",
                "type": "main",
                "index": 0
                }
            ]
            ]
        }
        },
        "pinData": {}
    }
    
  2. [OpenAI 노드] 대신 HTTP Request 노드를 사용하여
    OpenAI API 에 요청을 보내고,
    내장된 배치 제한(batch-limit) 옵션을 활용하세요.


할당량 부족 (Insufficient quota)#

이 오류는 OpenAI 계정의 크레딧이나 용량이 부족하여 요청을 처리할 수 없을 때 발생합니다.
이는 OpenAI 무료 체험 기간이 종료되었거나, 계정에 추가 크레딧이 필요하거나,
사용 제한(usage limit)을 초과했음을 의미할 수 있습니다.

0 크레딧 상태에서의 API 키 문제

계정 잔액이 0 일 때 API 키를 생성하면, 이후 크레딧을 추가하더라도
"insufficient quota(할당량 부족)" 오류가 계속 발생할 수 있습니다.
이 문제를 방지하려면, API 키 관리 페이지 에서
새 API 키를 발급하기 전에 계정에 크레딧을 추가하세요.

문제 해결 방법#

OpenAI 설정 페이지에서 다음 사항을 확인하세요:

  • 올바른 조직(Organization) 을 선택했는지 확인하세요.
    페이지 왼쪽 상단의 첫 번째 선택기에서 API 키에 해당하는 조직을 선택하세요.
  • 올바른 프로젝트(Project) 를 선택했는지 확인하세요.
    페이지 왼쪽 상단의 두 번째 선택기에서 API 키에 해당하는 프로젝트를 선택하세요.
  • 조직의 결제 상태를 확인하세요.
    청구 개요(Billing Overview) 페이지에서
    크레딧이 충분한지 확인하세요.
  • 조직의 사용 제한(Usage Limits)을 확인하세요.
    사용 제한(Usage Limits){:target=_blank .external-link) 페이지에서
    사용 제한을 초과하지 않았는지 확인하세요.
  • 프로젝트의 사용 제한을 확인하세요.
    페이지 왼쪽 상단에서 올바른 프로젝트를 선택한 후,
    Project > Limits 로 이동하여 사용 제한을 확인하거나 변경하세요.
  • OpenAI API 상태 확인
    OpenAI API 상태 페이지 에서
    API가 정상적으로 운영 중인지 확인하세요.

크레딧 충전 반영 지연

OpenAI 계정에 크레딧을 추가한 후, 계정에 반영되기까지 시간이 걸릴 수 있습니다.

n8n에서 확인해야 할 사항#

  • OpenAI 자격 증명유효한 OpenAI API 키 를 사용하는지 확인하세요.
  • OpenAI 노드가 올바른 OpenAI 자격 증명 에 연결되어 있는지 확인하세요.

계정 크레딧이 자주 부족해진다면,
OpenAI 결제 설정{:target=_blank .external-link) 에서
자동 충전(Auto Recharge) 기능을 활성화하는 것을 고려하세요.
이 기능을 사용하면, 잔액이 $0 에 도달할 때 자동으로 크레딧이 충전됩니다.


잘못된 요청 (Bad request - please check your parameters)#

이 오류는 요청에 문제가 있지만, OpenAI에서 반환된 오류 메시지를 n8n이 해석할 수 없을 때 발생합니다.

문제 해결 방법#

먼저 동일한 요청을 HTTP Request 노드에서 실행해 보세요.
이 노드는 보다 상세한 오류 메시지를 제공할 수 있습니다.

인포레터에서 최신 DevOps 트렌드를 격주로 만나보세요!