Ollama Chat Model 노드 일반적인 문제들#
여기 Ollama Chat Model 노드와 관련된 몇 가지 일반적인 오류와 문제, 해결하거나 문제를 해결하는 단계가 있습니다.
처리 매개변수#
Ollama Chat Model 노드는 서브 노드입니다. 서브 노드는 여러 항목을 표현식을 사용하여 처리할 때 다른 노드와 다르게 동작합니다.
대부분의 노드, 특히 루트 노드는 입력으로 임의의 수의 항목을 받아 이 항목들을 처리하고 결과를 출력합니다. 표현식을 사용하여 입력 항목을 참조할 수 있으며, 노드는 각 항목에 대해 차례대로 표현식을 해결합니다. 예를 들어, 다섯 개의 이름 값이 주어지면, 표현식 {{ $json.name }}
은 차례대로 각 이름으로 해결됩니다.
서브 노드에서는 표현식이 항상 첫 번째 항목으로 해결됩니다. 예를 들어, 다섯 개의 이름 값이 주어지면, 표현식 {{ $json.name }}
은 항상 첫 번째 이름으로 해결됩니다.
원격 Ollama 인스턴스에 연결할 수 없음#
Ollama Chat Model 노드는 로컬에서 호스팅되는 Ollama 인스턴스에만 연결되도록 설계되었습니다. 원격으로 호스팅되는 Ollama 인스턴스에 연결하는 데 필요한 인증 기능은 포함되어 있지 않습니다.
Ollama Chat Model을 사용하려면 Ollama 자격 증명 지침을 따라 Ollama를 로컬로 설정하고 n8n에서 인스턴스 URL을 구성하세요.
Docker를 사용할 때 로컬 Ollama 인스턴스에 연결할 수 없음#
Ollama Chat Model 노드는 Ollama 자격 증명에서 정의한 기본 URL을 사용하여 로컬에서 호스팅되는 Ollama 인스턴스에 연결합니다. n8n 또는 Ollama를 Docker에서 실행할 때 n8n이 Ollama에 연결할 수 있도록 네트워크를 구성해야 합니다.
Ollama는 일반적으로 localhost
에서 연결을 기다립니다. Docker에서는 기본적으로 각 컨테이너에 접근할 수 있는 localhost
가 있으며, 이는 컨테이너 내에서만 접근 가능합니다. n8n 또는 Ollama가 컨테이너에서 실행되는 경우 localhost
를 통해 연결할 수 없습니다.
해결책은 두 구성 요소를 호스팅하는 방법에 따라 다릅니다.
Ollama만 Docker에서 실행되는 경우#
Ollama만 Docker에서 실행되는 경우, Ollama가 컨테이너 내에서 0.0.0.0
에 바인딩하여 모든 인터페이스에서 수신 대기하도록 구성하십시오(공식 이미지가 이미 이렇게 구성되어 있습니다).
컨테이너를 실행할 때, -p
플래그를 사용하여 포트를 발행합니다. 기본적으로 Ollama는 11434 포트에서 실행되므로 Docker 명령은 다음과 같아야 합니다:
1 |
|
Ollama 자격 증명을 구성할 때 localhost
주소는 문제없이 작동해야 합니다( 기본 URL을 http://localhost:11434
로 설정).
n8n만 Docker에서 실행되는 경우#
n8n만 Docker에서 실행되는 경우 Ollama가 호스트에서 0.0.0.0
에 바인딩하여 모든 인터페이스에서 수신 대기하도록 구성하십시오.
Linux에서 Docker에서 n8n을 실행하는 경우, 컨테이너를 시작할 때 --add-host
플래그를 사용하여 host.docker.internal
을 host-gateway
에 매핑하십시오. 예를 들어:
1 |
|
Docker Desktop을 사용하는 경우, 이는 자동으로 구성됩니다.
Ollama 자격 증명을 구성할 때 localhost
대신 host.docker.internal
을 호스트 주소로 사용하십시오. 예를 들어, 기본 포트 11434에 바인딩하려면 기본 URL을 http://host.docker.internal:11434
로 설정할 수 있습니다.
Ollama와 n8n이 별도의 Docker 컨테이너에서 실행되는 경우#
n8n과 Ollama가 별도의 Docker 컨테이너에서 실행 중인 경우, Docker 네트워킹을 사용하여 연결할 수 있습니다.
Ollama를 컨테이너 내부에서 0.0.0.0
에 바인딩하여 모든 인터페이스에서 수신 대기하도록 구성하세요(공식 이미지들이 이미 이렇게 구성되어 있습니다).
Ollama 자격 증명을 구성할 때는 localhost
대신 Ollama 컨테이너의 이름을 호스트 주소로 사용하세요. 예를 들어, Ollama 컨테이너를 my-ollama
라고 부르고 기본 포트 11434에서 수신 대기하도록 설정하면, 기본 URL을 http://my-ollama:11434
로 설정하게 됩니다.
Ollama와 n8n이 동일한 Docker 컨테이너에서 실행되는 경우#
Ollama와 n8n이 동일한 Docker 컨테이너에서 실행 중인 경우, localhost
주소는 특별한 구성 없이 사용할 수 있습니다. Ollama를 localhost에서 수신 대기하도록 구성하고, n8n의 Ollama 자격 증명에서 기본 URL을 localhost로 설정할 수 있습니다: http://localhost:11434
.
오류: connect ECONNREFUSED ::1:11434#
이 오류는 컴퓨터에 IPv6가 활성화되어 있지만 Ollama가 IPv4 주소에 수신 대기할 때 발생합니다.
이를 해결하려면 Ollama 자격 증명에서 기본 URL을 localhost
별칭 대신 IPv4 전용 로컬 주소인 127.0.0.1
로 변경하세요: http://127.0.0.1:11434
.