콘텐츠로 이동
📣 인포그랩에서 OpenAI 기술 기반으로 자체 개발한 자동화 번역 프로그램을 통해 n8n 공식 문서의 한글판을 국내 최초로 제공합니다.

Ollama 모델 노드의 일반적인 문제#

다음은 Ollama 모델 노드와 관련된 일반적인 오류 및 문제와 이를 해결하거나 문제를 해결하는 단계입니다.

처리 매개변수#

Ollama 모델 노드는 서브 노드입니다. 서브 노드는 여러 항목을 표현식을 사용하여 처리할 때 다른 노드와 다른 방식으로 동작합니다.

대부분의 노드, 포함하여 루트 노드는 아무 개수나 항목을 입력으로 받아 이 항목들을 처리하고 결과를 출력합니다. 표현식을 사용하여 입력 항목을 참조할 수 있으며, 노드는 각 항목에 대해 표현식을 순차적으로 해결합니다. 예를 들어, 다섯 개의 이름 값이 입력으로 주어질 때, 표현식 {{ $json.name }}은 각 이름을 순차적으로 해결합니다.

서브 노드에서는 표현식이 항상 첫 번째 항목으로 해결됩니다. 예를 들어, 다섯 개의 이름 값이 입력으로 주어질 때, 표현식 {{ $json.name }}은 항상 첫 번째 이름으로 해결됩니다.

원격 Ollama 인스턴스에 연결할 수 없음#

Ollama 모델 노드는 로컬로 호스팅된 Ollama 인스턴스에 연결되도록 설계되었습니다. 원격으로 호스팅된 Ollama 인스턴스에 연결하는 데 필요한 인증 기능이 포함되어 있지 않습니다.

Ollama 모델을 사용하려면 Ollama 자격 증명 지침을 따르하여 Ollama를 로컬로 설정하고 n8n에서 인스턴스 URL을 구성하십시오.

Docker를 사용할 때 로컬 Ollama 인스턴스에 연결할 수 없음#

Ollama 모델 노드는 Ollama 자격 증명에서 정의한 기본 URL을 사용하여 로컬로 호스팅된 Ollama 인스턴스에 연결합니다. n8n 또는 Ollama를 Docker에서 실행할 때는 n8n이 Ollama에 연결할 수 있도록 네트워크를 구성해야 합니다.

Ollama는 일반적으로 localhost에서 연결을 수신합니다. Docker에서는 기본적으로 각 컨테이너가 자신의 localhost를 가지고 있어, 해당 컨테이너 내부에서만 접근할 수 있습니다. n8n 또는 Ollama가 컨테이너에서 실행 중인 경우 localhost로 연결할 수 없습니다.

해결책은 두 구성 요소를 호스팅하는 방식에 따라 다릅니다.

Ollama만 Docker에 있는 경우#

Ollama만 Docker에서 실행 중인 경우, Ollama를 구성하여 컨테이너 내부에서 0.0.0.0에 바인딩하여 모든 인터페이스에서 수신하도록 합니다(공식 이미지가 이미 이렇게 구성되어 있습니다).

컨테이너를 실행할 때 포트를 게시하려면 -p 플래그를 사용하십시오. 기본적으로 Ollama는 11434 포트에서 실행되므로 귀하의 Docker 명령은 다음과 같아야 합니다:

1
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Ollama 자격 증명을 구성할 때 localhost 주소가 문제없이 작동해야 합니다( 기본 URLhttp://localhost:11434로 설정).

n8n만 Docker에 있는 경우#

n8n만 Docker에서 실행 중인 경우, Ollama를 구성하여 호스트에서 0.0.0.0에 바인딩하여 모든 인터페이스에서 수신하도록 합니다.

Linux에서 Docker에서 n8n을 실행하는 경우, 컨테이너를 시작할 때 --add-host 플래그를 사용하여 host.docker.internalhost-gateway에 매핑합니다. 예를 들어:

1
docker run -it --rm --add-host host.docker.internal:host-gateway --name n8n -p 5678:5678 -v n8n_data:/home/node/.n8n docker.n8n.io/n8nio/n8n

Docker Desktop을 사용하는 경우, 이는 자동으로 구성됩니다.

Ollama 자격 증명을 구성할 때 localhost 대신 host.docker.internal을 호스트 주소로 사용하십시오. 예를 들어, 기본 포트 11434에 바인딩하려면 기본 URL을 http://host.docker.internal:11434로 설정할 수 있습니다.

Ollama와 n8n이 별도의 Docker 컨테이너에서 실행될 때#

n8n과 Ollama가 각각의 Docker 컨테이너에서 실행되고 있다면, Docker 네트워킹을 사용하여 연결할 수 있습니다.

Ollama를 컨테이너 내에서 0.0.0.0에 바인딩하여 모든 인터페이스에서 수신하도록 구성하십시오(공식 이미지가 이미 이렇게 구성되어 있습니다).

Ollama 자격 증명을 구성할 때 localhost 대신 Ollama 컨테이너의 이름을 호스트 주소로 사용하십시오. 예를 들어, Ollama 컨테이너를 my-ollama라고 호출하고 기본 포트 11434에서 수신한다면, 기본 URL을 http://my-ollama:11434로 설정하면 됩니다.

Ollama와 n8n이 동일한 Docker 컨테이너에서 실행될 때#

Ollama와 n8n이 동일한 Docker 컨테이너에서 실행되는 경우, localhost 주소는 특별한 구성이 필요하지 않습니다. Ollama를 localhost에서 수신하도록 구성하고 n8n의 Ollama 자격 증명의 기본 URL을 localhost로 설정할 수 있습니다: http://localhost:11434.

오류: connect ECONNREFUSED ::1:11434#

이 오류는 컴퓨터에 IPv6가 활성화되어 있지만, Ollama가 IPv4 주소에서 수신하고 있을 때 발생합니다.

이를 해결하려면, Ollama 자격 증명에서 기본 URL을 localhost 대신 IPv4 전용 로컬 주소인 127.0.0.1로 연결하도록 변경하십시오: http://127.0.0.1:11434.

인포레터에서 최신 DevOps 트렌드를 격주로 만나보세요!