콘텐츠로 이동
📣 인포그랩에서 OpenAI 기술 기반으로 자체 개발한 자동화 번역 프로그램을 통해 n8n 공식 문서의 한글판을 국내 최초로 제공합니다.

Ollama Chat Model 노드 일반적인 문제들#

여기 Ollama Chat Model 노드와 관련된 몇 가지 일반적인 오류와 문제, 해결하거나 문제를 해결하는 단계가 있습니다.

처리 매개변수#

Ollama Chat Model 노드는 서브 노드입니다. 서브 노드는 여러 항목을 표현식을 사용하여 처리할 때 다른 노드와 다르게 동작합니다.

대부분의 노드, 특히 루트 노드는 입력으로 임의의 수의 항목을 받아 이 항목들을 처리하고 결과를 출력합니다. 표현식을 사용하여 입력 항목을 참조할 수 있으며, 노드는 각 항목에 대해 차례대로 표현식을 해결합니다. 예를 들어, 다섯 개의 이름 값이 주어지면, 표현식 {{ $json.name }}은 차례대로 각 이름으로 해결됩니다.

서브 노드에서는 표현식이 항상 첫 번째 항목으로 해결됩니다. 예를 들어, 다섯 개의 이름 값이 주어지면, 표현식 {{ $json.name }}은 항상 첫 번째 이름으로 해결됩니다.

원격 Ollama 인스턴스에 연결할 수 없음#

Ollama Chat Model 노드는 로컬에서 호스팅되는 Ollama 인스턴스에만 연결되도록 설계되었습니다. 원격으로 호스팅되는 Ollama 인스턴스에 연결하는 데 필요한 인증 기능은 포함되어 있지 않습니다.

Ollama Chat Model을 사용하려면 Ollama 자격 증명 지침을 따라 Ollama를 로컬로 설정하고 n8n에서 인스턴스 URL을 구성하세요.

Docker를 사용할 때 로컬 Ollama 인스턴스에 연결할 수 없음#

Ollama Chat Model 노드는 Ollama 자격 증명에서 정의한 기본 URL을 사용하여 로컬에서 호스팅되는 Ollama 인스턴스에 연결합니다. n8n 또는 Ollama를 Docker에서 실행할 때 n8n이 Ollama에 연결할 수 있도록 네트워크를 구성해야 합니다.

Ollama는 일반적으로 localhost에서 연결을 기다립니다. Docker에서는 기본적으로 각 컨테이너에 접근할 수 있는 localhost가 있으며, 이는 컨테이너 내에서만 접근 가능합니다. n8n 또는 Ollama가 컨테이너에서 실행되는 경우 localhost를 통해 연결할 수 없습니다.

해결책은 두 구성 요소를 호스팅하는 방법에 따라 다릅니다.

Ollama만 Docker에서 실행되는 경우#

Ollama만 Docker에서 실행되는 경우, Ollama가 컨테이너 내에서 0.0.0.0에 바인딩하여 모든 인터페이스에서 수신 대기하도록 구성하십시오(공식 이미지가 이미 이렇게 구성되어 있습니다).

컨테이너를 실행할 때, -p 플래그를 사용하여 포트를 발행합니다. 기본적으로 Ollama는 11434 포트에서 실행되므로 Docker 명령은 다음과 같아야 합니다:

1
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Ollama 자격 증명을 구성할 때 localhost 주소는 문제없이 작동해야 합니다( 기본 URLhttp://localhost:11434로 설정).

n8n만 Docker에서 실행되는 경우#

n8n만 Docker에서 실행되는 경우 Ollama가 호스트에서 0.0.0.0에 바인딩하여 모든 인터페이스에서 수신 대기하도록 구성하십시오.

Linux에서 Docker에서 n8n을 실행하는 경우, 컨테이너를 시작할 때 --add-host 플래그를 사용하여 host.docker.internalhost-gateway에 매핑하십시오. 예를 들어:

1
docker run -it --rm --add-host host.docker.internal:host-gateway --name n8n -p 5678:5678 -v n8n_data:/home/node/.n8n docker.n8n.io/n8nio/n8n

Docker Desktop을 사용하는 경우, 이는 자동으로 구성됩니다.

Ollama 자격 증명을 구성할 때 localhost 대신 host.docker.internal을 호스트 주소로 사용하십시오. 예를 들어, 기본 포트 11434에 바인딩하려면 기본 URL을 http://host.docker.internal:11434로 설정할 수 있습니다.

Ollama와 n8n이 별도의 Docker 컨테이너에서 실행되는 경우#

n8n과 Ollama가 별도의 Docker 컨테이너에서 실행 중인 경우, Docker 네트워킹을 사용하여 연결할 수 있습니다.

Ollama를 컨테이너 내부에서 0.0.0.0에 바인딩하여 모든 인터페이스에서 수신 대기하도록 구성하세요(공식 이미지들이 이미 이렇게 구성되어 있습니다).

Ollama 자격 증명을 구성할 때는 localhost 대신 Ollama 컨테이너의 이름을 호스트 주소로 사용하세요. 예를 들어, Ollama 컨테이너를 my-ollama라고 부르고 기본 포트 11434에서 수신 대기하도록 설정하면, 기본 URL을 http://my-ollama:11434로 설정하게 됩니다.

Ollama와 n8n이 동일한 Docker 컨테이너에서 실행되는 경우#

Ollama와 n8n이 동일한 Docker 컨테이너에서 실행 중인 경우, localhost 주소는 특별한 구성 없이 사용할 수 있습니다. Ollama를 localhost에서 수신 대기하도록 구성하고, n8n의 Ollama 자격 증명에서 기본 URL을 localhost로 설정할 수 있습니다: http://localhost:11434.

오류: connect ECONNREFUSED ::1:11434#

이 오류는 컴퓨터에 IPv6가 활성화되어 있지만 Ollama가 IPv4 주소에 수신 대기할 때 발생합니다.

이를 해결하려면 Ollama 자격 증명에서 기본 URL을 localhost 별칭 대신 IPv4 전용 로컬 주소인 127.0.0.1로 변경하세요: http://127.0.0.1:11434.

인포레터에서 최신 DevOps 트렌드를 격주로 만나보세요!