학습/AI

Ollama + deepseek 첫 질문이 너무 느릴 때

roquen4145 2025. 2. 13. 20:53

지난 포스팅에서 ollama를 이용해 로컬에서 deepseek 모델을 실행하고
Chatbox를 이용해 gpt를 사용하는 것처럼 사용해보았습니다.

 

그런데 그렇게 설정을 해두고 시간이 조금 흐른 후에 다시 질문을 했을 때

속도가 확연히 느려진 것을 확인하실 수 있습니다.

그 이유는 모델을 gpu나 cpu에 로딩하는 시간이 필요하기 때문입니다.

 

이번 포스팅에서는 첫 질문이 너무 느린 문제를 해결하기 위해

모델을 바로 언로드 하지 않도록 설정하는 방법을 공유하려고 합니다.

 

기본 설정 확인하기

powershell에서 ollama ps라는 명령어를 입력하면 위와 같이 UNTIL 값을 확인할 수 있습니다.

이 값이 마지막 질문을 답하고 언제까지 모델을 유지할 지 설정하는 값입니다.

그래서 5분이 지나면 위와 같이 GPU 메모리에서 모델이 사라집니다.

 

오랫동안 모델 유지하기

위와 같이 --keepalive 옵션을 사용하면 UNTIL 값도 같이 바뀌는 것을 확인하실 수 있습니다.

이렇게 하면 하루 안에 다시 질문을 한다면 곧바로 ollama + deepseek이 대답할 것입니다.

 

안타깝게도 아직 영구하게 유지하는 방법을 못 찾았는데요.

다른 운영체제에서는 환경변수 OLLAMA_KEEP_ALIVE 값을 -1로 해서 설정했다는데

저는 윈도우 환경에서 해봤을 때 안되었습니다.

 

혹시 환경변수로 시도해보실 분은 이전 포스팅에서 환경변수 변경방법을 참고하시고

아래 명령어를 참고하여 터미널에서 환경변수가 잘 설정되었는지 확인하세요.
https://roquen4145.tistory.com/303

 

ollama + deepseek 설치해서 정보유출 걱정 없이 사용하기

요즘 Deepseek가 화제입니다.중국이 오픈소스를 했다는 것도 정말 의외였습니다.그래도 은연 중에 개인정보 걱정을 할 수 있는데요.오늘은 자신의 PC에 모델을 설치해서 deepseek을 안전하게 사용하

roquen4145.tistory.com

 

# cmd 기준
set

# powershell 기준
Get-ChildItem Env:

 

포스팅 읽어주셔서 감사합니다.

반응형

'학습 > AI' 카테고리의 다른 글

ollama + deepseek 설치해서 정보유출 걱정 없이 사용하기  (0) 2025.02.07