지난 포스팅에서 ollama를 이용해 로컬에서 deepseek 모델을 실행하고Chatbox를 이용해 gpt를 사용하는 것처럼 사용해보았습니다. 그런데 그렇게 설정을 해두고 시간이 조금 흐른 후에 다시 질문을 했을 때속도가 확연히 느려진 것을 확인하실 수 있습니다.그 이유는 모델을 gpu나 cpu에 로딩하는 시간이 필요하기 때문입니다. 이번 포스팅에서는 첫 질문이 너무 느린 문제를 해결하기 위해모델을 바로 언로드 하지 않도록 설정하는 방법을 공유하려고 합니다. 기본 설정 확인하기powershell에서 ollama ps라는 명령어를 입력하면 위와 같이 UNTIL 값을 확인할 수 있습니다.이 값이 마지막 질문을 답하고 언제까지 모델을 유지할 지 설정하는 값입니다.그래서 5분이 지나면 위와 같이 GPU 메모리에..