LLM/Cursor

[Cursor 학습하기] 로컬 LLM 와 인터페이스 만들기

나는야 개발자 2025. 3. 20. 21:25
반응형

Ollama 모델 선정

- 링크 : https://ollama.com/

 

Ollama

Get up and running with large language models.

ollama.com

 

- 원하는 모델 선정

(각 컴퓨터별 GPU 메모리와 성능을 보고 모델을 선정할 것)

 

모델 다운로드

- 빨간 동그라미 복사

- cmd 오픈 후 붙여넣기 후 엔터 치면 설치 완료

 

명령해보기

- 원하는 명령어를 치면 대답해줌

(/bye하면 종료)

 

Cursor 열기

- 빈 폴더 생성 후 Cursor 오픈 

 

- 더 똑똑한 이용을 위해 "Thinking" 체크

- 명렁어로 "파이썬 3.13을 사용중이며 ollama 와 streamlit 라이브러리를 사용하여 llm과 채팅할 수 있는 인터페이스를 만들어주세요. 단, 모델은 gemma3:4b 입니다." 명령 진행

 

 

- 스크립트가 작성이 완료된 후 

- 실행 명령어를 알려주면 그대로 진행하고 알려주지 않으면 "실행 방법에 대해 알려주세요" 입력하여 실행 방법 에 맞춰 진행

 

- 명령어 실행을 위한 터미널 생성

 

 

- 실행 명령어 하나씩 실행

 

결과

- Cursor 횟수와 상관없는 로컬 LLM 완성

 

 

문제 발생 시 

- Python과 Ollama를 설치 했는지 확인할 것

- Python PAHA를 제대로 했는지 확인(설치할때 체크 했는데도 안될 시 수동 설정할 것)

- 첫번째론 chat에다가 문제 발생했다고 문제에 대해 확인 요청할 것

- 그래도 안되면 재부팅

- 그래도 안되면 파일을 새로 생성해서 다시 시도

- 그래도 안되면 제대로 안만들어 준걸 수도 있기 때문에 여러번 재시도 해봐야함(단, Cursor 빠른 모델 횟수제한이 있기 때문에 잘 보고 진행할 것)

반응형