이 가이드는 로컬 AI 시대의 필수 도구인 Ollama 명령어 사용법을 완벽히 마스터하기 위한 A to Z 가이드입니다. ollama 명령어 예제와 ollama run 예제를 통해 기본 명령어 체계부터 실무 프로젝트 응용 능력까지 강화하고, 직접 ollama 명령어 실습을 진행하며 주요 상황별 ollama 명령어 모음까지 한 번에 익힐 수 있습니다. 데이터 프라이버시를 지키며 비용 걱정 없이 최신 AI 모델을 자유롭게 활용하는 방법을 배우게 됩니다.
목차
로컬 환경에서 LLM(대규모 언어 모델)을 직접 실행하고 싶으신가요? 그렇다면 ollama 명령어 예제 학습은 선택이 아닌 필수입니다. Ollama는 Llama 3, Mistral, Gemma 등 최신 오픈소스 AI 모델을 누구나 손쉽게 내려받아 쓸 수 있는 강력한 CLI 도구입니다. 데이터 프라이버시가 중요하시다면, 오프라인에서 내 PC에서 직접 AI를 실행하는 Ollama의 가치는 탁월합니다. 또한 비용 걱정 없이 자유롭게 모델을 커스터마이즈할 수 있다는 점도 실제 활용자들 사이에서 높이 평가받고 있습니다.
이 글을 통해 여러분은 다음을 얻을 수 있습니다:
- ollama 명령어 예제를 통한 명령어 체득
- 다양한 ollama run 예제로 실무형 프로젝트 능력 강화
- 직접 만들어보는 ollama 명령어 실습
- 주요 상황별 ollama 명령어 모음까지 한 번에 익히기
간결하지만 디테일하고, 실전에 바로 써먹을 수 있는 가이드만 엄선했습니다.
Ollama를 잘 활용하면 AI 서비스의 주도권을 개인이나 기업이 직접 가질 수 있습니다. 이로써 데이터 유출 우려가 감소하고, AI 실험의 효율성도 극대화할 수 있습니다.
Ollama 기본 개념 및 설치 (5분 완성)
Ollama란 무엇인가?
Ollama는 로컬 PC에서 Llama 3, Mistral, Gemma와 같은 최신 오픈소스 LLM을 단일 명령어로 실행할 수 있도록 만든 오픈소스 프레임워크입니다. 복잡한 환경 설정 없이 CLI 기반으로 모델 다운로드 및 실행이 가능하며, Modelfile을 통한 커스터마이즈도 지원합니다.
시스템 요구사항 및 설치
- macOS: GUI 설치 패키지 또는 터미널(Homebrew) 지원
- Linux: 공식 홈페이지 제공 curl 커맨드 사용
curl -fsSL https://ollama.com/install.sh | sh - Windows: 2025년 현재 프리뷰(시험) 지원. 설치 안내에 따라 실행
설치 확인
터미널에
ollama --version
입력 시 버전 정보가 정상 출력되면 설치 성공입니다.
| OS | 설치 방법 | 참고사항 |
|---|---|---|
| macOS | GUI, Homebrew | 패키지 다운 설치, brew install ollama |
| Linux | curl 명령어 | 공식 사이트에서 스크립트 사용 |
| Windows | 프리뷰 전용 | Windows용 독립 설치파일 및 공식 안내 필요 |
Ollama는 복잡한 MLOps 없이도 누구나 LLM을 로컬 PC에 띄울 수 있도록 해주는 진입장벽이 낮은 도구입니다. 설치는 5분 내외로 끝낼 수 있어, AI 초보자도 부담 없이 활용할 수 있습니다.
핵심 Ollama 명령어 완전 정복: 모델 관리와 실행
모델 다운로드 및 관리
모델 관리에 필요한 핵심 명령어와 예제, 설명을 표로 정리합니다.
| 명령어 | 예제 | 기능 및 설명 |
|---|---|---|
| ollama pull | ollama pull llama3 |
Llama3 등 원하는 모델을 로컬에 다운로드 |
| ollama pull | ollama pull llama3:8b |
80억 파라미터 등 특정 버전, 크기 지정 다운로드 |
| ollama list | ollama list |
내 PC에 설치된 모델 목록(Name, ID, Size, Modified) 확인 |
| ollama show | ollama show llama3 |
모델 상세 정보(Modelfile, 파라미터, 설정 등) 확인 |
| ollama rm | ollama rm llama3 |
사용하지 않는 모델 삭제 후 저장 공간 확보 |
– 모델 크기(예: 8b)는 성능과 메모리 사용량에 직접 영향을 미칩니다. 리소스가 부족하다면 작은 모델을 권장합니다.
모델 관리 명령어를 익히면 수십GB를 차지하는 AI 모델을 자유롭게 설치, 삭제, 정보 조회할 수 있습니다. 이는 운영 리소스의 효율적 관리에 매우 중요합니다.

모델 실행 및 상호작용 (ollama run 예제 집중 분석)
ollama run llama3
↳ 기본 대화형 프롬프트 실행. 사용자가 질문, 요청을 직접 입력ollama run llama3 "대한민국의 수도는 어디인가요?"
↳ 단일 명령어에 질문을 포함, 결과 바로 반환ollama run llava "이미지에 대해 설명해줘" ./image.jpg
↳ 이미지 설명 등 멀티모달 모델(Llava) 지원ollama serve
↳ Ollama를 REST API 형태로 백그라운드 서버로 실행(http://localhost:11434)ollama ps / ollama stop
↳ 실행중인 모델 목록/중지. 리소스 관리에 필요
표로 정리:
| 명령어 | 예제/옵션 | 설명 |
|---|---|---|
| run | ollama run llama3 |
대화형 프롬프트 |
| run | ollama run llama3 "질문" |
질문 포함 빠른 실행 |
| run(멀티모달) | ollama run llava "질문" ./이미지.jpg |
이미지 입력 지원 |
| serve | ollama serve |
API 서버 모드 시작 |
| ps | ollama ps |
실행중인 모델 목록 |
| stop | ollama stop [모델명] |
실행중인 모델 중지 |
Ollama run은 단일 질문은 물론, 멀티라인 입력(""") 등 다양한 프롬프트 엔지니어링이 가능합니다. serve 명령어로 웹, 앱과 연동해 활용 폭을 넓힐 수 있습니다.

나만의 모델 만들기: Modelfile과 create 명령어 실습
Modelfile이란?
Modelfile은 AI 모델의 “설계도”로, 기반 모델, 시스템 메시지(페르소나), 파라미터(temperature 등)를 정의합니다.
Modelfile 작성 예제
항상 한국어로, 간결하게 답변하는 어시스턴트 운영:
FROM llama3:8b
# Set the system message
SYSTEM """
당신은 한국어 AI 어시스턴트입니다. 모든 질문에 대해 항상 한국어로, 그리고 세 문장 이내로 간결하게 답변해야 합니다.
"""
# Set model parameters
PARAMETER temperature 0.7
커스텀 모델 생성 및 실행 과정
1. Modelfile 준비
2. ollama create my-assistant -f ./Modelfile
↳ 자신의 모델(my-assistant) 생성
3. ollama run my-assistant
↳ 실제 동작 확인
Modelfile은 단순히 텍스트 파일로 작성하며, 이를 이용해 업무·교육 목적 맞춤형 모델을 빠르게 구현할 수 있습니다. LSI 키워드로 시스템 메시지, 파라미터 조정 등 유의어도 자주 활용됩니다.

개발자를 위한 Ollama: API 연동 및 활용
REST API 연동(cURL 예제)
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "Why is the sky blue?",
"stream": false
}'
Python 연동 실습(ollama-python 라이브러리)
1. 설치
pip install ollama
2. 기본 예시(Python)
import ollama
response = ollama.chat(
model='llama3',
messages=[{'role': 'user', 'content': "파이썬으로 'hello world'를 출력하는 코드를 보여줘."}]
)
print(response['message']['content'])
API 연동 개요 표
| 연동 방식 | 명령어/라이브러리 | 특징 |
|---|---|---|
| cURL | REST API | 빠른 요청, 테스트 |
| Python | ollama-python | 스크립트에서 손쉬운 호출, 응답 파싱 |
Ollama는 API 서버(serve 모드)로 띄운 뒤 REST 송수신이 가능해 다양한 프로그램·앱과 융합할 수 있습니다. Python 연동은 챗봇, 자동화에 특히 효과적입니다.

상황별 ollama 명령어 모음: 복사해서 바로 쓰세요!
일반 사용자용
| 목적 | 명령어 예제 |
|---|---|
| 질의응답 | ollama run mistral |
| 긴 글 요약 | ollama run llama3 "다음 내용을 세 줄로 요약해줘: [긴 텍스트]" |
| 이메일 작성 | ollama run llama3 "친구에게 안부를 묻는 이메일 초안을 작성해줘." |
개발자용
| 목적 | 명령어 예제 |
|---|---|
| 코드 생성/디버깅 | ollama run codellama "자바스크립트에서 배열의 중복을 제거하는 함수를 만들어줘." |
| API 문서 생성 | ollama run llama3 "다음 파이썬 함수의 docstring 문서로 작성해줘: [함수 코드]" |
| 커밋 메시지 작성 | ollama run llama3 "git commit 메시지를 추천해줘. 변경 내용: [변동 사항]" |
실제 프로젝트에서 가장 빠르게 타이핑하게 되는 활용 명령어만 모았습니다. 유의어로 ‘프롬프트 예제, 명령어 활용, 즉시 실행’ 등도 자연스럽게 함께 생각해보세요.
자주 묻는 질문(FAQ) 및 트러블슈팅
Q: GPU가 아닌 CPU로만 작동해요
A: NVIDIA GPU 사용자는 CUDA 드라이버 설치와 ollama 실행 로그를 통해 GPU 인식 여부 확인 필요
Q: 모델 다운로드 속도가 느려요
A: 네트워크 품질 점검, 다른 네트워크 환경에서 재시도 권장
Q: ollama: command not found 오류
A: PATH 변수에 설치 경로 추가, 혹은 터미널 재시작으로 해결
Ollama 사용 중 흔한 오류는 대부분 환경 설정 이슈로 발생합니다. 공식 문서나 커뮤니티, 한글 개발자 블로그를 확인하면 해결법 찾기가 쉽습니다.
결론: Ollama와 함께 나만의 AI 시대를 열다
지금까지 ollama 명령어 예제 중심으로 pull, run, list, create 등 핵심 명령어 활용법, 실무 예제, 트러블슈팅까지 디테일하게 다뤘습니다. 로컬 PC에서 LLM을 자유롭게 실행하면, AI 주권과 혁신적 실험 두 마리 토끼를 잡을 수 있습니다.
다음 단계로 RAG 연동, LangChain, LlamaIndex 통합 등 확장 사용법을 탐구해 보세요. Ollama 공식 GitHub, Discord 등 커뮤니티 참여를 통해 더 깊은 정보와 실습 사례도 손에 넣기를 추천합니다.
AI 활용에 관심 있다면, ollama 명령어 실습과 커뮤니티에서의 경험 공유를 통해 지속적으로 성장할 수 있습니다. 오픈소스 LLM 생태계에서 Ollama는 여러분의 든든한 동반자임을 기억하세요.
