로컬 환경에서 실행되는 AI 채팅 애플리케이션으로, Deepseek R1 모델과 Ollama를 활용하여 구축되었습니다. 실시간 대화, 모델 선택 드롭다운 메뉴, 직관적인 Open Web UI 인터페이스를 제공합니다.
- Ollama 공식 웹사이트 접속
- 운영체제에 맞는 버전 다운로드:
- Windows: Ollama Windows Preview
- macOS:
brew install ollama - Linux:
curl -fsSL https://ollama.com/install.sh | sh
- 설치 완료 후 터미널에서 실행 확인:
ollama --version
- Docker 공식 웹사이트 접속
- Docker Desktop 다운로드 및 설치
- 설치 완료 후 실행 상태 확인:
docker --version
💡 참고: Docker 계정 생성은 선택사항입니다.
새 터미널 창을 열고 Ollama 서비스 시작:
ollama serve
⚠️ 중요: 이 터미널 창은 열어둔 채로 유지해야 합니다. 서비스가 실행 중이어야 다음 단계를 진행할 수 있습니다.
- 새로운 터미널 창을 열고 Docker가 실행 중인지 확인
- OpenWebUI 설치 및 실행:
docker run -d -p 3000:8080 \ -v ollama:/root/.ollama \ -v open-webui:/app/backend/data \ --name open-webui --restart always \ ghcr.io/open-webui/open-webui:ollama
💡 설치 과정 설명:
- Docker 이미지 다운로드 (처음 실행시에만)
- 컨테이너 생성 및 설정
- 데이터 저장을 위한 볼륨 생성
- 웹 서버 시작
⏱️ 첫 실행시 이미지 다운로드로 인해 1-2분 정도 소요될 수 있습니다.
-
설치 완료 확인:
docker ps
OpenWebUI 컨테이너가 목록에 표시되면 정상적으로 실행된 것입니다.
-
브라우저에서
http://localhost:3000접속 -
첫 계정 생성 (자동으로 관리자 권한 부여)
💡 참고:
ollama serve가 실행 중이지 않으면 OpenWebUI가 Ollama에 연결할 수 없습니다- 연결 오류가 발생하면
ollama serve가 실행 중인지 확인해주세요
-
OpenWebUI에서 모델 설치:
- 상단 메뉴에서 '설정' → '관리자 설정' 클릭
- 'Manage Models' 선택
- 'Add New Model' 클릭
- Model Name에
deepseek-r1:latest입력 - 'Download' 버튼 클릭하여 설치 시작
-
설치 진행 상태는 화면에서 확인 가능합니다.
💡 참고:
- 첫 설치는 모델 크기에 따라 시간이 걸릴 수 있습니다
- 설치가 완료되면 자동으로 모델 선택 드롭다운에 표시됩니다
- OpenWebUI에 접속 (
http://localhost:3000) - 상단 모델 선택 드롭다운에서 'deepseek-r1' 선택
- 채팅 시작!