Raspberry Pi 5 の性能を活用し、Docker と Docker Compose を用いて Ollama(ローカルLLM) と Open WebUI(ブラウザ操作UI) を動かす手順をまとめます。
今回ご紹介する構成は、実際に Raspberry Pi 5 上でエラーなく動作した安定構成です。
🚀 1. このガイドで構築できる環境
Ollama(ローカルLLMエンジン)
→ Llama2、Mistral、TinyLlama などのLLMをローカルで動作Open WebUI(ブラウザUI)
→ ChatGPT のようにブラウザからローカルLLMを操作可能APIアクセス可能
→ 他のアプリケーションから HTTP API で利用可能
Raspberry Pi 5(8GB RAM推奨)で快適に動作します。
🧱 2. 必要なソフト
Docker
Docker Compose
Raspberry Pi OS 64bit または Ubuntu Server 64bit
🔧 3. Docker & Docker Compose のインストール
以下のコマンドを実行します:
Shell
sudo apt update && sudo apt upgrade -y
sudo apt install docker.io -y
sudo systemctl enable docker
sudo systemctl start docker
sudo apt install docker-compose -y
📦 4. 使用した docker-compose.yml
この構成でエラーなく動作しました。
YAML
services:
ollama:
image: ollama/ollama:latest
container_name: ollama
ports:
- "11434:11434"
volumes:
- ./ollama-data:/root/.ollama
restart: always
openwebui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
depends_on:
- ollama
ports:
- "3000:8080"
volumes:
- ./openwebui-data:/app/backend/data
environment:
- OLLAMA_API_BASE=http://ollama:11434
- USE_OLLAMA_DOCKER=true
- OLLAMA_BASE_URL=/ollama
- WEBUI_AUTH=False
restart: always
volumes:
ollama-data:
openwebui-data:
▶ 5. サービスの起動
docker-composeを入れたフォルダに移動して
Shell
docker-compose up -d
その他の行を表示する
起動後のアクセス:
🧪 6. モデルの利用
コンテナに入ってモデルをダウンロード:
Shell
docker exec -it ollama bash
ollama pull tinyllama:1.1b
ollama run tinyllama:1.1b
🎉 7. 結果
ローカルLLM(Ollama)が正常動作
Web UI(Open WebUI)もエラーなしで稼働
モデルデータも永続化され、再起動時も維持
Raspberry Pi 5 でも十分に実用的なローカルAI環境を実現
🔚 まとめ
Raspberry Pi 5 は Docker と組み合わせることで、
軽量かつ強力なローカルAIサーバーとして活用できます。
AIプロジェクトや自宅サーバーに最適です。