2026年4月23日木曜日

Raspberry Pi 5 で Docker を使ってローカルLLM環境を構築する方法[Ollama + Open WebUI]

 Raspberry Pi 5 の性能を活用し、Docker と Docker Compose を用いて Ollama(ローカルLLM)Open WebUI(ブラウザ操作UI) を動かす手順をまとめます。

今回ご紹介する構成は、実際に Raspberry Pi 5 上でエラーなく動作した安定構成です。


🚀 1. このガイドで構築できる環境

  • Ollama(ローカルLLMエンジン)
    → Llama2、Mistral、TinyLlama などのLLMをローカルで動作

  • Open WebUI(ブラウザUI)
    → ChatGPT のようにブラウザからローカルLLMを操作可能

  • APIアクセス可能
    → 他のアプリケーションから HTTP API で利用可能

Raspberry Pi 5(8GB RAM推奨)で快適に動作します。


🧱 2. 必要なソフト

  • Docker

  • Docker Compose

  • Raspberry Pi OS 64bit または Ubuntu Server 64bit


🔧 3. Docker & Docker Compose のインストール

以下のコマンドを実行します:

Shell

sudo apt update && sudo apt upgrade -y

sudo apt install docker.io -y

sudo systemctl enable docker

sudo systemctl start docker


sudo apt install docker-compose -y



📦 4. 使用した docker-compose.yml

この構成でエラーなく動作しました。

YAML

services:

ollama:

image: ollama/ollama:latest

container_name: ollama

ports:

- "11434:11434"

volumes:

- ./ollama-data:/root/.ollama

restart: always


openwebui:

image: ghcr.io/open-webui/open-webui:main

container_name: open-webui

depends_on:

- ollama

ports:

- "3000:8080"

volumes:

- ./openwebui-data:/app/backend/data

environment:

- OLLAMA_API_BASE=http://ollama:11434

- USE_OLLAMA_DOCKER=true

- OLLAMA_BASE_URL=/ollama

- WEBUI_AUTH=False

restart: always


volumes:

ollama-data:

openwebui-data:



▶ 5. サービスの起動

docker-composeを入れたフォルダに移動して

Shell

docker-compose up -d

その他の行を表示する

起動後のアクセス:

サービス

URL

Open WebUI

http://<RaspberryPi_IP>:3000

Ollama API

http://<RaspberryPi_IP>:11434


🧪 6. モデルの利用

コンテナに入ってモデルをダウンロード:

Shell

docker exec -it ollama bash

ollama pull tinyllama:1.1b

ollama run tinyllama:1.1b



🎉 7. 結果

  • ローカルLLM(Ollama)が正常動作

  • Web UI(Open WebUI)もエラーなしで稼働

  • モデルデータも永続化され、再起動時も維持

  • Raspberry Pi 5 でも十分に実用的なローカルAI環境を実現


🔚 まとめ

Raspberry Pi 5 は Docker と組み合わせることで、
軽量かつ強力なローカルAIサーバーとして活用できます。

今回の構成はシンプルで扱いやすく、
AIプロジェクトや自宅サーバーに最適です。