Open WebUI: Self-hosted, Sem Concessões

Se o Ollama é o motor, o Open WebUI é o painel. Uma interface web completa que transforma um servidor local de LLMs em algo que qualquer pessoa da sua equipe consegue usar — sem terminal, sem API, sem fricção.

Instalação com Docker

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  ghcr.io/open-webui/open-webui:main

Acesse em http://localhost:3000. O Ollama precisa estar rodando no host.

Funcionalidades principais

  • Multi-model: alterne entre Llama, Mistral, Qwen na mesma interface
  • RAG embutido: faça upload de PDFs, URLs ou arquivos e pergunte sobre eles
  • Histórico: todas as conversas salvas localmente
  • Multiusuário: crie contas para o time com permissões distintas
  • Modelos de sistema: crie personas especializadas por área
  • API compatível com OpenAI: qualquer app que usa a API da OpenAI funciona apontando para o Open WebUI

Para equipes

Open WebUI transforma IA local em produto interno. Um servidor dedicado com GPU modesta (RTX 3090 ou similar) atende uma equipe de 20-30 pessoas com qualidade próxima ao ChatGPT — sem custo por token, sem dados saindo.