Open WebUI: Self-hosted, Sem Concessões
Se o Ollama é o motor, o Open WebUI é o painel. Uma interface web completa que transforma um servidor local de LLMs em algo que qualquer pessoa da sua equipe consegue usar — sem terminal, sem API, sem fricção.
Instalação com Docker
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
ghcr.io/open-webui/open-webui:main
Acesse em http://localhost:3000. O Ollama precisa estar rodando no host.
Funcionalidades principais
- Multi-model: alterne entre Llama, Mistral, Qwen na mesma interface
- RAG embutido: faça upload de PDFs, URLs ou arquivos e pergunte sobre eles
- Histórico: todas as conversas salvas localmente
- Multiusuário: crie contas para o time com permissões distintas
- Modelos de sistema: crie personas especializadas por área
- API compatível com OpenAI: qualquer app que usa a API da OpenAI funciona apontando para o Open WebUI
Para equipes
Open WebUI transforma IA local em produto interno. Um servidor dedicado com GPU modesta (RTX 3090 ou similar) atende uma equipe de 20-30 pessoas com qualidade próxima ao ChatGPT — sem custo por token, sem dados saindo.


