Локальный ChatGPT на Ubuntu: Ollama + Open WebUI [Гайд 2025]

Локальный “ChatGPT” на Ubuntu 24.04: Ollama + Open WebUI (без GPU, Docker) — полный пошаговый гайд 2025 В этом видео поднимаю локальный ИИ-чат на мини-ПК (Ryzen 7 5800H, 16 ГБ ОЗУ) без видеокарты. Ставим Docker, запускаем Ollama (движок LLM на CPU) и Open WebUI (удобный веб-чат), скачиваем модели Phi-3 mini, Qwen2.5-3B-Instruct и Mistral-7B-Instruct, настраиваем всё для русскоязычных запросов и даём доступ по сети. Подойдёт для домашнего сервера, офлайна и тестов RAG в будущем. За более подробной информацией об устройствах Beelink вы можете обратиться в поддержку на нашем сайте:
Файл с командами доступен по ссылке:
В этом ролике: • Установка Ubuntu Server 24.04 и зачем нужен своп 8 ГБ на 16 ГБ ОЗУ • Установка Docker и Compose из официального репо • docker-compose.yml для Ollama + Open WebUI • Загрузка и выбор моделей под CPU (быстро vs качественно) • Первый запуск интерфейса, базовые параметры под CPU Таймкоды: 00:00 Вступление — что делаем и на каком железе 01.09 Установка Ubuntu Server 03:03 Обновления Ubuntu и своп 8 ГБ: зачем и как 03:25 Установка Docker + Compose 03:45 Проект и docker-compose.yml 04:34 Запуск контейнеров 04:50 Скачиваем модели (Phi-3, Qwen2.5-3B, Mistral-7B) 05:05 Первый запуск Open WebUI 05:35 Финал Железо/ПО: • Мини-ПК: Beelink SER5 MAX (Ryzen 7 5800H, 16 ГБ, без GPU) • ОС: Ubuntu Server 24.04 LTS • Docker + Compose, Ollama, Open WebUI Полезное: • Для CPU: max tokens 512–1024, context 2048–4096, temperature ~0.7 • Малые модели (быстрее): Phi-3 mini, Qwen2.5-3B-Instruct • 7B (качественнее, медленнее на CPU): Mistral-7B-Instruct Поддержать выпуск: лайк👍, комментарий, подписка. Идеи для продолжения: RAG (поиск по вашим PDF/нотсам), туннель/домен с HTTPS, функции-инструменты. #ollama #openwebui #ubuntu #ubuntulinux #ubuntuserver #docker #llm #linux #mistralai #qwen #Phi3 #beelink #minipc #chatgpt #нейросеть #дома #dockertutorial

Смотрите также