Локальная нейронка для вайбкодинга! Telegram бот на Qwen 2.5

Локальные LLM для вайбкодинга — реально ли это работает? Я запустил qwen 2.5 coder на своём домашнем сервере для нейросетей и подключил нейронку для разработки прямо в Visual Studio Code через расширение Continue. В ролике мы попробуем написать Telegram-бота на TypeScript и NestJS, полностью положившись на локальную модель, стараясь не обращаться к chat GPT, Claude, DeepSeek и другим старшим братьям. Протестирую, насколько такая модель может помогать в разработке, и покажу, с какими багами и проблемами придётся столкнуться. Если вам интересны локальные нейросети, VS Code и программирование с LLM, этот эксперимент точно стоит посмотреть. Команда для активации бота лежит на бусти -
Исходники в телеге -
Запускаю DeepSeek на домашнем сервере с видеокартой:    • Запускаю DeepSeek на домашнем сервере с ви...   Поддержать канал копеечкой можно на Бусти. Подписчикам уровня Junior Developer и выше, ролики доступны раньше, чем на Ютубе. Присоединяйтесь:
Подписчики канала в телеграме, получают чуть больше контента, я иногда пишу свои мысли по разным поводам и иногда делаю анонсы и выкладываю информацию, не подходящую под формат канала. Присоединяйся, в общем :) Наш канал в телеге:
Наш чатик в телеге:
Наш дискорд:   / discord   База для домашнего сервера: Набор с хорошей материнской платой MACHINIST intel xeon 2650v4 32Gb ddr4:
Полезное: Компрессор для обслуживания ПК:
Использую такие радиаторы на m2 ssd:
Использую такие стяжки для кабелей:
Коды: 00:00 - Задумка vibecode 00:28 - Выбор LLM для программирования 00:55 - Настройка Continue 02:14 - Кодим бота с Qwen coder 07:29 - Telegram бот 08:19 - Нюансы нейронок 08:50 - Качество кода 10:29 - Copilot vs Qwen 11:00 - Выводы

Смотрите также