Сайт использует сервис веб-аналитики Яндекс Метрика с помощью технологии «cookie». Пользуясь сайтом, вы даете согласие на использование данной технологии.
Локальная нейронка для вайбкодинга! Telegram бот на Qwen 2.5
Локальные LLM для вайбкодинга — реально ли это работает? Я запустил qwen 2.5 coder на своём домашнем сервере для нейросетей и подключил нейронку для разработки прямо в Visual Studio Code через расширение Continue. В ролике мы попробуем написать Telegram-бота на TypeScript и NestJS, полностью положившись на локальную модель, стараясь не обращаться к chat GPT, Claude, DeepSeek и другим старшим братьям. Протестирую, насколько такая модель может помогать в разработке, и покажу, с какими багами и проблемами придётся столкнуться. Если вам интересны локальные нейросети, VS Code и программирование с LLM, этот эксперимент точно стоит посмотреть. Команда для активации бота лежит на бусти - Исходники в телеге - Запускаю DeepSeek на домашнем сервере с видеокартой: • Запускаю DeepSeek на домашнем сервере с ви... Поддержать канал копеечкой можно на Бусти. Подписчикам уровня Junior Developer и выше, ролики доступны раньше, чем на Ютубе. Присоединяйтесь: Подписчики канала в телеграме, получают чуть больше контента, я иногда пишу свои мысли по разным поводам и иногда делаю анонсы и выкладываю информацию, не подходящую под формат канала. Присоединяйся, в общем :) Наш канал в телеге: Наш чатик в телеге: Наш дискорд: / discord База для домашнего сервера: Набор с хорошей материнской платой MACHINIST intel xeon 2650v4 32Gb ddr4: Полезное: Компрессор для обслуживания ПК: Использую такие радиаторы на m2 ssd: Использую такие стяжки для кабелей: Коды: 00:00 - Задумка vibecode 00:28 - Выбор LLM для программирования 00:55 - Настройка Continue 02:14 - Кодим бота с Qwen coder 07:29 - Telegram бот 08:19 - Нюансы нейронок 08:50 - Качество кода 10:29 - Copilot vs Qwen 11:00 - Выводы