Разработка автокомплита для тегов в VibeScribe с Codex

Автоматическое саммари по записи стрима: Многие разработчики замечают, что модели OpenAI со временем как будто «тупеют». Похоже, это не просто ощущение, а реальная тенденция, чтобы новые версии выглядели выигрышнее. Практический тест в Cursor показал, что ни GPT-5, ни Sonnet, ни Opus не смогли сходу создать рабочий UI-компонент — большинство решений просто не компилировались. Самый адекватный результат из всех моделей в Cursor неожиданно выдал Gemini, хотя его код всё равно был далёк от нужного дизайна и функциональности. В итоге помог не поиск «лучшей» модели, а возврат к Codex. Секрет оказался в серии точных, итеративных запросов с указанием конкретных нативных компонентов. Даже когда инструмент генерирует 90% рабочего кода, финальная «полировка» интерфейса — отступы, размеры, поведение при фокусе — всё равно остаётся за разработчиком. Донаты: https://www.donationalerts.com/r/pfra...
VK Видео:
О стримере:
Чат вайбкодеров:
Музыка на фоне:    • 2 hours Jazz mix — ROYALTY FREE — Copyrigh...   00:00:00 — Вступление 00:02:30 — Первый запрос к Codex 00:05:28 — Постановка задачи: автокомплит тегов 00:06:25 — Почему качество GPT со временем падает 00:14:53 — Провальный результат от Codex 00:20:06 — Попытка с Claude Sonnet 00:26:28 — Сравнение моделей через Cursor 00:32:50 — Тестирование Gemini, GPT-5 и Sonnet 00:37:29 — Вывод: Аксиома Эскобара 00:49:55 — Возврат к Codex с точным промптом 00:56:00 — Codex создает рабочую основу 01:02:15 — Итеративная доработка UI 01:28:30 — Финальный результат и ручные правки 01:36:28 — Итоги и планы

Смотрите также