Сайт использует сервис веб-аналитики Яндекс Метрика с помощью технологии «cookie». Пользуясь сайтом, вы даете согласие на использование данной технологии.
Знания LLM ограничены данными, которые она видела в процессе обучения. Поэтому ответы на вопросы по актуальным новостям могут быть неполными или неточными. Чтобы решить эту проблему без частого и дорогого дообучения на новых данных, придумали RAG — технику, добавляющую в контекст LLM внешнюю информацию. В новом ролике Илья Димов показал, как собрать простейшую RAG-систему. Ссылка на код: А больше о том, как строить реальные RAG-системы, типовых проблемах и их решении рассказываем на наших курсах: LLM: LLM Pro: 0:00:00 | Задаем вопросы LLM 0:02:00 | Как-то автоматизировать процесс поиска релевантной информации? 0:03:10 | Retrieval augmented generation или RAG 0:05:20 | Алгоритмы информационного поиска 0:06:10 | Используем векторную модель 0:07:00 | Модель-эмбеддер 0:08:50 | Добавляем реранкер 0:10:00 | Почему бы нам не использовать реранкер сразу на все чанки? 0:11:00 | Проблемы RAG