Сайт использует сервис веб-аналитики Яндекс Метрика с помощью технологии «cookie». Пользуясь сайтом, вы даете согласие на использование данной технологии.
Docker для Data Engineering: от простого контейнера до Airflow и DockerOperator
🔥 Хочешь освоить Docker и Airflow для реальных задач Data Engineering? В этом видео разберём путь от простого контейнера до production-ready ETL пайплайнов, которые запускаются в Apache Airflow! Покажу на практике, как создавать контейнеры с аргументами, переменными окружения и зависимостями, а также как запускать их в Airflow через BashOperator и DockerOperator. Ссылки: Менторство/консультации по IT – TG канал – Instagram – / i__korsakov Habr – 🔍 Что в ролике: 🐳 Быстрый старт с Docker для дата-инженера ⚙️ Разбор 4-х базовых контейнеров: от простого print до генерации тестовых данных 🔑 Как работать с аргументами, переменными окружения и requirements.txt 🚀 Интеграция Docker с Apache Airflow: запуск ETL контейнеров через BashOperator и DockerOperator 🧐 Разница между способами запуска: плюсы и минусы 💡 Практические советы для запуска контейнеров в production-оркестрации 🗂️ GitHub репозиторий с кодом: ✉️ Вопросы, обучение, консультации — пиши в личку: 💡 В конце ролика — рекомендации как внедрять Docker и Airflow в Data Engineering без боли и страданий! Таймкоды: 00:00 – Начало 00:20 – Про проект 01:05 – Docker – стандарт индустрии 02:33 – Разбор первого простого контейнера 05:11 – Разбор второго контейнера с аргументами 08:10 – Разбор третьего контейнера с использованием переменных окружения 13:10 – Разбор четвёртого контейнера с использованием Python зависимостей 16:04 – Запуск Apache Airflow и интеграция контейнеров в пайплайны 21:59 – Итог #docker #airflow #dataengineering #etl #elt #python #devops #dataengineer #apacheairflow #dockeroperator #bashoperator #production #tutorial #containerization