О проекте
Ищем Data Engineer в команду, которая строит и развивает платформу данных: от сбора и обработки до хранения и предоставления данных для аналитики, продуктовых команд и ML. Важно не просто писать запросы, а проектировать надёжные пайплайны с учётом SLA, качества данных и стоимости.
• Проектировать и развивать ETL/ELT-пайплайны (batch и/или streaming);
• Интегрировать данные из различных источников (БД, API, файлы, стримы);
• Развивать слой хранения (DWH / Data Lake / Lakehouse, витрины данных);
• Обеспечивать качество данных (валидации, мониторинг, алерты, SLA);
• Оптимизировать производительность пайплайнов и запросов;
• Работать с оркестрацией (Airflow или аналоги);
• Обрабатывать ошибки и обеспечивать надёжность пайплайнов.
Native-пользователь AI-инструментов — обязательно.
Мы ищем специалиста, который ежедневно использует ИИ-инструменты в инженерной работе: для исследования решений, подготовки черновиков документации, анализа логов и инцидентов, генерации технических артефактов, автоматизации рутинных задач и ускорения операционной работы. Важно уметь:
Обязательно:
Будет плюсом:
Этапы:
• Скрининг (30 минут);
• Техническое интервью (1 час 30 минут).
Условия:
• Работу в аккредитованной IT-компании с сильной инженерной культурой;
• Возможность не просто поддерживать инфраструктуру, а проектировать и развивать платформенные решения;
• Конкурентный уровень дохода, обсуждаемый индивидуально по вашему опыту и экспертизе;
• Гибкий график и полностью удалённый формат работы;
• Высокий уровень автономности, минимум бюрократии и реальное влияние на архитектурные решения;
• Сложные и интересные задачи с большими данными.