Data Engineer
Описание вакансии
Что необходимо, чтобы все пошло как надо:
- самостоятельность
- ориентированность на бизнес
- Опыт работы со Spark-ом ( Python api, опционально Scala api)
- Разбираться в экосистеме Hadoop (HDFS, Hive)
- Опыт работы с Apache Airflow или схожий опыт с другими оркестраторами
- Наличие DevOps скиллов приветствуется
- Опыт работы с БД: PostgreSQL
- Желателен опыт с Apache Sqoop
Что мы предлагаем:
- Возможность брать много ответственности — наши инженеры самостоятельно драйвят большие и сложные фичи внутри продукта;
- Работу с сильной технической и продуктовой командой (у нас работают ребята из лучших ИТ-компаний России и Узбекистана);
- Продуктовый подход. Опираемся на исследования и метрики, фокусируемся на результате, который помогает доставлять товары за один день, независимо от стоимости заказа и региона;
- Гибкий график. Никто не контролирует, во сколько ты начинаешь работать, главное — результат, который ты пообещал достигнуть;
- Свобода действий. Каждый имеет возможность настраивать процессы, включаться в разнообразные проекты, запускать и развивать свои идеи, которые нужны людям;
- Работу удаленно или гибридно в офисах в Москве и Ташкенте;
- Работу в штате по бессрочному трудовому договору;
- Достойную и своевременную оплату труда;
- ДМС после успешного прохождения испытательного срока, страхование в поездках по России, Узбекистану и миру;
- MacBook Pro в качестве рабочей машины.