Position: Data Engineer
Level: Senior
Experience: 8+ лет (НЕ фриланс)
Stack: NVIDIA Triton Inference Server, Amazon SageMaker, GCP Vertex, K8S, Airbyte, Python, ETL, Data Modeling
Location: Remote
Employment: Fulltime
Languages: English B2+
КОГО ИЩЕМ:
Data AI Engineer с опытом работы с инфраструктурой AI на AWS и GCP, включая Sagemaker, Vertex, Triton и вычисления на графических процессорах.
Только fulltime, только в гибридном формате.
Нужны «рабочие руки», а НЕ технический менеджер.
Со знанием разговорного английского языка.
КТО НЕ ПОДОЙДЁТ:
Кандидаты с преобладающим или последним опытом в роли технических менеджеров: Team Lead, CTO и т.п. – это нерелевантный данной позиции опыт работы. Мы ищем «рабочие руки», а НЕ технического менеджера.
Кандидаты, которые ищут себе вторую работу. Любое совмещение будет заметно в первые 2 месяца. Нужен честный фултайм.
Кандидаты с преобладающим или последним опытом работы на фрилансе.
МЫ ОЖИДАЕМ:
Практический опыт работы от 8 лет с машинным обучением, включая классификацию, кластеризацию, прогнозирование временных рядов и обнаружение аномалий. Необходимо знать концепции и уметь работать с наиболее распространенными библиотеками.
Опыт работы с Python и опыт создания и мониторинга производственных сервисов или API от 6 лет. Опыт работы с API сторонних разработчиков обязателен.
Конвейерная обработка данных: опыт работы с SQL, ETL, моделированием данных. Опыт работы с жизненным циклом создания решений машинного обучения.
Опыт работы с инфраструктурой AI на AWS и GCP, включая Sagemaker, Vertex, Triton и вычисления на графических процессорах.
Опыт работы с Amazon SageMaker от 1 года.
Опыт работы с GCP Vertex от 1 года.
Опыт работы с NVIDIA Triton Inference Server от 1 года.
Опыт работы с Kubernetes (K8S) от 5 лет.
Опыт работы с Airbyte от 1 года.
РАЗГОВОРНЫЙ английский язык на уровне B2+ (команда англоязычная).
ЗАДАЧИ:
Integrate and Scale: Extend, scale, monitor, and manage our ever-growing pile of 100s of integrations. Ensure they are reliable and responsive.
Own the Integrations: Implement new connections and be the master and owner of these integrations.
Optimize AI Pipelines: Ensure our AI pipeline works like clockwork. Improve and support its complex infrastructure.
Model Hosting and Monitoring: Host and monitor NLP models and LLM for real-time and batch inference.
Develop Monitoring Systems: Create and support robust models for monitoring.
Support and Innovate: Assist with a long tail of super important tasks, bringing innovative solutions to the table.
МЫ ПРЕДЛАГАЕМ:
Конкурентоспособную заработную плату.
Полностью remote.
Гибкий график работы.
Работа в продуктовой компании.