Цифров — AI-driven платформа для управления инцидентами в реальном времени.
Мы технологическая компания, создающая интеллектуальные B2G/B2B-решения на стыке AI, DevOps, Big Data и системной интеграции.
Наши ключевые продукты автоматизируют мониторинг, анализируют события и принимают решения в критических инфраструктурах.
У нас ты сможешь:
• работать с generative AI и боевыми ML-моделями,
• развивать масштабируемые микросервисы с высокой отказоустойчивостью,
• внедрять сложные архитектурные решения в сфере инцидент-менеджмента,
• быть частью крупного национального цифрового проекта.
Мы ищем ML-инженеров, которые хотят делать осмысленную технологию — для реального мира, а не абстрактных задач на направление Разработки интеллектуальных алгоритмов (LLM, RAG, computer vision).
Чем предстоит заниматься:
- Разработка, обучение и оптимизация моделей машинного обучения для задач:
диалоговых систем (чат-ботов) с поддержкой естественного языка (NLP/NLU/LLM);
генерации 3D-моделей по текстовому или мультимодальному описанию (text-to-3D).
- Интеграция ML-моделей в production-окружение: API, микросервисы, облачные платформы.
- Проведение экспериментов, A/B-тестирование, мониторинг качества и дрейфа моделей.
- Работа с мультимодальными данными (текст, изображения, 3D-геометрия).
- Коллаборация с командами frontend/backend, дизайнерами и product-менеджерами.
Что для этого необходимо:
- Высшее образование в области Информационных технологий, Прикладной математики, ИИ или смежных дисциплин.
- Опыт работы ML-инженером 2-4 года коммерческой разработки на Python, из них не менее 1 года прямого опыта работы с ML/LLM проектами, включая опыт в production-развертывании моделей.
- Уверенное владение Python и экосистемой ML/DL: PyTorch / TensorFlow, Hugging Face Transformers, LangChain, LlamaIndex и др.
- Самостоятельное развертывание и запуск хотя бы одной открытой LLM (например, Llama 2/3, Mistral, Mixtral, Command R+) с использованием transformers или llama.cpp.
- Практический опыт дообучения (fine-tuning) моделей под конкретную задачу (например, классификация текста, генерация кода, чат-бот) с использованием библиотек от Hugging Face.
- Понимание и применение техник квантования (quantization) для оптимизации размера и скорости работы моделей (4-bit, 8-bit).
- Умение работать с готовыми инструментами для дообучения (например, Axolotl, TRL, Unsloth).
-
Опыт работы с:
современными архитектурами LLM (Transformer, RAG, fine-tuning, LoRA, quantization);
библиотеками для обработки 3D-данных (Open3D, PyTorch3D, trimesh, Blender API и пр.);
методами генерации 3D (NeRF, DreamFusion, Point-E, Shap-E, Stable Diffusion 3D и аналоги).
- Знание принципов MLOps: контейнеризация (Docker), CI/CD, оркестрация (Kubernetes), мониторинг (Prometheus, Grafana).
- Опыт работы с облачными платформами (AWS/GCP/Azure) — желательно.
- Понимание этических и юридических аспектов использования ИИ (особенно в генеративных системах).
Будет преимуществом:
- Публикации в области NLP, компьютерного зрения или генеративного 3D-моделирования (CVPR, NeurIPS, ICML и др.).
- Опыт создания end-to-end AI-продуктов «с нуля».
- Знание Rust/C++ для высокопроизводительных компонентов.
- Опыт работы с векторными базами данных (Pinecone, Weaviate, Qdrant).
- Понимание pipeline’ов для обработки пользовательского ввода в реальном времени.
- Опыт работы с GPU (NVIDIA) и управления зависимостями (CUDA, cuDNN).
Что мы предлагаем:
- Работу в аккредитованной ИТ-компании;
- Полное соблюдение ТК РФ (оформление с первого рабочего дня, белая зп, оплачиваемые отпуска и больничные);
- Обучение за счет компании;
- Конкурентоспособный уровень вознаграждения;
- Годовой бонус по результатам работы;
- Гибкий график работы: мы за work-life balance и свободу в организации рабочего времени, главное, чтобы задачи были выполнены в срок;
- Спокойная работа по спринтам без суеты;
- Штаб-квартира компании располагается в Москве в 10 минутах пешком от м. Новослободская / м. Маяковская (формат работы обсуждается).