Вакансия компании: ООО "КОМБЛОК"
О проекте:
Разработка экосистемы сервисов на базе ИИ для автоматизированного анализа контента и аудитории в мессенджерах. Реализация RAG/LoRA и open source LLM для обработки TG-контента, семантического анализа, предсказаний, генерации контента и ИИ-отчетов. Ищем сильного инженера, готового автономно закрывать задачи по подготовке данных, дообучению моделей и их эффективному развертыванию на собственных мощностях.
Мы предлагаем:
- Стабильный доход: конкурентоспособная заработная плата. Выплаты 2 раза в месяц по 50% или 1 раз в месяц (согласовывается с сотрудником).
- Гибкий формат: график 5/2. На старте (первые 2 месяца) - работа в офисе, далее возможен переход на гибридный формат.
- Профессиональную среду: мотивированная команда, отсутствие бюрократии, возможность напрямую влиять на архитектуру ИИ-сервисов.
- Развитие: реальные возможности для профессионального роста и обучения.
Обязательные требования:
- Инфраструктура и GPU: практический опыт работы с bare-metal серверами и видеокартами Nvidia. Умение конфигурировать CUDA, драйверы, мониторить утилизацию памяти VRAM и решать проблемы OOM.
- Автономность (Solo-развертывание): способность самостоятельно «под ключ» развернуть open-source модель на собственном сервере - от настройки окружения до оптимизации инференса.
- Fine-tuning: глубокие знания и коммерческий опыт дообучения LLM (Llama, Mistral, Qwen и др.) с использованием LoRA / QLoRA / PEFT на доменных данных.
- RAG-архитектура: экспертные знания пайплайнов Retrieval-Augmented Generation. Опыт интеграции и настройки векторных баз данных (PGVector, FAISS).
- Контейнеризация и оркестрация: свободное владение Docker и Docker Compose для локальной сборки и деплоя ML-сервисов.
- Сервинг моделей: опыт работы с фреймворками высокопроизводительного инференса (vLLM, TGI, ONNX Runtime).
- ML-Бэкенд: уверенный Python (FastAPI, Pydantic), асинхронное программирование (asyncio, aiohttp) и батчинг запросов для минимизации latency.
- Данные и Эмбеддинги: векторизация текста (Sentence Transformers), работа с большими массивами текстовых данных, интеграция с Postgres и Redis.
Желательные навыки:
- Оптимизация инференса: опыт квантизации моделей (GGUF, AWQ, GPTQ), применение Flash Attention и распределение нагрузки на multi-GPU.
- NLP & Парсинг: опыт извлечения сущностей (NER), анализа тональности и тематического моделирования. Опыт интеграции с парсерами (Telethon / Playwright) для real-time данных.
- Очереди и асинхронность: опыт работы с Celery / RQ для ресурсоемких фоновых задач ML.
- MLOps: базовый мониторинг моделей (Prometheus, Sentry, drift-мониторинг).
Требуемый опыт:
- Не менее 3 лет в коммерческой ML-разработке (с фокусом на LLM, RAG и инфраструктуру деплоя).
- Подтвержденный опыт вывода ML-сервисов в Production на выделенных (собственных/арендованных) GPU-серверах.
- Самостоятельность: опыт ведения ML-фич в одиночку от R&D до деплоя.
- Опыт командной работы (Git, Code Review, Agile).