админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚 РЕЕСТР РКН: clck.ru/3Fmrbd
#вакансия #продуктовыйаналитик #гибрид
Продуктовый Аналитик
Компания: Яндекс «Финтех»
Локация: Москва, Санкт-Петербург
Формат работы: Гибрид
ЗП: 350-450к
Опыт работы: от 6 лет
💎Какие задачи вас ждут:
- Предлагать идеи и помогать развивать продукт
- Превращать запросы бизнеса в аналитические задачи и проекты
- Быть частью бизнес-команды, а не калькулятором на аутсорсе
- Искать уязвимые зоны и точки роста для продукта
- Генерировать гипотезы и проверять их на основе данных
- Проводить А/В-тесты
- Объяснять команде полученные результаты и помогать принимать решения!
💎Мы ждем, что вы:
- Хорошо знаете математику и владеете основами статистики
- Умеете писать аналитический код на SQL и Python
- Понимаете теорию А/B-тестирования
- Занимаете проактивную позицию
- Умеете аргументированно и доступно отстаивать собственную точку зрения и слышать чужие
- Способны видеть за числами физический смысл и находить причины явлений
- Критически смотрите на полученные результаты!
💎Что мы предлагаем:
- Сильную команду, с которой можно расти
- Сложные задачи для сервисов с миллионами пользователей
- Возможность влиять на процесс и результат
- Зарплату на уровне рынка и выше
- Премии каждые полгода для всех, кто успешно прошёл ревью
- Гибкий график работы, гибридный формат в г. Москве и Санкт- Петербурге
- Расширенную программу ДМС: оплату 80% стоимости ДМС для супругов и детей
Для связи: @vi22rec
Компания GeekSource в поисках Администратора БД MS SQL.
Трудоустройство в одну из ведущих в мире компаний по морской транспортировке сжиженного газа, нефти и нефтепродуктов, а также обслуживанию морской добычи углеводородов.
Формат работы: офисный формат работы
ЗП: от 200 на руки
✔️ЗАДАЧИ:
• Оптимизировать СУБД Microsoft SQL Server;
• Оптимизировать запросы Transact-SQL (T-SQL);
• Работа с системой Veson IMOS;
• Администрирование СУБД Microsoft SQL Server.
✔️ТРЕБОВАНИЯ:
• Опыт работы с СУБД Microsoft SQL Server от 3-х лет;
• Английский язык (чтение технической литературы);
• Опыт работы/знание Transact-SQL (T-SQL);
• Опыт администрирования/конфигурирования прикладного ПО;
✔️УСЛОВИЯ:
• Оформление по ТК РФ;
• Оклад+годовой бонус до 3-х окладов;
• Офисный формат работы (Санкт-Петербург, наб. реки Мойки, дом 3, лит. А);
• ДМС после ИС.
Резюме и вопросы: @Svetlana_sog
🌟Привет! #вакансия #ML #MLResearcher #SeniorMLResearcher #DS #DataScientist #SeniorDataScientist #Senior #Lead #MachineLearningResearcher
Меня зовут Альбина, я IT-рекрутер агентства HuntIT. Мы в поиске ML Researcher (Senior/Lead) / Senior Data Scientist в IT-компанию 01.tech. Основные проекты компании - это высоконагруженные системы, которые каждый день обрабатывают десятки тысяч запросов в секунду, терабайты данных и привлекают и поддерживают более 100 миллионов пользователей по всему миру.
🆕 ML Researcher (Senior/Lead) (от 6 лет коммерческого опыта) - важен опыт работы именно с ттоком, рекомендательными системами, uplift, NLP
Твои задачи и зона ответственности:
✅Разработка, исследование и оптимизация моделей машинного обучения для различных бизнес-задач, таких как:
-Модели оттока клиентов (churn prediction).
-Оценка качества трафика и конверсии от рекламных каналов.
-Различные задачи ранжирования и рекомендации контента.
-Uplift моделирование.
-Классификация текстов.
✅Работа с данными разных типов: структурированными, текстовыми, временными рядами и изображениями.
✅Написание качественного кода обучения и инференса моделей.
✅Проведение исследовательских экспериментов с возможностью публикаций и выступлений на конференциях.
✅Сотрудничество с ML инженерами и MLOps для интеграции моделей в продакшн.
⚡️Hard skills:
✅Опыт работы и доведения до продакшна моделей в релевантных нам областях: отток, рекомендательные системы, uplift, NLP.
✅Знание Python на уровне написания кода вне ноутбуков, применяя принципы ООП.
✅Знание популярных библиотек машинного обучения (scikit-learn, XGBoost, LightGBM, CatBoost).
✅Опыт работы с глубокими нейронными сетями, знание Pytorch, опыт обучения трансформеров.
✅Знание SQL.
Желательно:
✅опыт работы с инструментами для управления экспериментами.
✅опыт работы в AWS
⚡️Условия:
➡️ Релокационный пакет в Сербию с гибридным посещением офиса или полная удаленка;
➡️ ДМС в РФ со стоматологией после испытательного срока;
➡️ Компенсация занятий в фитнес-зале и английского языка;
➡️ Корпоративы, тимбилдинги, мастер-классы и т.д.;
💌Присылать резюме можно напрямую в лс ✨@huntitalbina✨
К великому сожалению, не готовы рассматривать людей, занимающихся проектами на фрилансе из-за другой специфики🙌
Привет, нужна помощь экперта!
Примерный фокус по задачам:
* поднять k8s с нуля на baremetal
- нужен unicorn scheduler
- нужен шейпинг network
* нужно иметь возможность поднять minicube на локальном ноутбуке
(для быстрых запусков и локальной разработки)
* используем puppet (опционально ansible)
Требуется поднять софт в k8s (+в миникуб):
* spark в k8s
- запуск спарк-аппов с любой версией python3
- spark-sql over parquet/iceberg
- dynamic allocation для spark-джобов
* minio для локального тестирования s3-хранилки
- airflow, настроить k8s-python-operator
т.е. шедуллер аирфлоу стартует контейнер, выделяется под,
отрабатывает джоба,
по ее завершению - все ресурсы освобождаются
* kafka
- работающий kafka spark streaming
- запись даных в apache iceberg
Нужен эксперт, или для разовой работы (чтобы быстро стартануть этот стек),
или для постоянного сотрудничества
Подробнее можем обсудить в личке @DmitriyS28
#вакансия #ГородМосква #удаленнаяработа #MLинженер
🔶Должность - Python ML-инженер Senior
🔶Компания - Арт-Финтех
⌨️Требования к кандидату:
- Гражданство РФ
- Экспертное владение Python
- Глубокое понимание и опыт работы с FastAPI
- Уверенное владение асинхронным программированием в Python
- Опыт разработки высоконагруженных веб-сервисов
- Знание принципов REST API и опыт их реализации
- Опыт работы с системами контроля версий (Git)
ML & LLM
- Практический опыт работы с LangChain
- Опыт интеграции и работы с LLM-моделями
- Понимание принципов промптинга и оптимизации запросов к LLM
- Опыт работы с векторными базами данных
Желательные навыки
- Опыт работы с GigaChat и YandexGPT
- Опыт работы с графовыми базами данных
- Знание Docker и опыт контейнеризации приложений
- Опыт работы с PostgreSQL
- Понимание принципов CI или CD
✅Обязанности
- Разработка и оптимизация моделей обработки естественного языка
- Поддержка и развитие существующих сервисов
- Разработка API и интеграция
🔗Условия:
Full-time, 5/2.
- Удаленная работа без ограничений, позволяющая сохранять гибкость и баланс между работой и личной жизнью.
- Трудоустройство согласно ТК, возможно заключение договора оказания услуг
- Конкурентоспособная заработная плата и система премий, зависящая от результатов работы.
- ДМС со стоматологией после испытательного срока.
- Возможности для профессионального и личного развития через участие в семинарах, курсах, лекциях.
- Дружелюбная и поддерживающая корпоративная культура, ориентированная на инновации и развитие наших специалистов.
💵Вилка до 300к рублей на руки.
🪩Немного о нас:
Группа компаний «АРТ-БАНК» более 20 лет на рынке — международный поставщик инновационных банковских программных решений. Наша компания разрабатывает ПО для финансового сектора
🖋 @Oleghols
Data Analyst
Грейд: Senior
Название компании: JDPlex
URL компании: jdplex.com
Локация: РФ
Часовой пояс: +- мск
Предметные области: другая, логистика, финтех
Формат работы: удаленка, фуллтайм
Тема проекта: другая
Зарплата: 200000-300000
Требования:
Знание языков программирования Python либо Java
Знание основных типов оптимизационных задач (LP, NLP и т.д.)
Опыт работы с пакетами оптимизации (SciPy, Pyomo, CVXPY, OptaPlanner или аналогичные)
Опыт работы с различными солверами (COBYLA, Ipopt и другие), понимание принципов их работы (сильные и слабые стороны)
Опыт линеаризации задач, постановка целевой функции и ограничений.
Опыт постановки задачи, разбиение на подзадачи
Контактные данные: @kalashnikovajdplex
#jdplex #вакансия #data #рф
Кластеризация временных рядов: хаос или скрытые паттерны?
Финансовые данные, сенсоры, котировки акций — данные приходят потоком, но как выявить закономерности и сгруппировать их правильно? Стандартные методы не работают, а временные ряды ведут себя слишком нестабильно.
Разбираем на открытом вебинаре «Кластеризация временных рядов» 5 марта в 20:00 (мск):
- Изучим метрику DTW (Dynamic Time Warping)
- Разберём методы понижения размерности
- Найдём связи в котировках акций на реальных данных
Всем участникам — скидка на большое обучение «Machine Learning. Professional».
➡️ Регистрируйтесь, чтобы не пропустить: https://otus.pw/iIy6/?erid=2W5zFJUDfeQ
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Ищем Data Engineer (Middle/Middle+/Senior) в аутстафф-компанию Top Selection для работы над зарубежным ритейл-проектом.
Грейд: Senior
Название компании: Top Selection
Локация: Не важно
Часовой пояс: МСК
Предметные области: ритейл
Формат работы: Удалёнка
Тема проекта: Мы ищем Data Platform Engineer с опытом работы в Microsoft Fabric или Databricks для построения и оптимизации дата-платформы в ритейле.
Основная задача – разработка облачной платформы обработки данных, интеграция с различными источниками и аналитика в реальном времени.
Работа в ритейле требует глубокого понимания данных о продажах, цепочке поставок, потребительском поведении и управлении товарными запасами.
Зарплата: По запросу
Обязанности:
Ключевые обязанности (MS Fabric):
- Проектирование архитектуры данных на Microsoft Fabric (OneLake, Lakehouses, Synapse Data Warehouse, Power BI).
- Разработка и внедрение ETL/ELT-конвейеров данных (Fabric Data Pipelines, Azure Data Factory).
- Оптимизация хранения и обработки данных в OneLake и Lakehouses.
- Настройка Real-Time Analytics (анализ транзакций, логистика, продажи в режиме реального времени).
- Интеграция с Power BI и построение семантических моделей.
- Оптимизация SQL-запросов для больших объемов данных в Synapse Data Warehouse.
- Автоматизация CI/CD-конвейеров (Azure GitOps).
- Обеспечение безопасности данных и соответствие стандартам работы с персональными и коммерческими данными.
Технологии, с которыми предстоит работать:
- Microsoft Fabric:
- OneLake (облачное lakehouse-хранилище данных)
- Lakehouses (совмещение Data Lake и традиционных DWH)
- Data Pipelines (аналог Azure Data Factory)
- Synapse Data Warehouse (облачный аналитический движок)
- Real-Time Analytics (потоковая обработка данных)
- Power BI & Semantic Models (бизнес-аналитика)
- KQL (Kusto Query Language) для анализа событий и логов
- DevOps & CI/CD:
- Azure GitOps, YAML-пайплайны
- Автоматизированное развертывание и управление инфраструктурой данных
Требования:
- Практический опыт работы с Microsoft Fabric или Databricks (или другим релевантным облачным стеком).
- От 2 лет опыта в data engineering и облачных хранилищах данных.
- Глубокие знания SQL, Python, Spark/PySpark, T-SQL.
- Опыт оптимизации SQL-запросов и работы с большими объемами данных.
- Понимание архитектуры баз данных и lakehouse-концепции.
- Опыт работы с ETL/ELT-процессами, DataOps, CI/CD для данных.
Пожелания:
Будет плюсом:
- Опыт работы с потоковыми данными (Kafka, Event Hubs, Stream Analytics).
- Знание ритейл-данных (ценообразование, товарные запасы, программы лояльности).
- Опыт работы с Delta Lake, Databricks ML.
- Оптимизация SQL-запросов и настройка кластера Spark.
Сертификации (желательно):
- Microsoft Certified: Fabric Analytics Engineer Associate
- Microsoft Certified: Azure Data Engineer Associate
- Databricks Certified Data Engineer Associate/Professional
Контактные данные: @mherchopurian / @remoteanalytics
#вакансия #DataEngineer #Middle #MSFabric #Databricks #Удаленно
Авито ищет опытных DS-специалистов — пройдите ускоренный отбор и получите оффер за одни выходные!
Вас ждет:
— конкурентная зарплата и удаленка по всему миру;
— возможность прокачать свой стек – разрабатывать инструменты монетизации, автоматизировать алгоритмы, реализовывать ML-проекты и улучшать пользовательский опыт;
— участие в разработке новых продуктов и сильное IT-комьюнити, которое любит опенсорс.
Успейте присоединиться к Data Science Weekend Offer до 27 февраля и развивайте крупнейший в мире сервис объявлений: https://u.to/77oDIg
Аналитик DWH
Грейд: Middle
Название компании: Itvolna.tech
Локация: РФ
Часовой пояс: Московский часовой пояс
Предметные области: другая
Формат работы: удаленный формат работы
Тема проекта: БОПОС
Зарплата: 302 000 гросс
Обязанности:
SQL, PL\SQL, Hive
- Опыт участия в проектах по созданию и развитию DWH.
- Опыт участия в проектах по созданию и развитию Data Vault.
- Опыт чтения и анализа программного кода SAS, SQL, Spark, Hive.
- Опыт составления технической и бизнес документации.
- Понимание предметной области Телеком.
- Общее понимание о налоговой декларации НДС, регламенте формирования, наполнении данными.
Требования:
Аналитическая часть
- Согласование и уточнение требований к доработкам продукта.
- Cогласование и уточнение требований к системе копирования.
- Согласование и уточнение требований к системе трансформации данных.
Разработка
- Разработка архитектуры системы копирования данных.
- Разработка архитектуры системы трансформации данных.
- Настройка тестовой центральной ETL среды и тестовой MPP Greenplum.
- Модуль управления (добавления) заданиями.
- Разработка переноса таблиц staging в конечные таблицы хранилища.
- Процесс создания view и плоских таблиц на основе мета данных для интеграции другими системами.
- Реализация ETL-процесса c копированием таблиц SAS.
- Оптимизация производительности.
- Проведение нагрузочного тестирования.
- Адаптация разработанного функционала для переноса на продуктивный стенд.
- Продуктивизация сборки витрин и создание интеграций с источниками по разработанным концепциям архитектуры.
Документация
- Разработка приемо-сдаточной документации.
- Согласование результатов на тестовом стенде.
- Участие в приемо-сдаточных испытаниях.
Контактные данные: 📱@alarionova_volna
#удаленка #РФ #вакансия #vacancy #аналитик #dwh #middle
#вакансия #DataEngineer #Middle #Senior #fulltime #удаленно #аутсорс
Ищем I Data Engineer I Middle+, Senior I Аутсорсинговая компания Top Selection
📌Уровень: middle+ / Senior
Срок привлечения: 3 месяца с возможностью продления.
Локация: РФ
ЗП:middle 200-250К на руки
Senior 350-390К на руки
Загрузка: fulltime
Оформление: как ИП
Проект: Российская сеть розничных магазинов.
📝Обязательные требования:
●Apache (Spark, Hive, Airflow) - опыт от 1 года
●Yandex Cloud - опыт 1 год
●Python - опыт от 1 года
●SQL - опыт от 1 года
●Linux - опыт от 1 года
●Docker - опыт до 1 года
●Streaming - опыт 1 год
Стек: Docker, K8S, Linux, Cloud, Terraform.
📲Контакты: @irazhura87
Хочешь обучить нейронку, но не хватает локальных мощностей? На новую видеокарту не хватает денег? Зачем покупать, когда можно арендовать!
immers.cloud — это облачный сервис, предоставляющий доступ к мощным видеокартам для самых различных задач.
💰 Экономия: тарифы от 23 рублей/час, оплата только за фактическое время использования
⚡️ Быстрый старт: видеокарты и серверы готовы к работе за пару минут
📈 Гибкость и масштабирование до любой конфигурации: 11 видеокарт на выбор
🔧 Удобство:готовые образы для ML задач, чтобы не тратить время на настройку
🎁 Подготовили приятный бонус для тебя: +20% к пополнению баланса
Поздравляем, вы на 1 шаг ближе к работе мечты 🥳
Осталось только прочитать этот пост, подписаться на канал и откликнуться на вакансию 😉
Avito Career — место, где Авито делится актуальными вакансиями и стажировками для аналитиков данных.
Подписывайтесь, чтобы найти ту самую работу ✨
⚡️Легкий способ получать свежие обновления и следить за трендами в разработке на вашем языке. Находите свой стек и подписывайтесь:
МАШИННОЕ ОБУЧЕНИЕ: t.me/ai_machinelearning_big_data
C++ t.me/cpluspluc
Python: t.me/pythonl
Linux: t.me/linuxacademiya
Хакинг: t.me/linuxkalii
Devops: t.me/DevOPSitsec
Data Science: t.me/data_analysis_ml
Javascript: t.me/javascriptv
C#: t.me/csharp_ci
Java: t.me/javatg
Базы данных: t.me/sqlhub
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Docker: t.me/DevopsDocker
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
Собеседования МЛ: t.me/machinelearning_interview
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: /channel/gamedev
Haskell: t.me/haskell_tg
Физика: t.me/fizmat
💼 Папка с вакансиями: t.me/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: /channel/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: /channel/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: /channel/addlist/BkskQciUW_FhNjEy
Вакансия: ML/DS-инженер (Network Fingerprinting & Anomaly Detection)
Немного о нас: мы строим систему, которая по низкоуровневым сетевым отпечаткам (TLS/JA3, HTTP2, TCP/IP и т.д.) определяет:
• Используется ли VPN/прокси?
• Подделан ли User-Agent (например, заявлена Windows, а на деле Linux)?
• Какая реальная ОС клиента, исходя из сетевых особенностей?
Собираем логи (JSON с отпечатками) и хотим обучить ML-модель (XGBoost, PyTorch, scikit-learn и т.п.), которая в реальном времени будет давать предсказания по REST API.
---
## Что делать:
1. Анализ данных (EDA) и фича-инжиниринг
- Изучать сырые логи (TLS, TCP/IP, HTTP2, JA3) и выделять нетривиальные признаки (MSS, Window Size, набор cipher suites, HTTP2 SETTINGS и т.п.).
2. Разработка и обучение моделей
- Выбирать и тюнить алгоритмы: XGBoost, Random Forest, нейронные сети и т.д.
- Настраивать процесс обучения и валидации (train/test split, кросс-валидация, гиперпараметры).
- Оценивать метрики (Accuracy, Precision/Recall, F1, ROC-AUC) и предлагать способы улучшения.
3. Построение ML-сервиса
- Оборачивать модель в сервис (REST API) для интеграции.
- Настраивать окружение (Docker, CI/CD).
- Продумывать MLOps: сбор новых данных, мониторинг качества, переобучение.
4. Детект VPN/прокси и аномалий
- Выявлять прокси/VPN по набору признаков (TTL, JA3, IP-блеклисты и т.д.).
- Анализировать несоответствия между User-Agent и реальной ОС (TCP/IP флаги, JA3, HTTP2).
- Разрабатывать систему порогов (threshold) или вероятностных оценок (score).
5. (Опционально) Автоматизация и масштабирование
- По желанию помогать с инфраструктурой.
- Участвовать в обсуждении архитектуры приложения.
---
## Требования:
1. ML и статистика
- Понимание классических алгоритмов (деревья решений, бустинги) и навыки тюнинга.
- Приветствуется опыт с PyTorch/TensorFlow.
2. Инструменты Data Science
- Python: pandas, numpy, scikit-learn, XGBoost/LightGBM.
- Умение делать EDA, визуализации (matplotlib, seaborn и т.п.) и строить надёжные фичи из «грязных» данных..
3. Сетевые протоколы (желательно, но можно прокачаться)
- Основы TCP/IP (MSS, Window Size, TCP Options).
- Понимание TLS ClientHello, JA3.
- Базовые знания HTTP/2.
4. DevOps / MLOps
- Docker, Git, Linux; будет плюсом опыт с CI/CD.
5. Дополнительно
- Понимание безопасности, VPN/прокси.
- Сильная математическая база (статистика, матан, вероятности).
---
## Условия работы:
- Удалённая работа (полная/частичная занятость — обсуждается).
- Небольшая команда (сети/бэкенд + ML).
- Задачи ведутся в трекере, созвоны по необходимости.
Финансовая часть:
- 100–250 тыс. руб. на руки в месяц (зависит от опыта).
- Возможны выплаты в USDT.
- доступ к [Cursor.com] (актуальные модели, например, Sonnet 3.5).
---
## Что получаете:
- Глубокий опыт в сетевых отпечатках, работа с уникальными данными.
- Полную свободу выбора инструментов (главное — результат).
- Поддержку по инфраструктуре и сбору сетевых данных.
- Интересные челленджи в ML + Security.
---
## Как откликнуться:
- Напишите о себе и прикрепите резюме/портфолио/GitHub.
- Расскажите, какой у вас опыт в сетевых протоколах или безопасности (VPN, прокси).
Контакт: [/channel/Siemons8]
💻 Бесплатный карьерный форум для молодых специалистов в IT
Найти IT — бесплатный карьерный форум для студентов и недавних выпускников IT-направлений, где тебя ждет возможность найти работу в Data Science!
Преимущества:
— Вакансии и стажировки от 40+ топовых компаний (Сбер, Авито, Альфа Банк, ВТБ и другие)
— Нетворкинг с экспертами и другими участниками
— Возможность получить обратную связь по резюме и оценить свои навыки
📍 Место и время:
18 марта, 15:00-20:00
Москва, Main Stage, Шарикоподшипниковская ул., 13, стр. 33 (м. Дубровка)
Регистрируйся и получи оффер своей мечты!
#работа #удаленнаяработа #вакансия #fullstackаналитик #аналитик #middle
Позиция: Fullstack - аналитик
Полная занятость
График: 5/2
Формат работы: удалённо
Компания: 7RedLines
Оформление: ТК РФ
Оклад на руки: 150 000 – 170 000к
Требования:
•Знание REST, SOAP, JSON, XML, XSD;
•Описания API и протоколов, а также постановки и описания задач по интеграции со сторонними сервисами (REST, SOAP, очереди сообщений);
•Понимание жизненного цикла разработки ПО, взаимодействие с бизнес-заказчиками и ИТ командами, анализ бизнес-предложений, декомпозиция задач, подготовка и проработка решений;
•Моделирование бизнес-процессов (знание нотации BPMN 2.0), инструмент Camunda;
•Опыт построения диаграмм с помощью UML;
•Знание принципов построения микросервисной архитектуры
•Участие в построении архитектуры и схем взаимодействий;
•Большим преимуществом будет опыт работы в области эл.торговли фулфилмент
•Знание SQL на уровне составления простых запросов;
•Опыт проектирования сервисных взаимодействий, в том числе с использованием корпоративных сервисных шин;
•Опыт написания документации: ТЗ, ФТ, БТ, US, AC
Обязанности:
•Формирование модели процесса в BPMN 2.0, инструмент Camunda;
•Формирование функциональных нефункциональных требований;
•Прорисовка макетов интерфейсов (при необходимости);
•Формирование UML модели (при необходимости, в рамках команды есть поддержка системного аналитика);
•Формирование спецификации REST (при необходимости, в рамках команды есть поддержка системного аналитика);
•Согласование процесса с бизнес заказчиком;
•Декомпозиция процесса на US AC;
•Получение оценки US AC у разработчиков;
•Участие в работе продуктовой команды в рамках скрама: дейли, рефайменты, планирование спринта, спринтревью, UAT, ретро;
•Работа с инцидентами, дефактами с прода и теста.
Контактная информация:
Тг: @HR7RedLines
Эл.почта: i.filimonova@7rlines.com
Островок поддержки для айтишников, которых тошнит от пафоса и токсичности, где:
– принимают каждого, независимо от его опыта и крутости кода
– подсказывают, как улучшить тот самый код
– рассказывают реальные истории из жизни IT-шников (comedy club отдыхает!)
– помогают разобраться с алгоритмами и пройти собеседования в топовые-компании, даже если ты пёс, а не математик.
Если ты хочешь левел-апнуться, больше зарабатывать и от души поржать над байками о работе в Сбере, Альфе, Яндексе от дата саентиста, который вырос из просто аналитика — подписывайся прямо сейчас!
Реклама
🚀 Data Fusion Contest 2025: пришло время заявить о себе
Что такое Data Fusion Contest 2025?
Ежегодное онлайн-соревнование по анализу данных и машинному обучению для специалистов Data Science от Т1 и ВТБ. Общий призовой фонд — 3 000 000 рублей 🔥
В этом году участников ждут 2 основные задачи:
«Label Craft» — про предсказание категории товаров.
«4 Cast» — про предсказание динамики платежей на последующие 12 недель.
И одна образовательная задача — «Distribution».
А ещё будет специальная номинация Companion за лучшие публичные решения, в которой победителей определит жюри, учитывая поддержку со стороны других конкурсантов в чате соревнования.
📆 Даты проведения соревнования: с 13 февраля по 7 апреля 2025 года.
❗️Формат — онлайн: участвовать можно из любой точки мира.
🏆 Торжественная церемония награждения победителей состоится в Москве во время конференции по анализу данных и технологиям ИИ — DATA FUSION 2025.
👉 Регистрируйся на соревнование прямо сейчас.
Информация о рекламодателе
🔥 Вакансия: Data Engineer (финтех, удаленно) 🔥
Локация: Удалённо
Компания: Бонанза Крип
ЗП: Обсуждается на собеседовании
Занятость: Полная
Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках.
Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем.
💼 Обязанности:
- Настройка пайплайнов обработки исторических данных по изменению цен в трейдинге и сигналов
- Построение view для аналитики и фротенда
- Оптимизация SQL запросов
- Организация архитектуры строения данных
🛠 Требования:
- ETL + ELT обработка данных
- Основы DevOps процессов
- Опыт с Google Cloud
- Отличные знания SQL, умение оптимизировать запросы к БД, строить индексы
- Понимание Data Lake и Data Warehouse
- Опыт работы хотя бы с 2 из 3 инструментов: Apache Airflow, Clickhouse, snowflake
- Опыт работы с Time Series Data
- Умение настраивать аналитику
- Релевантный опыт от 4-5 лет
✅ Условия:
- Полная занятость, удалённая работа
- Конкурентная зарплата, оплата в USDT или по договоренности
- Работа в часовом поясе UTC+0 ±3 часа (для удобства коммуникации в команде)
Отклики принимаются по ссылке https://forms.fillout.com/t/mnz5sDPNhSus
#вакансия #аналитик #Офис #fulltime #Junior #СПБ #Тбилиси
Должность: Аналитик данных
Локация: Спб, Тбилиси
ЗП: по договоренности
Привет!
Наша команда из подразделения Evercode Lab развивает финансовый сервис мирового уровня, которым ежедневно пользуются сотни тысяч людей по всему миру и на всех континентах. Мы растём в геометрической прогрессии и находимся в поиске Junior Аналитика
Задачи:
✅Сбор и анализ данных для выявления точек роста и возможностей для увеличения прибыли продукта (Открытые данные + анализ конкурентов)
✅Сотрудничество с командами маркетинга и разработки для реализации выявленных на основе данных гипотез
✅Составление таблиц и дашбордов для мониторинга эффектов от изменений в продукте и на рынке
Мы ожидаем:
✅Опыт в аналитике данных от 6 мес
✅Владение SQL, Python, google spreadsheets
❗️Подробнее о вакансии тут
📱 @madame_ntsama
Вакансия: Data Engineer
Всем привет! 😊
Ищем Data Engineer для небольшого бизнеса, где важны результаты, а не формальности и бюрократия. У нас никакого хардкорного enterprise, главное — реализация и работающие решения.
🔹 Занятость: проектная с возможностью долгосрочного сотрудничества
🔹 Формат: удалённый, гибкий график
🔹 Оплата: обсуждается, в зависимости от опыта и компетенций
Задачи:
🔹 Разработать систему загрузки, хранения и управления данными (файлы, API, сайты)
🔹 Развернуть и настроить инструменты для обработки данных (ориентировочный стек: Prefect, Airbyte, Redis, PostgreSQL, Minio, ClickHouse)
🔹 Оптимизировать процессы работы с данными
🔹 Проектировать базы данных для эффективного хранения и обработки информации
Что важно:
🔹 Умение проектировать и оптимизировать базы данных
🔹 Ответственность и нестандартный подход к решению проблем
🔹 Навыки работы с указанным стеком (или готовность быстро освоить новые инструменты)
🔹 Готовность обсуждать стек технологий и предлагать альтернативные решения
🔹 Ориентация на результат, а не на формальные процессы
Что предлагаем:
🔹 Гибкий график без микроменеджмента
🔹 Достойную оплату, обсуждаемую индивидуально
🔹 Возможность долгосрочного сотрудничества
🔹 Интересный проект с перспективами развития
🔹 Минимум бюрократии — максимум практических решений 🚀
Если вы заинтересованы, пожалуйста, свяжитесь с нами через Telegram: @IlyaNikolaev
Всем привет! #удаленка #middle #senior #аналитик #sa #вакансия #рф
Компания: Netbell
Локация: РФ
Формат работы: удаленный на территории РФ
Вакансия: Системный Аналитик
❕Мы ищем Middle/Middle+/Senior системного аналитика для работы над флагманским корпоративным финтех-проектом.
Если ты только начинаешь свой путь в системной аналитике и хочешь попробовать свои силы на реальных проектах, не стесняйся направлять резюме, мы рассмотрим твою кандидатуру!
С нас — современный стек и архитектура, дружная команда профессионалов и достойный оклад. От вас — опыт работы системным аналитиком от 3-х лет, интерес к финтеху и готовность к вызовам.
Что предстоит делать:
➕Заниматься только системной аналитикой!
➕Работать в продуктовой scrum-команде
➕Моделировать бизнес-процессы и сценарии
➕Проектировать систему и интеграции
➕Управлять требованиями, ставить и сопровождать задачи на разработку
➕Участвовать в дейликах, планированиях, демо, общаться с людьми (вы не ослышались)
Наши ожидания:
➕Опыт работы в системном анализе от 3х лет на корпоративных проектах
➕Опыт работы в scrum (или около-scrum) командах
➕Понимание принципов микросервисной архитектуры.
➕Желание погружаться в сложные процессы и современные решения
🚩Надо знать: BPMN, REST API, Kafka, ERD, SQL, Sequence Diagram, оркестровка и хореография.
Будет плюсом: Camunda, ArchiMate, GraphQL, CJM, S&T diagram. Знаете о DDD? Просто отлично
Что мы предлагаем:
➕Полная удалёнка
➕Аккредитованная ИТ-компания
➕Интересный продукт, современный стек, микросервисная архитектура
➕Известные клиенты из ТОП-10 в своих сегментах
➕Прокачка скиллов под руководством лидов с 8+ лет опыта
➕Достойный оклад по итогам собеседования + ежеквартальный сбор ОС с премированием лучших сотрудников
➕Возможность взять на себя дополнительные задачи за соответствующее вознаграждение
➕Премии за менторство младших сотрудников
➕Ежеквартальные бонусы и подарки лучшим сотрудникам
Ключевые навыки:
Agile / REST API / System Analysis / BPMN 2.0 / Camunda / Apache Kafka / Use case / БД / User Story / sequence diagram
Вилка: до 320к
Контакты: @annasoma
#вакансия #ML #LLM #fulltime #РФ #Middle+ #senior
Вакансия: ML-инженер с экспертизой в LLM
Компания: Ekleft (розница)
Оформление: ИП
Вилка: до 390.000 на руки
Локация: РФ (❗️)
📌 Что мы ждем:
- Опыт работы в Machine Learning (ML) от 3 лет
- Глубокое понимание Large Language Models (LLM), опыт интеграции в бизнес-процессы
- Опыт работы с нейросетевыми моделями для обработки естественного языка (NLP), такими как GPT, BERT, T5 и их аналогами
- Умение анализировать и обрабатывать данные: очистка, аннотирование, балансировка
- Знание инструментов для автоматического аннотирования данных
- Опыт построения ML-пайплайнов (MLOps) и их интеграции с продуктами
📌 Обязанности:
1. Обучение моделей для автоматизации обработки обращений
a. Анализ существующих LLM и выбор оптимальной модели
b. Создание и тестирование промтов для существующих и новых классов
c. Обработка и очистка данных, если потребуется
2. Классификация отзывов и прогнозирование
a. Разработка пайплайна на основе LLM для классификации отзывов с различных платформ
b. Построение ML-моделей для прогнозов в отчетности на основе исторических данных
3. Разработка инструментов аннотирования данных
a. Автоматизация аннотации данных
b. Улучшение моделей с учетом контекста (не обучение с нуля, а доработка пайплайнов)
4. Интеграция моделей в бизнес-процессы
a. Настройка классификации обращений и ответов
b. Разворачивание и интеграция с сервисами
5. Оценка качества генерации текста
a. Разработка и настройка метрик качества (BLEU, ROUGE, перплексия)
b. Оценка качества промтов
6. Работа с voice-ботами
a. Автоматизация обучения voice-бота с использованием LLM
b. Возможный переход на ru-BERT
📌 Технические навыки:
- ML-фреймворки: PyTorch, TensorFlow
- NLP-библиотеки: Hugging Face Transformers, SpaCy, NLTK
- MLOps: MLflow, Kubeflow, Docker, Airflow
- Обработка данных: pandas, NumPy, scikit-learn
- Развертывание и интеграция: FastAPI, Flask, gRPC
- Работа с БД: PostgreSQL, MongoDB, ElasticSearch
- Желательно: опыт работы с LLM API (OpenAI, Cohere, Llama, Claude) Soft skills
- Умение взаимодействовать с бизнес-командами и определять требования
- Способность самостоятельно формулировать задачи и находить решения
- Опыт работы в Agile (Scrum/Kanban)
☎️ Контакты: @AnyaSechkova
Успей победить DeepFake
Последние дни регистрации на Kryptonite ML Challenge. Создай решение для распознавания лиц и раздели призовой фонд 600 000 рублей.
Регистрация до 28 февраля: https://cnrlink.com/kryptonitemldsjobs3
Тебе предстоит создать модель, которая умеет:
🔹 распознавать фальшивые изображения;
🔹 сравнивать реальные фотографии одного и того же человека;
🔹 различать снимки разных людей.
Участвуй и ты сможешь:
🔸 получить шанс разделить призовой фонд в 600 000 рублей;
🔸 разработать решения в области Machine Learning и Computer Vision;
🔸 прокачать скиллы в Computer Vision, Metric Learning и Face Recognition.
Организатор хакатона – ИТ-компания «Криптонит». Подписывайтесь на их телеграм-канал – там много интересного.
Зарегистрируйся сейчас: https://cnrlink.com/kryptonitemldsjobs3
Реклама. АО НПК "Криптонит". ИНН 9701115253. erid: 2W5zFG1ko7N
#работа #вакансия #Middle #System #Analyst #Zabbix
☁️Позиция: Системный аналитик Zabbix
🏙Компания: HuntTech
💰зп: вилка: 260 - 325тр
📅формат работы: гибрид 50/50
📶Локация\Гражданство: РФ
занятость: Full-time
Контакт: @Feeelinggoood
📌Что предстоит делать:
- Сбор, формирование и подготовка функциональных требований, технических заданий на разработку/доработку автоматизированных систем;
- Настройка (совместно с техническими специалистами) компонентов вычислительной и прикладной инфраструктуры на площадке Заказчика;
- Участие в формировании списка задач для отдельных команд и рабочих групп;
- Разработка проектных решений и проектной документации;
- Подготовка технико-коммерческих предложений, спецификаций на оборудование и ПО, техническая поддержка пресейлов.
🔺Мы ждем от кандидата:
- Базовые навыки администрирования серверов Windows и Linux, либо уверенный пользователь;
- Опыт участия в проектах в роли ведущего специалиста, аналитика, архитектора или ИТ-лидера по направлению (системы мониторинга);
- Опыт проектирования инструментов мониторинга – Grafana, Zabbix, Elasticsearch/OpenSearch, Prometheus;
- Понимание технологии REST API, опыт построения sql-запросов;
- Опыт описания бизнес-процессов в нотации UML/BPMN;
- Опыт сбора, анализа и формализации функциональных требований, требований к изменениям в бизнес-процессе.
➕ Будет плюсом:
Опыт работы с системами класса CI/CD (GitLab CI, Jenkins, Argo CD и проч.), опыт автоматизации (на любом скриптовом языке программирования), опыт работы с высоконагруженными системами в отказоустойчивой конфигурации.
✉️ Как присоединиться к команде?
Если вы готов принять вызов и стать частью нашей команды -пиши: @Feeelinggoood
#vacancy #data #lead #Databricks #AWS #remote #вакансия #удаленно #relocate
Коллеги, привет!
Я в поисках Data Engineering Lead в международную финтех компанию в ЮВА.
Стек: AWS, Databricks, Spark, Terraform, Airflow, Python, Scala
Удаленный формат работы ( или гибрид). Рабочая тайм зона UTC+5/UTC+9 ( и очень важно либо уже находиться там, либо быть готовым к релокации ( поддержка переезда для сотрудника и семьи)
Основные задачи:
- Проектирование и разработка Data Lakes и Data Marts на AWS и Databricks
- Построение и управление ETL-пайплайнами в Airflow/Dagster на Python и Scala
- Автоматизация инфраструктуры с Terraform
- Оптимизация производительности BI-слоев и data pipelines
- Развивитие фреймворков качества данных для надежной аналитики
- Управление командой Data инженеров
Что важно:
- Опыт с Databricks, Spark, Terraform, Airflow, AWS, Python, Scala (как плюс)
- Опыт создания масштабируемых Data решений
- Опыт решения инфраструктурных задач
- Опыт в роли Lead/Head of Data
На все вопросы готова ответить в ЛС @akimova_hr
#вакансия #vacancy #fulltime
Архитектор данных (DWH)
Лидера рынка ритейла (не РФ) с более чем 150 маркетами по всей стране в поиске Архитектора данных (DWH) для участия в проекте по внедрению централизованного хранилища данных.
Основные задачи:
– Участие в проекте по внедрению централизованного DWH в роли Архитектора и лидера команды разработки;
– Взаимодействие с бизнес-пользователями и подрядчиками для сбора и уточнения требований к DWH;
– Разработка архитектуры хранилища данных, включая проектирование слоев, потоков и моделей данных;
– Проведение архитектурного надзора, управление данными и проведение code review;
– Подготовка технической и методологической документации;
– Контроль проектных сроков и рисков совместно с Руководителем/Менеджером проекта;
– Координация работы команд разработки в процессе реализации DWH;
– Участие в тестировании и приемке системы заказчиком;
– Оптимизация процессов ETL для работы с большими объемами данных;
– Организация мониторинга качества данных и внедрение инструментов для отслеживания инцидентов.
Требования:
– Опыт проектирования архитектуры Хранилищ Данных (ХД), слоев ХД, ЛМД и ФМД, интеграционных решений и потоков трансформации данных (ETL/ELT);
– Практический опыт работы с СУБД, Data Lake, modern data stack на базе облачных технологий (сертификация Azure — плюс), ETL-инструментами (Data Factory и другие), BI-инструментами (будет плюсом);
– Опыт работы в роли архитектора DWH или Data Lake от 2 лет (обязательно);
– Понимание архитектуры данных в ритейле или e-commerce (желательно);
– Знание и практический опыт работы с платформой Microsoft Azure Fabric;
– Уверенный английский для общения со стейкхолдерами и ведения деловой переписки;
– Опыт работы с техническим стеком SAP (например, SAP BW on Hana) — плюс;
– Готовность к работе on-site в Ташкенте минимум 50% времени (релокация — плюс).
Мы предлагаем:
– Помощь с релокацией + Релокационный пакет;
– Ежегодные премии по результатам Performance Review;
– Масштабные корпоративные мероприятия и митапы;
– Партнерские программы обучения иностранным языкам и профессиональным навыкам;
– Программу материальной помощи в различных жизненных ситуациях;
– Поддержку ментора для быстрой адаптации новых сотрудников
Контакт для отклика на вакансию @haas_mari
Всем привет!
Мы в «Центр Орбита» ищем Data Engineer уровня Senior на временный проект 🧐
Вакансия: Senior Data Engineer.
Компания: «Центр Орбита».
Локация: Москва / РФ удаленка.
Длительность проекта: 6 мес. возможно продление.
Масштабный технологический проект с глубокой экспертизой в цифровизации бизнеса. Ключевые отрасли: государственный сектор, FinTech, HR Tech, коммуникации и медиа, услуги, рынок недвижимости, travel. Нам доверяют крупнейшие компании РФ, среди них: Т1, ВТБ, Иннотех, Альфа-банк, ОИС и другие. Более 6 лет мы ведем собственную продуктовую и заказную разработку высокоэффективных цифровых решений.
Наш основной стек:
Apache Spark, Apache Airflow, Apache Kafka, Apache Flink, Yandex Cloud, Python, SQL, Linux, Docker, K8S.
Основные задачи:
• Работа над проектом в крупном ретейле;
• Разработка и поддержка ETL-процессов;
• Работа с потоковыми данными;
• Оркестрация задач;
• Работа с облачной инфраструктурой;
• Анализ и оптимизация запросов.
Пиши @Gillthunder, обсудим условия. 📃
#job #вакансия #аутстафф #удаленка #DE
Mobile analyst / Marketing analyst
Название компании: Basics.tech
URL компании: https://basics.tech
Локация: Не важно
Часовой пояс: GTM +3
Предметные области: другая
Формат работы: Удаленно
Тема проекта: Приложение фоторедактор на базе AI
Зарплата: Открыты к предложениям
Обязанности:
• Настройка и управление аналитическими системами мобильных приложений (AppsFlyer, Adjust, Amplitude, Adapty и другие).
• Интеграция SDK, атрибуционных платформ, пикселей и других инструментов для точного отслеживания трафика.
• Оптимизация работы платных источников трафика (Google Ads, Facebook Ads, TikTok Ads и другие).
• Создание систем трекинга пользователей и воронок конверсии для максимальной эффективности маркетинговых кампаний.
• Анализ пользовательского поведения и выявление точек роста для улучшения показателей вовлеченности и удержания.
• Построение дашбордов и отчетов для мониторинга ключевых метрик.
• Автоматизация процессов аналитики и отчетности для сокращения ручной работы.
• Проведение A/B тестов и оценка их результатов для повышения эффективности маркетинговых решений.
• Выявление и предотвращение аномалий, связанных с некорректным отслеживанием данных.
• Взаимодействие с разработчиками и маркетологами для внедрения передовых аналитических решений.
Требования:
• Опыт работы с мобильной аналитикой от 2 лет.
• Глубокие знания SDK, пикселей и интеграции аналитических платформ.
• Опыт работы с атрибуционными системами (AppsFlyer, Adjust) и аналитическими платформами (Amplitude, Adapty).
• Отличное понимание работы платного трафика, аналитики рекламных кампаний и методов оптимизации.
• Навыки работы с BI-системами и построения дашбордов (Tableau, Looker, Google Data Studio).
• Знание SQL, Python или других инструментов анализа данных будет преимуществом.
• Умение анализировать большие массивы данных и выявлять закономерности.
• Практический опыт работы в маркетинговых или продуктовых аналитических командах.
• Высокий уровень ответственности и самостоятельности в принятии решений.
• Готовность к быстрому обучению и адаптации к новым инструментам и технологиям.
Бонусы:
• Уникальная возможность работать в одном из самых инновационных технологических стартапов.
• Гибкий график работы с возможностью удаленного формата.
• Конкурентный уровень заработной платы с дополнительными бонусами за успешные рекламные кампании.
• Возможность реализовывать смелые идеи и экспериментировать с передовыми креативными концепциями.
• Постоянное профессиональное развитие и доступ к обучающим программам.
Контактные данные: @horoshayashura
#вакансия #vacancy #productanalyst