Контактные центрыОфисы продажВакансии для экспертов

Data Scientist (Global capex)

IT и технические функции
BeeFREE: возможность удаленной работы
Опыт работы от 2 лет
Дата размещения: 09 февраля

Продукт Global CAPEX решает задачу повышения эффективности инвестиций в развитие сетей Билайн. В рамках продукта мы прогнозируем трафик и доходы на существующих и будущих базовых станциях, анализируем миграции и паттерны поведения абонентов, ищем локации для улучшения качества сети, строительства нового покрытия и подключения ШПД.

Итак, вам предстоит:

  • Решать бизнес-задачи с помощью анализа данных и машинного обучения.
  • Проводить поиск, выгрузку, статистический анализ и обработку данных.
  • Строить и валидировать модели машинного обучения.
  • Участвовать во внедрении DS-решений в бизнес-процессы.
  • Развивать и поддерживать полный цикл разработки DS/ML-продуктов — от постановки задачи до выведения моделей в production.

Примеры наших задач:

  • Внедрение ML-решений персонализации продуктовых предложений для клиентов (Next best offer)
  • Поиск аномалий на оборудовании, приоритизация инцидентов
  • Антифрод и кибербезопасность
  • Приоритизация строительства/модернизации базовых станций (прогноз трафика на б/с, прогноз доходности новых территорий)
  • Моделирование LTV абонентов и внедрение данной концепции в бизнес-процессы компании
  • Модели оттока, различные uplift/response модели, сегментация базы
  • А/B тестирование и аналитика кампаний
  • Построение профиля абонента: мэтчинг симкарт, поиск социальных групп, построение различных показателей профиля, эмбеддингов и фичей абонента на текстах, кликстримах, геоданных и тп.
  • Задачи с гео-данными
  • Участие в развитии DS инфраструктуры и внутренних библиотек

Мы будем рады рассмотреть вашу кандидатуру, если у вас есть:

  • Опыт работы Data Scientist от 2 лет
  • Уверенное владение Python и основными ML-библиотеками.
  • Хорошее понимание принципов работы ML-алгоритмов, опыт их применения на практике.
  • Навыки работы с SQL или Spark (можете с их помощью самостоятельно собрать и обработать данные).
  • Знание основ статистики (понимаете, что такое p-value, и умеете проверять статистические гипотезы).
  • Готовность общаться с бизнесом и отвечать end-to-end за задачу.

Будет плюсом, если вы:

  • Писали production-код.
  • Работали с Hadoop или другими инструментами нашего стека.

Наш стек:

  • Python, Spark, Hadoop, Hive, Airflow, Docker, k8s, MLFlow

    Git, Jira, Confluence

Что мы предлагаем:

  • Трудоустройство в аккредитованную ИТ-компанию
  • Свободу в принятии решений, возможность влиять на процесс и результат.
  • Развитое внутреннее DS/DA комьюнити (100+ человек) с регулярными митапами и встречами по обмену опытом.
  • Ежегодный процесс ревью.
  • Десятки Пбайт разнообразных данных — от классических табличных до гео, графов, кликстримов, текстов и картинок.
  • Развитую MLOps инфраструктуру и процессы, мощный кластер с GPU.
  • Внешнее и внутреннее обучение, участие в митапах и конференциях.
  • Гибкий график работы.
  • Полис добровольного медицинского страхования, обслуживаемый в лучших клиниках.
  • Корпоративные скидки на фитнес, обучение, путешествия и т.п.
  • Служебную сотовую связь