Тестирование, разработка с нуля, настройка. Разработка распределенной системы мониторинга промышленного оборудования на базе автономных IoT-нод. Работа с временными рядами в условиях высокой зашумленности. Стек датчиков (Input Data): 6-осевой инерциальный модуль (High-frequency IMU). Токовые трансформаторы (AC/DC Current monitoring). Климатические параметры (Temp/Humidity). Ключевые задачи: Анализ сигнатур движения: Разработка алгоритмов сегментации циклов работы оборудования на основе данных акселерометра и гироскопа (Kalman filtering, Madgwick). Частотный анализ и дефектоскопия: Выделение признаков износа механических узлов через FFT/STFT-преобразования виброакустических паттернов. Профилирование энергопотребления: Детекция аномалий в пусковых и рабочих токах двигателя для прогнозирования электрических неисправностей. Environment Correction: Построение регрессионных моделей влияния микроклимата на износ компонентов системы. Edge AI Implementation: Оптимизация классификаторов для исполнения на микроконтроллерах с ограниченными ресурсами (TinyML). Технические требования: Опыт работы с DSP (цифровая обработка сигналов) и Anomaly Detection. Python (NumPy, SciPy, Scikit-learn, PyTorch/TensorFlow). Понимание физики процессов в электромеханических системах.
Разработка ПО. Data Science. Разработка с нуля, тестирование, настройка, доработка существующего продукта. Необходимо сделать РНП систему для наших магазинов на вб и озон. Иначе - оцифровка результатов, производимая автоматически и на постоянной основе. Данные с маркетплейсов собираются по апи и интерпретируются в читаемый формат для постоянного анализа: сумма заказов, количество заказов, заказы по артикулу, рекламный расход, дрр, расчет прибыли от заказов и тд. Ищу активного, инициативного вайбкодера/программиста, который сможет на постоянной основе работать с проектом, допиливать его, тк развитие у такой системы может быть бесконечное. Не интересны специалисты с оверпрайс чеком и на разовое выполнение задачи. Если вы прочитали до конца, при отклике ответьте пожалуйста на вопросы: 1. Был ли у вас опыт вайбкодинга? Что это было? 2. Умеете ли вы писать и доделывать код самостоятельно? 3. На какую зп хотите рассчитывать, если будет предложение устроиться в штат?.
Data Science. Разработка с нуля. Автоматизация аналитической системы для Ozon Нужен Python‑разработчик / интегратор для создания MVP аналитической системы под магазин Ozon с интеграцией API, хранением истории данных и базовой причинной аналитикой. Ozon Seller API позволяет автоматизировать работу с товарами, ценами, остатками и отчётами, а MPSTATS предоставляет аналитику по продажам, конкурентам, трендам и API для интеграции с другими программами. Цель проекта Собрать систему, которая автоматически получает данные из Ozon и внешней аналитики, сохраняет историю и помогает отвечать на вопросы: почему выросли или упали продажи по SKU; что повлияло сильнее: цена, индекс цен, акции, остатки, изменения карточки, конкуренты; какие акции и изменения карточки работают лучше.
обработать опросники. Нужно обработать заполненные опросники (26 человек заполнили по 4 опросника. 4 опросника (ниже), нужно посчитать значения по всем шкалам, корреляции в соответствии с гипотезами. Ищу клинического психолога или того, кто разбирается в статистики, умеет пользоваться СПСС. 1. Личностный опросник Айзенка (EPI) для оценки личностных черт (экстраверсия–интроверсия, нейротизм). 2. Тест жизнестойкости С. Мадди в адаптации Д. А. Леонтьева и Е.И. Рассказовой. 3. Опросник способов совладающего поведения Р. Лазаруса и С. Фолкман в адаптации Т. Л. Крюковой и Е. В. Куфтяк. 4. Опросник качества жизни SF-36.
Data Science. Разработка с нуля, тестирование, настройка, доработка существующего продукта. Нужен разработчик для SaaS: обработка прайс-листов, сопоставление товаров, работа с PostgreSQL, интеграция с 1С, API, загрузка Excel/PDF.
Выполнить задание. Задание 1 . По индивидуальному заданию (скачать интересующий датасет https://www.kaggle.com/datasets?search=retail) выполнить в Power BI ряд действий: 1. Произведите расширение модели данных с использованием таблиц календаря. 2. Создайте выражения KPI с использованием выражений анализа данных (DAX) и языка M Power Query. 3. Разработайте интерактивные отчеты. 4. Результат работы (отчет строго в формате pdf – в документе должны быть представлены описание датасета, ссылки на выполненное задание, скриншоты с пояснениями и выводы) . Задание 2. По индивидуальному заданию (скачать интересующий датасет https://www.kaggle.com/datasets?search=retail) выполнить в Tableau ряд действий: 1. Постройте дашборды. 2. Выявите инсайты. 3. Оформите истории (Story). 4. Опубликуйте в своем аккаунте в Tableau Public. 5. Внедрите визуальную аналитику в Google Colab https://colab.research.google.com/ (Jupyter Notebook https://jupyter.org/) или блоги и сайты". 6. Результат работы (отчет строго в формате pdf – в документе должны быть представлены описание датасета, ссылки на выполненное задание, скриншоты с пояснениями и выводы) И итоговая работа . 2. Источник и описание данных Необходимо: • указать источник данных (собственные данные или открытые наборы) • описать структуру данных (количество таблиц, строк, ключевые признаки) • обозначить предметную область Допускается использование: • собственных данных • открытых датасетов (включая Kaggle: https://www.kaggle.com/datasets?fileType=csv) • любых публичных источников Вы не ограничены одним конкретным ресурсом. 3. ETL и подготовка данных (обязательная часть) Работа выполняется в любой аналитической платформе (Loginom, Knime, RapidMiner или аналогичной). Консолидация данных Если используются несколько таблиц: • объединить данные • описать ключи соединения • проверить корректность объединения Очистка и трансформация (ETL) • обработать пропуски • устранить дубликаты • исключить малоинформативные признаки • привести данные к корректным типам • рассчитать производные показатели (при необходимости) Preprocessing Подготовка данных выполняется в логике методологии CRISP-DM: https://www.sveurope.com/crisp-dm-methodology/ • обработка выбросов • кодирование категориальных признаков • нормализация или стандартизация (при необходимости) • подготовка данных к моделированию Каждый этап должен сопровождаться пояснением: что сделано ? зачем это выполнено ? какой результат получен. 4. Исследовательский анализ данных (EDA) — обязательная часть Необходимо: • построить описательные статистики • создать несколько типов визуализаций • выявить закономерности • определить аномалии • сформулировать аналитические наблюдения EDA должен содержать интерпретацию, а не только графики. 5. Дополнительная аналитика (рекомендуется) Для получения высокого балла рекомендуется выполнить расширенную аналитику: • ABC-XYZ анализ • RFM-анализ • классификацию • регрессию • кластеризацию Можно реализовать один или несколько методов — исходя из структуры данных. 6. Машинное обучение (при наличии задачи) Если данные позволяют: • разделить данные на обучающую и тестовую выборки • обучить одну или несколько моделей • оценить качество по метрикам • сравнить результаты • обосновать выбор алгоритма Важно описать: • какие признаки использовались • какие метрики применялись • почему выбран конкретный алгоритм 7. BI-визуализация (обязательная часть) Необходимо реализовать визуализацию результатов в одной из BI-платформ: • Power BI – использовать подготовленный датасет или обработать «сырые» данные через Power Query – создать KPI – применить DAX – разработать несколько интерактивных отчётов или • Tableau Public – построить дашборды – оформить Story – выявить инсайты или • Yandex DataLens https://datalens.yandex.cloud/ – создать интерактивный отчёт – настроить ключевые показатели – визуализировать основные аналитические выводы Визуализация должна подтверждать аналитические выводы. 8. Заключение В заключении необходимо: • сформулировать ключевые выводы • обосновать полученные результаты • при необходимости предложить рекомендации • обозначить возможные направления развития проекта ?? Критерии оценивания Оценка формируется по следующим параметрам: • полнота аналитического цикла • корректность логики решения • качество обработки данных • обоснованность выбора методов • глубина аналитических выводов • корректность визуализации • структурированность и аккуратность оформления Максимальный балл выставляется при условии: ? реализованы все обязательные этапы ? каждый этап сопровождается аналитическими пояснениями ? выводы аргументированы ? выполнена расширенная аналитика Снижение баллов возможно при: • формальном выполнении без интерпретации • пропуске обязательных этапов • логических или методических ошибках.
Доработка существующего продукта, разработка с нуля. Срок выполнения 14 мая 2026 г.изм. Антиплагиат не требуется Текст задания Нужна помощь с подбором датасета для диплома и кратким обоснованием, почему выбран именно он Тема диплома: кредитный скоринг на основе альтернативных данных Нужно подобрать датасет, который подойдет для моей логики работы: • построить базовую модель на традиционных признаках • построить гибридную модель на традиционных + альтернативных признаках • затем сравнить их по метрикам Для меня особенно важен именно вопрос альтернативных данных: • какие признаки можно корректно считать альтернативными • как их лучше выделить, собрать, смоделировать или обосновать • как сделать это так, чтобы тема диплома выглядела логично и без натяжки Важно: в дипломе не нужно доказывать, что альтернативные данные лучше традиционных • акцент должен быть на исследовании применимости альтернативных данных как дополнения к классическим признакам в гибридной модели Нужен: • подходящий датасет • понимание, какие признаки в нем взять как традиционные, а какие как альтернативные • краткое объяснение в 2–3 предложениях для диплома, почему этот датасет подходит • проверка, насколько этот датасет вообще ляжет на мой текущий код Код у меня уже частично есть, но его при необходимости можно сгенерировать или доработать отдельно — это не основная проблема • главная задача сейчас — подобрать нормальный датасет и понять, как корректно обосновать в нем альтернативные данные Я отдельно скину то, что у меня уже есть по диплому и по коду, чтобы можно было подстроиться под текущую логику работы.
Data Science. Разработка с нуля, доработка существующего продукта. Необходимо описать концепцию проекта (AI-доноры, система предиктивной аналитики поведения доноров некоммерческих организаций), описать функции, технологии и какие данные нужны, разбить данные на категории и отобразить первичную архитектуру проекта.
Data Science. Разработка с нуля. Требуется: 1. Доработка концепции ИТ-архитектуры для SaaS (верификация текущей версии). 2. Развертывание в 2 независимых друг от друга провайдерах: VC + Яндекс.
Data Science. Разработка с нуля, настройка. Команда в поисках разработчиков, креаторов и вайбкодеров для автоматизации генерации видеоконтента. Берём людей с готовыми пайплайнами и тех кто только хочет начать — велком всем. Интересуют любые форматы автоматизации создания видео — со сценарием и без, любой длительности и направленности. Подходят решения на любом стеке — чистый код, агентские пайплайны (n8n, LangGraph, Make, Crew, AutoGen), no-code, гибридные конструкции, на промптах или на API любых AI-сервисов. Любые ниши — нейроаватары, мультики, слайдшоу, реакционные ролики, подкасты с визуализацией, карусели для соцсетей, VEO/Sora-форматы, нишевые направления под конкретные сегменты. Чем нестандартнее формат — тем интереснее. Условия гибкие. Базовый выкуп пайплайна — от 5 000 до 30 000 ?, оцениваем по сложности, качеству, стабильности и тому насколько хорошо автоматизирован формат. Для уникальных и сложных решений бюджет обсуждается отдельно и может быть значительно выше. Альтернатива выкупу — подключение к нашей системе через API с процентом от каждой генерации на вашем пайплайне. Вы остаётесь владельцем, можем хостить либо у себя, либо на ваших ресурсах. Возможен гибрид — частичный выкуп + меньший процент. На ваш выбор. Минимальные требования к автоматизации (для тех у кого уже есть пайплайн): принимает сценарий или промпт на входе, выдаёт готовое видео, есть базовая кастомизация (минимум шрифты и цвета, в идеале больше параметров), стабильно работает на типовых входах. Сценарии писать не нужно — это не ваша задача, нужен сам пайплайн. Для тех кто только хочет начать — мы поможем определиться с форматом, обсудим референсы и направление, дадим конкретное ТЗ или творчество без рамок — как удобнее. Если получится — выкупаем или подключаем по API с процентом, дальше переходим к следующим форматам. Полное творчество с вашей стороны. Никаких ТЗ на 50 страниц. Согласовываем итоговый формат, принимаем работу, оплачиваем быстро. Если зайдёт сотрудничество — будем выкупать ваши следующие форматы тоже, превращаем это в постоянный поток заказов. Открыты к любым нестандартным форматам и любой географии. Работаем удалённо. Откликайтесь в личку — расскажите что у вас уже есть или с чем хотите начать.
Data Science. Разработка с нуля, настройка. Требуется специалист для настройки выгрузки данных о продажах из кассовой системы SET Retail (CSI / Кристалл Сервис) в базу данных PostgreSQL в режиме, максимально приближенном к реальному времени (near real-time). Что нужно сделать: — Подключиться к источнику данных SET Retail (внутренняя БД / файлы выгрузки / очередь / API — вариант предложить). — Проектирование схемы в PostgreSQL под хранение чеков, позиций, оплат, возвратов и отмен. — Реализовать сервис/ETL-пиплайн, который потоком забирает данные из SET Retail и загружает их в PostgreSQL с минимальной задержкой. — Обеспечить отказоустойчивость, мониторинг, логи, повторную доставку при сбоях (idempotency). — Оформить короткую документацию по развёртыванию и эксплуатации. Требования к специалисту: — Подтверждённый опыт интеграций с кассовыми системами (желательно именно SET Retail 5/10 от CSI). — Уверенный PostgreSQL: проектирование схем, SQL, индексы, партиционирование. — Опыт построения ETL/streaming-пиплайнов (любой из вариантов: Python/Java/.NET, Kafka/RabbitMQ, Debezium/CDC, cron-выгрузки — предложите своё решение). — Понимание ритейл-домена (чеки, позиции, SKU, оплаты, возвраты). Формат работы: удалённо. Результат: работающая выгрузка в PostgreSQL, проверенная на реальных данных, с документацией. Буду благодарен за предложения с оценкой срока, стоимости и кратким описанием предлагаемого подхода.
Доработка существующего продукта, разработка с нуля. Нужно создать концепцию по внедрению в медицинские кабинеты систем для сбора обратной связи (Чтобы например после приема человек не тратил время, а просто в 1-2 нажатия мог оценить и при желании написать комментарий. На данный момент у нас в медицинском центре обратная связь работает через QR-коды, что не очень удобно (так как каждый должен доставать телефон, открывать сканер, там заполнять свои личные данные и только после этого оценивать). Нужно предложить несколько более современных и удобных концепций (вариантов) с обоснованной аналитикой.
Разработка с нуля. Есть дата сет выгруженных вакансий с HH.ru, содержащий переменную key_skills (ключевые навыки упомянутые в вакансиях). Выгрузка была сделана по it-специальностям. После первичного исследовательского анализа было обнаружено, что большая доля навыков упоминается только 1 раз, предполагаем, что это описки, ошибки, синонимы и аббревиатуры. Задача: максимально стандартизировать это поле, снизить размерность данных, чтобы они были применимы для дальнейшего анализ. Проект должен быть реализован на Python.
Доработка существующего продукта, настройка, тестирование, разработка с нуля. Разработать приложение на Flask с графическим интерфейсом или интерфейсом командной строки, которое будет выдавать прогноз показателя модели машинного обучения код модели написан и сохранен. Написать краткую инструкцию пользователя по приложению Выложить все репозиторий в GitHub разместить там код , продемонстрировать работу приложения. Оформить файл README.
8 домашних заданий. Пожелания и особенности: Необходимо выполнить 8 простых заданий по аналитике данных применяя Google Colab по готовым примерам и написать отчёт о проделанной работе. Отправить задания нужно отдельными файлами. Время выполнения - 1 сутки. Сами задания прописаны в гугл-доке, внутри есть ссылки на примеры: https://docs.google.com/document/d/126Zgn10JRPqXuXfYA8WHBo0dcgjqLvRw1bsVHO44Ves/edit?tab=t.0.
Доработка существующего продукта. Необходим специалист работающий в qlik view. Помочь разобраться с моим файлом. Пример того, что нужно сделать. помочь дописать выражение - вывести клиентов с положительным итогом в гистограмме. Дописать выражение в кнопку ( при нажатии открывалось нужное поле с данными) Связь онлайн через тимс. Оплата 600 руб.час.
Data Science. Доработка существующего продукта. Нужен специалист разбирающийся в R, а именно в библиотеке survival. Имеется рыба кода, который строит графики кокса и выводит определённые коэффициенты Возникли определённые неполадки в результатах: выводятся не те результаты, которые необходимы.
Настройка, разработка с нуля. Формат работы Удаленно / гибрид Проектная занятость Срочный проект до сентября 2027 года Обязанности: Руководство научно-исследовательской работой (НИР) по теме перспективного технологического развития ПАО «Транснефть» до 2050 года; Организация и проведение форсайт-исследований; Проведение сценарного анализа и Delphi-опросов; Формирование и координация экспертных групп; Анализ перспективных технологий в нефтегазовой отрасли и ТЭК; Разработка дорожных карт развития технологий до 2050 года; Подготовка аналитических и научно-технических отчетов; Проведение экспертных панелей и стратегических сессий; Взаимодействие с Заказчиком, участие в регулярных ВКС; Подготовка материалов в соответствии с ГОСТ 7.32-2017. Требования: Высшее образование; Опыт участия в НИР, стратегических или аналитических проектах от 5 лет; Опыт проведения форсайт-исследований обязателен; Знание методов: Delphi; сценарный анализ; roadmap planning; оценка критических технологий; Опыт подготовки аналитических отчетов и дорожных карт; Понимание нефтегазовой отрасли / ТЭК; Опыт взаимодействия с крупными промышленными или государственными заказчиками; Навыки системной аналитики и стратегического планирования; Грамотная письменная речь и опыт подготовки больших отчетных документов. Будет преимуществом: Наличие публикаций, патентов; Опыт участия в отраслевых экспертных советах; Опыт работы с ПАО, госкомпаниями, институтами развития; Участие в технологических стратегиях или программах инновационного развития. Условия: Работа в масштабном долгосрочном проекте федерального уровня; Возможность привлечения собственной экспертной команды; Удаленный формат работы; Гибкий график; Долгосрочный контракт до 09.2027; Уровень оплаты обсуждается индивидуально.
Data Science. Доработка существующего продукта. Нужна помощь нужно подобрать открытый проект (из gethub) и адаптировать к работе "разработка анализ методов оптимизации обучения глубоких нейронных сетей на оборудовании с ограниченными ресурсами мобильных автономных роботов" нужна реализовать и сделать (ограниченным ресурсом может быть любой ноутбук).
Data Science. Настройка. SpeechSence с помощью ИИ-ассистента производит анализ телефонных разговоров наших сотрудников. Результаты нас устраивают. Но нет возможности выгружать эти данные в табличном формате. Нужно настроить эту выгрузку по api или подобрать подходящий сервис и реализовать через него.
Data Science. Разработка с нуля. Есть файл с кодом на С++, уже готовый Техническое задание (ТЗ) на разработку C++ программы 1. Общая постановка задачи Разработать программу на C++ для численного моделирования коллективной динамики сети нейронов ФитцХью-Нагумо (ФН) с взаимными связями. Программа должна учитывать формулы, написанные преподавателем от руки (листочки с уравнениями), а не только классическую модель из курсовой. Программа должна компилироваться в MINGW (g++), а визуализация результатов должна выполняться через Gnuplot (программа сохраняет данные в текстовые файлы, графики строятся отдельно). 2. Математическая модель (основные уравнения) Реализовать систему для каждого нейрона i в сети: · Быстрая переменная v_i (мембранный потенциал) · Медленная переменная w_i (восстановление) Уравнения (согласно пометкам преподавателя): \epsilon\frac{dv_i}{dt} = v_i - \frac{v_i^3}{3} + I_{syn} + I_{ext} \frac{dw_i}{dt} = a(v_i + b - c w_i) Где: · I_syn — синаптический ток от других нейронов · I_ext — внешний сигнал (периодический, импульсный, шум) · ?, a, b, c — параметры модели (задаются пользователем или фиксированы) Синаптический ток (универсальная форма): I_{syn} = \sum_{j} g_{ij} \cdot (v_j - v_i) Для электрической связи — линейная форма. Для химической связи — с дополнительной переменной s_ij(t) и потенциалом реверса v_rev. 3. Типы сетей (реализовать все) Программа должна поддерживать переключение между типами сети через параметр в конфигурации: № Тип сети Описание 1 1D цепочка Нейроны соединены последовательно (с соседями слева/справа) 2 1D кольцо Цепочка, где первый и последний нейроны также соединены 3 2D прямоугольная решетка Связи с 4 соседями (вверх/вниз/влево/вправо) 4 2D решетка с периодическими границами (тор) Противоположные края соединены 5 Полносвязная сеть Каждый нейрон связан со всеми остальными Количество нейронов — до 100 (задаётся пользователем). 4. Типы синаптической связи (реализовать оба) · Электрическая связь (линейная, двунаправленная, мгновенная) · Химическая связь (пороговая, с переменной s(t), может быть возбуждающей или тормозной) Параметры связи (сила g, потенциал реверса) задаются пользователем. 5. Внешние воздействия (реализовать все) Тип Форма Назначение Импульс Прямоугольный/гауссиан Проверка порога возбуждения Периодический A·sin(2?ft) Исследование резонанса Шум Гауссов белый шум Стохастическая когерентность Шум + сигнал Сумма периодического + шум Эффект стохастического резонанса 6. Что нужно вычислить (результаты программы) Программа должна сохранять в CSV-файлы данные для последующего построения графиков в Gnuplot: 1. Временные ряды v_i(t) / w_i(t) для выбранных нейронов. 2. Разности фаз между нейронами (для анализа синхронизации). 3. Пространственно-временные диаграммы (матрица: время ? номер нейрона ? значение v). 4. Зависимость отклика от частоты (для резонанса). 5. SNR (отношение сигнал/шум) или регулярность спайков в зависимости от интенсивности шума (для стохастической когерентности). 6. Скорость распространения волны (для цепочки/решетки). 7. Требования к программе · Язык: C++17. · Компилятор: MINGW (g++). · Библиотеки: только стандартные (iostream, fstream, cmath, vector, random, chrono). · Численный метод: Рунге-Кутта 4-го порядка с фиксированным шагом dt = 0.001. · Шум: генератор гауссова шума (стандартное нормальное распределение через std::mt19937). · Ввод параметров: через константы в коде или через текстовый конфигурационный файл. · Вывод: текстовые .csv / .dat файлы с разделителем , или пробелом. 8. Что должно быть продемонстрировано (итоговые результаты) Программа должна уметь воспроизводить все явления из курсовой: Явление Краткое описание Порог возбуждения Минимальный импульс, вызывающий спайк Фазовая синхронизация Переход к синхронным спайкам при увеличении силы связи Кластерная синхронизация Разбиение сети на группы с одинаковой фазой Волна возбуждения Распространение спайка по цепочке/решетке Резонанс Максимум отклика при определённой частоте стимула Стохастическая когерентность Оптимальный шум, усиливающий слабый сигнал 9. Построение графиков (Gnuplot) Программист не должен рисовать графики внутри кода C++. Вместо этого он предоставляет: · Готовые Gnuplot-скрипты (.gp файлы) для каждого типа графика. · Инструкцию, как запустить Gnuplot и получить график (например, gnuplot plot1.gp). Также добавлю файл с курсовой работой и сам файл кода.
Data Science. Решить домашнюю работу. Пожелания и особенности: Необходимо решить домашнюю работу и мини-контест, задача исследовательская, уровень МГУ, просьба не писать, если нет уверенности, уже трое специалистов с профи не смогли справиться с помощью по университетской программе AIM.
поиск данных. Поиск потенциальных покупателей на медные пластины есть полное описание оплата с каждого покупателя Оплата не всего 4000рубл. а уточняю с каждого покупателя так в день можно найти несколько покупателей.
Доработка существующего продукта. Feature Engineering (ключевая область) Проектирование, разработка и валидация признаков для моделей. Работа с различными типами данных: Структурированные данные (объявления) нормализация параметров: площадь, цена, ставка аренды производные признаки: цена за м? отклонение от медианы по рынку обработка пропусков и шума Текстовые данные (NLP) извлечение сигналов из: описаний заголовков признаки: наличие “триггеров” (срочная продажа, торг и т.д.) embeddings текстов очистка и нормализация текстов Геопризнаки генерация spatial features: плотность POI транспортная доступность пешеходный/автомобильный трафик агрегации по зонам (H3/районы) distance-based признаки Временные признаки динамика: цены экспонирование объявления сезонность time-to-sell Поведенческие и рыночные признаки частота появления объектов повторные публикации активность продавца Важные аспекты: борьба с data leakage устойчивость признаков во времени интерпретируемость влияние на бизнес-метрики 2. Построение моделей скоринга разработка моделей: инвестиционного рейтинга прогнозирования доходности оценки справедливой цены построение ансамблей моделей 3. Антифэйк и качество данных детекция: фейковых объявлений выбросов (аномально дешевые/дорогие объекты) разработка механизмов trust score объявлений 4. Работа с дубликатами построение similarity моделей: embeddings (text + structured) clustering объявлений 5. Геоаналитика построение признаков: плотность POI транспортная доступность трафик spatial clustering районов влияние окружения на цену/ликвидность 6. NLP задачи извлечение признаков из: описаний заголовков классификация и нормализация текстов 7. Исследование данных (EDA) поиск закономерностей формирование гипотез влияние факторов на инвестиционную привлекательность 8. Валидация моделей offline метрики дизайн A/B тестов интерпретация моделей (feature importance) 9. Работа с продом (в связке с Python Dev) постановка требований к ML pipeline участие в внедрении моделей контроль качества после деплоя, проектирование инструментов контроля качества (drift, деградация) Требования к знаниям и навыкам Обязательные ML / Data Science уверенные знания: классификация регрессия ансамбли (GBM, XGBoost, LightGBM, CatBoost) опыт feature engineering (ключевой навык) работа с несбалансированными данными anomaly detection Python stack pandas, numpy scikit-learn опыт работы с пайплайнами Работа с данными SQL (обязательно) опыт работы с “грязными” данными понимание data leakage Статистика проверка гипотез доверительные интервалы A/B тесты Геоаналитика H3 / GeoPandas / PostGIS spatial features NLP embeddings (BERT, sentence-transformers) opensource / frontier LLM работа с текстами объявлений Similarity / Matching cosine similarity ANN (FAISS и аналоги) Time-series / forecasting прогноз ликвидности динамика цен Интерпретируемость SHAP / feature importance объяснимый ML Требования к опыту Минимум: 5+ лет в Data Science Обязательно: опыт production ML опыт работы с: marketplace / classifieds / real estate / fintech или любыми messy данными с большим шумом Очень желательно: опыт антифэйк / антифрод опыт скоринговых моделей опыт работы с пользовательской ценностью (а не только accuracy).
Практический урок. Я обучаюсь на инженера данных, мне нужно чтобы человек который разбирается в проектировании DWH и помог бы мне в лайве понять как проектировать Star Schema, Data Vault 2.0, Anchor Modeling. Формат такой: я буду рисовать три схемы в draw.io а инженер меня поправлять, и говорить как делать, как инструктор по парашютному спорту).
Исследовательская работа. Пожелания и особенности: Здравствуйте! Нужна консультация опытного аналитика. Я исследую в магистратуре демографические процессы, и модели работают не так как нужно (по логике) нужно проверить код и проконсультировать меня. Анализ проводится в среде R. Логит регрессии.
Data Science. Разработка с нуля. Нужен скрипт, который по заданным объявлениям заходит каждый день вечером на авито, проверяет календарь бронирований и сохраняет занятые дни в файл. Нужно для оценки загрузки отелей конкурентов.
Data Science. Доработка существующего продукта. Мне необходимо с помощью кода распределить комментарии из готового датасета по группам, чтобы программа сама понимала, к какой группе отнести тот или иной комментарий.
Почему стоит искать работу для фриласнеров по профилю data scientist в Москве у нас?
🔸 Более 8 предложений о работе за сегодня в тематике data scientist
🔸 Работа и подработка на бирже фриланса от прямых заказчиков, которым нужна помощь специалистов по профилю data scientist уже сегодня!
🔸 Свежих заказов на data scientist в Москве для фрилансеров на май 2026 года — 268 шт.
Как найти удалённую работу для фриланс-специалистов по профилю data scientist в Москве?
Вы специалист по data scientist и ищете проекты и заказы на удалёнке в Москве? Нам всегда есть что вам предложить. Ежедневно мы публикуем новые проекты и заказы по вашей специальности. Найдите интересную работу уже сегодня
Сколько проектов для IT-специалистов по профилю data scientist в Москве?
На май 2026 года опубликовано 268 предложений удалённой работы от прямых заказчиков для исполнителей по специализации data scientist
Сколько можно заработать выполняя проекты по data scientist?
Специалисты по профилю data scientist зарабатывают от 0.00 рублей с заказа. Хотите больше? Выполняйте как можно больше заказов и зарабатывайте сколько пожелаете