Разработка с нуля. Необходимо оценить по стоимости и разово настроить систему дашбордов в Looker studio или предложить другой инструмент. ТЗ во вложении. Источник данных: таблицы Google реестр и планы графики проектов.
Обучение. Добрый день! Работаю в сфере системного анализа в логистике, но есть желание "перекочевать" в анализ данных. Есть опыт программирования, построения моделей машинного обучения, но хотелось бы погрузиться в предметную область более глубоко и сформировать необходимые навики, чтобы эффективно решать задачи. С уважением, Валентин.
Доработка существующего продукта. Требуется помощь в добавлении данных в дэшборд в даталенсе. Для этого нужно создать новую табличку в кликхаус, а к ней витрину и написать DAG чтобы корректно отрабатывал. сейчас целый код на руках есть, не совпадают именно колонки и соответственно помощь с редактированием самого дэшборда по имеющимся данным.
Data Science. Настройка. Пожелания и особенности: Кто пользуется для программирования Cursor AI / VS Code AI - проконсультировать по настройке среды разработки для выполнения кода на удалённом сервере по SSH.
Доработка существующего продукта. Провожу исследование для ВКР, необходимо в сжатые сроки провести анализ данных (количественный), написать интерпритацию.
Data Science. Доработка существующего продукта. Проект «Апробация и корректировка методики верификации данных пользователей банковской системы» направлен на анализ и улучшение процесса проверки данных клиентов банка. В рамках проекта планируется тестирование существующей методики, выявление ее недостатков и предложение корректировок. Для достижения поставленных целей будет проведен сбор и предварительная обработка пользовательских данных, разработана модель связи данных клиентов и протестирована методика верификации. По итогам работы будут сформированы рекомендации по оптимизации процесса верификации, что повысит его эффективность и точность. Результаты проекта включают аналитический отчет с подробным анализом данных, предсказательную модель и конкретные предложения по улучшению методики. В рамках проекта предполагается повышение качества базы данных клиентов, снижение уровня дублирующихся и устаревших записей, снижение операционных рисков, связанных с ошибками идентификации и верификации клиентов, рост эффективности маркетинговых кампаний за счет точного сегментирования аудитории, улучшение кредитных решений, основанных на более точных данных о клиентах, создание системы предиктивной аналитики, позволяющей прогнозировать потребности клиентов и предлагать им персонализированные банковские продукты. Задачи • Сбор и предпроцессинг данных пользователей банковской системы, формирование комплекса метрик • Построение модели связи данных на пользователей банковской системы • Апробация существующей методики верификации данных пользователей банковской системы • Формулирование рекомендаций по корректировке методики верификации данных пользователей банковской системы • Формирование итогового аналитического отчета с предложениеми по корректировке методики верификации данных пользователей банковской системы (до 13.06.2025). Базы данных имеются То есть, что делаем - нужно: Изучить требования и методики верификации данных ЦБ РФ, Центробанков других стран (отдельно рассмотреть практику Казахстана). Изучить практику сбора и предпроцессинга данных пользователей банковской системы, формирование комплекса метрик в УБРиР, добавить недостающие элементы на основе анализа. Тут примером мб следующее: Метрики базы клиентов (Количество активных клиентов, Средний баланс на счетах, Количество транзакций в месяц, Средний доход на клиента (ARPU). Метрики качества данных ( Целостность данных (процент заполненных полей), Актуальность данных (время с момента последнего обновления), Согласованность данных (отсутствие противоречий между разными источниками), Точность данных (отсутствие ошибок и опечаток)). Метрики эффективности процесса ( Время, затраченное на сбор данных, Стоимость сбора и обработки данных, Количество ошибок, выявленных в процессе обработки данных, Анализ и добавление недостающих элементов) Анализ существующих процессов ( Оценка целостности и качества собранных данных, Анализ эффективности процессов сбора и обработки данных, Выявление "узких мест" и областей для улучшения). Добавление недостающих элементов ( Внедрение новых методов сбора данных (например, использование данных из социальных сетей), Автоматизация процессов обработки данных, Внедрение инструментов контроля качества данных, Разработка новых метрик для оценки эффективности работы с данными). Далее по той же логике в итерациях нужно: Выбрать эмпирические инструменты для анализа и верификации данных. Построить модель связи данных на пользователей банковской системы. Протестировать обезличенные данные пользователей, выявить сильные и слабые стороны методики. Предложить корректировки методики верификации данных. И в конце - сформулировать рекомендации по корректировке методики верификации данных пользователей банковской системы.
Доработка существующего продукта. Сроки предварительные. Проект делаю сама, но время от времени нужна консультация по Dax (обучаюсь с нуля). Вопросы - как написать формулу под эту задачу, или почему формула не сработала, где ошибка - вот такого рода. И также частично вопросы по power bi. Буду благодарна, если кто-то сможет проконсультировать по формулам dax и работе с графиком bubbles сегодня - самой не получается вычислить нужные показатели..
Помощь в исправлении конкретных ошибок. Пожелания и особенности: ETL-проект выгрузки из HDFS и загрузки в S3. Орекстрация AirFlow. Кодовая база вся есть! Pyspark, python Есть примеры почти всех функций. Я не могу корректно их переиспользовать. Получаю ошибки которые не понимаю как исправить.
Data Science. Доработка существующего продукта. Пожелания и особенности: Необходимо создать программу на языке python. На вход программе подается название пакета для ОС-Fedora Необходимо осуществить поиск пакета по имени на сайте pkgs.org с градацией по дистрибутиву Найти все пакеты, с суффиксом содержащим ".fc" предложить с помощью меню с пунктами кандидатов на установку если такие пакеты существуют Проверить установлен ли пакет на вашу систему ( rpm -qa ) и предложить его удаление ( Y/N ) После осуществления выбора необходимо скачать и установить на систему выбранный пакет ( Binary RPM ) Для работы необходимо использовать контейнеры разработчика с окружением fedora Наполнение контейнера (в документах). Запуск программы осуществляется командой $python.py $pkg, где python.py - название вашего скрипта pkg - название пакета. Для тренировки можно воспользоваться пакетом htop Очень желательно - многопоточка с помощью ThreadPoolExecuto Основная задача - обход капчи.
Разработка с нуля, доработка существующего продукта. Необходимо внедрить существующую или написать новую нейросеть для отслеживания движения глаз в браузере, нейросеть должна работать с плеером и уметь составлять динамическую тепловую карту, которая как маска будет накладываться поверх видео, показывая, куда чаще всего смотрел зритель на экране по принципу «тепло - холодно».
создать файл со всеми событийными мероприятиями регионов ЦФО (таблица) с наименование региона, названием мероприятия, датой проведения, организатором, ссылкой на это событийное мероприятие. Пожелания и особенности: Задача: на официальных сайтах региональных исполнительных органов власти и ТИЦев найти информацию о всех событийных мероприятиях.
Data Science. Тестирование. Требуется специалист для анализа количественного этапа исследования, который сможет проанализировать базу данных ответов респондентов, построить модель исследования в R-studio и выявить значимость латентных переменных и их влияние на зависимую переменную с использованием SEM-анализа.
Data Science. Разработка с нуля. Ищу опытного Python-разработчика, который напишет скрипт для автоматического создания SEO-названий, Title, Description и описаний карточек товаров — с возможностью обработки тысяч и сотен тысяч товаров. Что у меня есть: Excel-файл с товарами: название, бренд, категория, характеристики (мощность, вес, комплектация и т.д.) Что должен делать скрипт: Прочитать Excel-файл с товарами Для каждого товара: Получить частотные поисковые запросы из Яндекс.Вордстат Разделить их на: высокочастотные (ВЧ) среднечастотные (СЧ) Проанализировать топ-5 сайтов в Google и Яндекс по названию товара Выделить ключевые фразы, которые повторяются в Wordstat и у конкурентов Используя характеристики товара + ключи, сформировать: Название (SEO + читаемое) Title (до 70 символов, ВЧ + СЧ) Meta Description (до 160 символов, естественный текст с 2–3 ключами) Краткое описание (1–2 строки, с ключами и пользой для клиента) Сохранить всё в Excel-файл с готовыми полями — для загрузки на сайт Технические требования: Язык: Python Работа с Excel (pandas, openpyxl) Парсинг Wordstat (через Selenium, API или headless-браузер) Получение выдачи из Google и Яндекса (через SerpAPI, ZenRows, или HTML-парсинг) Скрипт должен работать локально и спокойно обрабатывать 50 000+ строк Готовность доработать под импорт в CMS (у меня AdvantShop) Условия: Первый этап (MVP): 100–200 товаров Готовый скрипт должен быть масштабируем: на тысячи товаров Дополнительно: Скрипт не должен генерировать SEO-кашу — тексты должны быть читаемыми Ключевые фразы должны распределяться умно и с пользой для ранжирования Рассмотрю альтернативные предложения, если они закрывают задачу полностью Жду отклика с кратким планом, как вы реализуете задачу, и примерами похожих работ. Отвечаю быстро. Нужен результат, а не просто код.
Data Science. Доработка существующего продукта. Добрый день! Есть готовые файлы проекта по выявлению аномалий в данных для 3 моделей: dbscan, isolation forest и autoencoder, а также файл в google collab, который получает данные, обрабатывает их, обучает модели и сохраняет их. На данный момент очень низкая точность прогноза - аномальными помечаются как данные с отклонениями, так и без них. Требования: Улучшить точность прогнозов моделей (для dbscan: от 0 до произвольной точности, для isolation forest: от 70 до 80+, для autoencoder: от 45 до 80+) Сроки: 17-18 мая.
Разработка с нуля, доработка существующего продукта. 1.Помощь по анализу данных в python 2.Работа с XAI - оценка справедливости модели 3.Помощь в подготовке к дипломной работе 4.Проверка гипотез с помощью статистических методов 5.Анализ метрик и показателей точности прогноза Требования: - понимание принципов написания академической работы - Знание принципов работы с текстом с помощью трансформеров, ML - Знание python для дата-аналитики, понимание работы с текстом, знание трансформеров.
расчёты по базам данных. Срочная работа! Не пишите, если нет возможности выполнить Выгружен большой датасет по 4 регионам для: 1) фонда зарплат и среднесписочной численности работников по ОКВЭД (БДМО) 2) по смертности по причинам смерти (РосБрис, РЭШ) 3) среднегодовое население по областям (Росбрис, РЭШ) Необходимо сделать расчёты на основе этих датасетов по теме связи секторального неравенства зарплат и смертности по методичке.
Обработка данных. Здравствуйте. Нужно сделать ДЗ по анализу данных и мат.статистике. Задание состоит в обучении и подборе параметров классификаторов на одном из трёх датасетов (на питоне). Можно пользоваться deepseek, как угодно. Нужно чтобы было правильно хотя бы на 50%. Дедлайн сегодня. Плачу 2000.
Data Science. Доработка существующего продукта. Существует Google Sheets с большим количеством строк и сложной логикой требуется помочь оптимизировать его чтобы он не лагал.
Data Science. Разработка с нуля. Создать автоматическую систему обработки Excel-файлов с остатками от поставщиков и обновления этих остатков на сайте SHVEDIK.ru (на платформе AdvantShop) через API. Файлы поступают по электронной почте, и это часть автоматизации — их нужно забирать, обрабатывать и обновлять сайт. Дополнительно — исполнитель должен сам настроить VPS-сервер под эту задачу. Что нужно реализовать: 1. Получение Excel-файлов с e-mail Подключение к почтовому ящику по IMAP (например, [Email скрыт]); Автоматическая загрузка вложений с Excel-файлами (.xls, .xlsx) из новых писем; Фильтрация писем по отправителю, теме, вложениям; Перемещение писем после обработки или пометка прочитанным. 2. Обработка Excel-файлов У каждого поставщика — своя структура таблицы: разные колонки, строки заголовков, форматы; Скрипт должен подгружать конфигурацию шаблона поставщика и вытягивать нужные данные: артикул, бренд (если есть), остаток; Поддержка 10–15 разных шаблонов Excel-файлов (на первом этапе). 3. Сопоставление артикулов У поставщиков артикулы вида "123456", на сайте — "Makita-123456"; Есть справочная таблица sku_mapping.csv; Нужна подстановка бренда и проверка сопоставления. 4. Объединение остатков Один товар может встречаться у нескольких поставщиков; Скрипт должен объединять остатки по нашему артикулу; Исключать нули, дубли и недействительные строки. 5. Обновление остатков через AdvantShop API Обновление остатков батчами (по 100 товаров); Работа с авторизацией (токен), контроль статусов ответа; Обработка ошибок (не найден артикул, ошибка доступа и т.д.). 6. Логирование и отчётность Журнал обновлений: что изменено, где ошибка, какие SKU не найдены; Лог ошибок и лог успешных отправок; Хранение логов минимум 7 дней, ротация. 7. Настройка и запуск на VPS (входит в задачу) Подбор VPS-хостинга (с вашей консультацией), регистрация аккаунта; Установка Python, зависимостей, конфигурации; Автоматический запуск по расписанию (cron или systemd); Создание структуры папок, настройка логов, тестирование. Технические параметры: Язык: Python 3.10+ Библиотеки: imaplib, pandas, openpyxl, xlrd, requests, logging, apscheduler Платформа сайта: AdvantShop Почта: стандартный IMAP-доступ VPS: нужно подобрать и развернуть под ключ.
Data Science. Выполнить простое задание: составить диаграмму UML по заданным параметрам. Пожелания и особенности: Нужно выполнить 2 задания. Они простые для тем, кто в этом разбирается. У меня просто не хватает времени.
Почему стоит искать работу для фриласнеров по профилю data scientist в России у нас?
🔸 Более 2 предложений о работе за сегодня в тематике data scientist
🔸 Работа и подработка на бирже фриланса от прямых заказчиков, которым нужна помощь специалистов по профилю data scientist уже сегодня!
🔸 Свежих заказов на data scientist в России для фрилансеров на апрель 2026 года — 134 шт.
Как найти удалённую работу для фриланс-специалистов по профилю data scientist в России?
Вы специалист по data scientist и ищете проекты и заказы на удалёнке в России? Нам всегда есть что вам предложить. Ежедневно мы публикуем новые проекты и заказы по вашей специальности. Найдите интересную работу уже сегодня
Сколько проектов для IT-специалистов по профилю data scientist в России?
На апрель 2026 года опубликовано 134 предложений удалённой работы от прямых заказчиков для исполнителей по специализации data scientist
Сколько можно заработать выполняя проекты по data scientist?
Специалисты по профилю data scientist зарабатывают от 0.00 рублей с заказа. Хотите больше? Выполняйте как можно больше заказов и зарабатывайте сколько пожелаете