Data Science. Настройка, разработка с нуля. Пожелания и особенности: Требуется IT специалист/разработчик/технический руководитель Приглашаем в крупный Start Up проект технического специалиста, разработчика. Если ты всегда хотел стать частью чего-то масштабного, самореализоваться и заработать, то тебе к нам. Условия: - Удаленный формат работы 90% - Отсутствие дресс кода - Амбициозные задачи - Возможность хорошего заработка оклад 120 000 + % + бонусы. Совокупный доход до [Телефон скрыт] - Официальное оформление/Самозанятый/ГПХ/ИП Задачи и требования: - Глубокая техническая подкованность!!! - Разработка, интеграция, тех поддержка CRM - Разработка сайтов - Разработка приложений (как преимущество) - Интернет маркетинг (как преимущество) - Фактическое проживание Москва/Московская область. - Смекалистость, оперативное решение задач, честность и ответственность. Точно не подходишь, если: - не предлагаешь решения - хочешь сразу 1 000 000 - просишь аванс за составление плана/стратегии своей работы - много говоришь, хороший теоретик, но мало делаешь - супер занят, много заказов.
анализ матрицы, созданной по соц. опросу в классе. Мне нужно заполнить Социометрию Джекоба (Якоб) Леви Морено по классу. Весь нужный материал скину. У меня три матрицы: эмоциональный, деловой и личностный критерии. Каждая матрица заполнена. На фото - пример готовой матрицы. У меня заполнены - и +, а вот "количество выборов" и "уровень социометрической позиции" - нет. Вам нужно под каждой матрицей заполнить таблицы по отрицательным, положительным выборам и таблицу по позиции учеников в классе. Работа достаточно объемная. Готова предложить 1800, но можем договориться. Дедлайн - 24.05 23:59.
Разработка ПО. Data Science. Доработка существующего продукта, настройка. Список вопросов по Power BI: 1. Вопрос по созданию динамических текстовых полей У нас есть динамические текстовые поля, которые раньше работали, но сейчас если создавать новое такое поле, то оно не работает и мы не понимаем почему 2. Переносы листов с закладками Хочется переносить листы из одного отчета в другой с сохранением закладок 3. Интеграция с GIT Интеграция с гит и написание кода в vs code, нужно для быстрой раскатки изменений на все модели сразу.
Проверка текста на правильность использования анализа данных и биостатистики. Имеется текст медицинской статьи, где используется анализ данных и статистические методы. Требуется проанализировать работу и сказать, правильно или не правильно были использован стаистические методы и анализ данных. Если потребуется - указать на ошибки и указать способы их исправления.
Data Science. Доработка существующего продукта. Требуется провести аудит кода на Python: парсинг данных из директории Гауссовское распределение Формирование классов на основе распределения Расчёты score Обязательно математическое образование.
Data Science. Разработка с нуля. Нужен качественный поиск позиции в номенклатуре. Они могут различаться по написанию(иногда очень сильно), но по смыслу одно и тоже. В общем, поиск по неточным совпадениям.
Data Science. обработка данных. Обработка медицинских данных с использованием алгоритмов машинного обучения (RF, логистическая регрессия и др.) с целью прогнозирования рисков.
Разработка с нуля. Https://docs.google.com/document/d/1-RwfSVX-rRpAfP50XQnhDhxSiI0zumBv/edit?usp=drivesdk&ouid=109321233878645189752&rtpof=true&sd=true.
Создать проект из 5-8 слайдов с визуализацией данных на определенную тем. Пожелания и особенности: Создать проект из 5-8 слайдов с визуализацией данных на определенную тему. Данные должны быть открытыми (прислать ссылки на сайт/документ откуда были взяты данные). Проект должен содержать: Не менее 4-х визуализаций. Не менее одной карты Не менее одного изотайпа. Возможны схемы, таймлайны, иерархии. Формат произвольный, приветствуется: презентация, карточки в соцсети. Пожалуйста, не делайте лонгриды и лендинги. •Критерии: 1. Точность данных: визуализация должна быть основана на точных и релевантных данных (понятный и релевантный источник, желательно наличие лицензии, под которой данные распространяются). Используемые данные и расчеты на них не должны вводить в заблуждение и искажать действительность. 2. Правильность выбора графика: выбор графика или диаграммы должен соответствовать представляемым данным с учетом таких факторов, как тип данных (например, категориальные, числовые), цель визуализации и аудитория. 3. Оформление визуализации: визуализации должны быть привлекательными и простыми для понимания без лишнего визуального мусора. 4. Текстовое сопровождение: необходимо объяснить поведение данных с помощью дополнительных подписей, соблюдая правила типографики и базовые принципы оформления текста. Должны быть использованы заголовки (разных типов), подписи единиц измерения, подписи осей, текстовые аннотации, источники и акценты. 5. Логика и полнота повествования: слайды должны быть расставлены в порядке повествования последовательно объясняя выводы, сделанные на основе данных. 6.Единообразие проекта: все слайды проекта должны быть оформлены в едином стиле (шрифты, цветовая гамма, стиль оформления), с сохранением единой сетки и полей. *при создании визуализаций желательно использование datawrapper, figma.
решение тестовой задачи. У меня не стоит программа, пользуюсь оналайн компилятором пайтон. Не могу разобраться как решить эту задачу. Застряла на моменте прописывания пути к файлу (файл в облаке). Создайте скрипт или автоматизированный процесс с использованием инструмента по вашему выбору (например, Python, Google Sheets), который: Считывает данные из предоставленного CSV: orders.csv, содержащего колонки аналогичные таблице Sales. Определяет клиента с наибольшей общей суммой покупок за предыдущий месяц. Создаёт отчет в CSV формате с полями: customer_id, total_purchase_amount, order_count. Инструкция Распакуйте предоставленный CSV-файл в вашей рабочей среде. Напишите скрипт, который осуществляет следующие шаги: Загрузка и обработка данных. Фильтрация данных по предыдущему месяцу. Группировка и вычисление общих сумм покупок и количества заказов. Сохраните результаты в новом CSV-файле или Google Sheets, если используете его. Приложите код на питоне или ссылку на Google Sheets, если используете его.(не забудьте предоставить доступ к файлу).
Data Science. Консультация по проектной работе. Нужна только практическая часть без оформления. Работа по теме "анализ влияния информационного потока на стоимость акций". Выполнять нужно в Jupiter Notebook. Требуется найти датасет с новостями/новостными заголовками и разметить их на сентимент(позитивный/негативный/нейтральный). Далее этот сентимент нужно будет сопоставлять со стоимостью акций и предугадывать их стоимость. Использовать Финберт модель как вспомогательный инструмент.
Data Science. Доработка существующего продукта. Написание алгоритма (Delphi, запросы microsoft sql) , отладку и тестирование кода создания новых таблиц при создании юзером новой строки записи (изм.1) из текущих таблиц имеющих запись (изм.0).
Data Science. Доработка существующего продукта. Есть файл, для него необходимо написать код на питоне либо вба, чтобы был адекватный подбор высоты для строчек, чтобы не было лишних пробелов и текст не был скрыт.
Разработка с нуля, доработка существующего продукта, тестирование, настройка. О нас: ООО "АЛЬФАКОМ" — ИТ-компания, специализирующаяся на обслуживании территориально распределённых ИТ-инфраструктур, органов государственной власти и крупных предприятий РФ.Мы разрабатываем, внедряем и поддерживаем собственную платформу на Laravel (Laravel, Livewire, Vue.js, jQuery, Bootstrap), адаптированную под специфические задачи заказчиков. Обязанности: Анализ потребностей компании или организации и создание эффективной системы баз данных в соответствии со спецификой деятельности заказчика. Выбор подходящих инструментов и языков программирования. Разработка базы данных. Обеспечение эффективной работы базы данных. Обслуживание и модернизация базы данных. Обеспечение информационной безопасности. Выявление и устранение ошибок, работа с комментариями пользователей базы данных. Проведение анализа работы созданной базы данных. Работа в команде с системными администраторами, программистами и архитекторами баз данных. Мониторинг, настройка и оптимизация производительности Oracle Database (11g/12c/19c). Настройка резервного копирования и восстановление (RMAN, Data Pump). Оптимизация SQL/PLSQL-запросов и устранение узких мест. Обеспечение отказоустойчивости и бесперебойной работы СУБД. Поддержка миграции данных и обновлений платформ. Взаимодействие с командой разработки на Laravel: анализ SQL-нагрузки, оптимизация ORM-запросов (Eloquent), участие в ревью миграций. Разработка сопроводительной документации и эксплуатационных регламентов. Требования: Опыт администрирования Oracle Database от 2 лет. Владение специальными языками программирования (SQL, PL/SQL). Умение проектировать, разрабатывать и тестировать базы данных. Опыт сопровождения, настройки и модернизации баз данных. Навыки анализа производительности и нагрузки на СУБД. Умение готовить техническую документацию. Опыт взаимодействия с командами разработки и эксплуатации. Обязательные технические навыки: Уверенное владение СУБД: o Oracle (приоритет) o PostgreSQL o MS SQL Server Опыт работы с ОС: o Unix/Linux o Windows Server Знание инструментов Oracle: RMAN, OEM, AWR, Statspack, Data Pump, TKPROF. Навыки оптимизации SQL/PLSQL-запросов. Опыт резервного копирования и восстановления данных. Ключевые навыки: SQL / PL/SQL Oracle Database (11g–19c) PostgreSQL, MS SQL Server Оптимизация запросов Резервное копирование / RMAN AWR / OEM / TKPROF Linux / Windows Server Проектирование БД Laravel (взаимодействие с ORM) Подготовка технической документации Личностные качества: Самостоятельность и ответственность. Внимание к деталям. Умение анализировать и предлагать решения. Готовность к командной работе и взаимодействию с разработчиками. Мы предлагаем: Участие в проектах федерального масштаба. Работу с критически важными данными и высокими стандартами надёжности. Официальное трудоустройство, стабильную белую зарплату. Компания входит в реестр аккредитованных IT-компаний Удалённый формат работы. Профессиональное развитие.
Построение диаграмм/графиков по данным из PSPP. Необходимо оформить аналитический отчёт по результатам анкетирования (7 вопросов) в Excel. Все расчёты и статистический анализ (частоты, описательные статистики, кросстабы, корреляции и т.д.) уже выполнены в PSPP. Требуется визуализировать результаты: подобрать и построить диаграммы/графики по каждому вопросу и оформить итоговые таблицы для отчёта.
Анализ базы данных для курсовой (503 города). Анализ данных - Проделать работу в Excel или SPSS - Кластеризация по Вардаку с использованием готовой БД (503 города) - Анализ кластеризации - Построить дендрограмма и посмотреть, на какие группы распадаются. Какие есть характеристики.
Доработка существующего продукта, настройка. Нужен аналитик что бы грамотно сравнил цены и вывел конкурентную для нашего фулфилмента Работаем с упаковкой и доставкой товаров для маркетплейсов Оформление прайса.
Data Science. Разработка с нуля. 1. Умный календарь БАДов (AI Supplement Scheduler) Задача: Разработать модуль, который автоматически составляет индивидуальный календарь приёма витаминов и пищевых добавок для пользователя. Функционал: Пользователь вводит свои предпочтения, цели, список принимаемых БАДов, дозировки, противопоказания. AI-модуль формирует оптимальный график приёма с учётом рекомендуемых интервалов, времени суток, совместимости добавок. Реализовать push-уведомления о времени приёма каждой добавки. Модуль должен отслеживать пропуски и предлагать корректировки режима. Данные о приёме сохраняются в профиле пользователя и могут быть экспортированы. 2. Распознавание калорий по фото (AI Food Recognition) Задача: Реализовать компьютерное зрение для автоматического определения состава и калорийности блюд по фотографии. Функционал: Пользователь фотографирует блюдо через приложение. Модуль выделяет и классифицирует продукты на фото (например, яблоко, банан, мясо и т.д.). Оценивает размер порций, рассчитывает калорийность и БЖУ (белки, жиры, углеводы). Ошибка распознавания не должна превышать 16%. Результаты автоматически заносятся в дневник питания пользователя. Возможность ручного редактирования результата пользователем. 3. Контроль техники упражнений (AI Pose Estimation) Задача: Разработать функцию “виртуального тренера”, анализирующую технику выполнения упражнений через камеру смартфона. Функционал: Использовать алгоритмы распознавания позы (pose estimation) для отслеживания ключевых точек тела пользователя в реальном времени. Оценивать правильность выполнения упражнения: осанка, амплитуда, углы сгибания, симметрия движений. Давать пользователю обратную связь (текст/графика): что исправить, как улучшить технику. Сохранять историю тренировок и прогресс пользователя. Обеспечить работу модуля на устройстве (Core ML/Apple Vision) для приватности и скорости. 4. Персональный профиль и хранение данных Задача: Разработать систему персональных профилей с безопасным хранением и синхронизацией данных. Функционал: Пользователь указывает параметры тела (рост, вес, возраст, цели). В профиле сохраняется история приёма БАДов, калорий, тренировок. Данные должны храниться в зашифрованном виде, синхронизироваться через облако. Поддержка интеграции с Apple HealthKit (и в перспективе – с другими платформами). Реализовать экспорт и удаление данных по запросу пользователя. 5. Лента новостей и обзоров БАД Задача: Создать информационный раздел с актуальным контентом о ЗОЖ, фитнесе, добавках. Функционал: Регулярно обновляемая лента статей, обзоров, новостей. Категоризация контента (витамины, спортпит, диеты и т.д.). Поиск по ключевым словам и фильтрация по категориям. Возможность сохранять избранные материалы в профиль пользователя. Контент должен быть научно обоснован и проходить модерацию.
Data Science. Разработка с нуля. Добрый день! Необходима помощь в выполнении преддипломной практики на тему "Разработка информационно-аналитической модели прогнозирования спроса на образовательные услуги" на базе Московского университета им. С.Ю. Витте. Набор данных во вложении в формате csv., собирался вручную, если возникнет необходимость - данные можно подкорректировать. В работе необходимо: – выбрать модели и инструментальные средства интеллектуального анализа больших данных – провести анализ вычислительных ресурсов и инфраструктуры для интеллектуального анализа данных – выбрать DLM для решения поставленной задачи – выбрать вариант интерфейсной части (front) информационной системы. – составить техническое задание на разработку / модификацию / проектирование / обучение / развертывание составляющих компонентов корпоративной информационной системы. – сформировать материалы для аналитической частей выпускной квалификационной работы – сформировать предложения по архитектуре системы глубокого обучения (DL) для решения конкретной задачи – выбрать необходимые библиотеки для DL – провести обучение и подобрать оптимальные параметры архитектуры DL – провести оценку метрик качества DL – разработать прототип информационной системы / программного модуля для Front части ИС О чем я прошу вас - разработать программную часть данной работы, написанием теоретической части отчёта я займусь сам. Предлагаю следующий вариант взаимодействия: первое занятие - обсуждение работы, требований и оплаты. Саму работу предлагаю поделить на части (и соответственно оплачивать по частям): - анализ и очистка данных, - выбор модели и ее обучение, - тестирование и улучшение, - разработка визуального интерфейса (необходимость визуального интерфейса еще обсуждается с преподавателем). Между этими частями предлагаю проводить платные (репетиторские) занятия, где я смогу задать вопросы по выполненной работе, которые необходимы для написания отчёта. Мне важно взаимодействие с вами, т.к. данная работа тесно связана с дипломной, и, соответственно, хочу понимать процесс происходящего. Язык разработки: Python Среда разработки: Google Collab Библиотека визуализации интерфейса: Tkinter В приложении также представлены файлы с требованиями к работе и шаблон отчёта, прошу обратить внимание.
Анализ исходных данных. Пожелания и особенности: Вы работаете аналитиком компании, которая занимается цифровым обучением. Руководство хочет понять, есть ли факт фальсификации обучения, аномалии в данных и просит Вас проанализировать данные, которые хранятся в базе. Что нужно сделать: Изучите данные и подготовьте ответы на вопросы руководства. Вы можете использовать любой инструмент. Вопросы: 1.1 Какое среднее, минимальное и максимальное время прохождения курса? Есть ли аномально короткие или длинные прохождения? Какой вид имеет распределение времени прохождения? 1.2 Какое среднее, минимальное и максимальное количество попыток? Есть ли аномалии в данных? Какой вид имеет распределение количества попыток? 1.3 Какой средний, минимальный и максимальный процент прохождения? Есть ли аномалии в данных? Какой вид имеет распределение процента прохождения? 1.4 Какая средняя, минимальная и максимальная оценка? Есть ли аномалии в данных? Какой вид имеет распределение оценок? 1.5 Существует ли корреляция между количеством попыток и временем прохождения? 1.6 Существует ли корреляция между процентом прохождения мероприятия и оценкой за мероприятие? 1.7 Выделите из наименования мероприятия дорогу. Ответьте на вопросы выше отдельно для каждой дороги. Выделите ТОП-5 дорог с наименьшим средним временем прохождения мероприятий. 1.8 * Изучите датасет. Выявите некорректные / аномальные данные по Вашему мнению. Сделайте выводы. Пример: https://colab.research.google.com/drive/1FjcMxTWJOstRXRvm9CbSkYuYqDV4YuNA?usp=sharing Используя корпоративный стиль компании визуализируйте получившиеся результаты или их часть в виде диаграмм и расположите их на одном экране или соберите дашборд Исходные данные указаны в ссылках в файле "анализ данных" Подготовить отчет о проделанной работе по шаблону во вложении.
Разработка с нуля. Нужно выполнить динамическую таблицу для рфм-сегментации по отчету из 1с. Т.е. лист в экселе, куда можно будет вставить выгрузку из 1с (3 скрин) и оттуда будет заполняться таблица с самой сегментацией (1 и 2 скрины). В самой выгрузке клиенты дублируются большое количество раз, т.е. даже если клиент купил один раз, но не сколько позиций, на каждую из позиций будет отдельная запись. Нужно отчистить от дублей за выбранный период, суммировать покупки клиента и разбить их по категориям (есть один флагманский товар, по которому интересует динамика продаж и отдельно - все остальные товарные категории), затем присвоить всем уникальным клиентам сегмент (RSxRxFxMx) и далее уже проанализировать сегменты по критериям, указанным в таблице (1 и 2 скрин) Соответственно, перед этим хорошо было бы проверить выгрузку на потенциальные ошибки, которые могут подпортить данные Если есть принципиальная разница по объему/цене работы, то напишите пожалуйста ценник за два варианта: 1) Сегментация и анализ уже готовой выгрузки 2) Подготовка таблицы, в которую можно будет неограниченно подгружать выгрузки за разные периоды (суммарный объем около 25к строк).
1 задание. Пожелания и особенности: Dash: https://dash.plotly.com/ Example Dash: https://colab.research.google.com/drive/1OSe0QXgfEoTY7Vp9Uiis_HeN9zKaUoHx?usp=sharing Example Dash (Git): https://github.com/yupest/dash-apps Библиотека к dash для создания дашбордов: https://dash-draggable.readthedocs.io/en/latest/index.html Deploy Pythonanywhere: https://youtu.be/WOWVat5BgM4?si=P-J8h5Bv3s_zLL-R Deploy Render: https://render.com/ Дополните пример (https://dash.plotly.com/minimal-app): Реализуйте возможность выбора нескольких стран, чтобы их можно было сравнить на линейном графике (заменить существующий фильтр). Добавьте элемент управления для выбора оси y – по числовым мерам (для линейного графика). Добавьте пузырьковую диаграмму с выбором осей и радиуса по мерам. Создайте диаграмму, которая отражает топ-15 стран по популяции. Постройте круговую диаграмму по популяциям на континентах. Для 3, 4 и 5 пунктов реализуйте возможность выбора года (через экшен – кросс-фильтр). Итого: 4 диаграммы, 6 элементов управления.
Решить экзамен. Пожелания и особенности: Надо написать тест (экзамен) по анализу данных, искусственному интеллекту и генеративным моделям. Базовый уровень Экзамен проводится на английском языке, поэтому надо знать язык. дата экзаменов 26.05 и 28.05 с 12:00-15:00 (оба дня) Об экзамене: Экзамен включает в себя темы по: статистике, анализу данных машинному обучению. Предполагается, что для выполнения экзамена люди должны уметь использовать любое статистическое программное обеспечение, позволяющее обрабатывать данные, вычислять описательную статистику, строить визуализации и оценивать линейные и логистические модели (например, Python, R, Excel, Stata, SPSS). Во время экзамена можно использовать специально разработанные методические материалы. Материалы включают в себя возможные вариации терминологии, а также основные формулы. Темы на экзамене: Статистика 1. Сбор данных. Выборка и генеральная совокупность. Репрезентативность выборки. 2. Частотные таблицы и распределения. Непрерывные распределения. Функция плотности. 3. Корреляция Пирсона. 4. Проверка гипотез. Статистическая значимость. p-значение. 5. Ошибки первого и второго типа. 6. Доверительные интервалы на основе Z- и t-распределений для среднего и доли. 7. Z-тест и t-тест для одной выборки и для двух независимых выборок с одинаковой дисперсией. 8. Хи-квадрат тест Пирсона. Анализ данных 9. Обработка данных: агрегирование данных, фильтрация, создание новых переменных, работа со сводными таблицами. 10. Типы переменных. Меры центральной тенденции и дисперсии. Обнаружение провалов. Работа с выбросами. 11. Визуализация. 12. Обнаружение пропущенных значений. Обработка пропущенных значений: стратегии удаления и замены. 13. Машинное обучение 14. Определение задачи машинного обучения. Типы задач машинного обучения. 15. Алгоритм k-nearest neighbors. 16. Линейная регрессия. Интерпретация коэффициентов линейной регрессии. 17. Метрики оценки: MSE, MAE, R2. 18. Логистическая регрессия. 19. ROC-кривая. Файл с демо экзамена https://colab.research.google.com/drive/19s_xdeJaSUFI0Olk_VLYl80zYcm7Ypet.
анализ данных. Вы работаете аналитиком компании, которая занимается цифровым обучением. Руководство хочет понять, есть ли факт фальсификации обучения, аномалии в данных и просит Вас проанализировать данные, которые хранятся в базе. Что нужно сделать: Изучите данные и подготовьте ответы на вопросы руководства. Вы можете использовать любой инструмент. Вопросы: 1.1 Какое среднее, минимальное и максимальное время прохождения курса? Есть ли аномально короткие или длинные прохождения? Какой вид имеет распределение времени прохождения? 1.2 Какое среднее, минимальное и максимальное количество попыток? Есть ли аномалии в данных? Какой вид имеет распределение количества попыток? 1.3 Какой средний, минимальный и максимальный процент прохождения? Есть ли аномалии в данных? Какой вид имеет распределение процента прохождения? 1.4 Какая средняя, минимальная и максимальная оценка? Есть ли аномалии в данных? Какой вид имеет распределение оценок? 1.5 Существует ли корреляция между количеством попыток и временем прохождения? 1.6 Существует ли корреляция между процентом прохождения мероприятия и оценкой за мероприятие? 1.7 Выделите из наименования мероприятия дорогу. Ответьте на вопросы выше отдельно для каждой дороги. Выделите ТОП-5 дорог с наименьшим средним временем прохождения мероприятий. 1.8 * Изучите датасет. Выявите некорректные / аномальные данные по Вашему мнению. Сделайте выводы. Пример: https://colab.research.google.com/drive/1FjcMxTWJOstRXRvm9CbSkYuYqDV4YuNA?usp=sharing Используя корпоративный стиль компании визуализируйте получившиеся результаты или их часть в виде диаграмм и расположите их на одном экране или соберите дашборд Исходные данные указаны в ссылках в файле "анализ данных" Подготовить отчет о проделанной работе по шаблону во вложении.
Data Science. Разработка с нуля. 🟢 ИЩУ BI-АНАЛИТИКА ДЛЯ ЯНДЕКС DATALENS (WB, e-commerce) 📌 Задача: Нужно собрать MVP-дашборд на базе Яндекс DataLens для Wildberries. Есть 2 таблицы в Google Sheets (финансовый и ежедневный отчет). Нужно подключить их к DataLens и построить визуализации по ключевым метрикам. 📁 Что есть: Показано в видео https://drive.google.com/file/d/1aCot_BEJgtBBswhSoxX8chW9yZuvz_85/view?usp=sharing Обязательно посмотрите предварительно 🧩 Что нужно сделать: - Подключить таблицы к DataLens через стандартный коннектор - Настроить набор данных: типы полей, расчетные показатели (ROI, прибыль и т.д.) - Построить 2 дашборда: 📊 Финансовый — выручка, чистая прибыль, расходы, ROI по неделям/месяцам 📈 Операционный — ежедневные продажи, прибыль по товарам, возвраты - Добавить фильтры: по дате, категории, SKU - Оформить визуально удобно и читаемо ✅ Ожидаемый результат: Готовые, понятные дашборды в DataLens 💰 Бюджет: Готовы обсуждать в зависимости от опыта и скорости 🧠 Требования: - Опыт работы в Yandex DataLens (обязателен) - Знание e-commerce и маркетплейсов — будет плюсом - Обязательно: наличие кейсов/портфолио с дашбордами Откликаться просьба только с портфолио и кратким описанием опыта.
Доработка существующего продукта, Работа с данными в Excel. Конечная задача для аналитика - вычислить оборот по клиентам за первые 3 месяца с момента активации в зависимости от источника лида. Последовательность задач: Данные нужно сначала почистить и подготовить таблицу. В первой вкладке данные по оборотам клиентов помесячно за 2022-2023, во второй вкладке август-октябрь 2023 (отсутствует ноябрь и декабрь 2023, найду), в третьей вкладке 2024 год (кол-во заказов - лишние данные). Нужно Обьединить данные по продажам по месяцам по клиентам в одну таблицу общую через функцию ВПР по графе наименования клиента или по e-mail. Заполнить столбец с источником откуда пришел клиент, взяв данные из выгрузки CRM с источниками лидов. объединять на основе Мейла клиента или названия юрлица. Посчитать продажи за первые три месяца активации клиентов. Месяц активации - это первый месяц, в котором оборот больше нуля. Далее суммируем с последующими двумя месяцами (в них может быть и не быть продаж). Цель - вычислить оборот за три первых месяца включая месяц активации и вывести результат в отдельном столбце с возможностью разбивки по источникам. В файле удалены контактные данные, полный файл пришлю исполнителю.
Почему стоит искать работу для фриласнеров по профилю data scientist в России у нас?
🔸 Более 2 предложений о работе за сегодня в тематике data scientist
🔸 Работа и подработка на бирже фриланса от прямых заказчиков, которым нужна помощь специалистов по профилю data scientist уже сегодня!
🔸 Свежих заказов на data scientist в России для фрилансеров на апрель 2026 года — 134 шт.
Как найти удалённую работу для фриланс-специалистов по профилю data scientist в России?
Вы специалист по data scientist и ищете проекты и заказы на удалёнке в России? Нам всегда есть что вам предложить. Ежедневно мы публикуем новые проекты и заказы по вашей специальности. Найдите интересную работу уже сегодня
Сколько проектов для IT-специалистов по профилю data scientist в России?
На апрель 2026 года опубликовано 134 предложений удалённой работы от прямых заказчиков для исполнителей по специализации data scientist
Сколько можно заработать выполняя проекты по data scientist?
Специалисты по профилю data scientist зарабатывают от 0.00 рублей с заказа. Хотите больше? Выполняйте как можно больше заказов и зарабатывайте сколько пожелаете