Домашнее задание. Необходимо выполнить 2 домашних задания по анализу данных в loginom. Пример одного из них прикрепила. Второй проще, там есть инструкция к выполнению))).
Data Science. Выполнить практическую работу (вуз). Задание № 1 1.1 В таблицу на листе "Выгрузка" необходимо подтянуть данные о продукте со страницы "Продукт" 1.2 Расчитать SLA для каждого лида в минутах (SLA =Дата для SLA - Дата создания лида) 1.3 Построить дашборд, который отражает качество работы операторов и позволяет сделать управленческие выводы 1.4. Сделайте аналитические выводы для принятия решения по качеству работы операторов, учитывая, что цель по времени отработки лида не более часа.
решить тест. Мне нужно, чтобы вы прошли мне промежуточный ассесмент (то есть тест) Там будут вопросы про питон и про машинное обучение. Я скину вам вопросы и в течение часа нужно будет решить Там будут варианты ответа Примерный список тем по МО и питон могу скинуть Также могут быть какие то общие вопросы про компетентность специалиста Data Science Попытка всего одна, плохо написать нельзя. Правильных ответов нужно где-то 80%, то есть большая часть.
Data Science. Разработка с нуля, тестирование, настройка. Создание простой интуитивной базы данных по ценам в отелях, доступ по ключу, без ограничения кол-ва пользователей, с возможностью дополнения/изменения тарифов. Пожелания и особенности: Создание простой интуитивной базы данных по ценам в отелях, доступ по ключу, без ограничения кол-ва пользователей, с возможностью дополнения/изменения тарифов.
Data Science. Разработка с нуля. Создание ПО по учету сотрудников. Программа должна быть написана с помощью pyqt5. Включает базу данных(сохранение и вывод данных), вкладки отделов, возможность добавление и удаления вкладок отделов, таблицу(пример скину при обсуждении), возможность редактировать таблицу.
Отобрать оптимальные каналы и тайм-слоты на этих каналах для размещения в ЦГ. Каждая группа получает свои ЦГ, мотивирует выбор канала/ов интерпретацией статистик. Лист 3. Выбрать из общей выгрузки бренды соответствующих товарных категорий. Будет направлен рабочий файл для аналитики данных с mediascope.
Data Science. Настройка. Мне нужно помочь удаленно настроить vpn на облачном сервере. Также требуется объяснение как запустить на нем программу на python на этом же сервере. Программа управляет чат ботом.
Data Science. Разработка с нуля. Нужно создать визуал статистики проекта. Порядка 20-40 параметров статистики/данных Стильно и клево это визуализировать на каком-либо сервисе для создания дашбордов. От вас нужна инфа, в каком виде и как предоставить данные, которые вы будете использовать при создании дашборда В итоге результат: Сервис дашборда берет данные(динамические) и красиво, наглядно визуализирует где-то по ссылке. Точного расписанного тз не будет, готовы платить почасовку и давать задачи на 1-2 дня. Адекватно понимаю размытость задачи) ранее с внешними дашбордами не работали, поэтому нужен тот, кто "на опыте" и сможет сам подсказать, как сделать круче).
Data Science. Настройка. Вроде простая задача. Есть файл csv с двумя полями: артикул и ссылка на фото товара. И есть таблица эксель с тремя полями: артикул, цена, количество. Надо в таблицу эксель перенести ссылки на фото товара в зависимости от артикула.
Разработка с нуля. Необходимо сделать небольшое практическое задание: Создайте новую папку на компьютере. В эту папку сохраните датасет, пакет Loginom и необходимые библиотеки внешних компонентов. При создании сценария присваивайте узлам имена, отражающие их смысл. Архив этой папки вы отправите в качестве решения контрольной работы. Аналитик работает с транзакционными данными по электронной коммерции. Аналитику необходимо провести анализ ассортимента товаров. Цель - провести АВС-анализ товаров и найти товары, которые покупатели регулярно приобретают вместе. Задачи: Загрузка и подготовка данных к анализу 1) Загрузить датасет 2) Очистить и подготовить данные к анализу Провести анализ вклада каждого вида товаров в общий объем выручки за 2010 и 2011 годы 3) Подготовить данные к анализу и провести АВС-анализ. В группу «А» войдут товары, с кумулятивной долей выручи - 75%, «В» - 15%, а в «C» - 10%. 4) Найти товары, которые в 2010 году входили в категорию «С», а в 2011 в категорию «А». Найти ассоциативные правила в чеках 5) Найти ассоциативные правила, где достоверность правила будет выше 60%. Датасет в формате .lgd здесь прикрепить не могу, отправлю лично.
Разработка с нуля. Добрый день, нужен эксперт по построению комьюнити (развитие) для консультации - как создавать сообщество Как развивать динамику Напишите ваш ценник и также варианты, что вы делаете.
Data Science. Магистерская диссертация по базам данных для банковской сферы. Магистерская диссертация по системам управления базами данных в финансовой сфере (специализация цифровая экономика).
Data Science. Доработка существующего продукта. Необходимо следовать инструкциям чат-бота в телеграмм и установить частный VPN с демонстрацией, как в нем работать в качестве администратора.
Data Science. Разработка с нуля. Разработка нейросети ML для анализа данных. Установление закономерностей. Очистка и подготовка данных. Обучение. Подготовка отчетов.
Анализ данных. Введение В октябре 2023 магазин открылся в Москве. У тебя есть данные о продажах с момента открытия. Для того чтобы понять сколько компания может тратить на привлечение клиента, необходимо понять сколько в среднем компания зарабатывает и может заработать в будущем с одного клиента. Термины Контрагент – клиент Розничная продажа – продажа в офлайн магазине Отгрузка – продажа с доставкой Возврат покупателя – покупатель вернул товар и получил деньги обратно (Поле Связанная_продажа – указывает на конкретную продажу по которой совершается возвра) Можно задавать вопросы, если потребуются уточнения Задания 1. Проанализировать данные и посчитать на основе данных прибыль с одного клиента 2. Что ты можно сказать о возвращаемости клиентов? 3. Какие дополнительные выводы ты можешь сделать из данных? 4. Какие еще данные могут быть нужны для того чтобы точнее ответить на вопрос “сколько компания может тратить на привлечение одного клиента”? Ответ необходимо представить в виде pdf файла с объяснением расчетов и всеми необходимыми пояснениями и выводами. Можно также приложить дополнительные файлы, если есть необходимость.
Получение и обработка данных. Необходимо найти и выгрузить в виде excel-таблицы данные о российском фондовом рынке. Условия задачи: 1. За период с 01.01.2001 по 31.12.2023 необходимо получить данные об акциях всех публично обращаемых на российском фондовом рынке российских компаний по состоянию на закрытие каждого торгового дня. Требуемые данные: тикер, название, кол-во сделок за день, общая сумма стоимости сделок за день, стоимость одной акции по состоянию на закрытие торгового дня, размер выплаченного дивиденда на одну акцию. 2. За тот же период необходимо выгрузить информацию о дроблении и укрупнении акций 3. За тот же период необходимо выгрузить информацию о смене тикера Ожидаемый результат: 1. Excel-файл со всеми требуемыми данными 2. Код, использованный при получении данных.
Data Science. Разработка с нуля. Нужно написать скрипт на Питон который при помощи Google Maps API выгрузит все салоны, барбершопы и тд: 1. в области Галисия (Ла Корунья) 2. В Испании в целом Данные соберет в CSV файл. Я не знаю как происходит выгрузка, по ключевым словам или по категориям. Обсудим этот момент с кандидатом. Если по ключевым словам, то список ключевых слов: barbershop beauty center beauty salon centre de bellesa hairdresser hairdressing salon peluquera perruqueria spa Заказ не сложный и бюджета нет) Пишите свою цену если больше или меньше, моя цена 1000 рублей.
Разработка с нуля. Необходимо разработать алгоритм/алгоритмы фильтрации выбросов, связанных со снижением потребления газа из-за ППР* на примере приложенных к заданию наборов временных рядов по трем ситуациям: 1. Равномерное потребление; 2. Растущее потребление; 3. Сезонное потребление. Формат предоставления результатов: краткое описание алгоритма/алгоритмов с приложением соответствующего программного кода (код на вход должен получать соответствующие файлы с данными и визуализировать результаты работы). *ППР – это частичное или полное сокращение объемов потребления на период проведения работ.
Data Science. Конвертация данных. Добрый день! Нужна помощь в написании скрипта на Python или R для взаимной конвертации файлов в форматах txt/tsv/h5ad. При этом необходимо учесть возможность добавления/удаления столбцов и строк. Даже для начинающего специалиста простейшие задачи, однако, если не знаком - самостоятельно не получается. Скрипт должен уметь: 1) Открывать для просмотра данные во всех перечисленных форматах 2) Добавлять/удалять столбцы/строки 3) Фильтровать строки по списку 4) Транспонировать таблицу столбцы/строки в строки/столбцы без потери смысла 5) Сохранять преобразованные данные в формате h5ad или hdf5.
Разработка с нуля, научить меня скачивать данные через API и приобразовывать их. Мне нужно научиться скачивать данные фондового рынка (исторические данные по торгам) с сайта Московской биржи или с Тинькоф API https://www.tinkoff.ru/invest/open-api/ Данные надо скачивать в google таблицы или в xls. Можно и в Питон. данные - исторические данные по торгам и их анализ. Мне нужно, чтобы человек показал, объяснил и научил меня это делать.
Data Science. Разработка с нуля. Разработка сайта с личным кабинетом для проведения соревнований + мобильное приложение + отдельная программа для ведения протоколов, регистрации участников как офлайн так и онлайн с сайта, подробнее могу всё рассказать как вижу.
Data Science. Разработка с нуля, настройка. Необходимо создать отчет в Looker studio. Данные должны передаваться из воронки в Битрикс 24 - по сути это отслеживание перехода сделок из стадии в стадию с выведением итоговых конверсий.
Доработка существующего продукта. Добрый день, подскажите, есть ли возможность помочь выполнить и объяснить задание , которое мне отправила фирма, в которую я собеседовалась. Тема: стандартизация данных и создание модели прогноза данных.
Сбор данных. Необходима помощь в сборе данных с периодичностью месяц/год по индексу качества воздуха определённых городов, количеству газовых выбросов, безработицы, индексу качества городской жизни (выборка около 40 городов, с 2013 по 2023 г).
Разработка с нуля, тестирование, настройка. Нужен тьютор, репетитор, консультант для помощи в анализе данных по персоналу. У меня есть рабочая задача, которая требует экспертизы в аналитике данных, Power BI. Ближайшая цель - построение дашбородов. При отклике пришлите, пожалуйста, примеры ваших дашбородов. Также более сложная задача - выявить закономерности между разными базами данных. Мне нужно, чтобы человек помог проанализировать и выявить, что ещё можно достать из этих баз данных. А также я сейчас определяю метрики для дашбордов. Нужен бизнес-ориентированный взгляд со стороны. В идеале: У вас есть базовое в математике, либо в статитиске, опыт в программировании (R, Python, SQL), умеете работать в PowerBi и строить дашборды. Возможно вы дата аналитик в IT. Очень важен опыт реальных проектов в бизнесе.
Разработка с нуля. Создать базу данных и дашборд для анализа кассовой отчетности Исходные данные: Мы имеем массив первичной кассовой отчетности по ряду магазинов, с артикулами sku и рядом параметров продаж, тов. категория, объем продаж, цена продаж и пр. Формат данных: Excel - Часть параметров sku типа: вес, тип упаковки, вкус, бренд и пр. не выделены в массиве отдельными столбцами. - Часть информации о параметрах содержится в названии sku, часть не содержится. - В массивах разных магазинов, товары (sku) названы по разному, и их невозможно сравнивать. Требуемый результат: - Сделать удобный инструмент слияния всех данных из Excel в SQL базу, с интуитивно понятным инструментом управления информацией, в виде дашборда. Чтобы информацию из базы могли запрашивать сотрудники компании не знающие SQL. - Из описаний sku извлечь часть параметров и вывести их в отдельных столбцы базы данных - Остальные столбцы, не содержащиеся в описании sku, заполнить, идентифицировав данные - В базе данных каждого магазина, из описания каждого sku извлечь информацию о параметрах sku (например: Бренд, или вес), разнести всю информацию по параметрам в отдельные столбцы - Недостающую информацию об sku подтянуть с внешних сайтов (онлайн магазины или сайты производителя). При этом нужно будет предварительно идентифицировать sku, найти и скачать парсером полноценное описание, разнеся его по требуемым параметрам. - Пользуюсь развернутым полноценно заполненным массивом, идентифицировать одинаковые позиции во всех магазинах и привести к единому каталогу sku. - Полученную единую базу данных SQL, привести в формат дашборда, где можно анализировать сводную статистику по всем параметрам, проводить расчеты долей, ценовые сравнения, смотреть динамику, визуализировать и скачивать первичные и сводные данные. Готовить шаблонные отчеты по анализу всей базы. - Обучить нескольких специалистов (прошедших курсы дата-аналитиков) управлению базой. - Далее оставаться на связи для доработок полученной базы и новых контрактов. Это лишь первое наше задание. - Если можно использовать готовый код, шаблоны дашбордов, каталоги squ. Это было бы идеально, если хотя-бы часть уже готово - тоже отлично.
Проверка гипотез. Проведите разведочный анализ данных и проведите проверку гипотез. Формат решения: Формат файла — Jupyter Notebook. Содержание — код для чтения, обработки и EDA; получившиеся графики и текстовые комментарии, а также выводы по данным. Результаты проверки гипотез в формате «Гипотеза — Статистические критерий и тест — Результат теста — Текстовая интерпретация результата». Проведите базовую чистку (дубликаты, пустые значения, типизация данных, ненужные атрибуты). Проведите проверку следующих гипотез: Органический трафик не отличается от платного с точки зрения CR (Conversion Rate) в целевые события. Трафик с мобильных устройств не отличается от трафика с десктопных устройств с точки зрения CR (Conversion Rate) в целевые события. Трафик из городов присутствия (Москва и область, Санкт-Петербург) не отличается от трафика из иных регионов с точки зрения CR (Conversion Rate) в целевые события. Ответьте на вопросы продуктовой команды: Из каких источников (кампаний, устройств, локаций) к нам идёт самый целевой трафик (и с точки зрения объёма трафика, и с точки зрения CR)? Какие авто пользуются наибольшим спросом? У каких авто самый лучший показатель CR (Conversion Rate) в целевые события? Стоит ли нам увеличивать своё присутствие.
Data Science. Доработка существующего продукта, разработка с нуля. Есть код, который выводит информацию с гугл-таблицы в массив. Нужно написать код, который определённую информацию по запросу пользователя. Массив данных хранит информацию о рассписании, пользователь запрашивает информацию о дне или о дисциплине. Подробности в лс.
Почему стоит искать работу для фриласнеров по профилю data scientist в России у нас?
🔸 Более 4 предложений о работе за сегодня в тематике data scientist
🔸 Работа и подработка на бирже фриланса от прямых заказчиков, которым нужна помощь специалистов по профилю data scientist уже сегодня!
🔸 Свежих заказов на data scientist в России для фрилансеров на май 2026 года — 164 шт.
Как найти удалённую работу для фриланс-специалистов по профилю data scientist в России?
Вы специалист по data scientist и ищете проекты и заказы на удалёнке в России? Нам всегда есть что вам предложить. Ежедневно мы публикуем новые проекты и заказы по вашей специальности. Найдите интересную работу уже сегодня
Сколько проектов для IT-специалистов по профилю data scientist в России?
На май 2026 года опубликовано 164 предложений удалённой работы от прямых заказчиков для исполнителей по специализации data scientist
Сколько можно заработать выполняя проекты по data scientist?
Специалисты по профилю data scientist зарабатывают от 0.00 рублей с заказа. Хотите больше? Выполняйте как можно больше заказов и зарабатывайте сколько пожелаете