Разработка с нуля. О проекте Мы создаём сервис анализа маммографических изображений (DICOM) на основе модели классификации, обученной в федеративной постановке на аннотированных данных партнёров. Сервис предназначен для повышения качества и доступности маммографического скрининга в РФ и станет основой для дальнейшего развития федеративного обучения в медицинских ИИ-приложениях. После предыдущего НИР подтверждена возможность адаптации модели классификации маммограмм к существующим фреймворкам FL. На текущем этапе нам нужен специалист, который сможет довести модель до промышленного уровня качества, провести федеративное обучение и создать полноценный работающий сервис с Grad-CAM визуализациями. ? Обязанности 1. Модель и федеративное обучение Обучение модели классификации маммограмм на 2 класса (BI-RADS 1–2 / 4–5) в федеративной постановке; Подбор параметров федеративного обучения: — баланс классов клиентов, — количество раундов, — алгоритм агрегации весов, — количество локальных эпох, — размер батча; Работа с аннотированными данными на инфраструктуре заказчика; Использование открытых датасетов (VinDr, INBreast) и подготовка данных согласно требованиям ТЗ; Обеспечение достижения минимальных метрик: — sensitivity ? 0.82 — specificity ? 0.82 — accuracy ? 0.82 — ROC AUC ? 0.9 Оптимизация модели для скорости работы ? 2 секунд на сервере с GPU Nvidia L40. 2. Разработка экспериментального сервиса Создание рабочего сервиса классификации маммограмм на основе обученной модели; Реализация поддержки формата DICOM, проекций CC и MLO, определение laterality; Реализация Grad-CAM тепловых карт; Создание пользовательского интерфейса для загрузки изображений и отображения результатов. 3. Разработка ПО и скриптов Подготовка программных модулей и скриптов (.py / .ipynb) для: — формирования confusion matrix, — формирования реестра результатов анализа (дата, ID пациента, исследование, класс и вероятность, время обработки), — обработки директории пациентов с 4 проекциями, — фильтрации данных по временным диапазонам. 4. Документация Участие в подготовке полного комплекта документации: ТЗ на разработку сервиса; Описание ПО; Руководство оператора; Программа и методика тестирования; Протоколы и акты тестирования; Акт создания экспериментального образца. 5. Поддержка Участие в исправлении ошибок сервиса в течение 12 месяцев после завершения проекта. ? Требования Обязательные Уверенный опыт разработки моделей компьютерного зрения (CNN, medical imaging); Опыт работы с медицинскими изображениями, желательно DICOM; Опыт работы с фреймворками федеративного обучения (например: Flower, FedML, PySyft, FederatedScope); Умение достигать целевых метрик на реальных и открытых медицинских датасетах; Отличные знания PyTorch / TensorFlow; Опыт оптимизации моделей для inference на GPU; Умение реализовывать Grad-CAM; Опыт разработки backend-части сервисов (FastAPI / Flask); Умение оформлять НИОКР-документацию. Желательно Опыт работы в медтехе, радиологии, скрининговых системах; Знание BI-RADS; Опыт интеграции медицинских ИИ-моделей в клинические сервисы; Опыт работы с VinDr, INBreast и другими наборами маммограмм; Знание требований по лицензированию ИИ-ПО.
Data Science. Доработка существующего продукта. Нужно доработать уже функционирующий бот, также нужен хотя бы небольшой опыт в трейдинге, или понимание процессов финансовых рынков.
Data Science. Настройка. Ищем специалиста который сможет реализовать механизм, который будет синхронизировать данные о ценах из таблицы (Google Docs) с сайтом в автоматическом режиме. Наш сайт реализован на платформе Битрикс, прайс-лист с актуальными ценами ведется в таблице Google docs Основные задачи: - Система должна использовать в качестве источника данных таблицу Google Docs (предпочтительный вариант) - Для сопоставления товаров в таблице и на сайте должен использоваться уникальный ключ (например, Артикул товара, ID товара или SKU). - Цены на сайте должны обновляться автоматически при сохранении изменений в таблице. - Система должна проверять таблицу на наличие изменений с заданной периодичностью (например, каждые 10 минут) или мгновенно обновлять цены по триггеру (вебхуку) при редактировании таблицы (для Google). - При обнаружении изменений система должна найти соответствующий товар на сайте по уникальному ключу и обновить его цену. - Если товар с таким ключом на сайте не найден, в log должно быть записано предупреждение. - Если цена в таблице пустая или равна 0, система должна установить для него статус "Нет в наличии" (настраиваемое правило). - Система должна корректно обрабатывать ошибки (отсутствие интернета, недоступность таблицы или сайта, неверный формат данных) и уведомлять администратора по email/в телеграмм. Готовы рассмотреть ваше предложение по цене!.
Data Science. Разработка с нуля. Программа учета эффективности работы кураторов на основе ексель. Основные направления план факт остаток. Чтобы можно было выгружать статистику.
Data Science. Разработка с нуля. Функционал бота (ассистент юриста): 1. Общение с клиентом и сбор его данных в формате диалога/вопросов. Данные могут даваться в произвольной форме: сообщение, документ, фото. 2. Анализ ситуации клиента и поиск по базе знаний подходящее решение и документ. 3. Автоматическое оформление документа по данным клиента 4. Анализ ситуации и документа и прогнозирование результатов 5. Выстраивание стратегии, планирование и создание расписания. Цена договорная, желательно пишите.
Доработка существующего продукта, настройка, тестирование. Обязанности: • Создание, настройка и поддержка ETL и ELT — процессов. • Мониторинг работы аналитического контура ГИС ЖКХ. • Контроль качества данных, очистка данных. • Организация пайплайнов потоков данных. • Разработка и поддержка ВЕБ-сервисов, API и CLI для работы с данными. • Написание SQL запросов к БД. • Написание кода на Python в ETL - инструментах (например, DAG Apache Airflow и пр). • Участие в создании, описании, оптимизации и доработке структур хранения данных. • Участие в администрировании и оптимизации работы используемых СУБД. • Подготовка аналитических материалов в части работы ETL — процессов. • Подготовка предложений по оптимизации и совершенствованию существующих процессов управления данными. Требования: • Глубокие знания и опыт использования таких инструментов инструментов: Apache Kafka, Apache Airflow, Apache Nifi, Debezium • Знание основ построения баз данных (опыт работы с СУБД PostgreSQL, ClickHouse, Greenplum) • Знание основ построения аналитических хранилищ (Data Warehouse) • Уверенные знания SQL • Уверенные знания Python. Опыт работы с библиотеками Pandas, NumPy, SciPy и др. • Опыт работы с ОС Windows и Linux. • Умение работать с любыми источниками данных, в том числе не формализованными, загружать информацию с ВЕБ сайтов, FTP серверов, парсить HTML, XML, загружать данные из MS Excel и пр. • Аналитическое мышление, умение работать с большими объемами данных Будет плюсом: • Опыт работы Pentaho Data Integration, • Опыт работы со Spark, Livi, • Опыт работы с BI - системами. • Опыт работы в компании МегаФон.
Data Science. Разработка с нуля. Требуется реализация небольшого проекта под ключ: Alive Tag — это система для возврата потерянных вещей с помощью QR-кодов. На каждой метке напечатан уникальный QR, ведущий на страницу вещи. Когда находчик сканирует код, открывается страница с описанием вещи и формой, через которую он может написать владельцу, не зная его личных данных. Владелец регистрируется через систему авторизации Alive ID, привязывает метки к своим вещам посредством ввода номера телефона / адреса электронной почты. Система состоит из: • веб-интерфейса для находчика (публичная страница вещи), • личного кабинета владельца (управление метками), • админ-панели для выпуска меток модерации и статистики. Технологически используется (предпочтительные технологии): • Backend — Node.js (NestJS), • Frontend — Next.js, • база данных — PostgreSQL + Redis, • авторизация — Alive ID (OIDC, JWT, MFA), • уведомления — e-mail и пуши, • хранилище — S3. Основные принципы: безопасность (HTTPS, подписи ссылок, антиспам), простота (скан → отображение данных), и полная защита личных данных. Этапы запуска: 1. MVP — регистрация, сканирование, отправка сообщения, уведомление владельцу на e-mail. 2. Кабинет владельца — управление метками и данными. 3. Добавление пуш-уведомлений, отчётов и локализации.
Data Science. Разработка с нуля. Название набора данных Источник данных (название платформы/организации) Прямая ссылка на данные (URL страницы, где можно скачать данные или получить к ним доступ) Лицензия (если указана: открытая лицензия, условия использования) Временной период (за какие годы/месяцы представлены данные) География (страна, регион, город) Дата последнего обновления (когда данные были опубликованы/обновлены).
Помощь с резюме и если возможно , трудоустройством на позицию ML engineer или DS. Пожелания и особенности: Нужен человек, который понимает как устроен HR отбор на позицию Ml/Ds и понимающий , как правильно нужно оформлять резюме для ПЕРВОЙ работы, все подробности про мой опыт могу изложить в сообщениях.
Data Science. Выгрузка данных. Пожелания и особенности: Необходимо выгрузить по API все принятые поставки из четырёх кабинетов (2 на Wildberries и 2 на Ozon) за период с 01.01.2025 по 23.10.2025. Формат: дата/кол-во/артикул/кабинет (пример в скрине).
Data Science. Нужно открыть файл с фото Компьютерной Тамографии. Пожелания и особенности: Есть электронное письмо с zip. Файлом КТ. Необходимо открыть файл и сохранить фотографии челюсти и зубов. Письмо с файлом перешлю вам на почту. Потому что сама не понимаю как его прочитать.
Data Science. Разработка с нуля, доработка существующего продукта. Нужно писать тз, взаимодействовать с разработчиком и тестировать доработки DWH. DWH состоит из слоя сырых данных, ядра и слоя витрин. Работа разовая, почасовая.
Разработка с нуля. Нужно воссоздать этот 1 переход и покачивание с эффектом после него, с помощью скрипта на питон 3.12, с помощью MoviePy 2.2.1. Только это, как на этом видео. 0.31-0.36 https://www.youtube.com/shorts/Z4dAhtTE6m4 Этот вырезанный фрагмент продублирую. Скриптом повторить, можно 2 любые картинки взять для теста.
Консультация, возможно доработка. Необходимо изучить существующие модели рекомендации последовательностей (GCN, DAGNN, SASRec, GRU4Rec и др.). Объяснить их архитектуру и работу модели DAGNN. Если найдутся ошибки или логические нестыковки, то хотелось бы их вместе устранить. (Но это за отдельную плату, сейчас нужна только консультация).
Почему стоит искать работу для фриласнеров по профилю data scientist в Москве у нас?
🔸 Более 8 предложений о работе за сегодня в тематике data scientist
🔸 Работа и подработка на бирже фриланса от прямых заказчиков, которым нужна помощь специалистов по профилю data scientist уже сегодня!
🔸 Свежих заказов на data scientist в Москве для фрилансеров на май 2026 года — 268 шт.
Как найти удалённую работу для фриланс-специалистов по профилю data scientist в Москве?
Вы специалист по data scientist и ищете проекты и заказы на удалёнке в Москве? Нам всегда есть что вам предложить. Ежедневно мы публикуем новые проекты и заказы по вашей специальности. Найдите интересную работу уже сегодня
Сколько проектов для IT-специалистов по профилю data scientist в Москве?
На май 2026 года опубликовано 268 предложений удалённой работы от прямых заказчиков для исполнителей по специализации data scientist
Сколько можно заработать выполняя проекты по data scientist?
Специалисты по профилю data scientist зарабатывают от 0.00 рублей с заказа. Хотите больше? Выполняйте как можно больше заказов и зарабатывайте сколько пожелаете