IOS Swift - доработать алгоритм снятия пульса через камеру телефона
Мы (www.dc1ab.com) делаем iOS приложение которое помогает определить уровень кардио-здоровья пользователя без устройств – только с помощью камеры телефона. Приложение рассчитывает пульс с картинок снятых камерой телефона через алгоритмы photoplethysmography, после очищения этих данных от шумов и преобразования через фильтры.
Это прототип приложения: https://itunes.apple.com/app/id1194600558
Приложение выше работает в плане сьема пульса, но не очень хорошо. Мы уже переписали его на Swift, и теперь нам нужен разработчик который сможет взять написанный код и довести кусок связанный со сбором данных о пульсе до уровня качества вот этих приложений (вне зависимости от амбиентного освещения, позиционирования пальца, цвета кожи и тд):
https://itunes.apple.com/app/id409625068
или
https://itunes.apple.com/app/id686923970
На эту тему есть масса научных бумаг и работ на github. Мы использовали этот процесс в разработке своих алгоритмов:
https://www.marcoaltini.com/blog/heart-rate-variability-using-the-phones-camera
Будем готовы поделиться кодом что бы оценить фронт работы.
Прототип приложения будет использован в лабораторном тестировании в Январе, так что времени осталось не очень много. Если сработаемся, то будем рады продолжить работу над этим проектом дальше.
Спасибо,
Женя